Ostatnio, podczas zabawy z Walrus, nagle uświadomiłem sobie pewien problem: na rynku jest mnóstwo artykułów mówiących o przechowywaniu w blockchainie, ale wydaje się, że niewiele osób naprawdę z tego korzysta. Wszyscy mówią o ideach, wizjach, ale gdy naprawdę musisz wrzucić kilka GB plików na łańcuch, odkrywasz, że rzeczywistość i wyobrażenie dzieli więcej niż jeden wymiar.
Projekt Walrus przyciąga mnie w prosty sposób - twierdzi, że może osiągnąć efekt 30-krotnej redundancji tradycyjnych rozwiązań przy 5-krotnych kosztach przechowywania, brzmi to jak "mogę wykonać pracę 30 osób, używając tylko pięciu". Ta technologia obiecuje wiele, ale bardziej interesuje mnie, jak to naprawdę działa w praktyce i jakie pułapki są, o których oficjalna dokumentacja nie wspomina.
Od instalacji do pierwszego udanego przesłania pliku, cały proces przebiegł bezproblemowo. Instalacja pliku binarnego za pomocą suiup, konfiguracja pliku client_config.yaml sieci testowej, a następnie zebranie kilku tokenów testowych z tap – podstawowy proces nie różnił się zbytnio od innych narzędzi blockchain. Jednak jeden szczegół zrobił na mnie wrażenie: narzędzie wiersza poleceń Walrusa zostało zaprojektowane z dużą powściągliwością. W przeciwieństwie do niektórych projektów, które upychają niemal każdą funkcję w jednym poleceniu, jego trzy główne operacje – store, fetch i info – są jasne i proste, minimalizując obciążenie poznawcze dla początkujących użytkowników.
Kiedy rozpocząłem testy, użyłem kilku małych plików jako próby – obrazów i dokumentów o rozmiarze od kilkuset KB do kilku MB – a prędkość przesyłania była akceptowalna. Po każdej operacji przechowywania system zwraca identyfikator blobu i identyfikator obiektu Sui. Pierwszy służy do pobierania danych, a drugi jest certyfikatem własności w blockchainie. Ta konstrukcja jest dość pomysłowa, oddzielając warstwę pamięci masowej od warstwy własności, zapewniając zdecentralizowane przechowywanie danych, a jednocześnie wykorzystując inteligentne kontrakty Sui do zarządzania uprawnieniami dostępu i cyklem życia.
Problem pojawił się, gdy próbowałem przesłać duży plik. Był to plik wideo o rozmiarze 13,6 GB, co według dokumentacji stanowi aktualny limit dla pojedynczego blobu. Cały proces przesyłania trwał prawie dwie godziny, z kilkoma wahaniami prędkości sieci. Na szczęście narzędzie CLI zdawało się mieć mechanizm ponawiania prób, więc nie doszło do spadku. Jednak gdy później sprawdziłem koszty przechowywania, odkryłem pierwszy nieoczekiwany problem: przy cenie 0,0001 WAL za MiB na epokę, przechowywanie pliku o rozmiarze 13 GB przez jedną epokę (1 dzień w sieci testowej, 14 dni w sieci głównej) wymagałoby około 1,4 WAL. Ta wartość sama w sobie nie jest wysoka, ale w przypadku długoterminowego przechowywania, takiego jak dwa lata (około 53 epok), koszty szybko by rosły.
Co ważniejsze, odkryłem, że model cenowy Walrusa zawiera w sobie ukryte założenie: musisz z góry wiedzieć, jak długo chcesz przechowywać swoje dane. To zupełnie inna sytuacja niż logika płatności za użytkowanie w tradycyjnym modelu przechowywania danych w chmurze. Dzięki AWS S3 możesz najpierw przesłać dane i płacić za ich użytkowanie, a dane mogą być nawet automatycznie archiwizowane w tańszej kategorii pamięci masowej. Walrus wymaga jednak podania liczby epok podczas przesyłania. Chociaż teoretycznie można odnowić umowę później, ogólne doświadczenie nie oferuje takiej elastyczności, jak w modelu płatności za użytkowanie. W przypadku scenariuszy aplikacji, w których cykl życia danych jest niepewny – takich jak treści generowane przez użytkowników lub eksperymentalne zestawy treningowe modeli AI – ten model przedpłaty wydaje się dość sztywny.
Z punktu widzenia pobierania, wydajność jest stosunkowo stabilna. Użycie funkcji pobierania Walrus z identyfikatorem obiektu Blob umożliwia pobieranie danych; prędkość zależy od wybranego węzła agregacji. Przetestowałem pobieranie kilku dużych plików ze średnią prędkością 5-8 MB/s. Jest to wolniejsze niż w przypadku komercyjnych sieci CDN, ale biorąc pod uwagę zdecentralizowaną sieć, jest to akceptowalne. Istnieje jednak pewien ukryty problem: jeśli aplikacja wymaga dostępu o niskim opóźnieniu, na przykład strumieniowanie wideo, obecna architektura Walrusa może sobie z tym nie poradzić. Chociaż oficjalna dokumentacja wspomina o usprawnieniach infrastruktury dla usług wideo, moje testy wykazały, że czas do pierwszego bajtu (TTFB) ulega znacznym wahaniom, wahając się od kilkuset milisekund do dwóch lub trzech sekund.
To prowadzi nas do porównania z konkurencją. Prawdopodobnie słyszałeś o Filecoin i Arweave; pierwszy działa na rynku handlu pamięcią masową, podczas gdy drugi koncentruje się na pamięci trwałej. Atutem Walrusa jest jego pozycjonowanie jako „programowalnej pamięci masowej”, wykorzystującej kontrakty Move firmy Sui do kontrolowania dostępu do danych i ich cyklu życia. Ta konstrukcja jest rzeczywiście innowacyjna, szczególnie w przypadku aplikacji korporacyjnych wymagających kontroli dostępu lub scenariuszy, w których konieczna jest dynamiczna regulacja dostępności danych w oparciu o zdarzenia w łańcuchu.
Mechanizm rynkowy Filecoina ma jednak przewagę, której Walrus obecnie nie jest w stanie dorównać: odkrywanie cen. Opłaty za przechowywanie danych w Filecoinie są ustalane na podstawie popytu i podaży; konkurencja między górnikami pozwala użytkownikom uzyskać niższe ceny. Obecne ceny w Walrusie są ustalone na poziomie protokołu, który, choć prosty i przejrzysty, nie daje możliwości dynamicznej optymalizacji. Po skalowaniu sieci, jeśli podaż pamięci masowej znacznie przekroczy popyt, te stałe ceny mogą stać się nieopłacalne.
Problem Arweave'a leży po drugiej stronie – jednorazowa opłata za trwałe przechowywanie brzmi kusząco, ale prawda jest taka, że większość danych nie musi być trwale przechowywana. Wiele danych treningowych sztucznej inteligencji, wyników eksperymentów, a nawet treści przesyłanych przez użytkowników ma zdefiniowany cykl życia. Chociaż model epoki Walrusa nie jest zbyt elastyczny, przynajmniej unika konieczności płacenia za niepotrzebną trwałość.
Zwróciłem szczególną uwagę na zastosowania Walrusa w dziedzinie sztucznej inteligencji, ponieważ oficjalny zespół promuje ten kierunek. Teoretycznie zdecentralizowane przechowywanie danych jest rzeczywiście cenne dla sztucznej inteligencji: źródła danych są weryfikowalne, uprawnienia dostępu programowalne, a szkolenie jest zabezpieczone przed przerwaniem przez pojedynczy punkt awarii. W praktycznych zastosowaniach platformy agentów AI, takie jak Talus, już wykorzystują Walrusa do przechowywania modeli i zbiorów danych, a Zark Lab pracuje również nad adnotacjami metadanych i usprawnieniem wyszukiwania.
Istnieje jednak problem praktyczny: trenowanie sztucznej inteligencji wymaga nie tylko dużej pojemności pamięci masowej, ale także dużej prędkości odczytu. Trenowanie dużych modeli wymaga odczytu ogromnych ilości danych z wysoką przepustowością, często sięgającą dziesiątek gigabajtów na sekundę. Wątpię, czy obecna architektura sieciowa Walrusa obsługuje ten poziom wejścia/wyjścia. Być może bardziej realistycznym scenariuszem jest wykorzystanie go w fazie wnioskowania – po wdrożeniu modelu, użycie Walrusa do przechowywania plików wag i bazy wiedzy, a następnie ładowanie ich na żądanie podczas wnioskowania. Takie podejście oferuje większą tolerancję na opóźnienia i lepiej wpisuje się w charakterystykę sieci zdecentralizowanych.
Kolejnym interesującym punktem był algorytm RedStuff firmy Walrus. To ulepszona wersja kodowania wymazywania Reeda-Solomona, zapewniająca wysoką dostępność przy zaledwie 4,5-krotnym narzucie na pamięć masową, co jest znacznie bardziej wydajne niż tradycyjna redundancja 10-30-krotna. Nie zagłębiałem się w szczegóły techniczne, ale w praktyce oznacza to, że nawet jeśli 66 na 100 węzłów ulegnie awarii, dane nadal będzie można odzyskać. Ta odporność na błędy jest kluczowa dla zdecentralizowanych sieci, ponieważ nigdy nie wiadomo, który węzeł może nagle przestać działać.
Jednak nawet najbardziej zaawansowane algorytmy kodowania nie są w stanie rozwiązać problemu efektu sieciowego. Obecnie Walrus ma nieco ponad 100 węzłów, a jego aktywnych adresów jest znacznie mniej niż Filecoina. Dane z DeFiLlama pokazują, że jego 24-godzinny przychód wynosi zaledwie 37 dolarów, a 7-dniowy – zaledwie 3140 dolarów, co jest całkowicie nieproporcjonalne do jego kapitalizacji rynkowej wynoszącej 254 miliony dolarów. Oznacza to, że rzeczywiste wykorzystanie jest nadal bardzo niskie; większość osób kupujących tokeny WAL prawdopodobnie spekuluje lub jest optymistycznie nastawiona do ekosystemu Sui, zamiast faktycznie używać ich do przechowywania danych.
Skoro mowa o ekonomii tokenów, to jest to kolejny obszar warty krytyki. WAL dysponuje całkowitą podażą 5 miliardów tokenów, a ich podaż w obiegu wynosi 1,58 miliarda. Główne wydarzenie związane z odblokowaniem tokenów jest zaplanowane na koniec marca tego roku – inwestorzy będą posiadać 350 milionów tokenów, co stanowi 7% całkowitej podaży. Chociaż zespół obiecał stopniowe udostępnianie tokenów, rynek jest zawsze wrażliwy na takie wydarzenia związane z odblokowaniem. Co więcej, głównymi zastosowaniami tokenów są opłaty za przechowywanie i staking. Jeśli wzrost liczby użytkowników nie będzie nadążał za udostępnianiem tokenów, presja sprzedaży będzie znacząca.
Potwierdzają to również wyniki cenowe. Po osiągnięciu 0,759 USD w maju, WAL gwałtownie spadł do 0,115 USD pod koniec grudnia, co stanowi spadek o prawie 85%. Chociaż niedawno odbił się do 0,156 USD, wciąż brakuje mu 79% do szczytu. Ta trajektoria jest bardzo podobna do tej, którą obserwuje się w przypadku większości nowych tokenów publicznych: początkowy szum medialny napędza wzrost ceny, po którym następuje długi okres odkrywania wartości, a dopiero po osiągnięciu realnych zastosowań i wzrostu liczby użytkowników może nastąpić druga fala wzrostów cen.
Z technicznego punktu widzenia architektury, głęboka integracja Walrusa z Sui to miecz obosieczny. Zaletą jest możliwość wykorzystania wysokiej przepustowości i niskich opóźnień Sui w transakcjach metadanych; wadą – dziedziczenie wszystkich ryzyk ekosystemu Sui. Jeśli Sui nie będzie się rozwijać zgodnie z oczekiwaniami lub jeśli konkurencyjne łańcuchy przeprowadzą destrukcyjny atak, Walrus znajdzie się w bardzo pasywnej pozycji. Chociaż oficjalnie określany jako niezależny od łańcucha, obecnie wydaje się, że jego podstawowa funkcjonalność nadal w dużym stopniu opiera się na kontraktach Move i modelu obiektowym Sui.
Sytuacja w społeczności jest dość interesująca. Oficjalne konto na Twitterze ma 420 000 obserwujących i przyzwoity wskaźnik zaangażowania, często angażując się w działania takie jak quizy i ankiety, aby podtrzymać zainteresowanie. Jednak bliższe przyjrzenie się komentarzom ujawnia, że jest stosunkowo niewielu zaangażowanych twórców. Większość dyskusji koncentruje się na spekulacyjnych tematach, takich jak ceny tokenów i harmonogramy odblokowywania. Z kolei społeczności Filecoin i Arweave prowadzą znacznie intensywniejsze dyskusje techniczne dotyczące optymalizacji pamięci masowej, algorytmów odzyskiwania i ekonomii koparek.
Wypróbowałem Walrus Sites, ich zdecentralizowane rozwiązanie hostingowe. Zasada działania polega na przechowywaniu statycznych plików stron internetowych w Walrus, a następnie uzyskiwaniu do nich dostępu za pośrednictwem określonego systemu nazw domen. Podczas testów napotkałem problem: mimo zdecentralizowanej struktury danych, rozpoznawanie nazw domen (DNS) i punkt wejścia nadal opierają się na tradycyjnej infrastrukturze internetowej. Jeśli region blokuje bramę wejścia, cała usługa staje się bezużyteczna. Jest to podobne do problemu z IPFS; samo zdecentralizowane przechowywanie danych nie wystarczy; cały łańcuch dostępu musi być zdecentralizowany, aby skutecznie przeciwstawić się cenzurze.
Kolejnym problemem jest łańcuch narzędzi programistycznych. Chociaż istnieje pakiet TypeScript SDK, a pakiet Rust SDK jest wciąż w fazie rozwoju, dokumentacja pozostaje w tyle za dojrzałymi projektami. Napotkałem kilka pułapek podczas integracji HTTP Publisher, takich jak konfiguracja funduszy dla podportfeli. Dokumentacja stwierdzała jedynie, że fundusze są wystarczające, ale nie precyzowała, ile to jest ani jak dostosować je do różnych równoczesnych klientów, co wymagało prób i błędów. Później znalazłem kogoś na GitHubie, kto wspomniał, że potrzebnych jest co najmniej osiem interfejsów użytkownika (SUI) i odpowiadające im pliki WAL, ale tak kluczowe informacje powinny być jasno określone w dokumentacji.
Kolejnym, często pomijanym punktem, jest prywatność danych. Bloby przechowywane w Walrusie są domyślnie publicznie dostępne do odczytu; każdy, kto zna identyfikator blobu, może je pobrać. Jeśli chcesz przechowywać poufne dane, musisz je samodzielnie zaszyfrować przed przesłaniem. Oficjalny pakiet SDK Seal zapewnia szyfrowanie progowe i kontrolę dostępu w łańcuchu, ale zwiększa to złożoność integracji. Z kolei połączenie Filecoin + IPFS nie oferuje natywnego szyfrowania, ale ekosystem oferuje już stosunkowo dojrzałe rozwiązania warstwy szyfrowania, które można bezpośrednio zastosować.
Z perspektywy kosztów, zakładając, że 1 TB danych jest przechowywany przez rok, Walrus wymagałby około 2600 tokenów WAL w sieci głównej (w oparciu o 0,0001 WAL/MiB/14-dniową epokę, co daje łącznie 26 epok rocznie). Przy obecnej cenie 0,156 USD, odpowiada to około 405 USD. Standardowa pamięć masowa AWS S3 o pojemności 1 TB kosztuje 276 USD rocznie plus opłaty za transfer danych, co daje łącznie nieco ponad 400 USD. Chociaż ceny wydają się podobne, S3 oferuje łatwo dostępną stabilność, szybkość dostępu i dojrzałość łańcucha narzędzi, podczas gdy Walrus jest wciąż na wczesnym etapie rozwoju. Dlatego ta analiza kosztów i korzyści nie jest szczególnie korzystna — chyba że głównym celem jest decentralizacja.
Jednak wartość zdecentralizowanego przechowywania danych nie powinna być mierzona wyłącznie kosztami. W pewnych scenariuszach, takich jak dystrybucja treści wymagająca odporności na cenzurę, transparentne i kontrolowane archiwizowanie danych lub krytyczne aplikacje z zerową tolerancją na pojedyncze punkty awarii, warto wydać więcej pieniędzy na te funkcje. Pytanie brzmi: jak duży jest ten rynek? Ilu użytkowników jest gotowych zapłacić za te funkcje?
Zauważyłem, że Walrus ostatnio promuje kierunek łączący agentów AI z technologią blockchain. Model teoretyczny jest następujący: autonomiczni agenci AI potrzebują zaufanych źródeł danych do podejmowania decyzji i uczenia się, a Walrus może dostarczać weryfikowalne dowody danych i logi dostępu on-chain. Brzmi obiecująco, ale do praktycznego wdrożenia jeszcze daleka droga. Obecnie większość agentów AI działa w sposób scentralizowany; nawet jeśli blockchain jest wykorzystywany do rozliczeń lub zarządzania, kluczowe wnioskowanie i szkolenie nadal odbywają się na serwerach w chmurze. Aby agenty były naprawdę zdecentralizowane, nie chodzi tylko o przechowywanie danych; obliczenia, sieciowanie, a nawet dystrybucja samego modelu muszą być zdecentralizowane – to projekt inżynierii systemów.
Patrząc na harmonogram, Walrus uruchomił swoją sieć główną w marcu ubiegłego roku i w niecały rok osiągnięcie takiego poziomu sukcesu jest już imponujące. Jedną z rzeczy, które szczególnie cenię w ich firmie, jest brak nadmiernych obietnic; plan działania w dużej mierze przebiega zgodnie z planem. W czwartym kwartale przeprowadzili benchmarking wydajności i integrację historyczną Sui, a w tym roku koncentrują się na skalowaniu – bardzo pragmatycznym podejściu. W przeciwieństwie do niektórych projektów, które zaczynają od deklaracji, że zrewolucjonizują świat, a potem znikają po sześciu miesiącach.
Jednak ten pragmatyzm niesie ze sobą również inny problem: brak momentów viralowych. W obecnej gospodarce uwagi projekty, które nie potrafią konsekwentnie generować szumu medialnego, są łatwo zapominane. Walrus ma solidne podstawy techniczne, ale jego marketing jest wyraźnie gorszy od projektów, które opierają się na memach, zrzutach i szumie medialnym. W rezultacie, pomimo 140 milionów dolarów finansowania i czołowych inwestorów instytucjonalnych, takich jak a16z i Franklin Templeton, konsekwentnie nie udało mu się zdobyć uwagi rynku.
Na koniec chciałbym wspomnieć o kilku drobnych problemach, z którymi spotkałem się podczas użytkowania. Po pierwsze, dane sieci testowej są okresowo czyszczone; jeśli przeprowadziłeś długoterminowe testy, pamiętaj o niezwłocznej migracji do sieci głównej lub wykonaniu kopii zapasowej. Po drugie, różne wersje plików binarnych i konfiguracyjnych mogą być niekompatybilne; najlepiej sprawdzić dziennik zmian przed aktualizacją. Po trzecie, jeśli pojawi się błąd taki jak „obiekt systemowy nie istnieje”, najprawdopodobniej jest to spowodowane nieprawidłową konfiguracją sieci; sprawdź, czy klient Sui łączy się z siecią testową, czy z siecią główną. Po czwarte, punkt końcowy wydawcy musi mieć ścisłą kontrolę dostępu; w przeciwnym razie nieautoryzowane składanie zamówień może wyczerpać Twój budżet na paliwo.
Ogólnie rzecz biorąc, Walrus wydaje się obiecującym, ale jeszcze nie w pełni dojrzałym produktem. Technologia, na której się opiera, jest dobrze rozwinięta, z innowacjami w zakresie kodowania RedStuff, integracji Sui i programowalnej pamięci masowej. Nadal jednak ma wiele do poprawienia pod względem doświadczenia użytkownika, optymalizacji kosztów i rozwoju ekosystemu. Nie jest to rozwiązanie, które można od razu zastąpić AWS S3; to raczej dedykowane narzędzie zaprojektowane do konkretnych scenariuszy – zwłaszcza tych wymagających decentralizacji i weryfikowalności.
Jeśli jesteś deweloperem i chcesz pracować z Web3 lub AI, warto rozważyć Walrusa. Ale jeśli szukasz po prostu taniej i niezawodnej pamięci masowej w chmurze, trzymanie się tradycyjnych usług może być lepszym rozwiązaniem. Innowacje technologiczne często nie polegają na liniowej wymianie, ale raczej na tworzeniu nowych paradygmatów aplikacji. To, jak daleko zajdzie Walrus, zależy od tego, czy uda mu się znaleźć ten przełomowy przypadek użycia – scenariusz, w którym ludzie myślą: „Tylko zdecentralizowana pamięć masowa to umożliwi”.
Czy będę nadal korzystać z Walrusa? Tak, ale bardziej do celów eksperymentalnych i edukacyjnych niż do wdrożenia produkcyjnego. Być może warto będzie postawić wszystko na jedną kartę, gdy jego ekosystem dojrzeje, sieć węzłów się rozszerzy, a narzędzia programistyczne staną się bardziej dopracowane. Na razie będę go obserwował, testował krok po kroku i zobaczę, czy znajdzie dla siebie drogę na tym zatłoczonym rynku.
Mówiąc wprost, zbyt wielu pionierów poległo na drodze do zdecentralizowanego przechowywania danych, a tylko garstka przetrwała i osiągnęła znaczącą skalę. Walrus ma przewagę technologiczną i finansową, ale nawet najlepsza karta jest tak dobra, jak to, jak się nią gra. Rynek da najbardziej rzetelną odpowiedź w ciągu najbliższego roku, zwłaszcza po dużym odblokowaniu w marcu. Poczekajmy, zobaczymy.
@Walrus 🦭/acc ja$WAL #Walrus


