Ostatnio, podczas przekształcania architektury projektu, ponownie wpadłem w słynną pułapkę „niemożliwego trójkąta” zdecentralizowanego przechowywania (DSN): jak utrzymać decentralizację, jednocześnie dbając o niskie koszty i błyskawiczne doświadczenie wyszukiwania? Przeszukałem istniejące główne rozwiązania, z których każde miało albo absurdalnie wysokie koszty interakcji, albo opóźnienia w odczycie, które były trudne do zniesienia, cały czas miałem wrażenie, że dzieli mnie jeszcze spora odległość od prawdziwej realizacji inżynieryjnej. Aż do momentu, gdy dokładnie przeanalizowałem dokumentację techniczną @Walrus 🦭/acc , szczególnie mechanizm przechowywania Blob oparty na ekosystemie Sui, nagle zdałem sobie sprawę, że ta koncepcja może być poważnie niedoszacowana przez rynek.

W przeszłości nasze myślenie często ograniczało się do „jak zmieścić wszystkie dane na łańcuchu”, ale w obliczu ogromnych ilości danych niestrukturalnych, tradycyjny model replikacji pełnych węzłów generował oczywiście liniowe koszty redundancji, które były nie do utrzymania. Odpowiedź Walrusa była bardziej zgodna z logiką inżynieryjną: radykalnie zastosował technologię kodowania z korekcją błędów (Erasure Coding), szczególnie opartą na schemacie kodowania RaptorQ. To podejście nie skupia się już na zachowaniu pełnej kopii w całej sieci, lecz rozbija duże dane, dzieli je na kawałki i efektywnie dystrybuuje, zachowując na łańcuchu jedynie minimalną ilość metadanych lub dowodów. Z matematycznego punktu widzenia, ten plan, który osiąga wysokie prawdopodobieństwo odzyskania przy minimalnych kosztach danych, jest znacznie bardziej elegancki niż po prostu gromadzenie sprzętu. To również skłoniło mnie do refleksji, że może dążenie do „pełnego łańcucha” samo w sobie jest fałszywym postulatem; efektywna dostępność danych (DA) w połączeniu z odseparowaną warstwą przechowywania to kierunek, w którym powinna ewoluować infrastruktura Web3.

Projekt architektury Walrusa, który oddziela zarządzanie metadanymi od rzeczywistego przechowywania Blob, jest również bardzo pomysłowy. Wykorzystując sieć Sui do koordynacji pracy, rozwiązał od dawna istniejący problem deweloperów dApp – brak miejsca na zasoby front-endowe i metadane NFT. Umieszczanie ich na warstwie 1 jest zbyt drogie, a na IPFS często prowadzi do załamania doświadczenia z powodu opóźnień w indeksowaniu. Mechanizm tolerancji błędów Walrusa to kolejny jego techniczny atut: system nie wymaga, aby wszystkie węzły przechowujące były na bieżąco online, wystarczy, że zbierze wystarczającą ilość fragmentów kodowania, aby natychmiast odbudować dane. Ta odporność nie tylko obniża próg wejścia dla węzłów, ale także zapewnia stabilność sieci.

Ostatnie dni w testowej sieci dały mi pewność, że sama technologia nie powinna dominować; najlepsza infrastruktura powinna być taka, aby deweloperzy czuli się „niewidzialni”. #walrus $WAL