Ciągle wracam do tego samego wąskiego gardła, kiedy myślę o budowaniu dla AI lub aplikacji Web3 o dużym obciążeniu, a jest to przechowywanie danych. Jest albo scentralizowane i ryzykowne, albo zdecentralizowane i boleśnie nieefektywne. Po zapoznaniu się z dokumentacją techniczną $WAL | Walrus i ich ogłoszeniami z zeszłego roku, to co wyróżnia się dla mnie, to nie tylko kolejna warstwa przechowywania, ale konkretny wybór inżynieryjny, który zmienia zasady gry w zwykłych kompromisach. Zespół w Mysten Labs nie tylko zoptymalizował istniejący model, ale zbudował nowy od podstaw, aby poradzić sobie z konkretnym chaosem sieci bez pozwolenia.
Większość zdecentralizowanych systemów przechowywania zmusza cię do wyboru swojej trucizny. Możesz mieć pełną replikację, jak w tradycyjnych blockchainach, gdzie dane są kopiowane do każdego walidatora. To daje ci doskonałą dostępność i prostą odbudowę, ale koszt jest absurdalnie wysoki, pomyśl o 25x replikacji lub więcej dla silnego bezpieczeństwa. Drugą drogą jest kodowanie z erasure, które dzieli dane na kawałki, więc nie potrzebujesz pełnych kopii. To jest znacznie bardziej efektywne w przechowywaniu, ale historycznie rozpada się, gdy węzły w sieci zmieniają się. Odbudowanie utraconego kawałka wymagało ponownego nadawania całego oryginalnego pliku przez sieć, niszcząc wszelkie oszczędności pasma. Tworzyło to systemy, które były efektywne tylko w doskonale statycznych warunkach, które nie istnieją w rzeczywistym świecie zdecentralizowanych węzłów.
Innowacja rdzenia Walrus, szczegółowo opisana w ich białej księdze z kwietnia 2025 roku, to nowatorski protokół kodowania z erasure w dwóch wymiarach, który nazywają Czerwonym Stuff. To jest punkt zwrotny. Dzieli dane na kawałki w sposób, który pozwala na to, co określają jako "samonaprawiające" odzyskiwanie. Gdy węzeł przechowywania przestaje działać, sieć może naprawić utracone dane, używając jedynie małej, proporcjonalnej podzestawu z innych węzłów, a nie całego oryginalnego pliku. Wynikiem jest system, który utrzymuje silne bezpieczeństwo przy współczynniku replikacji wynoszącym tylko 4,5x, co stanowi rozsądny skok w porównaniu do 25x wymaganych dla pełnej replikacji. Co ważniejsze, praktyczny wynik to sieć, która może być efektywna i odporna, nawet gdy węzły ciągle dołączają i opuszczają. To nie jest marginalna poprawa, zmienia to ekonomiczną opłacalność przechowywania ogromnych zbiorów danych w sposób zdecentralizowany.

