In der aktuellen dezentralen Speicherlandschaft spielen viele Projekte noch mit einfachen Kopien, was in der Tat sehr ineffizient ist. Kürzlich habe ich das Whitepaper und die technischen Dokumente von Walrus gelesen und festgestellt, dass ihre Anwendung von "Erasure Coding" wirklich interessant ist. Im Vergleich zu Filecoin, das durch massive Rechenleistung Daten schwerfällig aufrechterhält, ist die Architektur von Walrus offensichtlich viel leichter. Es ist nicht erforderlich, dass jeder Knoten eine vollständige Kopie der Daten speichert; stattdessen werden die Daten in Stücke aufgeteilt und verteilt, sodass die Daten auch dann wiederhergestellt werden können, wenn einige Knoten ausfallen.
Als ich im Testnetz praktische Erfahrungen gesammelt habe, habe ich absichtlich einige Verbindungen von Fragmenten unterbrochen, und die Wiederherstellungsgeschwindigkeit war immer noch stabil, was in der praktischen Anwendung ein lebensrettendes Merkmal ist. Allerdings sind die aktuellen Dokumente ein wenig schwer verständlich, sodass nur wir Techniker sie hartnäckig durcharbeiten können; sie sind für unerfahrene Entwickler nicht besonders benutzerfreundlich. Wettbewerber wie Arweave setzen auf permanente Speicherung, aber dieses Kostenmodell ist für dynamische Daten mit häufigen Interaktionen einfach eine Katastrophe. Die effiziente Speicherung von Walrus, die auf "große Objekte" abzielt, füllt genau das Vakuum im Sui-Ökosystem aus, das über Transaktionsdaten hinausgeht. Die einzige Sorge ist, wie diese Architektur mit massiven Netzwerküberlastungen bei hoher Parallelität umgehen kann; dafür sind noch mehr Stresstests erforderlich. Nach den bisherigen Erfahrungen fühlt es sich eher wie eine "Bauweise" für groß angelegte Web3-Anwendungen an und nicht nur, um Hype zu erzeugen.


