Recentemente sto guardando il settore che combina AI e Web3 (AI x Crypto) e ho scoperto un'evidente misconcezione: tutti si concentrano sulla "potenza di calcolo decentralizzata", trascurando l'infrastruttura dei "dati decentralizzati". I pesi dei modelli AI addestrati, enormi set di dati, le conoscenze richieste per RAG (Generazione Aumentata da Ricerca), questi dati che raggiungono GB o addirittura TB, dove dovrebbero essere memorizzati?

Se continuiamo a memorizzare su AWS, allora l'AI Web3 è un falso dilemma; se memorizziamo su blockchain tradizionali, le spese di Gas possono diventare così elevate da portare alla rovina. Questo mi ha portato a focalizzarmi su @Walrus 🦭/acc . Molti classificano Walrus semplicemente come uno storage, ma io penso che sia più un livello speciale ottimizzato per i dati "blob" di grandi dimensioni. C'è un dettaglio tecnico interessante: non ha adottato la logica a breve termine di Celestia, che si concentra sulla "disponibilità dei dati (DA)" — cioè i dati vengono memorizzati solo per alcuni giorni per la verifica; Walrus vuole chiaramente fare una memorizzazione permanente, ma senza sacrificare le prestazioni.

Il nocciolo della questione sta nel modo in cui gestisce la "ridondanza". Nelle reti decentralizzate tradizionali, per garantire che i dati non vengano persi, si ricorre spesso a una copia forzata (Replication), ad esempio memorizzando un file in 50 copie, che ha un'efficienza spaventosa. La documentazione tecnica di Walrus enfatizza il codice di cancellazione bidimensionale (Redundancy encoding), che essenzialmente usa il calcolo per guadagnare spazio. Attraverso algoritmi matematici, frantuma i file; finché c'è una parte dei frammenti nella rete, è possibile ripristinare il file al 100%. Per memorizzare modelli AI in scenari in cui "non può perdersi nemmeno un bit", questa deterministica probabilistica è molto più affidabile della semplice copia dei nodi, e i costi diminuiscono esponenzialmente.

Sui funge qui da coordinatore ad alta velocità. Se fossi un sviluppatore AI, potrei completamente gettare i pesi del modello su #Walrus e poi usare il contratto di Sui per controllare chi ha il diritto di utilizzare questo modello. Questa architettura potrebbe rendere possibile il "Hugging Face decentralizzato".

La logica dello sviluppo tecnologico è spesso interconnessa. Senza un livello di storage a basso costo e alta robustezza, le applicazioni AI di livello superiore sono castelli in aria. Invece di inseguire quei progetti AI che emettono token, è meglio vedere chi sta risolvendo il problema di base del "posizionamento dei bit". Il design architettonico di Walrus sembra prepararsi a sostenere beni pesanti nel Web3 (video, modelli, risorse di gioco). #walrus $WAL