Binance Square

Sandy杉杉

Operazione aperta
Trader ad alta frequenza
4 mesi
26 Seguiti
10.6K+ Follower
3.0K+ Mi piace
574 Condivisioni
Contenuti
Portafoglio
Sandy杉杉
·
--
Ripercorrendo la storia dei sistemi distribuiti, la questione più difficile da risolvere non è "come memorizzare", ma "come riparare quando un nodo è offline". Negli ultimi giorni ho analizzato attentamente il meccanismo di recupero dati del @WalrusProtocol , scoprendo che ha fatto una scelta molto elegante in termini di efficienza della larghezza di banda. Lo storage decentralizzato tradizionale (come la strategia di replica multipla dei primi tempi), una volta che un nodo fallisce, la rete deve copiare l'intero file su un nuovo nodo, il che comporta un enorme spreco di larghezza di banda, specialmente quando si gestiscono dati di livello PB, è semplicemente un disastro. La tecnologia avanzata di codifica per la cancellazione (Erasure Coding) adottata da #Walrus, in sostanza, trasforma i dati in equazioni matematiche in streaming. Indipendentemente dal nodo che va offline, la rete deve solo prelevare una piccola percentuale di frammenti dagli altri nodi per ricostruire i segmenti di dati persi. Questa logica di "riparazione frammentata" ha ridotto i costi marginali per il mantenimento della rete a livelli molto bassi. Questo ha portato a un cambiamento qualitativo nel progetto: le reti di archiviazione non dipendono più da server professionali costosi e ad alta stabilità. Grazie all'alta tolleranza agli errori, anche l'hardware di consumo ordinario può partecipare, senza compromettere l'affidabilità complessiva della rete. Sui qui gioca il ruolo di "giudice finale dello stato", non memorizza grandi file, ma registra tutta la logica di verifica dei frammenti e dei metadati. Questa architettura di separazione dei pesi evita il dilemma di Ethereum in cui "tutti i nodi devono memorizzare tutti i dati". Il mio standard per valutare i progetti infrastrutturali è molto semplice: vedere se stanno risolvendo il problema della speculazione finanziaria o un classico problema della scienza informatica. Walrus appartiene chiaramente a quest'ultimo. Cerca di risolvere come garantire la perpetuità dei dati in un ambiente distribuito non affidabile, a un costo inferiore rispetto ai fornitori di servizi cloud. Per gli sviluppatori che vogliono costruire applicazioni ad alta intensità di larghezza di banda come YouTube o Instagram su Web3, questa potrebbe essere attualmente l'unica soluzione di base tecnicamente valida. Non comprendere questa trasformazione di base rende difficile capire quali cambiamenti subiranno le forme future delle DApp. #walrus $WAL
Ripercorrendo la storia dei sistemi distribuiti, la questione più difficile da risolvere non è "come memorizzare", ma "come riparare quando un nodo è offline". Negli ultimi giorni ho analizzato attentamente il meccanismo di recupero dati del @Walrus 🦭/acc , scoprendo che ha fatto una scelta molto elegante in termini di efficienza della larghezza di banda.
Lo storage decentralizzato tradizionale (come la strategia di replica multipla dei primi tempi), una volta che un nodo fallisce, la rete deve copiare l'intero file su un nuovo nodo, il che comporta un enorme spreco di larghezza di banda, specialmente quando si gestiscono dati di livello PB, è semplicemente un disastro. La tecnologia avanzata di codifica per la cancellazione (Erasure Coding) adottata da #Walrus, in sostanza, trasforma i dati in equazioni matematiche in streaming. Indipendentemente dal nodo che va offline, la rete deve solo prelevare una piccola percentuale di frammenti dagli altri nodi per ricostruire i segmenti di dati persi. Questa logica di "riparazione frammentata" ha ridotto i costi marginali per il mantenimento della rete a livelli molto bassi.
Questo ha portato a un cambiamento qualitativo nel progetto: le reti di archiviazione non dipendono più da server professionali costosi e ad alta stabilità. Grazie all'alta tolleranza agli errori, anche l'hardware di consumo ordinario può partecipare, senza compromettere l'affidabilità complessiva della rete. Sui qui gioca il ruolo di "giudice finale dello stato", non memorizza grandi file, ma registra tutta la logica di verifica dei frammenti e dei metadati. Questa architettura di separazione dei pesi evita il dilemma di Ethereum in cui "tutti i nodi devono memorizzare tutti i dati".
Il mio standard per valutare i progetti infrastrutturali è molto semplice: vedere se stanno risolvendo il problema della speculazione finanziaria o un classico problema della scienza informatica. Walrus appartiene chiaramente a quest'ultimo. Cerca di risolvere come garantire la perpetuità dei dati in un ambiente distribuito non affidabile, a un costo inferiore rispetto ai fornitori di servizi cloud. Per gli sviluppatori che vogliono costruire applicazioni ad alta intensità di larghezza di banda come YouTube o Instagram su Web3, questa potrebbe essere attualmente l'unica soluzione di base tecnicamente valida. Non comprendere questa trasformazione di base rende difficile capire quali cambiamenti subiranno le forme future delle DApp. #walrus $WAL
Sandy杉杉
·
--
Recentemente sto concependo l'architettura di un dApp cross-chain e ho incontrato un problema complicato: l'effetto isola di dati su diverse catene è troppo severo. Se emetto asset su Solana e faccio regolamenti su Ethereum, dove dovrebbero essere collocati i metadati non finanziari? Il costo della sincronizzazione su tutta la rete è troppo alto, mentre lo storage su una singola catena perde l'interoperabilità. Affrontando questo problema e riesaminando @WalrusProtocol , ho scoperto che la logica alla base della sua posizione come "livello di archiviazione universale" è valida. Molti progetti di archiviazione limitano la loro attenzione all'azione di "salvare", trascurando la comodità di "leggere" e "verificare". La genialità del design di Walrus sta nel fatto che utilizza il livello di consenso ad alte prestazioni di Sui per generare "prove di archiviazione". Ciò significa che l'ID del Blob non è solo un indice hash di un file, ma ha un intero insieme di firme di nodi di verifica dietro di esso. Per i sistemi esterni - sia esso un'altra blockchain o un server Web2 - verificare se i dati sono disponibili diventa molto leggero. Questa caratteristica di "verificare senza scaricare" è cruciale per costruire applicazioni cross-chain. Questo porta a un'interessante deduzione tecnologica: #Walrus potrebbe diventare il "disco rigido" universale del Web3. Che si tratti di indici di iscrizioni su Bitcoin, dati multimediali NFT su Ethereum, o anche dati privati non su grandi blockchain pubbliche, tutto può essere scaricato su Walrus, mantenendo solo un piccolo puntatore di stato sulla catena principale. Questa architettura segue il classico principio di "separazione delle preoccupazioni" nella scienza informatica - consentire al livello di esecuzione (come Sui, Solana, ETH) di concentrarsi sul throughput delle transazioni e al livello di archiviazione di concentrarsi sulla codifica e frammentazione dei dati e sulla persistenza. Inoltre, la combinabilità basata sul linguaggio Move consente alle risorse di archiviazione di diventare oggetti programmabili. Posso definire nel codice: la proprietà di questo pacchetto di dati può essere trasferita, oppure i diritti di lettura possono essere affittati. Questo è un passo avanti rispetto a un semplice bucket statico di AWS S3. L'infrastruttura Web3 attuale è ancora nella fase di costruzione dei mattoncini, la maggior parte dei componenti non si adatta. Ma vedendo Walrus, che tenta di collegare la logica di archiviazione di base, sembra che ci stiamo avvicinando a una vera interconnessione su tutta la catena. #walrus $WAL
Recentemente sto concependo l'architettura di un dApp cross-chain e ho incontrato un problema complicato: l'effetto isola di dati su diverse catene è troppo severo. Se emetto asset su Solana e faccio regolamenti su Ethereum, dove dovrebbero essere collocati i metadati non finanziari? Il costo della sincronizzazione su tutta la rete è troppo alto, mentre lo storage su una singola catena perde l'interoperabilità. Affrontando questo problema e riesaminando @Walrus 🦭/acc , ho scoperto che la logica alla base della sua posizione come "livello di archiviazione universale" è valida.
Molti progetti di archiviazione limitano la loro attenzione all'azione di "salvare", trascurando la comodità di "leggere" e "verificare". La genialità del design di Walrus sta nel fatto che utilizza il livello di consenso ad alte prestazioni di Sui per generare "prove di archiviazione". Ciò significa che l'ID del Blob non è solo un indice hash di un file, ma ha un intero insieme di firme di nodi di verifica dietro di esso. Per i sistemi esterni - sia esso un'altra blockchain o un server Web2 - verificare se i dati sono disponibili diventa molto leggero. Questa caratteristica di "verificare senza scaricare" è cruciale per costruire applicazioni cross-chain.
Questo porta a un'interessante deduzione tecnologica: #Walrus potrebbe diventare il "disco rigido" universale del Web3. Che si tratti di indici di iscrizioni su Bitcoin, dati multimediali NFT su Ethereum, o anche dati privati non su grandi blockchain pubbliche, tutto può essere scaricato su Walrus, mantenendo solo un piccolo puntatore di stato sulla catena principale. Questa architettura segue il classico principio di "separazione delle preoccupazioni" nella scienza informatica - consentire al livello di esecuzione (come Sui, Solana, ETH) di concentrarsi sul throughput delle transazioni e al livello di archiviazione di concentrarsi sulla codifica e frammentazione dei dati e sulla persistenza.
Inoltre, la combinabilità basata sul linguaggio Move consente alle risorse di archiviazione di diventare oggetti programmabili. Posso definire nel codice: la proprietà di questo pacchetto di dati può essere trasferita, oppure i diritti di lettura possono essere affittati. Questo è un passo avanti rispetto a un semplice bucket statico di AWS S3.
L'infrastruttura Web3 attuale è ancora nella fase di costruzione dei mattoncini, la maggior parte dei componenti non si adatta. Ma vedendo Walrus, che tenta di collegare la logica di archiviazione di base, sembra che ci stiamo avvicinando a una vera interconnessione su tutta la catena. #walrus $WAL
Sandy杉杉
·
--
Recentemente sto guardando il settore che combina AI e Web3 (AI x Crypto) e ho scoperto un'evidente misconcezione: tutti si concentrano sulla "potenza di calcolo decentralizzata", trascurando l'infrastruttura dei "dati decentralizzati". I pesi dei modelli AI addestrati, enormi set di dati, le conoscenze richieste per RAG (Generazione Aumentata da Ricerca), questi dati che raggiungono GB o addirittura TB, dove dovrebbero essere memorizzati? Se continuiamo a memorizzare su AWS, allora l'AI Web3 è un falso dilemma; se memorizziamo su blockchain tradizionali, le spese di Gas possono diventare così elevate da portare alla rovina. Questo mi ha portato a focalizzarmi su @WalrusProtocol . Molti classificano Walrus semplicemente come uno storage, ma io penso che sia più un livello speciale ottimizzato per i dati "blob" di grandi dimensioni. C'è un dettaglio tecnico interessante: non ha adottato la logica a breve termine di Celestia, che si concentra sulla "disponibilità dei dati (DA)" — cioè i dati vengono memorizzati solo per alcuni giorni per la verifica; Walrus vuole chiaramente fare una memorizzazione permanente, ma senza sacrificare le prestazioni. Il nocciolo della questione sta nel modo in cui gestisce la "ridondanza". Nelle reti decentralizzate tradizionali, per garantire che i dati non vengano persi, si ricorre spesso a una copia forzata (Replication), ad esempio memorizzando un file in 50 copie, che ha un'efficienza spaventosa. La documentazione tecnica di Walrus enfatizza il codice di cancellazione bidimensionale (Redundancy encoding), che essenzialmente usa il calcolo per guadagnare spazio. Attraverso algoritmi matematici, frantuma i file; finché c'è una parte dei frammenti nella rete, è possibile ripristinare il file al 100%. Per memorizzare modelli AI in scenari in cui "non può perdersi nemmeno un bit", questa deterministica probabilistica è molto più affidabile della semplice copia dei nodi, e i costi diminuiscono esponenzialmente. Sui funge qui da coordinatore ad alta velocità. Se fossi un sviluppatore AI, potrei completamente gettare i pesi del modello su #Walrus e poi usare il contratto di Sui per controllare chi ha il diritto di utilizzare questo modello. Questa architettura potrebbe rendere possibile il "Hugging Face decentralizzato". La logica dello sviluppo tecnologico è spesso interconnessa. Senza un livello di storage a basso costo e alta robustezza, le applicazioni AI di livello superiore sono castelli in aria. Invece di inseguire quei progetti AI che emettono token, è meglio vedere chi sta risolvendo il problema di base del "posizionamento dei bit". Il design architettonico di Walrus sembra prepararsi a sostenere beni pesanti nel Web3 (video, modelli, risorse di gioco). #walrus $WAL
Recentemente sto guardando il settore che combina AI e Web3 (AI x Crypto) e ho scoperto un'evidente misconcezione: tutti si concentrano sulla "potenza di calcolo decentralizzata", trascurando l'infrastruttura dei "dati decentralizzati". I pesi dei modelli AI addestrati, enormi set di dati, le conoscenze richieste per RAG (Generazione Aumentata da Ricerca), questi dati che raggiungono GB o addirittura TB, dove dovrebbero essere memorizzati?
Se continuiamo a memorizzare su AWS, allora l'AI Web3 è un falso dilemma; se memorizziamo su blockchain tradizionali, le spese di Gas possono diventare così elevate da portare alla rovina. Questo mi ha portato a focalizzarmi su @Walrus 🦭/acc . Molti classificano Walrus semplicemente come uno storage, ma io penso che sia più un livello speciale ottimizzato per i dati "blob" di grandi dimensioni. C'è un dettaglio tecnico interessante: non ha adottato la logica a breve termine di Celestia, che si concentra sulla "disponibilità dei dati (DA)" — cioè i dati vengono memorizzati solo per alcuni giorni per la verifica; Walrus vuole chiaramente fare una memorizzazione permanente, ma senza sacrificare le prestazioni.
Il nocciolo della questione sta nel modo in cui gestisce la "ridondanza". Nelle reti decentralizzate tradizionali, per garantire che i dati non vengano persi, si ricorre spesso a una copia forzata (Replication), ad esempio memorizzando un file in 50 copie, che ha un'efficienza spaventosa. La documentazione tecnica di Walrus enfatizza il codice di cancellazione bidimensionale (Redundancy encoding), che essenzialmente usa il calcolo per guadagnare spazio. Attraverso algoritmi matematici, frantuma i file; finché c'è una parte dei frammenti nella rete, è possibile ripristinare il file al 100%. Per memorizzare modelli AI in scenari in cui "non può perdersi nemmeno un bit", questa deterministica probabilistica è molto più affidabile della semplice copia dei nodi, e i costi diminuiscono esponenzialmente.
Sui funge qui da coordinatore ad alta velocità. Se fossi un sviluppatore AI, potrei completamente gettare i pesi del modello su #Walrus e poi usare il contratto di Sui per controllare chi ha il diritto di utilizzare questo modello. Questa architettura potrebbe rendere possibile il "Hugging Face decentralizzato".
La logica dello sviluppo tecnologico è spesso interconnessa. Senza un livello di storage a basso costo e alta robustezza, le applicazioni AI di livello superiore sono castelli in aria. Invece di inseguire quei progetti AI che emettono token, è meglio vedere chi sta risolvendo il problema di base del "posizionamento dei bit". Il design architettonico di Walrus sembra prepararsi a sostenere beni pesanti nel Web3 (video, modelli, risorse di gioco). #walrus $WAL
Sandy杉杉
·
--
Ho sempre pensato a quale possa essere la fine del percorso di storage di Web3. Ho visto troppi progetti cercare di forzare la “computazione” e lo “storage” insieme su una sola catena, e il risultato è che non soddisfano nessuno dei due lati: o la scalabilità è pessima, o il costo di storage è ridicolo. Recentemente, ho approfondito il design architettonico di @WalrusProtocol e ho la sensazione che finalmente abbia chiarito questa logica. Il cuore della questione è “decoupling”: affidare la gestione dei metadati ad alta frequenza e la logica di pagamento a Sui, un Layer 1 ad alte prestazioni, mentre il vero pesante lavoro di Blob storage è delegato a una rete di nodi di storage specializzati. Questo design ha risolto un problema che ha sempre afflitto gli sviluppatori: l’esplosione dello stato. Se stai sviluppando un gioco a catena intera o un progetto NFT ad alta fedeltà, decine di G di dati delle risorse se caricati direttamente sulla catena, le spese di Gas sono semplicemente astronomiche; usare IPFS ti fa temere che i fornitori di servizi di Pinning possano scappare, e alla fine si torna al centralizzato. La soluzione proposta da #Walrus è una rete di storage decentralizzata basata su codici di correzione, il che significa che non ho bisogno di fidarmi di un singolo nodo, ma solo di fidarmi della probabilità matematica. Dal punto di vista dell'integrazione degli sviluppatori, il potenziale di questo “storage programmabile” è stato gravemente sottovalutato. Se in un contratto intelligente di Sui posso controllare in modo atomico i diritti di lettura e scrittura delle risorse di storage, l'architettura del DApp può essere molto leggera. Ad esempio, posso scrivere un contratto, in cui solo gli utenti che possiedono un NFT specifico possono decrittare e scaricare un determinato dataset o i pesi di un modello AI memorizzato su Walrus. Questa interoperabilità nativa è qualcosa che il tradizionale cloud storage con un API Key non può assolutamente eguagliare. Il mercato attuale è troppo frenetico, tutti stanno a guardare il prezzo delle criptovalute, pochi si prendono il tempo di calcolare il costo unitario dello storage (Costo per GB). Se il costo dello storage decentralizzato non può avvicinarsi ad Amazon S3, allora le applicazioni su larga scala sono solo chiacchiere. Walrus utilizza l'esecuzione parallela di Sui per gestire il coordinamento, riducendo in realtà notevolmente i costi operativi del sistema. Questo approccio pragmatico orientato all'ingegneria è la ragione fondamentale per cui lo considero promettente. Non si tratta di accumulare concetti vuoti, ma semplicemente di risolvere il problema “dove dovrebbero essere memorizzati i dati”. Questo è ciò che ci si aspetta da un'infrastruttura. #walrus $WAL
Ho sempre pensato a quale possa essere la fine del percorso di storage di Web3. Ho visto troppi progetti cercare di forzare la “computazione” e lo “storage” insieme su una sola catena, e il risultato è che non soddisfano nessuno dei due lati: o la scalabilità è pessima, o il costo di storage è ridicolo. Recentemente, ho approfondito il design architettonico di @Walrus 🦭/acc e ho la sensazione che finalmente abbia chiarito questa logica. Il cuore della questione è “decoupling”: affidare la gestione dei metadati ad alta frequenza e la logica di pagamento a Sui, un Layer 1 ad alte prestazioni, mentre il vero pesante lavoro di Blob storage è delegato a una rete di nodi di storage specializzati.
Questo design ha risolto un problema che ha sempre afflitto gli sviluppatori: l’esplosione dello stato. Se stai sviluppando un gioco a catena intera o un progetto NFT ad alta fedeltà, decine di G di dati delle risorse se caricati direttamente sulla catena, le spese di Gas sono semplicemente astronomiche; usare IPFS ti fa temere che i fornitori di servizi di Pinning possano scappare, e alla fine si torna al centralizzato. La soluzione proposta da #Walrus è una rete di storage decentralizzata basata su codici di correzione, il che significa che non ho bisogno di fidarmi di un singolo nodo, ma solo di fidarmi della probabilità matematica.
Dal punto di vista dell'integrazione degli sviluppatori, il potenziale di questo “storage programmabile” è stato gravemente sottovalutato. Se in un contratto intelligente di Sui posso controllare in modo atomico i diritti di lettura e scrittura delle risorse di storage, l'architettura del DApp può essere molto leggera. Ad esempio, posso scrivere un contratto, in cui solo gli utenti che possiedono un NFT specifico possono decrittare e scaricare un determinato dataset o i pesi di un modello AI memorizzato su Walrus. Questa interoperabilità nativa è qualcosa che il tradizionale cloud storage con un API Key non può assolutamente eguagliare.
Il mercato attuale è troppo frenetico, tutti stanno a guardare il prezzo delle criptovalute, pochi si prendono il tempo di calcolare il costo unitario dello storage (Costo per GB). Se il costo dello storage decentralizzato non può avvicinarsi ad Amazon S3, allora le applicazioni su larga scala sono solo chiacchiere. Walrus utilizza l'esecuzione parallela di Sui per gestire il coordinamento, riducendo in realtà notevolmente i costi operativi del sistema. Questo approccio pragmatico orientato all'ingegneria è la ragione fondamentale per cui lo considero promettente. Non si tratta di accumulare concetti vuoti, ma semplicemente di risolvere il problema “dove dovrebbero essere memorizzati i dati”. Questo è ciò che ci si aspetta da un'infrastruttura. #walrus $WAL
Sandy杉杉
·
--
Recentemente ho riflettuto sulle strozzature delle infrastrutture Web3, in particolare per quanto riguarda lo stoccaggio. Ogni volta che vedo i cosiddetti "app decentralizzate" che devono ancora fare affidamento su servizi cloud centralizzati per memorizzare frontend e risorse statiche, mi sembra davvero paradossale. Ho esaminato più a fondo il white paper tecnico di @WalrusProtocol , e le idee sono decisamente originali, non sembra che stiano semplicemente facendo "blockchain con hard disk", ma piuttosto stanno ricostruendo la logica di distribuzione dei dati. Quello che mi preoccupa di più è il modo in cui gestiscono i "Blobs". Utilizzando la codifica di cancellazione bidimensionale (Erasure Coding) insieme a Sui come livello di coordinazione, questa combinazione è molto precisa. Il tradizionale modello di replica a nodi completi è troppo pesante, dal punto di vista dei costi non è affatto sostenibile; mentre Walrus, distribuendo i file in segmenti, riduce notevolmente il fattore di replica mantenendo un'elevatissima robustezza dei dati. In altre parole, anche se un gran numero di nodi di archiviazione si disconnette, i dati possono comunque essere ricostruiti tramite metodi matematici. Questo tasso di tolleranza ai guasti è un requisito fondamentale per una rete che deve gestire dati a livello di Petabyte. Inoltre, collocare la logica di gestione e pagamento su Sui è una scelta molto pragmatica. Il modello ad oggetti di Sui e la sua capacità di esecuzione parallela possono sostenere le richieste di lettura e scrittura ad alta frequenza, evitando che la gestione dei metadati diventi un collo di bottiglia. Questo mi fa pensare che, in futuro, le DApp potrebbero davvero realizzare una "decentralizzazione a tutto stack" — la logica di backend sulla catena, il frontend e le risorse multimediali su #Walrus, liberandosi completamente dai punti di errore singoli. Parlare meno di narrazione e guardare di più all'architettura. Se i costi di stoccaggio non scendono, Web3 potrà sempre e solo giocare ai giochi finanziari. Soluzioni come Walrus, focalizzate sulla risoluzione dei problemi di stoccaggio di "big data non strutturati", stanno preparando la strada per l'esplosione delle applicazioni nel prossimo ciclo. Non si tratta solo di memorizzare immagini, ma di come preservare in modo verificabile e a basso costo gli asset digitali dell'umanità. Il grado di eleganza della tecnologia stessa spesso spiega meglio la vitalità di un progetto rispetto al marketing. #walrus $WAL
Recentemente ho riflettuto sulle strozzature delle infrastrutture Web3, in particolare per quanto riguarda lo stoccaggio. Ogni volta che vedo i cosiddetti "app decentralizzate" che devono ancora fare affidamento su servizi cloud centralizzati per memorizzare frontend e risorse statiche, mi sembra davvero paradossale. Ho esaminato più a fondo il white paper tecnico di @Walrus 🦭/acc , e le idee sono decisamente originali, non sembra che stiano semplicemente facendo "blockchain con hard disk", ma piuttosto stanno ricostruendo la logica di distribuzione dei dati.
Quello che mi preoccupa di più è il modo in cui gestiscono i "Blobs". Utilizzando la codifica di cancellazione bidimensionale (Erasure Coding) insieme a Sui come livello di coordinazione, questa combinazione è molto precisa. Il tradizionale modello di replica a nodi completi è troppo pesante, dal punto di vista dei costi non è affatto sostenibile; mentre Walrus, distribuendo i file in segmenti, riduce notevolmente il fattore di replica mantenendo un'elevatissima robustezza dei dati. In altre parole, anche se un gran numero di nodi di archiviazione si disconnette, i dati possono comunque essere ricostruiti tramite metodi matematici. Questo tasso di tolleranza ai guasti è un requisito fondamentale per una rete che deve gestire dati a livello di Petabyte.
Inoltre, collocare la logica di gestione e pagamento su Sui è una scelta molto pragmatica. Il modello ad oggetti di Sui e la sua capacità di esecuzione parallela possono sostenere le richieste di lettura e scrittura ad alta frequenza, evitando che la gestione dei metadati diventi un collo di bottiglia. Questo mi fa pensare che, in futuro, le DApp potrebbero davvero realizzare una "decentralizzazione a tutto stack" — la logica di backend sulla catena, il frontend e le risorse multimediali su #Walrus, liberandosi completamente dai punti di errore singoli.
Parlare meno di narrazione e guardare di più all'architettura. Se i costi di stoccaggio non scendono, Web3 potrà sempre e solo giocare ai giochi finanziari. Soluzioni come Walrus, focalizzate sulla risoluzione dei problemi di stoccaggio di "big data non strutturati", stanno preparando la strada per l'esplosione delle applicazioni nel prossimo ciclo. Non si tratta solo di memorizzare immagini, ma di come preservare in modo verificabile e a basso costo gli asset digitali dell'umanità. Il grado di eleganza della tecnologia stessa spesso spiega meglio la vitalità di un progetto rispetto al marketing. #walrus $WAL
Sandy杉杉
·
--
Riguardo a Red Stuff, frammenti di archiviazione e l'ultimo pezzo del puzzle di Web3 - Rileggendo il white paper di Walrus.Alle tre di mattina, ancora a fissare lo schermo con il codice Rust. Negli ultimi tempi ho riflettuto sul problema dell'espansione dello stato di L1 e più ci penso, più mi sembra che le attuali soluzioni di espansione in un certo senso stiano "evitando il problema principale". Abbiamo continuato a ottimizzare il TPS e il livello di esecuzione, ma sembra che stiamo ignorando selettivamente un elefante nella stanza: dove dovremmo mettere i dati? Poco fa ho di nuovo esaminato la documentazione di @WalrusProtocol , in particolare quel documento su "Red Stuff". Ad essere sincero, la prima volta che l'ho letto pensavo fosse solo una dimostrazione di abilità da parte di Mysten Labs, ma stasera, mettendolo a confronto con EIP-4844 e il meccanismo di Arweave, ho avuto all'improvviso una sensazione di freddo lungo la schiena: potremmo aver sempre sottovalutato le ambizioni di Walrus. Non è solo un accessorio dell'ecosistema Sui, ma è molto probabile che sia progettato per risolvere quella strana frattura tra "disponibilità dei dati (DA)" e "archiviazione a lungo termine" in Ethereum e, in effetti, nell'intero blockchain modulare.

Riguardo a Red Stuff, frammenti di archiviazione e l'ultimo pezzo del puzzle di Web3 - Rileggendo il white paper di Walrus.

Alle tre di mattina, ancora a fissare lo schermo con il codice Rust. Negli ultimi tempi ho riflettuto sul problema dell'espansione dello stato di L1 e più ci penso, più mi sembra che le attuali soluzioni di espansione in un certo senso stiano "evitando il problema principale". Abbiamo continuato a ottimizzare il TPS e il livello di esecuzione, ma sembra che stiamo ignorando selettivamente un elefante nella stanza: dove dovremmo mettere i dati?
Poco fa ho di nuovo esaminato la documentazione di @Walrus 🦭/acc , in particolare quel documento su "Red Stuff". Ad essere sincero, la prima volta che l'ho letto pensavo fosse solo una dimostrazione di abilità da parte di Mysten Labs, ma stasera, mettendolo a confronto con EIP-4844 e il meccanismo di Arweave, ho avuto all'improvviso una sensazione di freddo lungo la schiena: potremmo aver sempre sottovalutato le ambizioni di Walrus. Non è solo un accessorio dell'ecosistema Sui, ma è molto probabile che sia progettato per risolvere quella strana frattura tra "disponibilità dei dati (DA)" e "archiviazione a lungo termine" in Ethereum e, in effetti, nell'intero blockchain modulare.
Sandy杉杉
·
--
关于 Web3 存储终局的思考:为什么我们绕不开 Walrus?最近在重构之前的几个 dApp 项目,不管是做全链上 NFT 还是单纯的去中心化社交前端,最后总会卡在一个极其尴尬的节点上:数据到底该放哪儿? 真的,这问题困扰我太久了。这几天一直在啃 Mysten Labs 发出来的白皮书和技术文档,尤其是关于 @WalrusProtocol @undefined 的部分。越看越觉得,这可能不仅仅是一个新的存储层,它更像是我潜意识里一直期待的那种“去中心化 AWS S3”的真正形态。 之所以想写下来,是因为我觉得很多人可能还没意识到 Walrus 这种架构的破坏力。它不是在修补旧船,而是在换一种航行方式。 #Walrus 一、 我们是不是对“存储”有什么误解? 回想一下,当我们谈论“Web3 存储”的时候,我们实际上在谈什么? 其实我之前一直有个思维误区,总觉得只要把数据丢到 IPFS 上,或者甚至哪怕是 Arweave 上,任务就完成了。但最近做高频交互应用的时候发现,根本不是那么回事。 IPFS 只是个协议,数据没人钉(Pin)就会丢,这谁都知道。Filecoin 呢?那是为了长期归档设计的。老实说,如果要让一个前端页面毫秒级加载,或者让一个 AI 模型快速读取权重数据,指望 Filecoin 的检索市场目前的效率,我是不敢打包票的。Arweave 很棒,主打“永久”,但说实话,我的临时缓存数据、我的社交媒体草稿、或者一些不需要存一万年的中间件数据,真的需要我们要为“永久”支付溢价吗? 这就是我在看 Walrus 文档时,脑子里蹦出的第一个火花:它实际上是在解决“高可用性”和“低成本”之间的那个不可能三角。 Walrus 的定位非常狡猾(褒义),它不做 Layer 1,它把自己定义为一个去中心化的 Blob 存储网络。这让我想到以太坊现在的 EIP-4844,大家都在抢 Blob 空间,因为那才是大数据的归宿,而不是昂贵的 Calldata。 二、 为什么是“纠删码”而不是“副本”?(技术层面的反思) 这部分是我觉得最有意思的地方,也是 Walrus 最硬核的技术壁垒。 如果你是一个传统的系统架构师,为了保证数据不丢,你通常会怎么做?最简单的逻辑是:复制。比如我有 1GB 的数据,为了安全,我存三份,放在三个不同的节点上。这就是传统的副本策略(Replication)。简单,粗暴,但是贵。存储成本直接乘以 3,带宽成本也乘以 3。 我在研究 Walrus 的时候,发现它在底层逻辑上彻底抛弃了这种做法,转而使用了纠删码(Erasure Coding),而且不是普通的纠删码,是基于二维 Reed-Solomon 编码的变体。 我想象了一下这个过程: 当你把一个文件扔给 Walrus 时,它并没有被完整地“复制”到某个节点。相反,它被切碎了。 假设文件是 D。Walrus 把它切成了 n 个碎片(shards),但不仅仅是切分,它通过数学计算生成了 n 个编码块。哪怕这其中有 f 个节点突然离线了、硬盘坏了、甚至跑路了,只要我能凑齐 n-f 个碎片,我就能通过数学逆运算,把原始数据 D 完整地还原出来。 这让我想到了全息照片,你把底片撕碎,每一小块碎片里依然包含着整体的信息。 这带来的直接好处就是存储效率的指数级提升。按照 Walrus 的官方数据,它的存储开销系数(Replication Factor)可能只需要 4x-5x 甚至更低就能达到极高的安全性,但这不仅仅是硬盘空间的节省,更关键的是带宽的节省。 而在 Walrus 的设计里,这种“切片”和“重组”的过程,因为引入了 RaptorQ 这种喷泉码技术,变得异常高效。我不需要等所有节点都确认,我只需要收到足够多的“水滴”(数据包),我就能还原出一整杯水。 这种感觉就像是,别的网络是在搬运石头,而 Walrus 把石头磨成了沙子,通过水流冲过去,最后在目的地又重新凝固成了石头。 三、 Red Stuff:这名字听起来随意,但真的很强 看技术文档的时候,看到 "Red Stuff" 这个词我笑了。但这背后的共识机制设计,确实让我陷入了沉思。 Web3 基础设施的一个通病是:慢。因为要达成共识,所有节点都要互相通信,都要确认“你是不是收到了数据”。 Walrus 引入的这个 Red Stuff,本质上是一个异步的(Asynchronous)数据可用性协议。这里的关键词是“异步”。 我在脑子里模拟了一下这个场景: 在传统的 BFT(拜占庭容错)共识里,通常需要两轮投票,或者说强同步。A 告诉 B,B 告诉 C,大家确认无误,落锤。 但在 Red Stuff 的设计里,它是基于二维纠删码的。简单来说,由于数据被编码成了二维矩阵,验证数据可用性的时候,不需要下载全部数据,甚至不需要所有节点都在线。只要在行和列的维度上,有足够的碎片能被验证,整个网络就可以在数学上“确信”数据是可用的。 这让 Walrus 的写入速度极快。它不需要等待那种繁琐的全局锁。这对于我想做的那些需要高吞吐量的 dApp(比如链上游戏的状态保存、社交网络的图片流)来说,简直是救命稻草。 四、 为什么要绑上 Sui?(关于协调层的思考) 这是一个很有争议但也很高明的点。Walrus 并没有自己搞一套复杂的 Layer 1 区块链来处理由于,而是直接利用了 Sui。 起初我有点怀疑:这是不是单纯的生态捆绑? 但仔细想想,这其实是工程上的最优解。 如果是自己造链,你需要处理验证者集合、通证经济、安全性引导等等一堆破事。但 Walrus 把 Sui 当作了协调层(Coordination Layer)和管理层。 我的理解是这样的: 重数据(Blob):都在 Walrus 的存储节点网络里跑,这是链下的(Off-chain),或者说是旁路网络。 元数据(Metadata):比如文件的 Hash、存储周期的证明、支付的记录,这些全部记在 Sui 上。 Sui 的并行执行架构(Object-centric model)在这里发挥了巨大的作用。因为存储资源的买卖本质上也是一种资产交互。Sui 的高 TPS 保证了哪怕 Walrus 的吞吐量巨大,管理层也不会成为瓶颈。 而且,这也意味着我们可以直接用 Move 语言来编写“可编程存储”的逻辑。比如,我想写一个智能合约:当某个 NFT 被转移时,自动续费其在 Walrus 上的存储,或者当某个条件触发时,改变数据的访问权限。因为 Sui 就在那里,这一切变得顺理成章。 五、 去中心化的“AWS S3”:不仅是存储,更是分发 我在测试网玩的时候,有一个特别强烈的感受:Walrus 不仅仅是在做 Storage(存储),它其实天然带有 CDN(内容分发)的属性。 因为数据是分片存储在全世界各地的节点上的。当我请求一个文件时,我不是在向某一台服务器请求,而是在向整个网络请求。我的客户端可以从最近的、最快的几个节点拉取碎片,然后在本地重组。 这解决了 Web2 时代 S3 的一个痛点:中心化服务器宕机。 前几年 AWS 弗吉尼亚节点挂掉的时候,半个互联网都瘫痪了。这种事情在 Walrus 这种架构下,理论上是不可能发生的。因为没有单点故障。只要全球还有足够比例的节点(比如 2/3)活着,我的数据就在,而且能被快速取回。 这种**“抗审查”+“高可用”+“自带CDN加速”**的特性,对于正在兴起的 AI Agent 来说尤其重要。 试想一下,未来会有成千上万个 AI Agent 在链上跑。它们需要读取巨大的大语言模型(LLM)权重文件,或者存储海量的推理上下文。你指望它们去读以太坊主网?不可能。去读中心化云?那就有被关停的风险。 Walrus 这种架构,刚好能成为去中心化 AI 的数据底座。我把模型切片扔上去,任何 Agent 都可以快速并行下载,而且费用极低。 六、 经济模型的隐忧与机会 当然,没有任何系统是完美的。我在思考 Walrus 的时候,也在担心它的经济激励。 存储节点凭什么帮你存数据?当然是为了赚钱。 Walrus 的设计里,有一个**存储资源(Storage Resource)**的概念。你可以把它看作是你在网络里买的一块“地皮”。你买了存储空间,这个空间就是你的,直到你释放它或者过期。 这里的博弈在于:存储价格必须足够低,才能吸引像我这样的开发者从 AWS 迁移过来;但同时必须足够高,或者由网络通证(WAL?)补贴,才能让节点运营者覆盖硬件和带宽成本。 目前看来,由于纠删码的高效率,节点的硬件利用率是很高的(不像比特币挖矿那样全是算力浪费,也不像单纯的 3 副本那样浪费空间),所以理论上成本可以压得很低。 而且,Sui 上的代币经济学设计通常比较注重长期效用。如果 Walrus 能建立起一个类似“存储租赁市场”的生态,让闲置的硬盘空间真正变现,这个飞轮就能转起来。 七、 开发者体验:终于不用像做数学题一样存文件了 回到最开始的话题,为什么我对 @walrusprotocol 这么上心?因为它的 DevEx(开发者体验)让我看到了希望。 之前的很多去中心化存储项目,接入门槛真的高。你要跑节点,要搞复杂的 Deal(交易撮合),要担心扇区封装。 但看 Walrus 的 API 设计,它是 HTTP 友好的。它甚至可以直接通过 HTTP GET/PUT 请求来交互(通过聚合器)。 这意味着什么? 意味着我现在的 Web2 前端代码,可能只需要改几行 URL,就能无缝切换到 Web3 存储。不需要让前端工程师去重新学一套复杂的 SDK,也不需要用户去理解什么是 IPFS Hash(虽然底层有,但体验上可以很平滑)。 对于正在构建 Consumer Crypto(消费级加密应用)的我们来说,这种“无感”才是最重要的。用户根本不在乎你的数据存在哪,只要快、只要不丢。Walrus 恰恰提供了这种体验。 八、 写在最后:一块拼图 写了这么多,其实就是想理清楚我自己在这个技术浪潮里的位置。 我觉得区块链行业在经历了 DeFi 的金融狂欢、NFT 的资产泡沫之后,终于开始回归到一个本质问题:基础设施到底能不能支撑大规模应用? 只有当存储变得像水电一样廉价且随手可得,只有当去中心化不再意味着“慢”和“贵”,真正的 Mass Adoption 才会到来。 Walrus 并不是唯一的玩家,但我认为它是目前架构设计最优雅、最符合现代分布式系统理论的玩家之一。它利用 Sui 的速度解决了元数据问题,利用纠删码解决了成本问题,利用 RaptorQ 解决了传输效率问题。 如果把 Web3 比作一台计算机,以太坊是 CPU,Sui 是 GPU,那么 Walrus 很有希望成为那块大容量、高速度的 SSD 硬盘。 接下来的几个月,我会尝试把手头的一个图片类 SocialFi 项目全量迁移到 Walrus 测试网上跑跑看。不做单纯的纸上谈兵,只有真实的代码和流量,才能检验出它是不是真的像我在思考中推演的这么美好。#walrus $WAL

关于 Web3 存储终局的思考:为什么我们绕不开 Walrus?

最近在重构之前的几个 dApp 项目,不管是做全链上 NFT 还是单纯的去中心化社交前端,最后总会卡在一个极其尴尬的节点上:数据到底该放哪儿?
真的,这问题困扰我太久了。这几天一直在啃 Mysten Labs 发出来的白皮书和技术文档,尤其是关于 @Walrus 🦭/acc @undefined 的部分。越看越觉得,这可能不仅仅是一个新的存储层,它更像是我潜意识里一直期待的那种“去中心化 AWS S3”的真正形态。
之所以想写下来,是因为我觉得很多人可能还没意识到 Walrus 这种架构的破坏力。它不是在修补旧船,而是在换一种航行方式。
#Walrus
一、 我们是不是对“存储”有什么误解?
回想一下,当我们谈论“Web3 存储”的时候,我们实际上在谈什么?
其实我之前一直有个思维误区,总觉得只要把数据丢到 IPFS 上,或者甚至哪怕是 Arweave 上,任务就完成了。但最近做高频交互应用的时候发现,根本不是那么回事。
IPFS 只是个协议,数据没人钉(Pin)就会丢,这谁都知道。Filecoin 呢?那是为了长期归档设计的。老实说,如果要让一个前端页面毫秒级加载,或者让一个 AI 模型快速读取权重数据,指望 Filecoin 的检索市场目前的效率,我是不敢打包票的。Arweave 很棒,主打“永久”,但说实话,我的临时缓存数据、我的社交媒体草稿、或者一些不需要存一万年的中间件数据,真的需要我们要为“永久”支付溢价吗?
这就是我在看 Walrus 文档时,脑子里蹦出的第一个火花:它实际上是在解决“高可用性”和“低成本”之间的那个不可能三角。
Walrus 的定位非常狡猾(褒义),它不做 Layer 1,它把自己定义为一个去中心化的 Blob 存储网络。这让我想到以太坊现在的 EIP-4844,大家都在抢 Blob 空间,因为那才是大数据的归宿,而不是昂贵的 Calldata。
二、 为什么是“纠删码”而不是“副本”?(技术层面的反思)
这部分是我觉得最有意思的地方,也是 Walrus 最硬核的技术壁垒。
如果你是一个传统的系统架构师,为了保证数据不丢,你通常会怎么做?最简单的逻辑是:复制。比如我有 1GB 的数据,为了安全,我存三份,放在三个不同的节点上。这就是传统的副本策略(Replication)。简单,粗暴,但是贵。存储成本直接乘以 3,带宽成本也乘以 3。
我在研究 Walrus 的时候,发现它在底层逻辑上彻底抛弃了这种做法,转而使用了纠删码(Erasure Coding),而且不是普通的纠删码,是基于二维 Reed-Solomon 编码的变体。
我想象了一下这个过程:
当你把一个文件扔给 Walrus 时,它并没有被完整地“复制”到某个节点。相反,它被切碎了。
假设文件是 D。Walrus 把它切成了 n 个碎片(shards),但不仅仅是切分,它通过数学计算生成了 n 个编码块。哪怕这其中有 f 个节点突然离线了、硬盘坏了、甚至跑路了,只要我能凑齐 n-f 个碎片,我就能通过数学逆运算,把原始数据 D 完整地还原出来。
这让我想到了全息照片,你把底片撕碎,每一小块碎片里依然包含着整体的信息。
这带来的直接好处就是存储效率的指数级提升。按照 Walrus 的官方数据,它的存储开销系数(Replication Factor)可能只需要 4x-5x 甚至更低就能达到极高的安全性,但这不仅仅是硬盘空间的节省,更关键的是带宽的节省。
而在 Walrus 的设计里,这种“切片”和“重组”的过程,因为引入了 RaptorQ 这种喷泉码技术,变得异常高效。我不需要等所有节点都确认,我只需要收到足够多的“水滴”(数据包),我就能还原出一整杯水。
这种感觉就像是,别的网络是在搬运石头,而 Walrus 把石头磨成了沙子,通过水流冲过去,最后在目的地又重新凝固成了石头。
三、 Red Stuff:这名字听起来随意,但真的很强
看技术文档的时候,看到 "Red Stuff" 这个词我笑了。但这背后的共识机制设计,确实让我陷入了沉思。
Web3 基础设施的一个通病是:慢。因为要达成共识,所有节点都要互相通信,都要确认“你是不是收到了数据”。
Walrus 引入的这个 Red Stuff,本质上是一个异步的(Asynchronous)数据可用性协议。这里的关键词是“异步”。
我在脑子里模拟了一下这个场景:
在传统的 BFT(拜占庭容错)共识里,通常需要两轮投票,或者说强同步。A 告诉 B,B 告诉 C,大家确认无误,落锤。
但在 Red Stuff 的设计里,它是基于二维纠删码的。简单来说,由于数据被编码成了二维矩阵,验证数据可用性的时候,不需要下载全部数据,甚至不需要所有节点都在线。只要在行和列的维度上,有足够的碎片能被验证,整个网络就可以在数学上“确信”数据是可用的。
这让 Walrus 的写入速度极快。它不需要等待那种繁琐的全局锁。这对于我想做的那些需要高吞吐量的 dApp(比如链上游戏的状态保存、社交网络的图片流)来说,简直是救命稻草。
四、 为什么要绑上 Sui?(关于协调层的思考)
这是一个很有争议但也很高明的点。Walrus 并没有自己搞一套复杂的 Layer 1 区块链来处理由于,而是直接利用了 Sui。
起初我有点怀疑:这是不是单纯的生态捆绑?
但仔细想想,这其实是工程上的最优解。
如果是自己造链,你需要处理验证者集合、通证经济、安全性引导等等一堆破事。但 Walrus 把 Sui 当作了协调层(Coordination Layer)和管理层。
我的理解是这样的:
重数据(Blob):都在 Walrus 的存储节点网络里跑,这是链下的(Off-chain),或者说是旁路网络。
元数据(Metadata):比如文件的 Hash、存储周期的证明、支付的记录,这些全部记在 Sui 上。
Sui 的并行执行架构(Object-centric model)在这里发挥了巨大的作用。因为存储资源的买卖本质上也是一种资产交互。Sui 的高 TPS 保证了哪怕 Walrus 的吞吐量巨大,管理层也不会成为瓶颈。
而且,这也意味着我们可以直接用 Move 语言来编写“可编程存储”的逻辑。比如,我想写一个智能合约:当某个 NFT 被转移时,自动续费其在 Walrus 上的存储,或者当某个条件触发时,改变数据的访问权限。因为 Sui 就在那里,这一切变得顺理成章。
五、 去中心化的“AWS S3”:不仅是存储,更是分发
我在测试网玩的时候,有一个特别强烈的感受:Walrus 不仅仅是在做 Storage(存储),它其实天然带有 CDN(内容分发)的属性。
因为数据是分片存储在全世界各地的节点上的。当我请求一个文件时,我不是在向某一台服务器请求,而是在向整个网络请求。我的客户端可以从最近的、最快的几个节点拉取碎片,然后在本地重组。
这解决了 Web2 时代 S3 的一个痛点:中心化服务器宕机。
前几年 AWS 弗吉尼亚节点挂掉的时候,半个互联网都瘫痪了。这种事情在 Walrus 这种架构下,理论上是不可能发生的。因为没有单点故障。只要全球还有足够比例的节点(比如 2/3)活着,我的数据就在,而且能被快速取回。
这种**“抗审查”+“高可用”+“自带CDN加速”**的特性,对于正在兴起的 AI Agent 来说尤其重要。
试想一下,未来会有成千上万个 AI Agent 在链上跑。它们需要读取巨大的大语言模型(LLM)权重文件,或者存储海量的推理上下文。你指望它们去读以太坊主网?不可能。去读中心化云?那就有被关停的风险。
Walrus 这种架构,刚好能成为去中心化 AI 的数据底座。我把模型切片扔上去,任何 Agent 都可以快速并行下载,而且费用极低。
六、 经济模型的隐忧与机会
当然,没有任何系统是完美的。我在思考 Walrus 的时候,也在担心它的经济激励。
存储节点凭什么帮你存数据?当然是为了赚钱。
Walrus 的设计里,有一个**存储资源(Storage Resource)**的概念。你可以把它看作是你在网络里买的一块“地皮”。你买了存储空间,这个空间就是你的,直到你释放它或者过期。
这里的博弈在于:存储价格必须足够低,才能吸引像我这样的开发者从 AWS 迁移过来;但同时必须足够高,或者由网络通证(WAL?)补贴,才能让节点运营者覆盖硬件和带宽成本。
目前看来,由于纠删码的高效率,节点的硬件利用率是很高的(不像比特币挖矿那样全是算力浪费,也不像单纯的 3 副本那样浪费空间),所以理论上成本可以压得很低。
而且,Sui 上的代币经济学设计通常比较注重长期效用。如果 Walrus 能建立起一个类似“存储租赁市场”的生态,让闲置的硬盘空间真正变现,这个飞轮就能转起来。
七、 开发者体验:终于不用像做数学题一样存文件了
回到最开始的话题,为什么我对 @walrusprotocol 这么上心?因为它的 DevEx(开发者体验)让我看到了希望。
之前的很多去中心化存储项目,接入门槛真的高。你要跑节点,要搞复杂的 Deal(交易撮合),要担心扇区封装。
但看 Walrus 的 API 设计,它是 HTTP 友好的。它甚至可以直接通过 HTTP GET/PUT 请求来交互(通过聚合器)。
这意味着什么?
意味着我现在的 Web2 前端代码,可能只需要改几行 URL,就能无缝切换到 Web3 存储。不需要让前端工程师去重新学一套复杂的 SDK,也不需要用户去理解什么是 IPFS Hash(虽然底层有,但体验上可以很平滑)。
对于正在构建 Consumer Crypto(消费级加密应用)的我们来说,这种“无感”才是最重要的。用户根本不在乎你的数据存在哪,只要快、只要不丢。Walrus 恰恰提供了这种体验。
八、 写在最后:一块拼图
写了这么多,其实就是想理清楚我自己在这个技术浪潮里的位置。
我觉得区块链行业在经历了 DeFi 的金融狂欢、NFT 的资产泡沫之后,终于开始回归到一个本质问题:基础设施到底能不能支撑大规模应用?
只有当存储变得像水电一样廉价且随手可得,只有当去中心化不再意味着“慢”和“贵”,真正的 Mass Adoption 才会到来。
Walrus 并不是唯一的玩家,但我认为它是目前架构设计最优雅、最符合现代分布式系统理论的玩家之一。它利用 Sui 的速度解决了元数据问题,利用纠删码解决了成本问题,利用 RaptorQ 解决了传输效率问题。
如果把 Web3 比作一台计算机,以太坊是 CPU,Sui 是 GPU,那么 Walrus 很有希望成为那块大容量、高速度的 SSD 硬盘。
接下来的几个月,我会尝试把手头的一个图片类 SocialFi 项目全量迁移到 Walrus 测试网上跑跑看。不做单纯的纸上谈兵,只有真实的代码和流量,才能检验出它是不是真的像我在思考中推演的这么美好。#walrus $WAL
Sandy杉杉
·
--
拒绝“为了存储而存储”:关于 Walrus、状态爆炸与数据可用性的深度复盘昨晚盯着屏幕看了一宿的白皮书和架构图,脑子里全是关于状态爆炸(State Explosion)和数据可用性(DA)的权衡。说实话,过去两三年,我们虽然一直在喊 Web3 基础设施建设,但在“存数据”这件事上,整个行业的解决方案其实挺割裂的。要么贵得离谱,逼得大家只存哈希;要么慢得像蜗牛,完全没法做实时检索。 直到我重新审视了 @WalrusProtocol 的设计逻辑。 这不是那种看完哪怕觉得“哦,又一个做存储的”的平庸之作。越琢磨它的架构,越觉得它是在解决一个被很多人忽视、但实际上卡住了整个生态脖子的痛点:如何在高吞吐量的执行层(如 Sui)下,挂载一个既廉价又具备高鲁棒性的非结构化数据存储层? 我想把这几天的思维碎片整理一下,不是为了教谁怎么看项目,而是单纯理顺我自己对下一代存储范式的理解。#Walrus 一、 为什么我们还在为“存哪里”发愁? 现在的 L1 现状很尴尬。以太坊也好,其他高性能链也好,本质上都是在卖“区块空间”。区块空间是拿来做共识的,每一字节都金贵得要命。把图片、音频、甚至是庞大的 AI 模型权重塞进区块里,从工程角度看简直是暴殄天物。 所以我们有了 IPFS,有了 Arweave,有了 Filecoin。但老实说,在实际开发里,这种割裂感很强。IPFS 的持久性是个玄学(没人 Pin 就没了);Filecoin 的检索市场还没完全跑通;Arweave 很棒,但它的永存成本模型对于那些“我想存个 50G 的临时数据集”的场景来说,是不是有点太重了? 我在看 @walrusprotocol 的文档时,最先击中我的是它对 “Blob” (Binary Large Object) 的处理方式。它没有试图去重新发明一条“为了存储而存储的链”,而是非常聪明地把自己定位为一个专注于处理非结构化数据的去中心化网络,同时利用 Sui 作为其协调层。 这种设计很像是在云原生架构里,把计算(EC2)和存储(S3)彻底解耦。但在去中心化的世界里,要做到这一点,难点不在于解耦,而在于验证。 二、 纠删码(Erasure Coding)的艺术:Red Stuff 这部分是我觉得最迷人,也最硬核的地方。Walrus 用了一种叫“Red Stuff”的编码方案(基于 RaptorQ 的变体)。 以前我们做冗余,思路特别简单粗暴:复制。我有 1GB 数据,为了防止丢失,我存 3 份,那就是 3GB 的成本。这在 Web2 里无所谓,但在 Web3 的节点网络里,这简直是带宽和硬盘的噩梦。 Walrus 的思路是:不要复制,要编码。 如果我没理解错,它把数据切分成一个个 Blob,然后通过二维纠删码进行处理。这就像是以前我们在通信原理课上学的那些东西,但被应用到了分布式系统里。它把数据打散成无数个小碎片(Symbols),分发给存储节点。 神奇的地方在于恢复机制。 即使网络中有三分之一的节点挂了,或者作恶了,或者单纯就是数据丢了,只要我能收集到剩下那部分碎片里的任意一部分(达到一定阈值),我就能通过数学方法瞬间还原出原始的 1GB 数据。 这种“概率性存储”变成“确定性恢复”的过程,让我觉得非常优雅。这意味着 Walrus 不需要像传统方案那样维持极高的全副本冗余率,从而极大地降低了存储成本。对于存储节点来说,我不需要知道我存的这个碎片到底是一张猴子图片的左上角还是右下角,我只需要保证这个碎片在数学上的完整性。 这种架构直接解决了一个核心矛盾:高可用性 vs 低成本。 三、 为什么是 Sui? 这里有个很微妙的设计选择。Walrus 并没有自己搞一套复杂的共识层来管理元数据,而是直接利用了 Sui。 最开始我觉得这是不是一种捆绑?但深入想一下,这是工程上的最优解。 存储网络最怕的是什么?是元数据(Metadata)的管理混乱。谁存了什么?存了多久?付了多少钱?这些信息需要极高的 TPS 和极低的延迟来处理。Sui 的 Object 模型天生就适合干这个。在 Walrus 的架构里,Sui 充当了那个“指挥塔”的角色。 支付与鉴权: 在 Sui 上完成。 元数据索引: 也就是 Blob ID 到存储节点的映射,在 Sui 上状态化。 实际数据: 扔给 Walrus 的存储节点网格。 这种分层太干净了。我在想,如果我自己来设计一个去中心化的 YouTube,我甚至不需要在后端写太多复杂的逻辑。视频文件扔进 Walrus,拿回一个 Blob ID,把这个 ID 封装成一个 NFT 或者 Object 放在 Sui 上。用户的每一次播放请求,实际上就是去 Walrus 网络里拉取数据,而权限控制完全由链上逻辑决定。 这比现在的“链下存储 + 链上哈希”要紧密得多,因为 Walrus 的节点激励机制是直接绑定在这个生态里的。节点要是敢把数据弄丢了,Sui 上的智能合约就能直接通过质押惩罚机制教做人。这种原子性的绑定,是单纯用 S3 做不到的。 四、 关于“僵尸数据”和垃圾回收的思考 我在研究 Walrus 的经济模型时,一直在想一个问题:如果我存了数据,但我不想付钱了,或者这数据没用了,怎么办? 很多存储协议都有“状态膨胀”的问题,一旦上链,永世长存。这听起来很浪漫,但对于技术架构来说是灾难。硬盘是有物理极限的。 Walrus 引入了一个“Epoch”(时代)的概念。存储空间是可以被购买并持有的,但也可以通过不续费来释放。更重要的是,它的存储资源是可以被“交易”的。这有点像以太坊的 Gas,但这是存储维度的 Gas。 如果我是一个 AI 公司,我要训练一个大模型,我需要在一个月内存储 500TB 的清洗数据。训练完之后,这数据我可能就不需要热存储了。在 Walrus 上,我可以只买这段时间的存储权。这比 Arweave 的“一次付费,永久存储”模型要灵活得多,更适合高频交互的 Web3 应用。 而且,因为使用了纠删码,当网络需要扩容或者缩容时,数据的重新平衡(Rebalancing)成本比全副本模式低得多。节点之间只需要传输少量的纠删码分片,而不是搬运整个文件。这在网络拥堵的时候,简直是救命的特性。 五、 未来的想象:不仅仅是图片 如果只是为了存 NFT 的小图片,我觉得有点大材小用了。虽然这也是个刚需。 我在脑子里模拟了几个场景,觉得 #Walrus 可能会在这些领域爆发: 去中心化前端(DePIN for Web Hosting): 现在的 DApp 前端大多还是托管在 Vercel 或者 AWS 上。一旦 DNS 被劫持或者 AWS 封号,前端就挂了。如果把前端代码打包成 Blob 扔进 Walrus,结合 ENS 或 SuiNS,那就是真正的 Unstoppable Web。 AI 模型的去中心化分发: 现在的开源模型都在 Hugging Face 上。如果我们要搞去中心化 AI,模型权重文件动辄几十 G,存哪里?Walrus 的高吞吐和低成本,可能是目前最适合存放这些“大家伙”的地方。想象一下,链上代理自动拉取最新的模型权重进行推理,整个过程完全不依赖中心化服务器。 链上数据湖(Data Lake): Sui 的高 TPS 会产生海量的历史数据。这些数据全放在全节点里不现实。Walrus 可以作为 Sui 的归档层,把冷数据沉淀下来。分析师想要分析历史交易,直接去 Walrus 捞,而不影响主网性能。 六、 还有什么没解决的? 当然,没有完美的系统。我现在还在琢磨 Walrus 的 检索延迟 问题。 虽然纠删码在恢复数据上很强,但如果我要在网页上毫秒级加载一张高清大图,客户端需要并行连接多个存储节点,拉取分片,然后在本地解码。这对客户端的算力(虽然现在手机都很强)和网络并发能力有要求。 如果节点分布在全球各地,网络抖动会不会导致“拼图”卡在最后一块拼不出来?这可能需要一层 CDN(内容分发网络)或者缓存层来优化。我不确定 Walrus 团队目前对这块的规划是怎样的,或许未来会有专门的“检索矿工”出现? 另外,激励机制的博弈。存储节点往往是利润微薄的生意。如何保证节点运营者有足够的动力去维护高性能的硬件?仅仅靠存储费够吗?还是说必须依赖代币的通胀奖励?如果在熊市,代币价格下跌,节点会不会因为入不敷出而大面积关机?虽然纠删码能容忍节点掉线,但如果掉线率超过阈值,数据还是会丢。这不仅是技术问题,更是博弈论问题。 七、 写在最后 这几天看下来,最大的感受是:基础设施的战争远没有结束,甚至才刚刚进入“专业化”阶段。 以前我们是拿着锤子找钉子,有个 IPFS 就觉得能存万物。现在 @walrusprotocol 给我的感觉是,我们在根据钉子的形状造锤子。它精准地切入了“高性能链的大数据存储”这个细分市场。 这不仅仅是关于存储,更是关于 Web3 应用形态的解锁。当存储不再昂贵且笨重,开发者才敢去构想那些富媒体、高交互、真正能和 Web2 掰手腕的应用。 我不知道 Walrus 最终能不能成,但从架构审美上,它确实说服了我。那种把复杂性藏在数学里,把简洁留给开发者的设计哲学,才是一个协议该有的样子。 如果你也是做 infra 的,强烈建议去啃一下他们的白皮书。哪怕不买账,那种对于分布式系统设计取舍的思考过程,也足够让人受用。 接下来的几个月,我会试着在 Walrus 上跑几个 Demo,看看它在真实网络环境下的表现到底如何。毕竟,理论再完美,代码还得跑起来才算数。#walrus $WAL

拒绝“为了存储而存储”:关于 Walrus、状态爆炸与数据可用性的深度复盘

昨晚盯着屏幕看了一宿的白皮书和架构图,脑子里全是关于状态爆炸(State Explosion)和数据可用性(DA)的权衡。说实话,过去两三年,我们虽然一直在喊 Web3 基础设施建设,但在“存数据”这件事上,整个行业的解决方案其实挺割裂的。要么贵得离谱,逼得大家只存哈希;要么慢得像蜗牛,完全没法做实时检索。
直到我重新审视了 @Walrus 🦭/acc 的设计逻辑。
这不是那种看完哪怕觉得“哦,又一个做存储的”的平庸之作。越琢磨它的架构,越觉得它是在解决一个被很多人忽视、但实际上卡住了整个生态脖子的痛点:如何在高吞吐量的执行层(如 Sui)下,挂载一个既廉价又具备高鲁棒性的非结构化数据存储层?
我想把这几天的思维碎片整理一下,不是为了教谁怎么看项目,而是单纯理顺我自己对下一代存储范式的理解。#Walrus
一、 为什么我们还在为“存哪里”发愁?
现在的 L1 现状很尴尬。以太坊也好,其他高性能链也好,本质上都是在卖“区块空间”。区块空间是拿来做共识的,每一字节都金贵得要命。把图片、音频、甚至是庞大的 AI 模型权重塞进区块里,从工程角度看简直是暴殄天物。
所以我们有了 IPFS,有了 Arweave,有了 Filecoin。但老实说,在实际开发里,这种割裂感很强。IPFS 的持久性是个玄学(没人 Pin 就没了);Filecoin 的检索市场还没完全跑通;Arweave 很棒,但它的永存成本模型对于那些“我想存个 50G 的临时数据集”的场景来说,是不是有点太重了?
我在看 @walrusprotocol 的文档时,最先击中我的是它对 “Blob” (Binary Large Object) 的处理方式。它没有试图去重新发明一条“为了存储而存储的链”,而是非常聪明地把自己定位为一个专注于处理非结构化数据的去中心化网络,同时利用 Sui 作为其协调层。
这种设计很像是在云原生架构里,把计算(EC2)和存储(S3)彻底解耦。但在去中心化的世界里,要做到这一点,难点不在于解耦,而在于验证。
二、 纠删码(Erasure Coding)的艺术:Red Stuff
这部分是我觉得最迷人,也最硬核的地方。Walrus 用了一种叫“Red Stuff”的编码方案(基于 RaptorQ 的变体)。
以前我们做冗余,思路特别简单粗暴:复制。我有 1GB 数据,为了防止丢失,我存 3 份,那就是 3GB 的成本。这在 Web2 里无所谓,但在 Web3 的节点网络里,这简直是带宽和硬盘的噩梦。
Walrus 的思路是:不要复制,要编码。
如果我没理解错,它把数据切分成一个个 Blob,然后通过二维纠删码进行处理。这就像是以前我们在通信原理课上学的那些东西,但被应用到了分布式系统里。它把数据打散成无数个小碎片(Symbols),分发给存储节点。
神奇的地方在于恢复机制。 即使网络中有三分之一的节点挂了,或者作恶了,或者单纯就是数据丢了,只要我能收集到剩下那部分碎片里的任意一部分(达到一定阈值),我就能通过数学方法瞬间还原出原始的 1GB 数据。
这种“概率性存储”变成“确定性恢复”的过程,让我觉得非常优雅。这意味着 Walrus 不需要像传统方案那样维持极高的全副本冗余率,从而极大地降低了存储成本。对于存储节点来说,我不需要知道我存的这个碎片到底是一张猴子图片的左上角还是右下角,我只需要保证这个碎片在数学上的完整性。
这种架构直接解决了一个核心矛盾:高可用性 vs 低成本。
三、 为什么是 Sui?
这里有个很微妙的设计选择。Walrus 并没有自己搞一套复杂的共识层来管理元数据,而是直接利用了 Sui。
最开始我觉得这是不是一种捆绑?但深入想一下,这是工程上的最优解。
存储网络最怕的是什么?是元数据(Metadata)的管理混乱。谁存了什么?存了多久?付了多少钱?这些信息需要极高的 TPS 和极低的延迟来处理。Sui 的 Object 模型天生就适合干这个。在 Walrus 的架构里,Sui 充当了那个“指挥塔”的角色。
支付与鉴权: 在 Sui 上完成。
元数据索引: 也就是 Blob ID 到存储节点的映射,在 Sui 上状态化。
实际数据: 扔给 Walrus 的存储节点网格。
这种分层太干净了。我在想,如果我自己来设计一个去中心化的 YouTube,我甚至不需要在后端写太多复杂的逻辑。视频文件扔进 Walrus,拿回一个 Blob ID,把这个 ID 封装成一个 NFT 或者 Object 放在 Sui 上。用户的每一次播放请求,实际上就是去 Walrus 网络里拉取数据,而权限控制完全由链上逻辑决定。
这比现在的“链下存储 + 链上哈希”要紧密得多,因为 Walrus 的节点激励机制是直接绑定在这个生态里的。节点要是敢把数据弄丢了,Sui 上的智能合约就能直接通过质押惩罚机制教做人。这种原子性的绑定,是单纯用 S3 做不到的。
四、 关于“僵尸数据”和垃圾回收的思考
我在研究 Walrus 的经济模型时,一直在想一个问题:如果我存了数据,但我不想付钱了,或者这数据没用了,怎么办?
很多存储协议都有“状态膨胀”的问题,一旦上链,永世长存。这听起来很浪漫,但对于技术架构来说是灾难。硬盘是有物理极限的。
Walrus 引入了一个“Epoch”(时代)的概念。存储空间是可以被购买并持有的,但也可以通过不续费来释放。更重要的是,它的存储资源是可以被“交易”的。这有点像以太坊的 Gas,但这是存储维度的 Gas。
如果我是一个 AI 公司,我要训练一个大模型,我需要在一个月内存储 500TB 的清洗数据。训练完之后,这数据我可能就不需要热存储了。在 Walrus 上,我可以只买这段时间的存储权。这比 Arweave 的“一次付费,永久存储”模型要灵活得多,更适合高频交互的 Web3 应用。
而且,因为使用了纠删码,当网络需要扩容或者缩容时,数据的重新平衡(Rebalancing)成本比全副本模式低得多。节点之间只需要传输少量的纠删码分片,而不是搬运整个文件。这在网络拥堵的时候,简直是救命的特性。
五、 未来的想象:不仅仅是图片
如果只是为了存 NFT 的小图片,我觉得有点大材小用了。虽然这也是个刚需。
我在脑子里模拟了几个场景,觉得 #Walrus 可能会在这些领域爆发:
去中心化前端(DePIN for Web Hosting): 现在的 DApp 前端大多还是托管在 Vercel 或者 AWS 上。一旦 DNS 被劫持或者 AWS 封号,前端就挂了。如果把前端代码打包成 Blob 扔进 Walrus,结合 ENS 或 SuiNS,那就是真正的 Unstoppable Web。
AI 模型的去中心化分发: 现在的开源模型都在 Hugging Face 上。如果我们要搞去中心化 AI,模型权重文件动辄几十 G,存哪里?Walrus 的高吞吐和低成本,可能是目前最适合存放这些“大家伙”的地方。想象一下,链上代理自动拉取最新的模型权重进行推理,整个过程完全不依赖中心化服务器。
链上数据湖(Data Lake): Sui 的高 TPS 会产生海量的历史数据。这些数据全放在全节点里不现实。Walrus 可以作为 Sui 的归档层,把冷数据沉淀下来。分析师想要分析历史交易,直接去 Walrus 捞,而不影响主网性能。
六、 还有什么没解决的?
当然,没有完美的系统。我现在还在琢磨 Walrus 的 检索延迟 问题。
虽然纠删码在恢复数据上很强,但如果我要在网页上毫秒级加载一张高清大图,客户端需要并行连接多个存储节点,拉取分片,然后在本地解码。这对客户端的算力(虽然现在手机都很强)和网络并发能力有要求。
如果节点分布在全球各地,网络抖动会不会导致“拼图”卡在最后一块拼不出来?这可能需要一层 CDN(内容分发网络)或者缓存层来优化。我不确定 Walrus 团队目前对这块的规划是怎样的,或许未来会有专门的“检索矿工”出现?
另外,激励机制的博弈。存储节点往往是利润微薄的生意。如何保证节点运营者有足够的动力去维护高性能的硬件?仅仅靠存储费够吗?还是说必须依赖代币的通胀奖励?如果在熊市,代币价格下跌,节点会不会因为入不敷出而大面积关机?虽然纠删码能容忍节点掉线,但如果掉线率超过阈值,数据还是会丢。这不仅是技术问题,更是博弈论问题。
七、 写在最后
这几天看下来,最大的感受是:基础设施的战争远没有结束,甚至才刚刚进入“专业化”阶段。
以前我们是拿着锤子找钉子,有个 IPFS 就觉得能存万物。现在 @walrusprotocol 给我的感觉是,我们在根据钉子的形状造锤子。它精准地切入了“高性能链的大数据存储”这个细分市场。
这不仅仅是关于存储,更是关于 Web3 应用形态的解锁。当存储不再昂贵且笨重,开发者才敢去构想那些富媒体、高交互、真正能和 Web2 掰手腕的应用。
我不知道 Walrus 最终能不能成,但从架构审美上,它确实说服了我。那种把复杂性藏在数学里,把简洁留给开发者的设计哲学,才是一个协议该有的样子。
如果你也是做 infra 的,强烈建议去啃一下他们的白皮书。哪怕不买账,那种对于分布式系统设计取舍的思考过程,也足够让人受用。
接下来的几个月,我会试着在 Walrus 上跑几个 Demo,看看它在真实网络环境下的表现到底如何。毕竟,理论再完美,代码还得跑起来才算数。#walrus $WAL
Sandy杉杉
·
--
最近在对比以太坊上的 ERC-1400 证券型代币标准和 @Dusk_Foundation 的 XSC(Confidential Security Contract)标准。我的直观感受是,以太坊上的合规尝试往往是“补丁式”的,为了实现隐私和合规,往往需要叠加极其复杂的合约逻辑,这直接导致了 Gas 费用的指数级上升。机构如果要在这种环境下进行高频交易,成本是不可控的。 反观 Dusk 的架构设计,它把隐私资产的定义权下沉到了协议层。XSC 不仅仅是一个代币标准,更像是一种原生的隐私容器。我在想,这种设计的核心价值在于降低了“隐私溢价”。在 Dusk 上转账一个合规的证券代币,其计算成本被底层的 ZK 电路摊薄了,而不是像在 EVM 上那样,每一笔隐私交易都要单独运行昂贵的验证合约。 此外,XSC 解决了一个我很在意的痛点:资产全生命周期的隐私保护。不仅是转账金额不可见,连分红、投票这些公司治理行为,在 Dusk 上都能通过零知识证明进行隐秘处理。这对于上市公司来说太重要了——他们不仅怕泄露谁买了股票,更怕泄露公司的分红策略或股东的实时持仓结构。这种“默认隐私”(Privacy by Default)的资产发行环境,才是 RWA 能够从实验走向商用的关键。#dusk $DUSK
最近在对比以太坊上的 ERC-1400 证券型代币标准和 @Dusk 的 XSC(Confidential Security Contract)标准。我的直观感受是,以太坊上的合规尝试往往是“补丁式”的,为了实现隐私和合规,往往需要叠加极其复杂的合约逻辑,这直接导致了 Gas 费用的指数级上升。机构如果要在这种环境下进行高频交易,成本是不可控的。
反观 Dusk 的架构设计,它把隐私资产的定义权下沉到了协议层。XSC 不仅仅是一个代币标准,更像是一种原生的隐私容器。我在想,这种设计的核心价值在于降低了“隐私溢价”。在 Dusk 上转账一个合规的证券代币,其计算成本被底层的 ZK 电路摊薄了,而不是像在 EVM 上那样,每一笔隐私交易都要单独运行昂贵的验证合约。
此外,XSC 解决了一个我很在意的痛点:资产全生命周期的隐私保护。不仅是转账金额不可见,连分红、投票这些公司治理行为,在 Dusk 上都能通过零知识证明进行隐秘处理。这对于上市公司来说太重要了——他们不仅怕泄露谁买了股票,更怕泄露公司的分红策略或股东的实时持仓结构。这种“默认隐私”(Privacy by Default)的资产发行环境,才是 RWA 能够从实验走向商用的关键。#dusk $DUSK
Sandy杉杉
·
--
既然在看隐私赛道,就不能忽略 @Dusk_Foundation 的 Citadel 协议。我之前的思维误区往往认为隐私就是彻底的匿名(Anonymity),但在严格的金融监管语境下,隐私其实应该是“可控的透明度”。Citadel 的设计不仅仅是把 KYC 放在链上,而是利用零知识证明实现了“数据最小化披露”原则。 一直在思考,传统的 KYC 流程是中心化的风险单点,用户必须把护照、资产证明交给平台。但在 Dusk 的架构里,逻辑变成了 Self-Sovereign Identity (SSI,自主权身份)。用户不需要公开自己的具体身份信息,只需要生成一个 ZK 证明,向网络证明“我满足合格投资者标准”或“我不在制裁名单上”。验证节点看到的只是一个数学上的“True”,而非具体的 JPEG 文件。 这对流动性池(Liquidity Pools)的意义巨大。未来的 DEX 不需要为了合规而牺牲去中心化,可以直接在智能合约层面调用 Citadel 的接口,原子化地过滤掉非合规资金。这种将合规逻辑“原语化”(Primitive)并嵌入到底层标准中的做法,大概率是 RWA(现实世界资产)真正爆发的前置条件。这种架构让我确信,他们不仅是在做隐私技术,而是在编写一套能适配法律代码的机器代码。#dusk $DUSK
既然在看隐私赛道,就不能忽略 @Dusk 的 Citadel 协议。我之前的思维误区往往认为隐私就是彻底的匿名(Anonymity),但在严格的金融监管语境下,隐私其实应该是“可控的透明度”。Citadel 的设计不仅仅是把 KYC 放在链上,而是利用零知识证明实现了“数据最小化披露”原则。
一直在思考,传统的 KYC 流程是中心化的风险单点,用户必须把护照、资产证明交给平台。但在 Dusk 的架构里,逻辑变成了 Self-Sovereign Identity (SSI,自主权身份)。用户不需要公开自己的具体身份信息,只需要生成一个 ZK 证明,向网络证明“我满足合格投资者标准”或“我不在制裁名单上”。验证节点看到的只是一个数学上的“True”,而非具体的 JPEG 文件。
这对流动性池(Liquidity Pools)的意义巨大。未来的 DEX 不需要为了合规而牺牲去中心化,可以直接在智能合约层面调用 Citadel 的接口,原子化地过滤掉非合规资金。这种将合规逻辑“原语化”(Primitive)并嵌入到底层标准中的做法,大概率是 RWA(现实世界资产)真正爆发的前置条件。这种架构让我确信,他们不仅是在做隐私技术,而是在编写一套能适配法律代码的机器代码。#dusk $DUSK
Sandy杉杉
·
--
Recentemente ho esaminato le valutazioni delle prestazioni di ZK-VM e ho riflettuto sulle difficoltà di implementazione del calcolo privato generico. Anche se gli ZK-Rollup attuali hanno risolto il problema della scalabilità, nella supporto nativo alla privacy continua a sembrare molto "pesante". Dopo aver approfondito l'architettura della macchina virtuale Piecrust di @Dusk_Foundation , ho la sensazione che abbiano intrapreso un percorso ingegneristico completamente diverso. Il punto forte di Piecrust è che si basa sullo standard WebAssembly (WASM) e ha ottimizzato profondamente il processo di deserializzazione dei dati zero-copy. Sto pensando che questo tipo di design sia fondamentale per migliorare la velocità di accesso allo stato (State Access). In passato, quando tentavo di implementare logica di privacy su EVM, il solo costo di aggiornamento dell'albero di Merkle era sufficiente a scoraggiare contratti finanziari complessi. Ma #Dusk, attraverso Piecrust, sembra aver risolto il collo di bottiglia del mantenimento di un'alta capacità di lettura dello stato mentre si preserva la privacy. Particolarmente, consente ai contratti di avere un vero "stato privato" (Private State). Se voglio implementare un contratto per la distribuzione automatica di dividendi, e devo mantenere rigorosamente segrete le quote specifiche dei detentori, i contratti intelligenti ordinari non possono farlo. L'architettura di Dusk non nasconde solo l'importo delle transazioni, ma può anche nascondere i parametri della logica di business interna del contratto intelligente. Questa scelta di stack tecnologico—combinando l'ambiente di esecuzione Rusk con il sistema di prove PLONK—non è solo per l'efficienza di esecuzione, ma anche per abbassare la soglia di generazione delle prove da parte del client. Le future applicazioni finanziarie on-chain, se non riescono a generare prove ZK a bassa latenza sul lato del browser dell'utente, non potranno mai realmente diffondersi. L'ottimizzazione a livello di base di Dusk per la generazione di prove client-side potrebbe essere ciò che lo distingue maggiormente da altri Layer 1 come la tecnologia di protezione più sottovalutata. #dusk $DUSK
Recentemente ho esaminato le valutazioni delle prestazioni di ZK-VM e ho riflettuto sulle difficoltà di implementazione del calcolo privato generico. Anche se gli ZK-Rollup attuali hanno risolto il problema della scalabilità, nella supporto nativo alla privacy continua a sembrare molto "pesante". Dopo aver approfondito l'architettura della macchina virtuale Piecrust di @Dusk , ho la sensazione che abbiano intrapreso un percorso ingegneristico completamente diverso.
Il punto forte di Piecrust è che si basa sullo standard WebAssembly (WASM) e ha ottimizzato profondamente il processo di deserializzazione dei dati zero-copy. Sto pensando che questo tipo di design sia fondamentale per migliorare la velocità di accesso allo stato (State Access). In passato, quando tentavo di implementare logica di privacy su EVM, il solo costo di aggiornamento dell'albero di Merkle era sufficiente a scoraggiare contratti finanziari complessi. Ma #Dusk, attraverso Piecrust, sembra aver risolto il collo di bottiglia del mantenimento di un'alta capacità di lettura dello stato mentre si preserva la privacy.
Particolarmente, consente ai contratti di avere un vero "stato privato" (Private State). Se voglio implementare un contratto per la distribuzione automatica di dividendi, e devo mantenere rigorosamente segrete le quote specifiche dei detentori, i contratti intelligenti ordinari non possono farlo. L'architettura di Dusk non nasconde solo l'importo delle transazioni, ma può anche nascondere i parametri della logica di business interna del contratto intelligente.
Questa scelta di stack tecnologico—combinando l'ambiente di esecuzione Rusk con il sistema di prove PLONK—non è solo per l'efficienza di esecuzione, ma anche per abbassare la soglia di generazione delle prove da parte del client. Le future applicazioni finanziarie on-chain, se non riescono a generare prove ZK a bassa latenza sul lato del browser dell'utente, non potranno mai realmente diffondersi. L'ottimizzazione a livello di base di Dusk per la generazione di prove client-side potrebbe essere ciò che lo distingue maggiormente da altri Layer 1 come la tecnologia di protezione più sottovalutata. #dusk $DUSK
Sandy杉杉
·
--
Ho guardato a lungo il diagramma di flusso del consenso per @Dusk_Foundation , ripetutamente elaborando i costi di implementazione della "finalità immediata" (Instant Finality) su una blockchain pubblica per la privacy. Di solito, dopo l'introduzione delle prove a conoscenza zero (ZKP), il sovraccarico computazionale per generare le prove rallenta la velocità di estrazione dei blocchi dell'intera rete, ma il design di Dusk sembra cercare di aggirare questo "triangolo impossibile". Il punto chiave è nel meccanismo di Attestazione Succinta (Succinct Attestation) che adottano. Ho notato che non seguono la tradizionale logica di voto PoS pesante, ma utilizzano l'aggregazione delle firme BLS per comprimere il processo di verifica. Questo significa che, una volta che un blocco è approvato dal comitato di validatori, è irreversibile. Questo è cruciale per le applicazioni finanziarie: a livello di settlement, non ci possono essere rischi di rollback probabilistici. Se devo mettere azioni o obbligazioni sulla catena, ho bisogno di una certezza assoluta a livello di Settlement, non di una sicurezza probabilistica che aspetta 10 conferme di blocco. È ancora più interessante il protocollo di offerta cieca (Blind Bid). Nelle blockchain pubbliche tradizionali, i diritti dei nodi in staking sono generalmente pubblici, il che può facilmente portare a targeting di grandi investitori o attacchi MEV (Massimizzazione del Valore Estraibile). #Dusk consente ai nodi di partecipare al consenso senza rivelare la quantità specifica di staking, utilizzando ZK per dimostrare la propria idoneità alla verifica. Questa protezione della privacy implementata a livello di consenso (Consensus Level) e non semplicemente a livello di transazione è molto rara nei progetti Layer 1 attuali. Adesso sono sempre più convinto che la difficoltà di costruire una blockchain per la privacy non risieda negli algoritmi crittografici stessi, ma nel come evitare che questi calcoli pesanti blocchino la rete. Dusk ha profondamente accoppiato la verifica ZK nel consenso SBA (protocollo di Byzantine isolato), questa decisione architetturale è chiaramente stata presa per prepararsi a transazioni finanziarie ad alta frequenza. Non si tratta solo di ottimizzazioni a livello di codice, ma di una scommessa su un'architettura di base per un mercato finanziario conforme futuro. #dusk $DUSK
Ho guardato a lungo il diagramma di flusso del consenso per @Dusk , ripetutamente elaborando i costi di implementazione della "finalità immediata" (Instant Finality) su una blockchain pubblica per la privacy. Di solito, dopo l'introduzione delle prove a conoscenza zero (ZKP), il sovraccarico computazionale per generare le prove rallenta la velocità di estrazione dei blocchi dell'intera rete, ma il design di Dusk sembra cercare di aggirare questo "triangolo impossibile".
Il punto chiave è nel meccanismo di Attestazione Succinta (Succinct Attestation) che adottano. Ho notato che non seguono la tradizionale logica di voto PoS pesante, ma utilizzano l'aggregazione delle firme BLS per comprimere il processo di verifica. Questo significa che, una volta che un blocco è approvato dal comitato di validatori, è irreversibile. Questo è cruciale per le applicazioni finanziarie: a livello di settlement, non ci possono essere rischi di rollback probabilistici. Se devo mettere azioni o obbligazioni sulla catena, ho bisogno di una certezza assoluta a livello di Settlement, non di una sicurezza probabilistica che aspetta 10 conferme di blocco.
È ancora più interessante il protocollo di offerta cieca (Blind Bid). Nelle blockchain pubbliche tradizionali, i diritti dei nodi in staking sono generalmente pubblici, il che può facilmente portare a targeting di grandi investitori o attacchi MEV (Massimizzazione del Valore Estraibile). #Dusk consente ai nodi di partecipare al consenso senza rivelare la quantità specifica di staking, utilizzando ZK per dimostrare la propria idoneità alla verifica. Questa protezione della privacy implementata a livello di consenso (Consensus Level) e non semplicemente a livello di transazione è molto rara nei progetti Layer 1 attuali.
Adesso sono sempre più convinto che la difficoltà di costruire una blockchain per la privacy non risieda negli algoritmi crittografici stessi, ma nel come evitare che questi calcoli pesanti blocchino la rete. Dusk ha profondamente accoppiato la verifica ZK nel consenso SBA (protocollo di Byzantine isolato), questa decisione architetturale è chiaramente stata presa per prepararsi a transazioni finanziarie ad alta frequenza. Non si tratta solo di ottimizzazioni a livello di codice, ma di una scommessa su un'architettura di base per un mercato finanziario conforme futuro. #dusk $DUSK
Sandy杉杉
·
--
Recentemente ho ripensato ai veri ostacoli alla massiccia tokenizzazione degli RWA (Asset del Mondo Reale) sulla blockchain. La semplice competizione TPS ha già raggiunto un effetto marginale decrescente in questa fase, e i fondi istituzionali non possono ancora entrare su larga scala attraverso i canali DeFi. Il vero problema non è la velocità, ma la contraddizione tra ‘privacy’ e ‘compliance’. Le istituzioni non possono ‘correre nude’ con i dati delle transazioni sulla blockchain, ma le autorità richiedono che l'intero processo sia auditabile. Durante lo studio approfondito del white paper tecnico di @Dusk_Foundation , ho scoperto che la loro logica architettonica colpisce un punto critico. A differenza dei mixer di privacy esterni su Ethereum, Dusk ha scelto di integrare direttamente la prova a conoscenza zero (ZKP) nel layer di consenso di Layer 1. Questo mi ha fatto capire che ciò che stanno facendo non è semplicemente nascondere i dati, ma piuttosto fornire una ‘prova di correttezza computazionale’ tramite l'algoritmo PLONK — ovvero verificare la conformità dei dati senza rivelarli. Particolarmente interessante è la macchina virtuale Piecrust, che non solo è amichevole con ZK, ma è anche sicura in termini di memoria. Questo significa che gli sviluppatori possono scrivere smart contract su #Dusk, eseguendo automaticamente logiche di compliance (come la verifica automatizzata di KYC/AML), mentre nascondono completamente i dettagli delle transazioni. Questa ‘privacy programmabile’ è il cuore di RegDeFi (finanza decentralizzata regolamentata). Quando rifletto sull'architettura finanziaria futura, mi chiedo spesso se la tokenizzazione dei titoli (Security Tokens) possa davvero decollare, dovendo fare affidamento su questo tipo di infrastruttura sottostante. Il loro standard XSC consente il flusso di asset all'interno di una whitelist di compliance, senza sacrificare le caratteristiche di decentralizzazione e resistenza alla censura. Rispetto ai patchwork a livello applicativo, questo design crittografico nativo a livello sottostante potrebbe davvero colmare il divario tra TradFi e DeFi. Questo ‘layer di privacy compliant’ è attualmente l'anello più scarso nelle infrastrutture. #dusk $DUSK
Recentemente ho ripensato ai veri ostacoli alla massiccia tokenizzazione degli RWA (Asset del Mondo Reale) sulla blockchain. La semplice competizione TPS ha già raggiunto un effetto marginale decrescente in questa fase, e i fondi istituzionali non possono ancora entrare su larga scala attraverso i canali DeFi. Il vero problema non è la velocità, ma la contraddizione tra ‘privacy’ e ‘compliance’. Le istituzioni non possono ‘correre nude’ con i dati delle transazioni sulla blockchain, ma le autorità richiedono che l'intero processo sia auditabile.
Durante lo studio approfondito del white paper tecnico di @Dusk , ho scoperto che la loro logica architettonica colpisce un punto critico. A differenza dei mixer di privacy esterni su Ethereum, Dusk ha scelto di integrare direttamente la prova a conoscenza zero (ZKP) nel layer di consenso di Layer 1. Questo mi ha fatto capire che ciò che stanno facendo non è semplicemente nascondere i dati, ma piuttosto fornire una ‘prova di correttezza computazionale’ tramite l'algoritmo PLONK — ovvero verificare la conformità dei dati senza rivelarli.
Particolarmente interessante è la macchina virtuale Piecrust, che non solo è amichevole con ZK, ma è anche sicura in termini di memoria. Questo significa che gli sviluppatori possono scrivere smart contract su #Dusk, eseguendo automaticamente logiche di compliance (come la verifica automatizzata di KYC/AML), mentre nascondono completamente i dettagli delle transazioni. Questa ‘privacy programmabile’ è il cuore di RegDeFi (finanza decentralizzata regolamentata).
Quando rifletto sull'architettura finanziaria futura, mi chiedo spesso se la tokenizzazione dei titoli (Security Tokens) possa davvero decollare, dovendo fare affidamento su questo tipo di infrastruttura sottostante. Il loro standard XSC consente il flusso di asset all'interno di una whitelist di compliance, senza sacrificare le caratteristiche di decentralizzazione e resistenza alla censura. Rispetto ai patchwork a livello applicativo, questo design crittografico nativo a livello sottostante potrebbe davvero colmare il divario tra TradFi e DeFi. Questo ‘layer di privacy compliant’ è attualmente l'anello più scarso nelle infrastrutture. #dusk $DUSK
Sandy杉杉
·
--
L'ordine nella nebbia: una ricostruzione notturna sul layer di privacy conforme e Piecrust VMDi recente, mentre esaminavo alcune architetture di base Layer 1, mi sono sempre trovato inevitabilmente intrappolato in un circolo vizioso di nichilismo tecnologico: abbiamo davvero bisogno di così tante blockchain pubbliche ad alte prestazioni? Quando la corsa agli armamenti del TPS (transazioni al secondo) ha già ceduto il passo alla disponibilità dei dati (DA) e alla narrazione modulare, ho notato che tutti sembrano evitare deliberatamente l'elefante nella stanza: il paradosso tra privacy e regolamentazione. In questi giorni ho passato un po' di tempo a guardare i registri di commit di GitHub di @Dusk_Foundation e il concetto vago di 'DeFi a livello istituzionale' nella mia testa ha iniziato a diventare più chiaro. Abbiamo sempre parlato di RWA (attività del mondo reale) sulla blockchain, ma se ci pensi attentamente, la logica di base attuale dell'EVM è praticamente una 'prigione trasparente' su misura per i fondi istituzionali. Nessun fondo hedge o banca sarebbe disposto a esporre le proprie posizioni e strategie su un libro mastro completamente pubblico, a meno che sopra quel libro mastro ci sia un meccanismo di protezione della privacy estremamente pesante e decentralizzato.

L'ordine nella nebbia: una ricostruzione notturna sul layer di privacy conforme e Piecrust VM

Di recente, mentre esaminavo alcune architetture di base Layer 1, mi sono sempre trovato inevitabilmente intrappolato in un circolo vizioso di nichilismo tecnologico: abbiamo davvero bisogno di così tante blockchain pubbliche ad alte prestazioni? Quando la corsa agli armamenti del TPS (transazioni al secondo) ha già ceduto il passo alla disponibilità dei dati (DA) e alla narrazione modulare, ho notato che tutti sembrano evitare deliberatamente l'elefante nella stanza: il paradosso tra privacy e regolamentazione.
In questi giorni ho passato un po' di tempo a guardare i registri di commit di GitHub di @Dusk e il concetto vago di 'DeFi a livello istituzionale' nella mia testa ha iniziato a diventare più chiaro. Abbiamo sempre parlato di RWA (attività del mondo reale) sulla blockchain, ma se ci pensi attentamente, la logica di base attuale dell'EVM è praticamente una 'prigione trasparente' su misura per i fondi istituzionali. Nessun fondo hedge o banca sarebbe disposto a esporre le proprie posizioni e strategie su un libro mastro completamente pubblico, a meno che sopra quel libro mastro ci sia un meccanismo di protezione della privacy estremamente pesante e decentralizzato.
Sandy杉杉
·
--
Ricostruire i confini matematici della fiducia: note ingegneristiche approfondite sull'architettura privacy della @dusk_foundation e sull'implementazione di RegDeFiRecentemente ho riflettuto sulle fondamentali carenze attuali delle blockchain Layer 1 nel gestire gli RWA (real world assets). Questo non è solo un problema di TPS, ma più una frattura tra la logica del libro mastro sottostante e la riservatezza delle esigenze fondamentali dei mercati finanziari. La trasparenza di Bitcoin ed Ethereum è la loro caratteristica principale, ma quando si tratta di tokenizzazione dei titoli, questo diventa il più grande bug. Ho visto molti tentativi di applicare patch sui Layer 2 privacy solutions sull'EVM, ma la maggior parte si limita a confondere le transazioni senza risolvere il problema della coesistenza di conformità e privacy a livello di consenso e di macchina virtuale. In questi giorni sto riorganizzando il white paper e gli aggiornamenti del repository GitHub di @Dusk_Foundation , in particolare i dettagli sull'implementazione della macchina virtuale Piecrust e del Proof of Blind Bid (PoBB), il che mi ha dato una nuova comprensione della definizione di blockchain pubbliche per la privacy. È come se stessimo cercando di costruire una scatola nera che possa soddisfare i requisiti del regolamento MiCA e mantenere al contempo le caratteristiche di decentralizzazione. Non è una semplice crittografia, ma una ricostruzione della gestione dello stato del libro mastro.

Ricostruire i confini matematici della fiducia: note ingegneristiche approfondite sull'architettura privacy della @dusk_foundation e sull'implementazione di RegDeFi

Recentemente ho riflettuto sulle fondamentali carenze attuali delle blockchain Layer 1 nel gestire gli RWA (real world assets). Questo non è solo un problema di TPS, ma più una frattura tra la logica del libro mastro sottostante e la riservatezza delle esigenze fondamentali dei mercati finanziari. La trasparenza di Bitcoin ed Ethereum è la loro caratteristica principale, ma quando si tratta di tokenizzazione dei titoli, questo diventa il più grande bug. Ho visto molti tentativi di applicare patch sui Layer 2 privacy solutions sull'EVM, ma la maggior parte si limita a confondere le transazioni senza risolvere il problema della coesistenza di conformità e privacy a livello di consenso e di macchina virtuale. In questi giorni sto riorganizzando il white paper e gli aggiornamenti del repository GitHub di @Dusk , in particolare i dettagli sull'implementazione della macchina virtuale Piecrust e del Proof of Blind Bid (PoBB), il che mi ha dato una nuova comprensione della definizione di blockchain pubbliche per la privacy. È come se stessimo cercando di costruire una scatola nera che possa soddisfare i requisiti del regolamento MiCA e mantenere al contempo le caratteristiche di decentralizzazione. Non è una semplice crittografia, ma una ricostruzione della gestione dello stato del libro mastro.
Sandy杉杉
·
--
Il labirinto delle prove a conoscenza zero e l'alba di RegDeFi: una ricostruzione notturna dell'architettura di DuskIl suono della pioggia fuori dalla finestra è piuttosto forte, questo tipo di tempo è sempre adatto a riflettere su alcune questioni di logica di base. Recentemente ho rivalutato il settore della privacy di Layer 1; questa rivalutazione non è dovuta all'ansia per le fluttuazioni dei grafici del mercato secondario, ma nasce da una confusione tecnica più profonda: perché l'esplosione su larga scala degli Asset del Mondo Reale (RWA) è stata proclamata per tre anni interi, ma rimane ancora nella fase di “ascoltare il canto del drago”? Sia che si tratti dell'ingresso di BlackRock, sia dei vari tentativi di tokenizzazione dei titoli di stato, sembra che tutti siano bloccati in un collo di bottiglia invisibile. Ieri sera ho passato gran parte della notte a rileggere alcuni articoli sui white paper tecnici riguardanti ZK-Rollup e blockchain privacy. I miei occhi si sono nuovamente soffermati sul design architettonico di @Dusk_Foundation . Se non si considera Dusk solo come una catena, ma come un insieme di protocolli crittografici progettati specificamente per la “privacy conforme al finanziario”, molte logiche sembrano diventare chiare. Ho disegnato e cancellato su carta da bozza, cercando di dedurre come la “morte nemica” tra privacy e conformità possa stringere la mano e fare pace nel framework di ZK (prove a conoscenza zero). Non si tratta solo di una questione di scelta tecnologica, ma riguarda il modo in cui gli asset finanziari saranno liquidati nei prossimi vent'anni.

Il labirinto delle prove a conoscenza zero e l'alba di RegDeFi: una ricostruzione notturna dell'architettura di Dusk

Il suono della pioggia fuori dalla finestra è piuttosto forte, questo tipo di tempo è sempre adatto a riflettere su alcune questioni di logica di base. Recentemente ho rivalutato il settore della privacy di Layer 1; questa rivalutazione non è dovuta all'ansia per le fluttuazioni dei grafici del mercato secondario, ma nasce da una confusione tecnica più profonda: perché l'esplosione su larga scala degli Asset del Mondo Reale (RWA) è stata proclamata per tre anni interi, ma rimane ancora nella fase di “ascoltare il canto del drago”? Sia che si tratti dell'ingresso di BlackRock, sia dei vari tentativi di tokenizzazione dei titoli di stato, sembra che tutti siano bloccati in un collo di bottiglia invisibile.
Ieri sera ho passato gran parte della notte a rileggere alcuni articoli sui white paper tecnici riguardanti ZK-Rollup e blockchain privacy. I miei occhi si sono nuovamente soffermati sul design architettonico di @Dusk . Se non si considera Dusk solo come una catena, ma come un insieme di protocolli crittografici progettati specificamente per la “privacy conforme al finanziario”, molte logiche sembrano diventare chiare. Ho disegnato e cancellato su carta da bozza, cercando di dedurre come la “morte nemica” tra privacy e conformità possa stringere la mano e fare pace nel framework di ZK (prove a conoscenza zero). Non si tratta solo di una questione di scelta tecnologica, ma riguarda il modo in cui gli asset finanziari saranno liquidati nei prossimi vent'anni.
Sandy杉杉
·
--
Recentemente ho analizzato i dati on-chain di @Plasma , soprattutto le azioni integrate con NEAR Intents negli ultimi giorni. La maggior parte dell'attenzione del mercato è ancora rivolta allo sblocco dei token (Unlock) di oggi e alle fluttuazioni delle candele K, ma io preferisco distaccarmi dalle emozioni e vedere se la logica sottostante è cambiata. Negli ultimi giorni mi sono chiesto una cosa: perché scegliere di integrare NEAR Intents in questo momento? A prima vista sembra una collaborazione cross-chain, ma scavando più a fondo, si tratta in realtà di risolvere il problema dell'illiquidità delle stablecoin nella “ultima mezza miglia”. La narrativa principale di Plasma è sempre stata piuttosto “noiosa” — si tratta di fare pagamenti e di essere un Layer 1 per le stablecoin. Non ci sono promesse elaborate di Metaverse, né modelli Ponzi complessi. Ma questa “noia” è esattamente ciò che ci si aspetta da un'infrastruttura. Collegando oltre 25 chain e 125 asset attraverso l'architettura Intent, in sostanza si sta facendo “astrazione della chain” (Chain Abstraction). Per gli utenti, ciò che conta non è su quale chain si trovano gli asset, ma se possono completare il trasferimento a zero commissioni di USDT in uno stato di non percezione. Un aspetto che considero importante di Plasma è che sembra intenzionalmente ridurre la percezione della “blockchain”. L'adozione su larga scala dei pagamenti non dovrebbe richiedere agli utenti di imparare cosa sia il Gas o cosa sia il Bridge, ma dovrebbe essere naturale come strisciare una carta. Tornando al mercato, lo sblocco porterà effettivamente a un'aspettativa di pressione di vendita a breve termine, questo è un principio di mercato. Ma se allarghiamo la prospettiva a Q2, supportati dalla posizione ecologica di Tether e Bitfinex, aggiungendo questo bisogno fondamentale di “trasferimento stabile a zero Gas”, i fondamentali attuali sono in realtà sottovalutati. Il mercato attuale ama inseguire le tendenze, ma spesso ignora questi progetti che stanno silenziosamente costruendo tubature di pagamento globali. Quando la marea si ritira, ciò che rimane è solo l'infrastruttura che riesce a chiudere il cerchio commerciale. Non vedo motivi per non fare nulla, vedo solo una rete di pagamenti che sta chiudendo il cerchio. #plasma $XPL
Recentemente ho analizzato i dati on-chain di @Plasma , soprattutto le azioni integrate con NEAR Intents negli ultimi giorni. La maggior parte dell'attenzione del mercato è ancora rivolta allo sblocco dei token (Unlock) di oggi e alle fluttuazioni delle candele K, ma io preferisco distaccarmi dalle emozioni e vedere se la logica sottostante è cambiata.
Negli ultimi giorni mi sono chiesto una cosa: perché scegliere di integrare NEAR Intents in questo momento? A prima vista sembra una collaborazione cross-chain, ma scavando più a fondo, si tratta in realtà di risolvere il problema dell'illiquidità delle stablecoin nella “ultima mezza miglia”. La narrativa principale di Plasma è sempre stata piuttosto “noiosa” — si tratta di fare pagamenti e di essere un Layer 1 per le stablecoin. Non ci sono promesse elaborate di Metaverse, né modelli Ponzi complessi. Ma questa “noia” è esattamente ciò che ci si aspetta da un'infrastruttura.
Collegando oltre 25 chain e 125 asset attraverso l'architettura Intent, in sostanza si sta facendo “astrazione della chain” (Chain Abstraction). Per gli utenti, ciò che conta non è su quale chain si trovano gli asset, ma se possono completare il trasferimento a zero commissioni di USDT in uno stato di non percezione. Un aspetto che considero importante di Plasma è che sembra intenzionalmente ridurre la percezione della “blockchain”. L'adozione su larga scala dei pagamenti non dovrebbe richiedere agli utenti di imparare cosa sia il Gas o cosa sia il Bridge, ma dovrebbe essere naturale come strisciare una carta.
Tornando al mercato, lo sblocco porterà effettivamente a un'aspettativa di pressione di vendita a breve termine, questo è un principio di mercato. Ma se allarghiamo la prospettiva a Q2, supportati dalla posizione ecologica di Tether e Bitfinex, aggiungendo questo bisogno fondamentale di “trasferimento stabile a zero Gas”, i fondamentali attuali sono in realtà sottovalutati. Il mercato attuale ama inseguire le tendenze, ma spesso ignora questi progetti che stanno silenziosamente costruendo tubature di pagamento globali.
Quando la marea si ritira, ciò che rimane è solo l'infrastruttura che riesce a chiudere il cerchio commerciale. Non vedo motivi per non fare nulla, vedo solo una rete di pagamenti che sta chiudendo il cerchio. #plasma $XPL
Sandy杉杉
·
--
Scommettere su un futuro "noioso": da Reth a Paymaster, un'analisi approfondita del "muro" dei pagamenti di #plasmaFuori dalla finestra è molto tranquillo, lo $XPL sullo schermo sta oscillando tra $0.13 e $0.16. Negli ultimi giorni il mercato è stato troppo rumoroso, vari meme coin sono ovunque, ma il mio sguardo non si è mai allontanato dai dati on-chain di @Plasma . Non posso fare a meno di pensare se il mercato attuale sia di nuovo caduto in quella follia ciclica, scambiando le vere infrastrutture per un'acqua stagnante noiosa? Aprendo la finestra di confronto tra Etherscan e Plasma Explorer, cerco di chiarire la logica di questi ultimi mesi. Da quando il mainnet Beta è stato lanciato a settembre dello scorso anno, la narrativa di Plasma è stata molto "controintuitiva". Tutti stanno promuovendo l'alta TPS e il lancio di token da parte di AI Agent, ma Plasma è impegnata in un campo estremamente noioso ma letale: l'astrazione del Gas per i pagamenti in stablecoin.

Scommettere su un futuro "noioso": da Reth a Paymaster, un'analisi approfondita del "muro" dei pagamenti di #plasma

Fuori dalla finestra è molto tranquillo, lo $XPL sullo schermo sta oscillando tra $0.13 e $0.16. Negli ultimi giorni il mercato è stato troppo rumoroso, vari meme coin sono ovunque, ma il mio sguardo non si è mai allontanato dai dati on-chain di @Plasma .
Non posso fare a meno di pensare se il mercato attuale sia di nuovo caduto in quella follia ciclica, scambiando le vere infrastrutture per un'acqua stagnante noiosa?
Aprendo la finestra di confronto tra Etherscan e Plasma Explorer, cerco di chiarire la logica di questi ultimi mesi. Da quando il mainnet Beta è stato lanciato a settembre dello scorso anno, la narrativa di Plasma è stata molto "controintuitiva". Tutti stanno promuovendo l'alta TPS e il lancio di token da parte di AI Agent, ma Plasma è impegnata in un campo estremamente noioso ma letale: l'astrazione del Gas per i pagamenti in stablecoin.
Sandy杉杉
·
--
Vanar Chain:non è solo L1, ma anche un contenitore nativo per l'AI Recentemente ho riflettuto sul problema dell'omogeneità delle blockchain Layer 1. Tutti parlano di TPS, di compatibilità, ma dove si trova realmente il vantaggio competitivo? Dopo aver dato un'occhiata, l'architettura tecnologica di @Vanar (Vanar Chain) mi ha davvero fatto fermare a riflettere per un momento. Non è solo un'altra chain compatibile con EVM, ma sembra un contenitore progettato su misura per i carichi di lavoro dell'AI. Particolarmente interessante è l'architettura a 5 livelli (The Vanar Stack). Non si limita a trattare l'AI come un'applicazione esterna, ma la integra direttamente nel livello sottostante. Ad esempio, il livello Neutron, come memoria semantica, risolve un punto dolente che mi sta a cuore: i dati on-chain sono solitamente "morti", solo un insieme di hash. Ma Neutron consente ai dati di avere capacità di comprensione del contesto, trasformando i dati grezzi in oggetti di conoscenza leggibili dall'AI. Questo è il modo corretto in cui Web3 e AI dovrebbero combinarsi - non per speculare su concetti, ma per rendere i contratti intelligenti realmente "intelligenti". Guardiamo anche il motore Kayon (ragionamento AI contestuale), questo design che consente di effettuare ragionamenti logici direttamente sulla chain rende possibile l'automazione della conformità per PayFi (finanza dei pagamenti) e RWA (asset del mondo reale). Se fossi uno sviluppatore, non avrei bisogno di sforzarmi a scrivere una miriade di logiche complesse per gli oracoli, Kayon stesso è in grado di gestire queste verifiche di conformità. Questo vantaggio di efficienza dell'integrazione nativa è evidente. C'è anche un punto molto pratico: $0.0005 di tassa fissa sul Gas. Quando ho lavorato su progetti di micropagamenti, le fluttuazioni delle tasse sul Gas erano un vero incubo. Questo modello di tariffa fissa di Vanar, insieme all'infrastruttura di carbon neutrality di Google Cloud, rende la migrazione delle applicazioni di livello Web2 su larga scala non più un discorso vuoto. Dopotutto, nessuna azienda vuole costruire un modello di business su una base di costi incontrollabili. Quindi, guardando indietro a Vanar, non è solo un libro mastro, ma sembra più una base di calcolo intelligente. Integra calcolo, archiviazione e ragionamento. In questo periodo di esplosione dell'AI, questa logica narrativa di "intelligenza nativa" è molto più solida rispetto a un semplice accumulo di TPS. Questo potrebbe essere il volto della prossima generazione di L1. #vanar $VANRY
Vanar Chain:non è solo L1, ma anche un contenitore nativo per l'AI
Recentemente ho riflettuto sul problema dell'omogeneità delle blockchain Layer 1. Tutti parlano di TPS, di compatibilità, ma dove si trova realmente il vantaggio competitivo? Dopo aver dato un'occhiata, l'architettura tecnologica di @Vanarchain (Vanar Chain) mi ha davvero fatto fermare a riflettere per un momento. Non è solo un'altra chain compatibile con EVM, ma sembra un contenitore progettato su misura per i carichi di lavoro dell'AI.
Particolarmente interessante è l'architettura a 5 livelli (The Vanar Stack). Non si limita a trattare l'AI come un'applicazione esterna, ma la integra direttamente nel livello sottostante. Ad esempio, il livello Neutron, come memoria semantica, risolve un punto dolente che mi sta a cuore: i dati on-chain sono solitamente "morti", solo un insieme di hash. Ma Neutron consente ai dati di avere capacità di comprensione del contesto, trasformando i dati grezzi in oggetti di conoscenza leggibili dall'AI. Questo è il modo corretto in cui Web3 e AI dovrebbero combinarsi - non per speculare su concetti, ma per rendere i contratti intelligenti realmente "intelligenti".
Guardiamo anche il motore Kayon (ragionamento AI contestuale), questo design che consente di effettuare ragionamenti logici direttamente sulla chain rende possibile l'automazione della conformità per PayFi (finanza dei pagamenti) e RWA (asset del mondo reale). Se fossi uno sviluppatore, non avrei bisogno di sforzarmi a scrivere una miriade di logiche complesse per gli oracoli, Kayon stesso è in grado di gestire queste verifiche di conformità. Questo vantaggio di efficienza dell'integrazione nativa è evidente.
C'è anche un punto molto pratico: $0.0005 di tassa fissa sul Gas. Quando ho lavorato su progetti di micropagamenti, le fluttuazioni delle tasse sul Gas erano un vero incubo. Questo modello di tariffa fissa di Vanar, insieme all'infrastruttura di carbon neutrality di Google Cloud, rende la migrazione delle applicazioni di livello Web2 su larga scala non più un discorso vuoto. Dopotutto, nessuna azienda vuole costruire un modello di business su una base di costi incontrollabili.
Quindi, guardando indietro a Vanar, non è solo un libro mastro, ma sembra più una base di calcolo intelligente. Integra calcolo, archiviazione e ragionamento. In questo periodo di esplosione dell'AI, questa logica narrativa di "intelligenza nativa" è molto più solida rispetto a un semplice accumulo di TPS. Questo potrebbe essere il volto della prossima generazione di L1. #vanar $VANRY
Sandy杉杉
·
--
Ricostruire l'infrastruttura: Note di riflessione di VANAR sul passaggio da "AI plugin" a intelligenza nativaNegli ultimi tempi, ho tenuto d'occhio il white paper e i documenti tecnici di @Vanar , e più guardo, più mi rendo conto che il mercato attuale ha una comprensione molto errata di "AI + blockchain". La stragrande maggioranza delle persone è ancora concentrata su TPS (transazioni al secondo) o semplici affitti di potenza di calcolo, completamente fuori tema. Mi chiedo se la nostra attuale infrastruttura blockchain sia davvero pronta a supportare l'AI? Guardando quelli che sono chiamati "AI Chain" sul mercato, la maggior parte di essi mi dà l'impressione di aver forzato un motore a reazione su un carro. Quel motore (modello AI) è molto potente, ma il telaio sottostante (livello blockchain) non riesce affatto a sostenere una tale spinta. Questo è un tipico pensiero "AI-added" - prima crei la catena, poi scopri che l'AI è in ascesa, e poi aggiungi le funzionalità AI tramite contratti intelligenti o sidechain.

Ricostruire l'infrastruttura: Note di riflessione di VANAR sul passaggio da "AI plugin" a intelligenza nativa

Negli ultimi tempi, ho tenuto d'occhio il white paper e i documenti tecnici di @Vanarchain , e più guardo, più mi rendo conto che il mercato attuale ha una comprensione molto errata di "AI + blockchain". La stragrande maggioranza delle persone è ancora concentrata su TPS (transazioni al secondo) o semplici affitti di potenza di calcolo, completamente fuori tema.
Mi chiedo se la nostra attuale infrastruttura blockchain sia davvero pronta a supportare l'AI?
Guardando quelli che sono chiamati "AI Chain" sul mercato, la maggior parte di essi mi dà l'impressione di aver forzato un motore a reazione su un carro. Quel motore (modello AI) è molto potente, ma il telaio sottostante (livello blockchain) non riesce affatto a sostenere una tale spinta. Questo è un tipico pensiero "AI-added" - prima crei la catena, poi scopri che l'AI è in ascesa, e poi aggiungi le funzionalità AI tramite contratti intelligenti o sidechain.
Accedi per esplorare altri contenuti
Esplora le ultime notizie sulle crypto
⚡️ Partecipa alle ultime discussioni sulle crypto
💬 Interagisci con i tuoi creator preferiti
👍 Goditi i contenuti che ti interessano
Email / numero di telefono
Mappa del sito
Preferenze sui cookie
T&C della piattaforma