Ripercorrendo la storia dei sistemi distribuiti, la questione più difficile da risolvere non è "come memorizzare", ma "come riparare quando un nodo è offline". Negli ultimi giorni ho analizzato attentamente il meccanismo di recupero dati del @Walrus 🦭/acc , scoprendo che ha fatto una scelta molto elegante in termini di efficienza della larghezza di banda. Lo storage decentralizzato tradizionale (come la strategia di replica multipla dei primi tempi), una volta che un nodo fallisce, la rete deve copiare l'intero file su un nuovo nodo, il che comporta un enorme spreco di larghezza di banda, specialmente quando si gestiscono dati di livello PB, è semplicemente un disastro. La tecnologia avanzata di codifica per la cancellazione (Erasure Coding) adottata da #Walrus, in sostanza, trasforma i dati in equazioni matematiche in streaming. Indipendentemente dal nodo che va offline, la rete deve solo prelevare una piccola percentuale di frammenti dagli altri nodi per ricostruire i segmenti di dati persi. Questa logica di "riparazione frammentata" ha ridotto i costi marginali per il mantenimento della rete a livelli molto bassi. Questo ha portato a un cambiamento qualitativo nel progetto: le reti di archiviazione non dipendono più da server professionali costosi e ad alta stabilità. Grazie all'alta tolleranza agli errori, anche l'hardware di consumo ordinario può partecipare, senza compromettere l'affidabilità complessiva della rete. Sui qui gioca il ruolo di "giudice finale dello stato", non memorizza grandi file, ma registra tutta la logica di verifica dei frammenti e dei metadati. Questa architettura di separazione dei pesi evita il dilemma di Ethereum in cui "tutti i nodi devono memorizzare tutti i dati". Il mio standard per valutare i progetti infrastrutturali è molto semplice: vedere se stanno risolvendo il problema della speculazione finanziaria o un classico problema della scienza informatica. Walrus appartiene chiaramente a quest'ultimo. Cerca di risolvere come garantire la perpetuità dei dati in un ambiente distribuito non affidabile, a un costo inferiore rispetto ai fornitori di servizi cloud. Per gli sviluppatori che vogliono costruire applicazioni ad alta intensità di larghezza di banda come YouTube o Instagram su Web3, questa potrebbe essere attualmente l'unica soluzione di base tecnicamente valida. Non comprendere questa trasformazione di base rende difficile capire quali cambiamenti subiranno le forme future delle DApp. #walrus $WAL
Recentemente sto concependo l'architettura di un dApp cross-chain e ho incontrato un problema complicato: l'effetto isola di dati su diverse catene è troppo severo. Se emetto asset su Solana e faccio regolamenti su Ethereum, dove dovrebbero essere collocati i metadati non finanziari? Il costo della sincronizzazione su tutta la rete è troppo alto, mentre lo storage su una singola catena perde l'interoperabilità. Affrontando questo problema e riesaminando @Walrus 🦭/acc , ho scoperto che la logica alla base della sua posizione come "livello di archiviazione universale" è valida. Molti progetti di archiviazione limitano la loro attenzione all'azione di "salvare", trascurando la comodità di "leggere" e "verificare". La genialità del design di Walrus sta nel fatto che utilizza il livello di consenso ad alte prestazioni di Sui per generare "prove di archiviazione". Ciò significa che l'ID del Blob non è solo un indice hash di un file, ma ha un intero insieme di firme di nodi di verifica dietro di esso. Per i sistemi esterni - sia esso un'altra blockchain o un server Web2 - verificare se i dati sono disponibili diventa molto leggero. Questa caratteristica di "verificare senza scaricare" è cruciale per costruire applicazioni cross-chain. Questo porta a un'interessante deduzione tecnologica: #Walrus potrebbe diventare il "disco rigido" universale del Web3. Che si tratti di indici di iscrizioni su Bitcoin, dati multimediali NFT su Ethereum, o anche dati privati non su grandi blockchain pubbliche, tutto può essere scaricato su Walrus, mantenendo solo un piccolo puntatore di stato sulla catena principale. Questa architettura segue il classico principio di "separazione delle preoccupazioni" nella scienza informatica - consentire al livello di esecuzione (come Sui, Solana, ETH) di concentrarsi sul throughput delle transazioni e al livello di archiviazione di concentrarsi sulla codifica e frammentazione dei dati e sulla persistenza. Inoltre, la combinabilità basata sul linguaggio Move consente alle risorse di archiviazione di diventare oggetti programmabili. Posso definire nel codice: la proprietà di questo pacchetto di dati può essere trasferita, oppure i diritti di lettura possono essere affittati. Questo è un passo avanti rispetto a un semplice bucket statico di AWS S3. L'infrastruttura Web3 attuale è ancora nella fase di costruzione dei mattoncini, la maggior parte dei componenti non si adatta. Ma vedendo Walrus, che tenta di collegare la logica di archiviazione di base, sembra che ci stiamo avvicinando a una vera interconnessione su tutta la catena. #walrus $WAL
Recentemente sto guardando il settore che combina AI e Web3 (AI x Crypto) e ho scoperto un'evidente misconcezione: tutti si concentrano sulla "potenza di calcolo decentralizzata", trascurando l'infrastruttura dei "dati decentralizzati". I pesi dei modelli AI addestrati, enormi set di dati, le conoscenze richieste per RAG (Generazione Aumentata da Ricerca), questi dati che raggiungono GB o addirittura TB, dove dovrebbero essere memorizzati? Se continuiamo a memorizzare su AWS, allora l'AI Web3 è un falso dilemma; se memorizziamo su blockchain tradizionali, le spese di Gas possono diventare così elevate da portare alla rovina. Questo mi ha portato a focalizzarmi su @Walrus 🦭/acc . Molti classificano Walrus semplicemente come uno storage, ma io penso che sia più un livello speciale ottimizzato per i dati "blob" di grandi dimensioni. C'è un dettaglio tecnico interessante: non ha adottato la logica a breve termine di Celestia, che si concentra sulla "disponibilità dei dati (DA)" — cioè i dati vengono memorizzati solo per alcuni giorni per la verifica; Walrus vuole chiaramente fare una memorizzazione permanente, ma senza sacrificare le prestazioni. Il nocciolo della questione sta nel modo in cui gestisce la "ridondanza". Nelle reti decentralizzate tradizionali, per garantire che i dati non vengano persi, si ricorre spesso a una copia forzata (Replication), ad esempio memorizzando un file in 50 copie, che ha un'efficienza spaventosa. La documentazione tecnica di Walrus enfatizza il codice di cancellazione bidimensionale (Redundancy encoding), che essenzialmente usa il calcolo per guadagnare spazio. Attraverso algoritmi matematici, frantuma i file; finché c'è una parte dei frammenti nella rete, è possibile ripristinare il file al 100%. Per memorizzare modelli AI in scenari in cui "non può perdersi nemmeno un bit", questa deterministica probabilistica è molto più affidabile della semplice copia dei nodi, e i costi diminuiscono esponenzialmente. Sui funge qui da coordinatore ad alta velocità. Se fossi un sviluppatore AI, potrei completamente gettare i pesi del modello su #Walrus e poi usare il contratto di Sui per controllare chi ha il diritto di utilizzare questo modello. Questa architettura potrebbe rendere possibile il "Hugging Face decentralizzato". La logica dello sviluppo tecnologico è spesso interconnessa. Senza un livello di storage a basso costo e alta robustezza, le applicazioni AI di livello superiore sono castelli in aria. Invece di inseguire quei progetti AI che emettono token, è meglio vedere chi sta risolvendo il problema di base del "posizionamento dei bit". Il design architettonico di Walrus sembra prepararsi a sostenere beni pesanti nel Web3 (video, modelli, risorse di gioco). #walrus $WAL
Ho sempre pensato a quale possa essere la fine del percorso di storage di Web3. Ho visto troppi progetti cercare di forzare la “computazione” e lo “storage” insieme su una sola catena, e il risultato è che non soddisfano nessuno dei due lati: o la scalabilità è pessima, o il costo di storage è ridicolo. Recentemente, ho approfondito il design architettonico di @Walrus 🦭/acc e ho la sensazione che finalmente abbia chiarito questa logica. Il cuore della questione è “decoupling”: affidare la gestione dei metadati ad alta frequenza e la logica di pagamento a Sui, un Layer 1 ad alte prestazioni, mentre il vero pesante lavoro di Blob storage è delegato a una rete di nodi di storage specializzati. Questo design ha risolto un problema che ha sempre afflitto gli sviluppatori: l’esplosione dello stato. Se stai sviluppando un gioco a catena intera o un progetto NFT ad alta fedeltà, decine di G di dati delle risorse se caricati direttamente sulla catena, le spese di Gas sono semplicemente astronomiche; usare IPFS ti fa temere che i fornitori di servizi di Pinning possano scappare, e alla fine si torna al centralizzato. La soluzione proposta da #Walrus è una rete di storage decentralizzata basata su codici di correzione, il che significa che non ho bisogno di fidarmi di un singolo nodo, ma solo di fidarmi della probabilità matematica. Dal punto di vista dell'integrazione degli sviluppatori, il potenziale di questo “storage programmabile” è stato gravemente sottovalutato. Se in un contratto intelligente di Sui posso controllare in modo atomico i diritti di lettura e scrittura delle risorse di storage, l'architettura del DApp può essere molto leggera. Ad esempio, posso scrivere un contratto, in cui solo gli utenti che possiedono un NFT specifico possono decrittare e scaricare un determinato dataset o i pesi di un modello AI memorizzato su Walrus. Questa interoperabilità nativa è qualcosa che il tradizionale cloud storage con un API Key non può assolutamente eguagliare. Il mercato attuale è troppo frenetico, tutti stanno a guardare il prezzo delle criptovalute, pochi si prendono il tempo di calcolare il costo unitario dello storage (Costo per GB). Se il costo dello storage decentralizzato non può avvicinarsi ad Amazon S3, allora le applicazioni su larga scala sono solo chiacchiere. Walrus utilizza l'esecuzione parallela di Sui per gestire il coordinamento, riducendo in realtà notevolmente i costi operativi del sistema. Questo approccio pragmatico orientato all'ingegneria è la ragione fondamentale per cui lo considero promettente. Non si tratta di accumulare concetti vuoti, ma semplicemente di risolvere il problema “dove dovrebbero essere memorizzati i dati”. Questo è ciò che ci si aspetta da un'infrastruttura. #walrus $WAL
Recentemente ho riflettuto sulle strozzature delle infrastrutture Web3, in particolare per quanto riguarda lo stoccaggio. Ogni volta che vedo i cosiddetti "app decentralizzate" che devono ancora fare affidamento su servizi cloud centralizzati per memorizzare frontend e risorse statiche, mi sembra davvero paradossale. Ho esaminato più a fondo il white paper tecnico di @Walrus 🦭/acc , e le idee sono decisamente originali, non sembra che stiano semplicemente facendo "blockchain con hard disk", ma piuttosto stanno ricostruendo la logica di distribuzione dei dati. Quello che mi preoccupa di più è il modo in cui gestiscono i "Blobs". Utilizzando la codifica di cancellazione bidimensionale (Erasure Coding) insieme a Sui come livello di coordinazione, questa combinazione è molto precisa. Il tradizionale modello di replica a nodi completi è troppo pesante, dal punto di vista dei costi non è affatto sostenibile; mentre Walrus, distribuendo i file in segmenti, riduce notevolmente il fattore di replica mantenendo un'elevatissima robustezza dei dati. In altre parole, anche se un gran numero di nodi di archiviazione si disconnette, i dati possono comunque essere ricostruiti tramite metodi matematici. Questo tasso di tolleranza ai guasti è un requisito fondamentale per una rete che deve gestire dati a livello di Petabyte. Inoltre, collocare la logica di gestione e pagamento su Sui è una scelta molto pragmatica. Il modello ad oggetti di Sui e la sua capacità di esecuzione parallela possono sostenere le richieste di lettura e scrittura ad alta frequenza, evitando che la gestione dei metadati diventi un collo di bottiglia. Questo mi fa pensare che, in futuro, le DApp potrebbero davvero realizzare una "decentralizzazione a tutto stack" — la logica di backend sulla catena, il frontend e le risorse multimediali su #Walrus, liberandosi completamente dai punti di errore singoli. Parlare meno di narrazione e guardare di più all'architettura. Se i costi di stoccaggio non scendono, Web3 potrà sempre e solo giocare ai giochi finanziari. Soluzioni come Walrus, focalizzate sulla risoluzione dei problemi di stoccaggio di "big data non strutturati", stanno preparando la strada per l'esplosione delle applicazioni nel prossimo ciclo. Non si tratta solo di memorizzare immagini, ma di come preservare in modo verificabile e a basso costo gli asset digitali dell'umanità. Il grado di eleganza della tecnologia stessa spesso spiega meglio la vitalità di un progetto rispetto al marketing. #walrus $WAL
Riguardo a Red Stuff, frammenti di archiviazione e l'ultimo pezzo del puzzle di Web3 - Rileggendo il white paper di Walrus.
Alle tre di mattina, ancora a fissare lo schermo con il codice Rust. Negli ultimi tempi ho riflettuto sul problema dell'espansione dello stato di L1 e più ci penso, più mi sembra che le attuali soluzioni di espansione in un certo senso stiano "evitando il problema principale". Abbiamo continuato a ottimizzare il TPS e il livello di esecuzione, ma sembra che stiamo ignorando selettivamente un elefante nella stanza: dove dovremmo mettere i dati? Poco fa ho di nuovo esaminato la documentazione di @Walrus 🦭/acc , in particolare quel documento su "Red Stuff". Ad essere sincero, la prima volta che l'ho letto pensavo fosse solo una dimostrazione di abilità da parte di Mysten Labs, ma stasera, mettendolo a confronto con EIP-4844 e il meccanismo di Arweave, ho avuto all'improvviso una sensazione di freddo lungo la schiena: potremmo aver sempre sottovalutato le ambizioni di Walrus. Non è solo un accessorio dell'ecosistema Sui, ma è molto probabile che sia progettato per risolvere quella strana frattura tra "disponibilità dei dati (DA)" e "archiviazione a lungo termine" in Ethereum e, in effetti, nell'intero blockchain modulare.
Recentemente ho esaminato le valutazioni delle prestazioni di ZK-VM e ho riflettuto sulle difficoltà di implementazione del calcolo privato generico. Anche se gli ZK-Rollup attuali hanno risolto il problema della scalabilità, nella supporto nativo alla privacy continua a sembrare molto "pesante". Dopo aver approfondito l'architettura della macchina virtuale Piecrust di @Dusk , ho la sensazione che abbiano intrapreso un percorso ingegneristico completamente diverso. Il punto forte di Piecrust è che si basa sullo standard WebAssembly (WASM) e ha ottimizzato profondamente il processo di deserializzazione dei dati zero-copy. Sto pensando che questo tipo di design sia fondamentale per migliorare la velocità di accesso allo stato (State Access). In passato, quando tentavo di implementare logica di privacy su EVM, il solo costo di aggiornamento dell'albero di Merkle era sufficiente a scoraggiare contratti finanziari complessi. Ma #Dusk, attraverso Piecrust, sembra aver risolto il collo di bottiglia del mantenimento di un'alta capacità di lettura dello stato mentre si preserva la privacy. Particolarmente, consente ai contratti di avere un vero "stato privato" (Private State). Se voglio implementare un contratto per la distribuzione automatica di dividendi, e devo mantenere rigorosamente segrete le quote specifiche dei detentori, i contratti intelligenti ordinari non possono farlo. L'architettura di Dusk non nasconde solo l'importo delle transazioni, ma può anche nascondere i parametri della logica di business interna del contratto intelligente. Questa scelta di stack tecnologico—combinando l'ambiente di esecuzione Rusk con il sistema di prove PLONK—non è solo per l'efficienza di esecuzione, ma anche per abbassare la soglia di generazione delle prove da parte del client. Le future applicazioni finanziarie on-chain, se non riescono a generare prove ZK a bassa latenza sul lato del browser dell'utente, non potranno mai realmente diffondersi. L'ottimizzazione a livello di base di Dusk per la generazione di prove client-side potrebbe essere ciò che lo distingue maggiormente da altri Layer 1 come la tecnologia di protezione più sottovalutata. #dusk $DUSK
Ho guardato a lungo il diagramma di flusso del consenso per @Dusk , ripetutamente elaborando i costi di implementazione della "finalità immediata" (Instant Finality) su una blockchain pubblica per la privacy. Di solito, dopo l'introduzione delle prove a conoscenza zero (ZKP), il sovraccarico computazionale per generare le prove rallenta la velocità di estrazione dei blocchi dell'intera rete, ma il design di Dusk sembra cercare di aggirare questo "triangolo impossibile". Il punto chiave è nel meccanismo di Attestazione Succinta (Succinct Attestation) che adottano. Ho notato che non seguono la tradizionale logica di voto PoS pesante, ma utilizzano l'aggregazione delle firme BLS per comprimere il processo di verifica. Questo significa che, una volta che un blocco è approvato dal comitato di validatori, è irreversibile. Questo è cruciale per le applicazioni finanziarie: a livello di settlement, non ci possono essere rischi di rollback probabilistici. Se devo mettere azioni o obbligazioni sulla catena, ho bisogno di una certezza assoluta a livello di Settlement, non di una sicurezza probabilistica che aspetta 10 conferme di blocco. È ancora più interessante il protocollo di offerta cieca (Blind Bid). Nelle blockchain pubbliche tradizionali, i diritti dei nodi in staking sono generalmente pubblici, il che può facilmente portare a targeting di grandi investitori o attacchi MEV (Massimizzazione del Valore Estraibile). #Dusk consente ai nodi di partecipare al consenso senza rivelare la quantità specifica di staking, utilizzando ZK per dimostrare la propria idoneità alla verifica. Questa protezione della privacy implementata a livello di consenso (Consensus Level) e non semplicemente a livello di transazione è molto rara nei progetti Layer 1 attuali. Adesso sono sempre più convinto che la difficoltà di costruire una blockchain per la privacy non risieda negli algoritmi crittografici stessi, ma nel come evitare che questi calcoli pesanti blocchino la rete. Dusk ha profondamente accoppiato la verifica ZK nel consenso SBA (protocollo di Byzantine isolato), questa decisione architetturale è chiaramente stata presa per prepararsi a transazioni finanziarie ad alta frequenza. Non si tratta solo di ottimizzazioni a livello di codice, ma di una scommessa su un'architettura di base per un mercato finanziario conforme futuro. #dusk $DUSK
Recentemente ho ripensato ai veri ostacoli alla massiccia tokenizzazione degli RWA (Asset del Mondo Reale) sulla blockchain. La semplice competizione TPS ha già raggiunto un effetto marginale decrescente in questa fase, e i fondi istituzionali non possono ancora entrare su larga scala attraverso i canali DeFi. Il vero problema non è la velocità, ma la contraddizione tra ‘privacy’ e ‘compliance’. Le istituzioni non possono ‘correre nude’ con i dati delle transazioni sulla blockchain, ma le autorità richiedono che l'intero processo sia auditabile. Durante lo studio approfondito del white paper tecnico di @Dusk , ho scoperto che la loro logica architettonica colpisce un punto critico. A differenza dei mixer di privacy esterni su Ethereum, Dusk ha scelto di integrare direttamente la prova a conoscenza zero (ZKP) nel layer di consenso di Layer 1. Questo mi ha fatto capire che ciò che stanno facendo non è semplicemente nascondere i dati, ma piuttosto fornire una ‘prova di correttezza computazionale’ tramite l'algoritmo PLONK — ovvero verificare la conformità dei dati senza rivelarli. Particolarmente interessante è la macchina virtuale Piecrust, che non solo è amichevole con ZK, ma è anche sicura in termini di memoria. Questo significa che gli sviluppatori possono scrivere smart contract su #Dusk, eseguendo automaticamente logiche di compliance (come la verifica automatizzata di KYC/AML), mentre nascondono completamente i dettagli delle transazioni. Questa ‘privacy programmabile’ è il cuore di RegDeFi (finanza decentralizzata regolamentata). Quando rifletto sull'architettura finanziaria futura, mi chiedo spesso se la tokenizzazione dei titoli (Security Tokens) possa davvero decollare, dovendo fare affidamento su questo tipo di infrastruttura sottostante. Il loro standard XSC consente il flusso di asset all'interno di una whitelist di compliance, senza sacrificare le caratteristiche di decentralizzazione e resistenza alla censura. Rispetto ai patchwork a livello applicativo, questo design crittografico nativo a livello sottostante potrebbe davvero colmare il divario tra TradFi e DeFi. Questo ‘layer di privacy compliant’ è attualmente l'anello più scarso nelle infrastrutture. #dusk $DUSK
L'ordine nella nebbia: una ricostruzione notturna sul layer di privacy conforme e Piecrust VM
Di recente, mentre esaminavo alcune architetture di base Layer 1, mi sono sempre trovato inevitabilmente intrappolato in un circolo vizioso di nichilismo tecnologico: abbiamo davvero bisogno di così tante blockchain pubbliche ad alte prestazioni? Quando la corsa agli armamenti del TPS (transazioni al secondo) ha già ceduto il passo alla disponibilità dei dati (DA) e alla narrazione modulare, ho notato che tutti sembrano evitare deliberatamente l'elefante nella stanza: il paradosso tra privacy e regolamentazione. In questi giorni ho passato un po' di tempo a guardare i registri di commit di GitHub di @Dusk e il concetto vago di 'DeFi a livello istituzionale' nella mia testa ha iniziato a diventare più chiaro. Abbiamo sempre parlato di RWA (attività del mondo reale) sulla blockchain, ma se ci pensi attentamente, la logica di base attuale dell'EVM è praticamente una 'prigione trasparente' su misura per i fondi istituzionali. Nessun fondo hedge o banca sarebbe disposto a esporre le proprie posizioni e strategie su un libro mastro completamente pubblico, a meno che sopra quel libro mastro ci sia un meccanismo di protezione della privacy estremamente pesante e decentralizzato.
Ricostruire i confini matematici della fiducia: note ingegneristiche approfondite sull'architettura privacy della @dusk_foundation e sull'implementazione di RegDeFi
Recentemente ho riflettuto sulle fondamentali carenze attuali delle blockchain Layer 1 nel gestire gli RWA (real world assets). Questo non è solo un problema di TPS, ma più una frattura tra la logica del libro mastro sottostante e la riservatezza delle esigenze fondamentali dei mercati finanziari. La trasparenza di Bitcoin ed Ethereum è la loro caratteristica principale, ma quando si tratta di tokenizzazione dei titoli, questo diventa il più grande bug. Ho visto molti tentativi di applicare patch sui Layer 2 privacy solutions sull'EVM, ma la maggior parte si limita a confondere le transazioni senza risolvere il problema della coesistenza di conformità e privacy a livello di consenso e di macchina virtuale. In questi giorni sto riorganizzando il white paper e gli aggiornamenti del repository GitHub di @Dusk , in particolare i dettagli sull'implementazione della macchina virtuale Piecrust e del Proof of Blind Bid (PoBB), il che mi ha dato una nuova comprensione della definizione di blockchain pubbliche per la privacy. È come se stessimo cercando di costruire una scatola nera che possa soddisfare i requisiti del regolamento MiCA e mantenere al contempo le caratteristiche di decentralizzazione. Non è una semplice crittografia, ma una ricostruzione della gestione dello stato del libro mastro.
Il labirinto delle prove a conoscenza zero e l'alba di RegDeFi: una ricostruzione notturna dell'architettura di Dusk
Il suono della pioggia fuori dalla finestra è piuttosto forte, questo tipo di tempo è sempre adatto a riflettere su alcune questioni di logica di base. Recentemente ho rivalutato il settore della privacy di Layer 1; questa rivalutazione non è dovuta all'ansia per le fluttuazioni dei grafici del mercato secondario, ma nasce da una confusione tecnica più profonda: perché l'esplosione su larga scala degli Asset del Mondo Reale (RWA) è stata proclamata per tre anni interi, ma rimane ancora nella fase di “ascoltare il canto del drago”? Sia che si tratti dell'ingresso di BlackRock, sia dei vari tentativi di tokenizzazione dei titoli di stato, sembra che tutti siano bloccati in un collo di bottiglia invisibile. Ieri sera ho passato gran parte della notte a rileggere alcuni articoli sui white paper tecnici riguardanti ZK-Rollup e blockchain privacy. I miei occhi si sono nuovamente soffermati sul design architettonico di @Dusk . Se non si considera Dusk solo come una catena, ma come un insieme di protocolli crittografici progettati specificamente per la “privacy conforme al finanziario”, molte logiche sembrano diventare chiare. Ho disegnato e cancellato su carta da bozza, cercando di dedurre come la “morte nemica” tra privacy e conformità possa stringere la mano e fare pace nel framework di ZK (prove a conoscenza zero). Non si tratta solo di una questione di scelta tecnologica, ma riguarda il modo in cui gli asset finanziari saranno liquidati nei prossimi vent'anni.
Recentemente ho analizzato i dati on-chain di @Plasma , soprattutto le azioni integrate con NEAR Intents negli ultimi giorni. La maggior parte dell'attenzione del mercato è ancora rivolta allo sblocco dei token (Unlock) di oggi e alle fluttuazioni delle candele K, ma io preferisco distaccarmi dalle emozioni e vedere se la logica sottostante è cambiata. Negli ultimi giorni mi sono chiesto una cosa: perché scegliere di integrare NEAR Intents in questo momento? A prima vista sembra una collaborazione cross-chain, ma scavando più a fondo, si tratta in realtà di risolvere il problema dell'illiquidità delle stablecoin nella “ultima mezza miglia”. La narrativa principale di Plasma è sempre stata piuttosto “noiosa” — si tratta di fare pagamenti e di essere un Layer 1 per le stablecoin. Non ci sono promesse elaborate di Metaverse, né modelli Ponzi complessi. Ma questa “noia” è esattamente ciò che ci si aspetta da un'infrastruttura. Collegando oltre 25 chain e 125 asset attraverso l'architettura Intent, in sostanza si sta facendo “astrazione della chain” (Chain Abstraction). Per gli utenti, ciò che conta non è su quale chain si trovano gli asset, ma se possono completare il trasferimento a zero commissioni di USDT in uno stato di non percezione. Un aspetto che considero importante di Plasma è che sembra intenzionalmente ridurre la percezione della “blockchain”. L'adozione su larga scala dei pagamenti non dovrebbe richiedere agli utenti di imparare cosa sia il Gas o cosa sia il Bridge, ma dovrebbe essere naturale come strisciare una carta. Tornando al mercato, lo sblocco porterà effettivamente a un'aspettativa di pressione di vendita a breve termine, questo è un principio di mercato. Ma se allarghiamo la prospettiva a Q2, supportati dalla posizione ecologica di Tether e Bitfinex, aggiungendo questo bisogno fondamentale di “trasferimento stabile a zero Gas”, i fondamentali attuali sono in realtà sottovalutati. Il mercato attuale ama inseguire le tendenze, ma spesso ignora questi progetti che stanno silenziosamente costruendo tubature di pagamento globali. Quando la marea si ritira, ciò che rimane è solo l'infrastruttura che riesce a chiudere il cerchio commerciale. Non vedo motivi per non fare nulla, vedo solo una rete di pagamenti che sta chiudendo il cerchio. #plasma $XPL
Scommettere su un futuro "noioso": da Reth a Paymaster, un'analisi approfondita del "muro" dei pagamenti di #plasma
Fuori dalla finestra è molto tranquillo, lo $XPL sullo schermo sta oscillando tra $0.13 e $0.16. Negli ultimi giorni il mercato è stato troppo rumoroso, vari meme coin sono ovunque, ma il mio sguardo non si è mai allontanato dai dati on-chain di @Plasma . Non posso fare a meno di pensare se il mercato attuale sia di nuovo caduto in quella follia ciclica, scambiando le vere infrastrutture per un'acqua stagnante noiosa? Aprendo la finestra di confronto tra Etherscan e Plasma Explorer, cerco di chiarire la logica di questi ultimi mesi. Da quando il mainnet Beta è stato lanciato a settembre dello scorso anno, la narrativa di Plasma è stata molto "controintuitiva". Tutti stanno promuovendo l'alta TPS e il lancio di token da parte di AI Agent, ma Plasma è impegnata in un campo estremamente noioso ma letale: l'astrazione del Gas per i pagamenti in stablecoin.
Vanar Chain:non è solo L1, ma anche un contenitore nativo per l'AI Recentemente ho riflettuto sul problema dell'omogeneità delle blockchain Layer 1. Tutti parlano di TPS, di compatibilità, ma dove si trova realmente il vantaggio competitivo? Dopo aver dato un'occhiata, l'architettura tecnologica di @Vanarchain (Vanar Chain) mi ha davvero fatto fermare a riflettere per un momento. Non è solo un'altra chain compatibile con EVM, ma sembra un contenitore progettato su misura per i carichi di lavoro dell'AI. Particolarmente interessante è l'architettura a 5 livelli (The Vanar Stack). Non si limita a trattare l'AI come un'applicazione esterna, ma la integra direttamente nel livello sottostante. Ad esempio, il livello Neutron, come memoria semantica, risolve un punto dolente che mi sta a cuore: i dati on-chain sono solitamente "morti", solo un insieme di hash. Ma Neutron consente ai dati di avere capacità di comprensione del contesto, trasformando i dati grezzi in oggetti di conoscenza leggibili dall'AI. Questo è il modo corretto in cui Web3 e AI dovrebbero combinarsi - non per speculare su concetti, ma per rendere i contratti intelligenti realmente "intelligenti". Guardiamo anche il motore Kayon (ragionamento AI contestuale), questo design che consente di effettuare ragionamenti logici direttamente sulla chain rende possibile l'automazione della conformità per PayFi (finanza dei pagamenti) e RWA (asset del mondo reale). Se fossi uno sviluppatore, non avrei bisogno di sforzarmi a scrivere una miriade di logiche complesse per gli oracoli, Kayon stesso è in grado di gestire queste verifiche di conformità. Questo vantaggio di efficienza dell'integrazione nativa è evidente. C'è anche un punto molto pratico: $0.0005 di tassa fissa sul Gas. Quando ho lavorato su progetti di micropagamenti, le fluttuazioni delle tasse sul Gas erano un vero incubo. Questo modello di tariffa fissa di Vanar, insieme all'infrastruttura di carbon neutrality di Google Cloud, rende la migrazione delle applicazioni di livello Web2 su larga scala non più un discorso vuoto. Dopotutto, nessuna azienda vuole costruire un modello di business su una base di costi incontrollabili. Quindi, guardando indietro a Vanar, non è solo un libro mastro, ma sembra più una base di calcolo intelligente. Integra calcolo, archiviazione e ragionamento. In questo periodo di esplosione dell'AI, questa logica narrativa di "intelligenza nativa" è molto più solida rispetto a un semplice accumulo di TPS. Questo potrebbe essere il volto della prossima generazione di L1. #vanar $VANRY
Ricostruire l'infrastruttura: Note di riflessione di VANAR sul passaggio da "AI plugin" a intelligenza nativa
Negli ultimi tempi, ho tenuto d'occhio il white paper e i documenti tecnici di @Vanarchain , e più guardo, più mi rendo conto che il mercato attuale ha una comprensione molto errata di "AI + blockchain". La stragrande maggioranza delle persone è ancora concentrata su TPS (transazioni al secondo) o semplici affitti di potenza di calcolo, completamente fuori tema. Mi chiedo se la nostra attuale infrastruttura blockchain sia davvero pronta a supportare l'AI? Guardando quelli che sono chiamati "AI Chain" sul mercato, la maggior parte di essi mi dà l'impressione di aver forzato un motore a reazione su un carro. Quel motore (modello AI) è molto potente, ma il telaio sottostante (livello blockchain) non riesce affatto a sostenere una tale spinta. Questo è un tipico pensiero "AI-added" - prima crei la catena, poi scopri che l'AI è in ascesa, e poi aggiungi le funzionalità AI tramite contratti intelligenti o sidechain.