Nu mai folosi TPS pentru a înșela oamenii, după ce am analizat arhitectura Vanar am realizat că 90% din lanțurile publice AI de pe piață înoată în pielea goală
Recent, pentru a înțelege logica reală a combinației între AI și Web3, am răsfoit documentele proiectelor care se proclamă "lanțuri publice AI", sincer, mi-a făcut capul să mă doară. Majoritatea proiectelor nu sunt nimic altceva decât o carcasă pentru stocarea descentralizată originală, sau pur și simplu vând închirierea puterii de calcul, această îmbinare forțată este ca și cum ai pune un motor Boeing pe o caruță, pare aglomerată dar este de fapt fragmentată. Până când am terminat documentul @Vanarchain despre integrarea tehnologiei NVIDIA, mi s-a părut puțin interesant. Cei care lucrăm în domeniu știm că esența blockchain-ului este sacrificarea eficienței pentru securitate, iar inferența modelului AI necesită un grad extrem de concurență și latență scăzută, aceste două aspecte sunt în mod natural exclusiviste.
Competiția care încă laudă TPS nu a înțeles cu adevărat unde este adevărata restricție. Dacă un agent AI rulează pe Ethereum sau Solana, fiecare pas de inferență trebuie să plătească gaz, acest model de cost este complet o catastrofă pentru economia mașinilor cu interacțiuni frecvente. Ideea optimizării TensorRT a Vanar este destul de interesantă, nu este vorba doar de a salva datele, ci de a încerca să suporte sarcini de inferență ușoare direct pe lanț. Când am citit, m-am gândit că ambiția nu este mică, vor să transforme "baza de date" în "nivel de calcul". Comparativ, acele soluții care trebuie să trimită datele la AWS pentru a fi procesate și apoi să le transmită înapoi pe lanț sunt pur și simplu foarte slabe.
Dar, să fiu sincer, am descoperit și câteva probleme. Strategia Vanar, care se leagă profund de giganți Web2, cum ar fi Google Cloud, deși respectă toate reglementările, cu siguranță va fi criticată de fundamentalistii „decentralizării”. Dar din perspectiva implementării industriale, clienții corporativi pe cine îl interesează dacă ești 100% nativ pe lanț? Ei au nevoie de compatibilitate CUDA și un mediu care funcționează. Designul acelei straturi de memorie semantica de la Neutron este de asemenea un exemplu bun, datele de pe lanț sunt prea „uitucă” acum, AI fără memorie contextuală nu poate fi decât un repetor, nu se poate considera un agent inteligent.
Comparând cu atenție, Vanar pare să construiască un pod între calculul de înaltă performanță Web2 și rețeaua de valoare Web3. #vanar $VANRY