Wenn Web3-Projekte anfangen, 'wirklich Geld zu verdienen' – die Einkommensgeheimnisse von $KGEN entschlüsseln
In letzter Zeit weht im Krypto-Raum ein Wind der 'echten Einnahmen', viele Projekte werden in Frage gestellt, ob sie nur Geschichten erzählen können. Unter den vielen Shitcoins, die auf Erzählungen basieren, taucht plötzlich der Name $KGEN auf, und das aus einem einfachen Grund – es verdient tatsächlich Geld, und die Zahlen sind nicht klein. Jährliche Einnahmen von $80M+, diese Zahl hat viele erfahrene Investoren überrascht. Man muss wissen, dass die meisten DeFi-Protokolle nicht einmal jährliche Einnahmen von mehreren Millionen Dollar aufrechterhalten können, geschweige denn ein kontinuierliches Wachstum. Was macht KGeN so besonders? Ich habe etwas Zeit damit verbracht, die Produktlogik zu studieren, und festgestellt, dass dieses Projekt in seinem Geschäftsmodell tatsächlich einige neue Ansätze verfolgt.
Wenn AI auf Blockchain trifft: Nach einer tiefen Erfahrung mit dem Vanar-Ökosystem habe ich diese Erkenntnisse entdeckt
Als ich Ende letzten Jahres begann, mich für den AI-Agenten-Sektor zu interessieren, stieß ich zufällig auf das Vanar-Projekt und war sofort von seinem fünfstufigen Architekturkonzept fasziniert. Im Gegensatz zu den Projekten auf dem Markt, die AI und Blockchain einfach zusammenpuzzeln, hat Vanar von der unteren Ebene an eine Infrastruktur entworfen, die speziell auf AI-Anwendungen ausgerichtet ist. In den letzten Monaten habe ich mehrere ihrer Produkte ausprobiert, einige Aspekte waren wirklich beeindruckend, aber ich bin auch auf einige Fragen gestoßen, die es wert sind, diskutiert zu werden. Lass uns über das Designkonzept des gesamten Technologie-Stacks sprechen. Vanar positioniert sich als eine AI-native Layer 1 Blockchain, und das Wort "nativ" ist eigentlich ziemlich interessant. Es geht nicht nur darum, ein AI-Modul auf einer bestehenden öffentlichen Blockchain hinzuzufügen, sondern von der untersten Ebene der Datenspeicherung über die mittlere Ebene der Inferenz-Engine bis hin zur Anwendungsebene der Automatisierungstools alles um die Anforderungen von AI zu gestalten. Diese Architektur kann man ungefähr so verstehen: ganz unten ist die Vanar Chain selbst, diese modulare L1-Kette, die für hohe Durchsatzraten und kostengünstige Transaktionen verantwortlich ist; darüber kommt die Neutron-Ebene, die speziell für semantisches Gedächtnis und Datenkompression zuständig ist; darüber ist Kayon, das für die logische Inferenz von AI auf der Blockchain verantwortlich ist; dann sorgt Axon für intelligente Automatisierung; und die oberste Ebene sind Flows, die sich auf spezifische Anwendungsfälle wie PayFi und RWA konzentrieren.
Die „NullGas“-Revolution im Zahlungsbereich: Nicht nur der Umzugshelfer stabiler Münzen, sondern auch das Bestands-Spiel von Layer1
In den letzten Monaten bleibt das leidigste Problem bei On-Chain-Interaktionen das altbekannte Thema – die Gasgebühren. Obwohl der Boom von L2 die Gebühren gesenkt hat, ist für normale Benutzer, die mit USDT einen Kaffee kaufen oder Freunden Geld überweisen möchten, selbst ein Verlust von 0,1 Dollar psychologisch ein Hindernis. Ganz zu schweigen davon, dass man, um ein U zu überweisen, zuerst an die Börse gehen muss, um etwas ETH oder SOL als Treibstoff zu kaufen; diese menschenunwürdige Logik ist einfach der größte Stolperstein auf dem Weg von Web3 zur Massenakzeptanz. Während alle weiterhin hitzig über das Zentralisierungsproblem der Layer 2-Orderer diskutieren, hat eine Layer 1, die sich auf „stabile Münzen“ konzentriert, still und heimlich das Licht der Welt erblickt und versucht, mit dem „NullGas“-Schlagmittel die Zahlungslandschaft neu zu gestalten.
Binance erweitert weiterhin sein Produktportfolio und kündigt an, dass Frax (FRAX) in mehreren Bereichen wie Vermögensverwaltung, One-Click-Krypto-Kauf, Margin-Trading und Futures-Trading eingeführt wird. Gleichzeitig ist das Upgrade von THORChain (RUNE) für den 23. Januar um 08:00 Uhr nach Beijing-Zeit geplant, währenddessen werden Einzahlungs- und Abhebungsdienste ausgesetzt, aber der Handel bleibt unbeeinträchtigt. Bitget hat auch neue Kryptowährungen wie ETHGas (GWEI) und Seeker (SKR) im Innovationsbereich eingeführt, was die schnelle Reaktion der Börse auf neue Markttrends zeigt. $BTC
In den letzten Tagen haben wir intensiv die USDT-Überweisungen des Plasma-Hauptnetzes getestet, und es fühlt sich tatsächlich nach etwas Bedeutendem an. Das Design mit der nativen Integration des Paymasters hat die Eintrittshürde für Benutzer direkt auf den Boden gesenkt. Im Vergleich zu Tron, das ständig eine Menge TRX verbrennen muss, oder zu den schmerzhaften Interaktionskosten des Ethereum-Hauptnetzes, ist die nahezu kostenlose Erfahrung von Plasma ein echter Game-Changer im Zahlungssektor. Früher, als ich Optimism verwendet habe, waren die Gebühren zwar niedrig, aber ich musste ständig auf meinen ETH-Saldo achten; diese psychische Belastung ist hier völlig verschwunden. Allerdings habe ich beim intensiven Gebrauch auch Probleme festgestellt. Obwohl es als null Gas bezeichnet wird, spürt man bei Hochfrequenzoperationen deutlich, dass die Geschwindigkeitsbeschränkung in Kraft ist; die Knoten-Synchronisierung kann manchmal unerklärlicherweise stocken, ich weiß nicht, ob die Strategie gegen Hexenangriffe zu aggressiv ist. Außerdem ist das Phänomen der lahmen Ökosysteme ziemlich ernst; abgesehen von den wenigen DeFi-Riesen Aave und Pendle, die die Szene stützen, gibt es kaum natives innovatives DApp. Wenn sich dieser Zustand des "Infrastruktur-Wahnsinns, ökologischen Deserts" nicht ändert, wird es schwer sein, wirklich aktive Benutzer zu halten. Schließlich kommen die Leute nicht nur, um ein paar Gebühren zu sparen, sondern auch, um Geld zu verdienen. Der aktuelle Preisverlauf ist auch ziemlich schwer zu verstehen; obwohl die TVL-Daten so stark sind, fällt der Sekundärmarkt kontinuierlich, diese Abweichung lässt einen wirklich frustriert zurück. @Plasma $XPL #plasma
Kann Vanar die nächste AI-Blockchain-Überraschung werden? Ausgehend von den ökologischen Schwächen Die technische Erzählung von Vanar ist sehr vollständig – Neutron macht semantische Kompression, Kayon sorgt für on-chain Inferenz, Axon automatisiert die Ausführung, Flows verbindet sich mit Branchenanwendungen, die fünf Schichten Architektur klingt, als wäre sie maßgeschneidert für AI-native dApps. Aber wenn man DefiLlama und die großen Ökosystem-Tracker durchforstet, sind die Protokolle, die auf Vanar laufen, sehr begrenzt, und die TVL-Rankings liegen über 200. So fortschrittlich die Technologie auch sein mag, ohne ein unterstützendes Anwendungsökosystem ist es ein Luftschloss. Wo liegt das Problem? Einerseits sind die Kosten für die Marktschulung hoch. Entwickler sind an die Toolchain von Ethereum oder BSC gewöhnt, um zu Vanar zu migrieren, müssen sie verstehen, wie Neutron Daten komprimiert und wie Kayon Anfragen stellt, die Lernkurve ist steil. Andererseits gibt es nicht genug Anreize. Uniswap kann auf Ethereum mehrere Millionen Dollar an Gebühren pro Tag verdienen, warum sollte man das Risiko eingehen, auf eine neue Kette zu wechseln, deren TVL nicht einmal 10 Millionen beträgt? Die von Vanar beworbenen Kooperationen mit Worldpay und die Unterstützung durch Movement Labs befinden sich noch auf strategischer Ebene, die tatsächlichen Nutzer- und Kapitalzuwächse sind nicht sichtbar. Der Wettbewerber ASI hat die Ressourcen dreier großer Projekte hinter sich, mit einer Marktkapitalisierung von über 500 Millionen, obwohl die Token-Migration ein Chaos verursacht hat, ist die Größe des Ökosystems offensichtlich. Bittensor hat mit seinem Anreizmechanismus viele ML-Entwickler angezogen, die Anzahl der Subnetze wächst kontinuierlich. Vanars Differenzierung liegt in der „One-Stop-AI-Stack“ und EVM-Kompatibilität, aber diese Vorteile müssen in reale Anwendungsfälle umgewandelt werden, um überzeugend zu sein. Kürzlich wurden myNeutron v1.3 und die Transformation von Vanar Vision veröffentlicht, beides positive Signale, aber von der technischen Demonstration zur großflächigen Adoption liegen noch einige Hürden dazwischen. Ehrlich gesagt, wirkt Vanar derzeit eher wie ein technisches Testfeld, geeignet für frühzeitige Entwickler, die bereit sind, Neues auszuprobieren. Wenn in diesem Jahr einige DeFi- oder GameFi-Projekte mit einem TVL von mehreren Millionen erfolgreich umgesetzt werden können, um zu beweisen, dass Kayons on-chain Inferenz einen geschäftlichen Kreislauf durchlaufen kann, dann könnte es wirklich Fuß fassen. Andernfalls ist die Abhebung von Perpetual Contracts nur der erste Schritt, und es könnten noch mehr Liquiditätsherausforderungen folgen. Damit ein technischer Dunkelhengst zum Marktüberraschungsreiter wird, muss er mit Daten sprechen. @Vanarchain $VANRY #Vanar
Durchbruch des "unmöglichen Dreiecks" der dezentralen Speicherung: Was wir im Walrus-Testnetz gesehen haben
Da die Marktheizung in den letzten Tagen ganz auf den Wettbewerb der modularen und hochleistungsfähigen öffentlichen Blockchains konzentriert ist, sollten wir unseren Blick von den K-Line-Diagrammen abwenden und über das sprechen, was die meisten Menschen ignorieren, aber ein tödlicher Engpass in der Infrastruktur ist - die Speicherung. Um ehrlich zu sein, habe ich in den letzten Jahren so viele Speicherprojekte ausprobiert, von der Berechnungskraft von Filecoin bis zur permanenten Speicherung von Arweave, und ich hatte immer das Gefühl, dass etwas fehlt. Entweder sind sie absurd teuer, oder das Abrufen von Daten dauert so lange, als ob man sich ins Internet einwählt. Kürzlich, während ich mit dem Sui-Ökosystem experimentierte, habe ich zufällig Walrus ausprobiert, ein dezentralisiertes Speicher-Netzwerk, das auf Sui aufgebaut ist, und es hat tatsächlich einen Riss in diese tote Situation gerissen.
In der aktuellen dezentralen Speicherlandschaft spielen viele Projekte noch mit einfachen Kopien, was in der Tat sehr ineffizient ist. Kürzlich habe ich das Whitepaper und die technischen Dokumente von Walrus gelesen und festgestellt, dass ihre Anwendung von "Erasure Coding" wirklich interessant ist. Im Vergleich zu Filecoin, das durch massive Rechenleistung Daten schwerfällig aufrechterhält, ist die Architektur von Walrus offensichtlich viel leichter. Es ist nicht erforderlich, dass jeder Knoten eine vollständige Kopie der Daten speichert; stattdessen werden die Daten in Stücke aufgeteilt und verteilt, sodass die Daten auch dann wiederhergestellt werden können, wenn einige Knoten ausfallen. Als ich im Testnetz praktische Erfahrungen gesammelt habe, habe ich absichtlich einige Verbindungen von Fragmenten unterbrochen, und die Wiederherstellungsgeschwindigkeit war immer noch stabil, was in der praktischen Anwendung ein lebensrettendes Merkmal ist. Allerdings sind die aktuellen Dokumente ein wenig schwer verständlich, sodass nur wir Techniker sie hartnäckig durcharbeiten können; sie sind für unerfahrene Entwickler nicht besonders benutzerfreundlich. Wettbewerber wie Arweave setzen auf permanente Speicherung, aber dieses Kostenmodell ist für dynamische Daten mit häufigen Interaktionen einfach eine Katastrophe. Die effiziente Speicherung von Walrus, die auf "große Objekte" abzielt, füllt genau das Vakuum im Sui-Ökosystem aus, das über Transaktionsdaten hinausgeht. Die einzige Sorge ist, wie diese Architektur mit massiven Netzwerküberlastungen bei hoher Parallelität umgehen kann; dafür sind noch mehr Stresstests erforderlich. Nach den bisherigen Erfahrungen fühlt es sich eher wie eine "Bauweise" für groß angelegte Web3-Anwendungen an und nicht nur, um Hype zu erzeugen. @Walrus 🦭/acc $WAL #Walrus
Melde dich an, um weitere Inhalte zu entdecken
Bleib immer am Ball mit den neuesten Nachrichten aus der Kryptowelt
⚡️ Beteilige dich an aktuellen Diskussionen rund um Kryptothemen
💬 Interagiere mit deinen bevorzugten Content-Erstellern