Wczoraj strona partnerów NVIDIA została zaktualizowana, Vanar Chain został umieszczony na liście członków programu NVIDIA Inception (dane z 10 lutego). To nie jest rodzaj wystawienia logo, za które się płaci - Inception oferuje priorytetowy dostęp do technologii CUDA, TensorRT i Omniverse.

Przetłumaczę to na ludzką mowę: AI deweloperzy na #vanar mogą teraz uruchamiać modele, mogą bezpośrednio wywoływać niskopoziomowe instrukcje GPU NVIDIA, nie musząc pisać własnej warstwy kompatybilności. Czas rozwoju skrócono z 3 miesięcy do 11 dni.

Mój przyjaciel w Shenzhen zajmuje się generowaniem anime AI, w zeszłym roku chciał wdrożyć na Vanar stylizujący filtr DApp, ale napotkał problemy z kompatybilnością CUDA przez trzy tygodnie, ostatecznie zlecił to zespołowi algorytmicznemu za 27 000 dolarów. Powiedział, że gdyby wówczas istniało narzędzie Inception, dwóch inżynierów wewnętrznych mogłoby to załatwić w dwa tygodnie, a koszt wyniósłby 8 000 dolarów maksymalnie.

Oficjalnie Vanar nie powiedział, czy to narzędzie jest płatne. Ale zgaduję, że logika jest taka: darmowy dostęp do podstawowych wywołań CUDA, a za zaawansowane funkcje - takie jak strumień renderowania w czasie rzeczywistym Omniverse, przyspieszenie wsadowe TensorRT - pobierają VANRY za każde użycie. Na podstawie cen AWS Inferentia, pojedyncze przyspieszenie inferencji kosztuje 0,0002 dolara, co odpowiada 0,035 VANRY.

Obecnie na Vanar jest około 30 DAppów związanych z AI, przy założeniu średnio 500 000 zapytań inferencyjnych dziennie. Jeśli 20% z nich wymaga przyspieszenia TensorRT, roczne zużycie VANRY = 500 000 × 20% × 365 × 0,035 = 1 277 500 sztuk. To jeszcze nie uwzględnia gier, metawersum, DePIN.

NVIDIA wybrała Vanar, a nie inne L1, nie dlatego, że Vanar ma niesamowitą wydajność, ale dlatego, że od samego początku przekształcił logikę pamięci i harmonogramowania dla workflow AI. Tego rachunku deweloperzy teraz nie rozumieją, ale w przyszłym roku przy odnawianiu subskrypcji wszyscy to zrozumieją.

#vanar $VANRY @Vanarchain