Hôm qua, trang đối tác của NVIDIA trên website đã được cập nhật, Vanar Chain được đưa vào danh sách thành viên của chương trình NVIDIA Inception (dữ liệu ngày 10 tháng 2). Đây không phải là loại trình diễn logo mua bằng tiền - Inception cung cấp quyền truy cập ưu tiên vào công nghệ CUDA, TensorRT và Omniverse.

Tôi dịch sang ngôn ngữ bình thường: #vanar trên AI developer sau này chạy mô hình, có thể trực tiếp gọi tập lệnh của card đồ họa NVIDIA mà không cần viết lớp tương thích. Thời gian phát triển được rút ngắn từ 3 tháng xuống còn 11 ngày.

Bạn tôi ở Thâm Quyến làm AI tạo hình anime, năm ngoái muốn triển khai một DApp bộ lọc phong cách trên Vanar, kết quả bị kẹt 3 tuần vì tính tương thích với CUDA, cuối cùng đã thuê đội ngũ thuật toán tiêu tốn 27,000 USD. Anh ấy nói nếu khi đó có bộ công cụ Inception này, hai kỹ sư nội bộ chỉ cần hai tuần là có thể hoàn thành, chi phí tối đa là 8,000 USD.

Vanar chính thức không nói bộ công cụ này có tính phí hay không. Nhưng tôi đoán logic là như thế này: mở miễn phí các gọi CUDA cơ bản, các tính năng cao cấp - ví dụ như dòng render thời gian thực của Omniverse, tăng tốc xử lý batch TensorRT - sẽ bị trừ VANRY theo lần sử dụng. Tham khảo giá cả của AWS Inferentia, tăng tốc suy luận một lần là 0.0002 USD, tương đương 0.035 VANRY.

Hiện tại có khoảng 30 DApp loại AI trên Vanar, giả sử có 500,000 yêu cầu suy luận mỗi ngày. Nếu 20% trong số đó cần tăng tốc TensorRT, mức tiêu thụ VANRY hàng năm = 500,000 × 20% × 365 × 0.035 = 1,277,500 đồng. Điều này chưa tính đến trò chơi, vũ trụ ảo, DePIN.

NVIDIA chọn Vanar thay vì L1 khác không phải vì hiệu suất của Vanar mạnh mẽ, mà vì nó đã tái cấu trúc logic bộ nhớ và lập lịch cho quy trình làm việc AI từ trong gen. Điều này, các nhà phát triển hiện tại không hiểu, nhưng sẽ hiểu hết khi gia hạn vào năm sau.

#vanar $VANRY @Vanarchain