最近在看 AI 和 Web3 结合的赛道(AI x Crypto),发现一个很明显的认知误区:大家都盯着“去中心化算力”,却忽略了“去中心化数据”的基建。训练好的 AI 模型权重、巨大的数据集、RAG(检索增强生成)所需要的知识库,这些动辄 GB 甚至 TB 级别的数据,到底该存在哪?

如果继续存 AWS,那 Web3 AI 就是个伪命题;如果存传统的区块链,Gas 费能贵到破产。这就引出了我对 @Walrus 🦭/acc 的关注点。很多人把 Walrus 简单归类为存储,但我觉得它更像是针对“大 blob”数据优化的特殊层。这里有个技术细节很有意思:它并没有采用 Celestia 那种专注于“数据可用性(DA)”的短期逻辑——即数据只存几天供验证;Walrus 显然是想做持久化存储,但又不想牺牲性能。

核心还是在于它如何处理“冗余”。在传统的去中心化网络里,为了保证数据不丢,往往采用暴力复制(Replication),比如一个文件存 50 份,这效率低得可怕。Walrus 的技术文档里强调的二维纠删码(Redundancy encoding),本质上是用计算换空间。通过数学算法把文件打碎,只要网络中还有一部分碎片在,就能 100% 还原文件。对于存 AI 模型这种“不能丢一个比特”的场景,这种概率确定性比单纯的节点复制要靠谱得多,成本也呈指数级下降。

Sui 在这里充当了一个极速的协调器。如果我是一个 AI 开发者,我完全可以把模型权重扔在 #Walrus 上,然后用 Sui 的合约来控制谁有权调用这个模型。这种架构才可能让“去中心化 Hugging Face”成为现实。

技术发展的逻辑往往是环环相扣的。没有低成本、高鲁棒性的存储层,上层的 AI 应用就是空中楼阁。与其去追逐那些发 token 的 AI 项目,不如看看谁在解决最底层的“比特安放”问题。Walrus 的架构设计,感觉是在为接下来 Web3 承载重资产(视频、模型、游戏资源)做准备。#walrus $WAL