大家都在谈论2026年是AI,尤其是去中心化AI(DeAI)的爆发之年。我们的目光很自然地被那些炫目的AI模型、神奇的智能代理所吸引。但作为一个老基建投研,我养成了一个“坏习惯”:喜欢往下看,看那些光彩应用之下的东西——数据、存储、计算资源。最近我越来越觉得,像Walrus这样的去中心化存储协议,可能正在成为DeAI时代一个被低估的隐性基石。
AI繁荣下的“数据饥渴”与“存储尴尬”
AI的运行,特别是训练,是一个“数据吞噬兽”。全球数据生成量是个天文数字,到2026年预计达到惊人的221,000 EB。这些数据,尤其是用于训练的高质量数据集,需要被安全、可靠地存储和调用。但现状很尴尬:传统的区块链(如以太坊)存储成本极高,根本不适合存放大规模数据;而中心化云服务,虽然性能好,却又与Web3的去中心化、可信验证理念格格不入,更存在数据垄断、隐私泄露和单点故障的风险。
这就形成了一个矛盾:我们试图用去中心化的方式构建下一代智能网络(DeAI),但其“食粮”(数据)和“记忆”(状态)却可能托管在中心化的、不透明的服务器上。这无疑是在沙滩上盖高楼。
Walrus的破局点:可验证的数据层
这正是Walrus可以切入的缝隙。它提供的不是简单的存储,而是一个可验证、抗审查的数据可用层。这对于AI应用来说,至少解决了三个痛点:
1. 训练数据的可信与溯源:一个AI模型的效果取决于其训练数据。如果数据集存储在Walrus上,其完整性可以通过密码学证明来验证,确保训练过程中数据没有被篡改或投毒。这对于需要审计和信任的DeAI应用至关重要。
2. AI代理的持久化状态:以Talus为例,其AI代理需要将不断学习更新的“状态”和“记忆”持久化保存。存放在Walrus,意味着这些状态是公开可查、不可篡改的,任何其他人都可以验证这个AI是基于何种历史数据做出的决策。这相当于给AI建立了公开透明的“工作日志”。
3. 模型权重的分布式存管:大型AI模型本身(权重文件)就是宝贵的数字资产。将其分片存储在Walrus这样的去中心化网络中,比存放在单一公司的服务器上更安全,也更符合资产去中心化所有的精神。

超越存储:与AI计算流的初步耦合
更有想象力的点在于,这种结合不止于静态存储。在像Myriad这样的预测市场升级中,Walrus与零知识证明等隐私计算技术结合,能够处理更复杂的场景。例如,AI需要分析某些敏感的链上或链下数据来做预测,但数据本身不能公开。这时,可以通过技术手段让AI“证明”自己已合规地访问了某类加密数据,而验证过程需要依赖可信的数据存证。Walrus就能扮演这个可信存证的角色。
这已经从“数据仓库”向“数据流程管道”的角色演进。虽然还不是完整的去中心化计算,但已经为数据在可信环境下的使用提供了关键一环。

潜在的挑战与漫长的道路
我必须泼点冷水,以免过于乐观。这条路挑战巨大:
· 性能要求:AI训练和推理对数据吞吐速度和延迟有极高要求。目前的去中心化存储网络能否达到媲美中心化云的水平,仍需大规模实践检验。一些专门为AI设计的新协议,如0G,就号称实现了极高的吞吐量。
· 生态整合深度:目前像Talus这样的深度整合案例还不多。需要更多的AI项目从设计之初就将可验证数据层作为核心架构,而不是事后附加。
· 数据格式与标准:AI数据有各种复杂格式,如何高效地索引、检索这些存储在去中心化网络中的数据,是一个巨大的工程问题。
我的一些个人判断:尽管前路漫漫,但方向是清晰的。AI与区块链的结合,绝不能是“AI大脑”配“中心化神经”。数据的归处,决定了这个智能体的本质。
Walrus目前所做的,是证明了自己有能力成为DeAI可信数据基座的一个可靠选项。它不一定,也无需在所有性能指标上打败中心化云,但它必须在“可验证性”、“抗审查性”和“与链上生态的无缝集成”上建立不可替代的优势。
当未来某个杀手级DeAI应用出现时,人们或许只会惊叹于其智能,而忽略了其记忆扎根于何处。但对于投资者和建设者而言,现在正是关注和布局这些“隐形基石”的时候。因为支撑起伟大应用的,从来不是浮华的代码,而是沉默的数据之河。
未来的去中心化智能,其记忆若不扎根于去中心化的土壤,则思考的独立性无从谈起。#walrus $WAL @Walrus 🦭/acc


