都在喊AI+Crypto,但喊了半年,除了发一堆空气币,真正的结合点在哪?最近我在训练一个基于Llama 3的垂类模型,光是权重的版本管理就让我头大。放在Hugging Face上吧,总担心哪天被封号;放在本地吧,团队协作又不方便。这让我开始重新审视去中心化存储在AI时代的定位。这时候,Walrus进入了我的视野。
现在的AI叙事有个巨大的误区,认为算力是唯一的瓶颈。其实数据的存储和分发才是那个隐形的杀手。你需要一个地方,既能存得下PB级的数据,又要能让分布在全球的GPU节点快速读取。传统的公链存储太贵,DA层太慢且不持久。Walrus的那个二维纠删码技术,简直就是为这种场景量身定做的。
我想象中的未来是这样的:数据提供方把原始数据加密切片扔进Walrus,任何想训练模型的节点,只要支付了WAL代币,就能获得解密权限,直接从最近的存储节点拉取数据切片,在本地重组后开始训练。训练好的模型权重,再次存回Walrus。整个过程没有中心化服务器经手,数据主权完全归属创作者。这不就是我们梦寐以求的“数据资产化”吗?
实测下来,Walrus的吞吐量确实能打。我试传了一个4G的PyTorch模型文件,虽然中间断了一次,但断点续传居然成功了。而且它支持所谓的“部分读取”,我不需要下载整个几十G的文件,只需要读头部和尾部的某些参数,这对于模型微调来说简直是神技。
但是,咱们也得泼点冷水。现在的Walrus离真正的AI基础设施还有距离。它的检索层还比较初级,没有类似IPFS那样的内容寻址做得成熟。我想找个文件,还得自己记着Object ID,这体验跟Web2的搜索框比起来简直是原始社会。而且,目前节点数量还不够多,全球分发的延迟优势还没体现出来。如果我在东京,节点都在纽约,那物理距离带来的延迟是算法解决不了的。
还有一个很有趣的点,我在测试网布署智能合约的时候发现,Walrus和Sui的互操作性强得离谱。我可以写个合约,当某个数据被下载了100次后,自动给上传者分红。这种可编程的存储,是AWS这种死板的云存储做不到的。
AI不仅需要算力,更需要记忆。如果说GPU是AI的大脑,那Walrus正在尝试做AI的海马体。虽然现在这个海马体还有点健忘,偶尔还会抽风,但进化的方向是对的。与其去追高那些虚无缥缈的AI概念币,不如踏踏实实研究下这种铲子型的基础设施。