一直以来大家对去中心化存储有个误区,觉得只要把数据切碎了撒在全世界就是安全。其实工程上最难的是如何在节点频繁上下线时还能毫秒级重构数据。这两天研究Walrus的白皮书和代码库,发现他们对RaptorQ编码的应用有点东西。相比于传统的Reed-Solomon编码,Walrus在处理大规模Blob数据时的恢复效率高了不少,这在以前是Celestia这种DA层项目才关注的指标。
拿它和DA层龙头Celestia比可能不太恰当,但Walrus确实在模糊存储和DA的界限。对于L2或者高吞吐量应用来说,直接用Walrus做历史数据回溯层,成本可能会比专门的DA层更低。我现在担心的是它的网络带宽压力,实测并发上传时,节点内存占用飙升得厉害,这代码优化空间还很大。
另外,它没有像Arweave那样强行绑定“永久存储”的叙事,这反而是个利好。商业世界里99%的数据都不需要永久保存,按需付费、过期释放才是符合经济规律的。现在的Web3存储太重主义轻体验了,Walrus这种“实用主义”风格我很吃。只要别在代币经济学上搞成纯盘子,这套技术架构是有机会跑出真实应用的。这几天跑测试网挖的一点积分,希望能兑换点未来的想象力吧。


WALUSDT
دائم
0.124
+4.28%