Estos días he estado probando la comparativa de la capa de disponibilidad de datos, y aproveché para migrar algunos grandes archivos JSON que estaban corriendo en Arweave a la red de pruebas de Walrus. Para ser honesto, la narrativa de 'almacenamiento permanente' que enfatiza Arweave a menudo resulta ser un mito cuando se lleva a la práctica, especialmente para los metadatos dinámicos de NFT que requieren actualizaciones frecuentes; el modelo de costo de compra única se convierte en una carga. Ejecuté la herramienta CLI de Walrus y la principal diferencia que sentí es que su lógica de manejo de datos Blob se asemeja más a S3 de Web2, en lugar de ese tipo de monstruo que sacrifica la eficiencia por descentralización.
Anoche pasé toda la noche probando la capacidad de recuperación del Erasure Coding (código de borrado) cuando hay desconexiones de nodos; desconecté intencionadamente dos nodos de almacenamiento en el entorno local, y la latencia de reconstrucción de datos es casi insignificante. Esto es mucho más ligero que el complejo mecanismo de encapsulamiento de sectores y pruebas de Filecoin, cuyo mercado de recuperación aún no ha funcionado completamente, recuperar datos es tan lento como navegar por un módem. La idea de Walrus de desacoplar almacenamiento y computación se alinea claramente mejor con el ritmo actual de escalabilidad del ecosistema Move.
Sin embargo, la documentación de la red de pruebas está algo oscura en algunas partes, la configuración de parámetros no está alineada y tuve que ir a Discord a revisar el historial de chat para que funcionara. En este momento, parece que no busca derrocar a Arweave, sino llenar el vacío entre almacenamiento de alto rendimiento, temporal y de bajo costo. Este enfoque pragmático de la ingeniería resulta ser más tangible que aquellos proyectos que hablan de 'el conocimiento humano perdura para siempre'.


