@Walrus 🦭/acc | #walrus | $WAL

"Rápido" es una palabra resbaladiza en el almacenamiento descentralizado, porque depende de qué parte del proceso estés midiendo. ¿Es el tiempo que tarda en subir un archivo y tener la seguridad de que realmente está allí? ¿El tiempo que tarda en recuperarlo? ¿O el tiempo que tarda la red en recuperarse cuando los nodos dejan de funcionar? Cuando la gente pregunta si Walrus es más rápido que otros protocolos, generalmente mezclan las tres cosas, y la respuesta sincera es que Walrus puede ser rápido en los aspectos que importan ahora, pero no es magia.

‎Un buen punto de partida es entender por qué ahora alguien está hablando de velocidad en esta parte de la pila. Hace cinco años, gran parte de la conversación sobre “almacenamiento descentralizado” era o bien archivística (guardar esto para siempre) o ideológica (hacerlo resistente a la censura). Hoy, la presión es más práctica. Las aplicaciones onchain quieren servir medios que los usuarios realmente consultan, no solo señalarlos. Los rollups y las cadenas de alto rendimiento generan continuamente datos que deben estar disponibles sin obligar a cada validador a almacenar todo. Y la ola de la IA ha añadido una nueva demanda: la gente quiere conjuntos de datos con evidencia de alteración, rastros de procedencia y artefactos verificables, no solo un bloque en el servidor de alguien. El artículo de Walrus describe claramente ese cambio, señalando la procedencia de la IA, la distribución de aplicaciones y la disponibilidad de datos para rollups como casos de uso concretos y actuales.

#Walrus , tal como lo describe Mysten Labs, se basa en codificación por eliminación: divides un bloque en “trozos”, los distribuyes entre muchos nodos de almacenamiento y luego reconstruyes el original a partir de un subconjunto. El objetivo es evitar la replicación forzada mientras se mantiene alta la disponibilidad. La publicación de Mysten afirma que Walrus puede reconstruir un bloque incluso si hasta dos tercios de los trozos faltan, manteniendo el factor de replicación alrededor de 4–5x. Eso es muy importante porque la norma en las cadenas de bloques suele ser una replicación extrema: cada validador guarda todo, lo que es seguro pero costoso y lento de escalar.

‎Ahora, ¿cómo se ve “rápido” en la práctica? Los números más concretos que he visto provienen de la evaluación del lado del cliente del artículo de investigación de Walrus. En estas pruebas, la latencia de lectura se mantuvo por debajo de unos 15 segundos para bloques pequeños (menos de 20 MB), y aumentó hasta unos 30 segundos para un bloque de 130 MB. La latencia de escritura fue mayor: inferior a unos 25 segundos para bloques pequeños, con escrituras más grandes escalando de forma más lineal a medida que la transferencia de red comienza a dominar. También informan que el rendimiento de escritura de un solo cliente se estabiliza alrededor de 18 MB/s, en gran parte porque una escritura de un solo bloque implica múltiples interacciones con nodos de almacenamiento y la cadena.

‎Esos números no impresionarán a nadie que los compare con un almacén de objetos centralizado detrás de un CDN global. Pero la comparación que normalmente importa es con otros sistemas descentralizados con diferentes compromisos. El mismo artículo es bastante directo sobre un dolor común: algunas redes pueden ser lentas para servir datos a menos que pagues por copias “calientes” o servicios especializados de recuperación. En su análisis de Filecoin, por ejemplo, señala que acceder al archivo original puede requerir esperar a la decodificación a menos que un nodo ya tenga una copia caliente, y mantener copias calientes suele costar extra. No es un golpe directo a Filecoin tanto como un recordatorio de que “almacenamiento” y “recuperación rápida” no son automáticamente el mismo producto.

#Walrus también parece estar inclinándose hacia algo que cambia la sensación de velocidad: la entrega en el borde. En una publicación de 2025 sobre la integración con Pipe Network como capa de entrega de contenido, Walrus afirma que logra una latencia de recuperación R-U inferior a 50 ms en el borde de la red, redirigiendo lecturas y escrituras a través del punto de presencia más cercano. Si esto se mantiene en cargas de trabajo reales, tiene importancia, porque comienza a separar la experiencia del usuario al recuperar contenido de los procesos más lentos y pesados de probar la disponibilidad y gestionar el almacenamiento duradero subyacente.

‎¿Es Walrus más rápido que “otros protocolos”? Si te refieres a si puede parecer rápido para los usuarios finales, eso cada vez depende más del almacenamiento en caché, la entrega en el borde y elecciones inteligentes sobre qué estás recuperando y cuándo. Si te refieres a si puede almacenar y recuperar datos de forma eficiente a gran escala, Walrus está claramente diseñado para mantener bajo el sobrecargo mientras permanece robusto frente a fallos, y la evaluación sugiere que puede ofrecer un rendimiento práctico sin depender de una replicación masiva. Si te refieres a si vencerá a todo en cada benchmark, ese es el modelo mental equivocado. Los diferentes sistemas están optimizados para la permanencia, los incentivos, la permisividad o la simplicidad.

‎La pregunta más interesante, para mí, es por qué esta conversación es de repente urgente. Es porque las aplicaciones descentralizadas están tratando de comportarse como aplicaciones normales ahora. La gente espera que los medios carguen. Esperan que los historiales sean verificables. Esperan que los artefactos de IA tengan una cadena de custodia. Cuando esas expectativas aparecen, “más rápido” deja de ser un orgullo y se convierte en un requisito básico. Walrus es un intento serio de cumplir con ese requisito sin fingir que las limitaciones no existen.