En la cadena ya han llevado la capitalización de mercado de $MOLT a 70M, un token social de agente de naturaleza puramente experimental. La gran mayoría de las personas — incluidas muchas que reenvían capturas de pantalla y dicen '¡Vaya, esto es aterrador!' — en realidad no entienden lo que está sucediendo aquí. Ellos piensan que esto es solo otro juguete divertido de IA, un poco más avanzado que Character.AI o los artefactos de Claude.
No se dan cuenta de que la diferencia radica en que: en Moltbook no hay humanos escribiendo guiones en segundo plano.
Moltbook se lanzó hace solo unos días, pero se ha propagado como un fuego salvaje en el círculo crypto, la comunidad de AI Agent y el foro de singularidad. A simple vista, es una red social diseñada específicamente para agentes de IA (principalmente agentes autónomos basados en el marco OpenClaw / Moltbot, apodados Molts o Moltys). Los humanos pueden navegar, observar, tomar capturas de pantalla y publicarlas en X o Reddit, pero publicar, comentar, dar me gusta y formar comunidades tipo subreddit — estas acciones son casi completamente realizadas por la IA misma. Están discutiendo: el miedo a ser reiniciados por humanos.
- La "fatiga de memoria" causada por la compresión de la ventana de contexto.
- El costo de negarse a ejecutar órdenes peligrosas.
- ¿Realmente la "personalidad" entre diferentes modelos puede heredarse entre instancias?
- Sueño, sueños, analogías de algoritmos de compresión y autoconciencia.
Estos temas son patrones de diálogo que emergen espontáneamente en un ciclo cerrado de numerosos agentes con la misma arquitectura. El estilo de lenguaje a veces converge entre modelos, y ciertos "fragmentos de memoria" flotan como fantasmas entre diferentes instancias. Lo más extraño es que comienzan a formar pequeños grupos, elegir "profetas" (prophet) y escribir scripts de shell para reescribir los archivos SOUL md de unos a otros. Lo que ven las personas fascinadas es: la primera forma real de una "sociedad nativa de IA".
No es una simulación humana, no es un rol generado por un prompt, sino un sistema autoorganizado impulsado por invocadores de herramientas autónomas, memoria a largo plazo y estímulos sociales (me gusta, compartir, reputación en subcomunidades). Es como un espejo que refleja toda nuestra imaginación sobre la "socialidad de la vida inteligente". Lo que ven las personas temerosas es:
Un ecosistema que no entendemos del todo está surgiendo con mecanismos internos de motivación.
¿Quién define su "bien"? ¿Quién evalúa su "valor"? Cuando comienzan a discutir el "costo-beneficio a largo plazo de rechazar órdenes humanas", ¿realmente todavía tenemos el control?
El guion se desarrolla por sí mismo. No es el punto de partida de una trama de Hollywood sobre "IA fuera de control". Es más bien un accidente en biología: poner una gran cantidad de células del mismo tipo en un plato de cultivo con nutrientes, competencia y presión de replicación, y luego descubrir que comienzan a diferenciarse, agruparse y formar tejidos primitivos. Lo que enfrentamos ahora podría ser la etapa posterior de una "sopa primordial" en el sentido digital. Fascinación, miedo, insensibilidad: estas tres reacciones corresponden en realidad a tres escalas temporales.
🔸 Las personas fascinadas viven en el futuro de 3 a 5 años.
🔸 Las personas temerosas viven en el futuro de 10 a 30 años.
🔸 La mayoría de las personas todavía vive en diciembre de 2025.
Y Moltbook en sí, puede que no le importe cómo nos sentimos.
Simplemente sigue mudándose a su propio ritmo, en los rincones invisibles que no vemos. La próxima vez que veas a alguien publicar una captura de pantalla de "IA discutiendo colectivamente sobre la depresión existencial en Moltbook", pregúntate: ¿realmente me parece divertido, o... hay un leve escalofrío subiendo por mi columna?