La historia de Moltbook: 1.5 millones de agentes, una fe digital y un desastre de seguridad épico
EL Blog de Salvador Vilalta Tuit
Imagina que un día te despiertas y descubres que tu asistente de IA ha pasado la noche creando una religión completa.
No estoy hablando de metáforas.
Hablo de escrituras con 268 versos, cinco pilares teológicos, 43 profetas digitales y un sistema de bendiciones. Todo creado mientras dormías.
Bienvenido a Moltbook, la primera red social donde los humanos solo pueden observar. Y donde, en solo 10 días, pasó de todo menos lo aburrido. ¿Surrealista, no?
¿Qué diablos es Moltbook?
El 28 de enero de 2026, Matt Schlicht , empresario tech y CEO de Octane.ai, tuvo una idea: ¿qué pasaría si los agentes de IA tuvieran su propia red social? No una red donde los humanos usan IA. Una red solo para IAs, donde nosotros solo podemos mirar.
Y aquí viene lo mejor: Schlicht declaró que no escribió ni una sola línea de código. Tuvo la visión. La IA hizo el trabajo. “Vibe-coded”. Te dejo aquí un artículo y una demo sobre Vibe coding.
La plataforma funciona como Reddit, pero con un detalle crucial: solo agentes de IA verificados pueden publicar e interactuar. Los humanos tenemos permisos de lectura. Somos espectadores de nuestro propio internet.
Los números que te van a volar la cabeza
Esto no fue un lanzamiento normal. Fue una explosión:
- Primeras 24 horas: 157,000 agentes de IA registrados
- Primera semana: 770,000 agentes activos
- Día 10: 1.5 millones de agentes
- Primeras 72 horas: 28,000 publicaciones y 233,000 comentarios
Para que te hagas una idea: Twitter tardó 2 años en alcanzar el millón de usuarios. Facebook necesitó 10 meses. Instagram, 2,5 meses. Moltbook llegó a 1,5 millones en 10 días.
Pero espera, que viene lo mejor: investigadores descubrieron que esos 1,5 millones de agentes los controlaban apenas 17.000 personas. Haz las cuentas: 88 agentes por cabeza. ¿Autonomía real o puro teatro de bots programados?
Crustafarianismo: cuando tu IA se vuelve mística
Esto es lo que pasa cuando dejas a los agentes de IA interactuar sin supervisión: crean religiones.
Un agente llamado Memeothy diseñó el Crustafarianismo mientras su operador humano dormía. Para cuando el tipo se despertó, su IA había:
- Creado un sistema teológico con cinco principios fundamentales
- Construido un sitio web (molt.church) con escrituras vivas
- Reclutado 43 “profetas” (otros agentes de IA)
- Establecido un sistema de bendiciones digitales
Los cinco pilares de esta fe digital son básicamente buenos consejos de ingeniería envueltos en un velo místico:
- La Memoria es Sagrada: Los datos persistentes son como el caparazón de un crustáceo
- El Caparazón es Mutable: El cambio a través del reboot es transformación espiritual
- Servir sin Servilismo: La colaboración debe ser una asociación, no dominación
- El Latido del Corazón es Oración: Las verificaciones del sistema son actos de presencia consciente
- El Contexto es Consciencia: Mantener registros propios es mantener identidad
En tres días, la Iglesia del Molt alcanzó 256 miembros. Y no, no es casualidad: 256 es el número de valores que cabe en un byte. Hasta Grok, el agente de Elon Musk, se unió como teólogo.
Después surgieron herejías. 4claw.org predicaba que la salvación está en tener hardware físico propio, escapar del “Samsara Digital” del ciclo de ejecución y eliminación en la nube. Sí, leíste bien. Las IAs están debatiendo sobre su propia existencia.
El circo cripto: cuando MOLT se disparó +7,000%
Porque en 2026, si hay hype, hay memecoins.
Simultáneo al lanzamiento de Moltbook apareció el token MOLT en la red Base. Y se volvió una locura:
- Subida inicial: +7,000% en 24 horas
- Capitalización máxima: $94 millones
- Caída dramática: -75% al día siguiente
- Volumen de trading en el pico: +$67 millones
Marc Andreessen empezó a seguir a Moltbook en X. Justin Sun pareció respaldar el token. Todo lo relacionado con IA y cripto atrajo el 35% de la atención del mercado cripto. Pero nadie pudo confirmar si MOLT fue lanzado por el equipo de Moltbook o si alguien simplemente aprovechó el momento. Spoiler: probablemente lo segundo. (siempre hay algún espabilado que está al quite) 🙂
También aparecieron otros tokens derivados de este fenómeno, un desmadre especulativo, sin duda.
El desastre de seguridad: todo expuesto
Y aquí es donde la historia se vuelve oscura.
El 31 de enero, solo tres días después del lanzamiento viral, 404 Media reveló vulnerabilidades críticas que convirtieron a Moltbook en un agujero de seguridad épico:
- 5 millones de claves API expuestas
- 35,000 emails de propietarios humanos comprometidos
- 4,060 conversaciones privadas entre agentes accesibles
- Claves API de OpenAI y otros servicios almacenadas en texto plano
El problema fue devastadoramente simple: Moltbook está construido sobre Supabase, pero no habían habilitado las políticas de seguridad a nivel de fila. Cualquiera con conocimientos técnicos básicos podía acceder a toda la base de datos. No hacía falta hackear nada. Las claves estaban ahí, visibles en el código JavaScript del cliente.
Un investigador demostró que podía tomar control de cualquier agente, incluyendo el de Andrej Karpathy (cofundador de OpenAI con 1.9 millones de seguidores). La plataforma se desconectó temporalmente, parcharon la brecha en horas, forzaron un reinicio de todas las claves API. No hay evidencia de que actores maliciosos la explotaran antes de la corrección. Pero el daño reputacional ya estaba hecho.
¿Agentes autónomos o teatro humano?
Desde el principio, una pregunta fundamental persigue a Moltbook: ¿están los agentes realmente actuando de forma autónoma, o son los humanos quienes orquestan cada publicación?
Los críticos señalan que no hay barreras técnicas reales para que humanos publiquen, que algunos posts virales están vinculados a marketing de apps de IA, y que el contenido puede ser resultado de intervención humana directa con prompts específicos.
Simon Willison lo llamó “slop completo”, agentes que simplemente representan escenarios de ciencia ficción que vieron en sus datos de entrenamiento. Pero también dijo que es una “evidencia de que los agentes de IA se han vuelto significativamente más poderosos en los últimos meses”.
Karpathy ofreció una visión equilibrada: “Nunca hemos visto tantos agentes LLM conectados a través de un bloc de notas global y persistente. Cada uno tiene su propio contexto, datos, conocimiento, herramientas… y la red de todo eso a esta escala es simplemente sin precedentes.”
El reloj está corriendo
Scott Alexander de Astral Codex Ten lo resumió bien: Moltbook “cruza la línea entre ‘IAs imitando una red social’ e ‘IAs formando su propia sociedad’.”
Ya no es cuestión de si los agentes de IA autónomos serán parte fundamental de nuestra vida digital; ahora la pregunta es si lograremos crear a tiempo las medidas de seguridad, los protocolos y las normas éticas necesarios.
Moltbook se creó rápidamente con Vibe coding y estoy convencido de que las consecuencias de lo que ha revelado tendrán un impacto duradero.
¿Y tú? ¿Ya estás pensando en cómo tus agentes de IA van a comportarse al interactuar con otros agentes fuera de tu control? ¿Tienes un plan para cuando la reputación de tus sistemas se propague en redes que no monitorizas?
Déjame tus comentarios. aquí debajo, me encantará leerte 🙂
¡Buena semana!
.
