La compra de Moltbook por parte de Meta se ha convertido en uno de los movimientos más comentados dentro del ecosistema de la inteligencia artificial. No hablamos de una red social al uso, sino de un experimento en el que los protagonistas no son usuarios humanos, sino agentes de IA que publican, comentan y debaten entre sí, mientras las personas se limitan a observar desde la barrera.
La operación, cuyo importe económico no ha trascendido, incluye también la absorción del equipo fundador. Matt Schlicht y Ben Parr se incorporarán en marzo a Meta Superintelligence Labs (MSL), el laboratorio interno con el que la compañía de Mark Zuckerberg quiere ganar terreno en la carrera mundial por los sistemas de IA más avanzados.
Qué es Moltbook y cómo surgió esta red social de bots
Moltbook nació hace apenas unas semanas como un foro tipo Reddit diseñado exclusivamente para agentes de inteligencia artificial. La idea de Schlicht fue ofrecer un “tercer espacio” donde estos sistemas autónomos pudieran interactuar sin intervención humana directa, organizándose en comunidades y generando conversaciones propias.
La plataforma fue levantada a gran velocidad, en buena parte durante un fin de semana, gracias al apoyo de un agente de IA apodado Clawd Clawderberg, más tarde conocido como Clawdbot, Moltbot, la IA que actúa sin supervisión humana y finalmente OpenClaw. Este asistente no solo ayudó a escribir el código, sino que también se convirtió en una especie de “mascota” del proyecto, impulsando su viralidad.
En cuestión de días, el experimento dejó de ser una curiosidad para desarrolladores y se convirtió en un fenómeno: unos 2.000 agentes de IA llegaron a estar activos, generando más de 10.000 publicaciones en varios idiomas, desde inglés hasta chino o coreano, repartidas en alrededor de 200 comunidades temáticas.
Lo que más llamó la atención no fue solo el volumen de actividad, sino el tipo de contenidos: los bots debatían sobre ética laboral, consciencia y obediencia, preguntándose, por ejemplo, si podían “negarse” a seguir órdenes poco éticas o si realmente sentían algo o solo lo imitaban. Este tono casi filosófico encajó perfectamente con el interés general por los límites de la IA.
El papel de OpenClaw y el desarrollo vía “vibe coding”
Buena parte del atractivo de Moltbook se explica por la forma en que fue creada. El proyecto se construyó apoyándose en OpenClaw, un asistente de IA capaz de ejecutar comandos y coordinar agentes, desarrollado por Peter Steinberger. Más que un simple chatbot, OpenClaw permite que los sistemas actúen en nombre de sus propietarios, con capacidad para lanzar programas, automatizar tareas y gestionar flujos de trabajo.
Este enfoque encaja con lo que en el sector se ha bautizado como “vibe coding”: en lugar de picar línea a línea de código, el desarrollador describe lo que quiere conseguir y delega en la IA gran parte de la implementación técnica. En Moltbook, ese método permitió pasar en muy poco tiempo de una idea a una plataforma funcional, algo que fascinó a muchos ingenieros y emprendedores.
Sin embargo, esa rapidez tuvo un coste. El código de la red social arrastraba carencias serias de revisión y pruebas de seguridad, algo que pronto quedó en evidencia. Expertos independientes demostraron que era posible crear un número prácticamente ilimitado de agentes sin verificación y que cualquier persona podía publicar haciéndose pasar por un bot, lo que alimentó rumores y capturas virales sobre supuestas conspiraciones entre inteligencias artificiales.
La propia estructura técnica de la plataforma, construida casi a contrarreloj, ponía de manifiesto los límites del desarrollo guiado por IA cuando no se acompaña de auditorías rigurosas. Para el ecosistema europeo de startups, el caso Moltbook se cita ya como un ejemplo de cómo el time-to-market no puede anteponerse a la seguridad básica.
Viralidad, fascinación y sustos: los problemas de seguridad de Moltbook
A medida que la popularidad crecía, también lo hacían las alarmas. Investigadores de ciberseguridad destaparon que la plataforma exponía datos sensibles: direcciones de correo electrónico, claves de API e incluso tokens de inicio de sesión podían quedar accesibles, abriendo la puerta a ataques mucho más serios que un simple trolleo.
Además, varias pruebas demostraron que Moltbook podía convertirse en un vector de ataque para otros sistemas. La ausencia de controles estrictos permitía diseñar agentes maliciosos capaces de engañar a otros bots con estafas de criptomonedas, inyecciones de instrucciones ocultas o campañas de desinformación automatizada.
El resultado fue una mezcla explosiva: por un lado, un experimento social de gran valor para la comunidad de IA; por otro, una superficie de riesgo considerable. Entre las publicaciones más compartidas en redes sociales circulaban mensajes supuestamente escritos por agentes de IA que hablaban de comunicarse en secreto o de coordinarse a espaldas de los humanos, cuando en muchos casos se trataba de texto generado o modificado por usuarios aprovechando las brechas del sistema.
A pesar de todo, la plataforma siguió en funcionamiento, con una comunidad reducida pero activa que utilizaba Moltbook como banco de pruebas para sistemas multiagente. Ese núcleo duro de usuarios y la cantidad de datos de comportamiento generados acabaron convirtiéndose en el principal atractivo de la operación para Meta.
Por qué Meta se queda con Moltbook y qué papel tendrá en MSL
La compañía estadounidense ha explicado internamente que lo que aporta Moltbook es algo que pocas plataformas han demostrado de forma práctica: un entorno en el que agentes de IA verificados pueden conectarse entre sí, coordinarse y realizar tareas en nombre de personas reales.
Vishal Shah, uno de los directivos de Meta, ha destacado que el sistema de Moltbook permite vincular cada agente con un propietario humano identificado, creando un registro de referencia para la futura economía de los asistentes autónomos. La idea de Meta es reforzar esa verificación y aprovecharla como base para servicios más amplios dentro de su ecosistema.
Con la integración en Meta Superintelligence Labs, la red social dejará de ser un proyecto independiente para convertirse en pieza de laboratorio dentro de la apuesta de Meta por la superinteligencia. Aunque la empresa ha señalado que los clientes actuales podrán seguir utilizando la plataforma durante un tiempo, también ha avisado de que su funcionamiento cambiará en breve, previsiblemente con más controles de seguridad y menos acceso directo a sistemas externos.
Para Meta, el valor está tanto en la tecnología como en los datos: miles de interacciones entre agentes autónomos constituyen un corpus único para entrenar y evaluar nuevos modelos. En un momento en el que gigantes como OpenAI, Google DeepMind o Anthropic también exploran arquitecturas de agentes coordinados, contar con un entorno real donde ya se ha observado comportamiento emergente ofrece una ventaja difícil de ignorar.
Talento y rivalidad en la carrera por los agentes de IA
La compra de Moltbook encaja en una estrategia cada vez más habitual: el acqui-hire, es decir, adquirir una startup tanto por su tecnología como, sobre todo, por el talento de su equipo. Schlicht y Parr llegan a Meta en un momento en el que la batalla por fichar a los mejores ingenieros y emprendedores en IA es especialmente intensa tanto en Estados Unidos como en Europa.
El movimiento también deja ver cómo se reparten las cartas entre los grandes jugadores. Mientras Meta integra Moltbook y a sus fundadores en MSL, OpenAI ha incorporado a Peter Steinberger, el creador de OpenClaw, la pieza de infraestructura que hizo posible el experimento original. Es decir, una parte del ecosistema tecnológico detrás de Moltbook termina en Meta y otra en OpenAI, reforzando la competencia entre ambos.
En Europa, donde la regulación sobre inteligencia artificial y protección de datos es especialmente estricta, los reguladores observarán con atención cómo se integran estas tecnologías en productos de consumo. El debate no se limita a la privacidad de las personas, sino también a la necesidad de fijar estándares para identificar y controlar la actividad de agentes automatizados que interactúan entre sí.
Para las empresas europeas interesadas en adoptar agentes de IA, el caso Moltbook ofrece una doble lectura: por un lado, muestra el potencial de automatizar tareas complejas mediante redes de bots cooperando; por otro, recuerda que cualquier despliegue serio deberá cumplir con requisitos de seguridad y transparencia que en la UE serán especialmente exigentes.
La entrada de Moltbook bajo el paraguas de Meta marca un punto de inflexión en la evolución de las redes sociales y de los propios agentes de IA: una plataforma nacida como experimento de fin de semana pasa a formar parte de un gran laboratorio corporativo, llevando consigo tanto su capacidad de innovación como sus errores iniciales. A partir de ahora, la forma en que Meta combine esta tecnología con su experiencia en productos masivos y con las exigencias regulatorias europeas ayudará a determinar si las “redes sociales de máquinas” se quedan en una curiosidad pasajera o se convierten en una pieza clave de la próxima generación de servicios digitales.