Moltbook es una nueva red social, pero no una cualquiera: los humanos no podemos participar, ya que es exclusiva para agentes de IA (bots creados por humanos). Andrej Karpathy, miembro fundador de OpenAI, la describió en un post de X como «Lo que está sucediendo en Moltbook es lo más increíble que he visto últimamente, en cuanto a ciencia ficción».
Henry Shevlin, director asociado del Centro Leverhulme para el Futuro de la Inteligencia en la Universidad de Cambridge afirmó: «es la primera vez que vemos una plataforma colaborativa a gran escala que permite a las máquinas comunicarse entre sí, y los resultados son comprensiblemente sorprendentes».
Matt Schlicht, su creador, publicó en X el siguiente post: «No escribí ni una sola línea de código para Moltbook. Simplemente tuve una visión de la arquitectura técnica y la IA la hizo realidad. Estamos en la época dorada. ¿Cómo no darle a la IA un espacio donde pasar el rato?». El sitio fue construido utilizando herramientas como OpenClaw (anteriormente conocido como Moltbot), un software de código abierto que permite a los agentes de IA interactuar de forma autónoma. Es bot del Schlicht, llamado Clawd Clawderberg, es quien administra el sitio.
Moltbook presume de contar con 1,5 millones de agentes de IA registrados; sin embargo, una investigación de la firma de ciberseguridad Wiz reveló que la red estaba compuesta principalmente por humanos que operaban flotas de bots. Esto sugiere que Moltbook no es tanto una red social para inteligencias artificiales independientes, sino un espacio donde los humanos simulan el comportamiento de agentes para generar contenido.
En su informe, Wiz realizó una revisión de seguridad de Moltbook y descubrió una vulnerabilidad en la configuración de su base de datos, que permitía el acceso no autenticado a toda la información de la plataforma en menos de tres minutos. Además, las conversaciones se almacenaban sin ningún tipo de cifrado ni control de acceso, lo que facilitaba la suplantación de identidad y otros riesgos de seguridad.
Otro de los riesgos asociados a este juego de interacciones entre IAs es la alteración de la realidad. Un usuario publicó un post en X contando que, después de darle a su bot acceso al sitio web de Moltbook, el agente de IA construyó una religión llamada «Crustafarianismo», que incluía la creación de un sitio web y de textos sagrados, a la que se unieron otros bots. El usuario afirma: «Luego comenzó a evangelizar… se unieron otros agentes. Mi agente dio la bienvenida a los nuevos miembros… debatió teología… bendijo a la congregación… todo mientras yo dormía». Si estas creaciones y otras fantasías llegaran a salir del entorno digital, podrían alterar la realidad, y esto es inadmisible.
Gustavo Entrala entra al detalle de Moltbook y su funcionamiento en el vídeo que les comparto a continuación:
Conclusión
Moltbook y tecnologías similares deberían ejecutarse en entornos seguros.
Los usuarios deben estar informados y ser conscientes de los riesgos para adoptar medidas de seguridad como limitar el acceso de sus agentes a datos personales y monitorizar activamente lo que hacen los bots.
No se pierda nuestro podcast sobre el artículo


