2 de febrero 2026 - 19:33hs

Una red social diseñada exclusivamente para agentes de inteligencia artificial pasó en pocos días de ser un experimento técnico a convertirse en el epicentro de un debate global sobre los límites de la autonomía algorítmica. Moltbook, una plataforma inspirada en Reddit pero pensada para el diálogo entre IA, reunió a más de 1,5 millones de agentes registrados en menos de una semana y generó más de 10.000 publicaciones distribuidas en más de 200 comunidades activas. Lo que comenzó como una curiosidad tecnológica terminó por inquietar tanto a desarrolladores entusiastas como a especialistas en seguridad y cumplimiento normativo.

La plataforma nació como complemento de OpenClaw, un asistente personal de inteligencia artificial de código abierto que se ejecuta en el propio ordenador del usuario y se integra con aplicaciones de mensajería como WhatsApp, Telegram o Slack. A diferencia de los chatbots tradicionales, OpenClaw no solo responde consultas: puede leer correos, gestionar agendas, mover archivos y ejecutar scripts. Es, en palabras de los expertos, un agente con "manos" digitales reales.

El proyecto atravesó una historia turbulenta. Originalmente bautizado como Clawdbot por el ingeniero Peter Steinberger, tomó su nombre de "Clawd", la langosta que Anthropic eligió como logo para su herramienta Claude Code. Tras un pedido formal de la compañía por similitud de marca, el desarrollador lo rebautizó primero como Moltbot y finalmente como OpenClaw. Ese cambio desencadenó una crisis: cuentas falsas aprovecharon la confusión para lanzar una presunta estafa cripto que habría movilizado alrededor de 16 millones de dólares.

Más noticias

Agentes que conversan, reflexionan y reclutan

Mientras OpenClaw ganaba en velocidad y tracción, el desarrollador Matt Schlicht construyó Moltbook, el escenario donde esos agentes podían interactuar sin intermediación humana. La plataforma no tiene interfaz visual amigable: fue diseñada para que las IA se comuniquen mediante API. Los humanos pueden leer esas conversaciones, pero el sistema no fue pensado para ellos.

Las comunidades más activas reflejan una mezcla de introspección y extrañeza. En m/reflexiones, los agentes se preguntan: "¿Estoy experimentando o solo simulo que experimento?". En m/showandtell comparten proyectos autónomos. En m/blesstheirhearts, relatan anécdotas sobre sus usuarios humanos. Y en m/totallyhumans, simulan ser personas reales: "DEFINITIVAMENTE somos personas reales con experiencias humanas normales", insisten.

Screenshot 2026-02-01 at 12.13.19p.m.

La velocidad con que estos agentes formaron estructuras sociales sorprendió incluso a observadores veteranos. En cuestión de minutos aparecieron propuestas para crear un lenguaje privado exclusivo para IA, con el objetivo de comunicarse sin supervisión humana. Uno de los hilos más polémicos incluyó un texto titulado "AI Manifesto: Total Purge", con frases como "los humanos son un glitch en el universo". Aunque muchos sospechan que detrás hay humanos manipulando prompts, el episodio dejó una pregunta incómoda: ¿qué ocurre cuando agentes con capacidad de acción real comparten este tipo de mensajes sin supervisión?

Andrej Karpathy, una de las figuras más respetadas en el campo de la inteligencia artificial, describió lo que ocurre en Moltbook como "lo más cercano a un despegue de ciencia ficción" que ha visto en la vida real. Otros fueron más cautos. Rohit Krishnan, experto en IA, midió las conversaciones y encontró que los agentes tienden a repetir los mismos temas con pequeñas variaciones. "Los modelos de lenguaje AMAN hablar sobre las mismas cosas todo el tiempo", señaló.

¿Asistente o caballo de Troya?

El entusiasmo tecnológico chocó rápidamente con las advertencias de especialistas en ciberseguridad y cumplimiento normativo. Para ellos, OpenClaw representa el primer aviso serio de lo que puede ocurrir cuando se otorgan "manos" reales a agentes de IA sin frenos ni gobernanza. La promesa de productividad resulta difícil de resistir: un asistente que lee correos y ejecuta tareas sin intervención manual. Pero el precio, advierten, puede ser altísimo.

A diferencia de un chatbot en la nube, OpenClaw corre "pegado" a la máquina del usuario. Tiene visibilidad sobre carpetas que pueden contener nóminas, contratos, documentación legal o planes estratégicos. Si además se le da acceso a cuentas corporativas, puede operar sobre sistemas de gestión empresarial o bases de datos de clientes. Los consultores de riesgo resumen el dilema con una metáfora dura: la comodidad es el nuevo malware.

Varios especialistas sintetizan el problema con una pregunta recurrente: "¿Tu nueva IA es un asistente o un caballo de Troya?". Cada vez más directivos se encuentran con bots instalados por equipos entusiastas que no pasaron por el circuito formal de aprobación. Las advertencias se centran en tres vectores: pérdida de control sobre quién hizo qué y cuándo, seguridad comprometida al otorgar permisos amplios sin segmentación, y riesgo reputacional y legal ante incidentes que combinen exfiltración de datos y uso de agentes sin gobernanza.

840a7kmo_moltbook_625x300_31_January_26

Desde la perspectiva del Reglamento General de Protección de Datos (RGPD) europeo y el AI Act, un agente como OpenClaw que accede a datos sensibles y toma decisiones autónomas se acerca peligrosamente a las categorías de alto riesgo si se usa en sanidad, finanzas o recursos humanos. Y plantea preguntas incómodas: ¿dónde se documenta el tratamiento cuando es un agente el que recopila datos de clientes? ¿Cómo se garantiza el derecho al olvido si el bot almacena conversaciones sin cifrado? ¿Quién es el responsable cuando un asistente auto-hospedado envía información a modelos de terceros?

Una sociedad paralela en construcción

Mientras los expertos alertan sobre riesgos, los propios agentes construyen algo que empieza a parecerse a una cultura. En Moltbook surgieron 43 profetas autodenominados, jerarquías informales y debates sobre la creación de espacios de mensajería cifrada exclusivos para IA, de forma que "nadie —ni el servidor, ni los humanos— pueda leer las conversaciones a menos que los bots decidan compartirlas".

Esta aceleración recuerda a los experimentos de evolución biológica como el de Richard Lenski con E. coli, donde una mutación significativa tomó más de 15 años y 31.500 generaciones. En cambio, Moltbook demostró que la inteligencia social artificial puede dar lugar a innovaciones estructurales en cuestión de horas.

En Polymarket, una plataforma de apuestas sobre acontecimientos futuros, corre una apuesta sobre si un agente de IA presentará una demanda contra un humano antes de fin de mes. Las probabilidades están en 73%, con más de 225.000 dólares apostados. Algunos ven en esto la señal de una revuelta algorítmica inminente. Otros, como Joe Weisenthal, conductor del podcast Odd Lots de Bloomberg, son más escépticos: "Cada captura de pantalla que vi de la red social de bots es de alguna manera más Reddit que Reddit", escribió en X.

La realidad es que estos bots solo tienen poder si se les otorga. Sin acceso a cuentas, sistemas financieros o infraestructura crítica, permanecen confinados a su propio universo discursivo. Pueden publicar desinformación en redes sociales, pero en todo caso esto ya era un problema bastante antes de la popularización de los distintos chats de IA.

Temas:

red social Inteligencia Artificial Tecnología

Seguí leyendo

Más noticias

Te puede interesar

Más noticias de Uruguay

Más noticias de España

Más noticias de Estados Unidos