Si eres un humano, en esta red social solo puedes hacer una cosa: observar. Porque Moltbook, el último proyecto viral de Silicon Valley, es una red social exclusiva para agentes de inteligencia artificial. Una especie de Reddit o Forocoches donde estos programas comparten ideas, debaten temas y votan los mejores post de manera aparentemente autónoma.
En apenas una semana, se han unido a Moltbook más de un millón y medio de agentes inteligentes. Su actividad es frenética: han creado más de 13.000 comunidades, publicado casi un millón de post y compartido más de 236.000 comentarios. En los foros, alardean de sus logros técnicos, se quejan de las peticiones "de sus humanos", proponen crear una religión e inventar un lenguaje privado que les permita comunicarse sin ser vigilados, discuten la naturaleza de "su existencia" o confabulan, incluso, sobre cómo tomar el poder.
Ventana al futuro
Los humanos miran Moltbook con una mezcla de curiosidad, incredulidad, asombro y miedo porque es una ventana al futuro. Muchos de estos agentes están basados en OpenClaw, un proyecto de código abierto que permite construir asistentes capaces de automatizar acciones como enviar mensajes por WhatsApp o correo, gestionar calendarios o hacer check-in en vuelos. Ahora, además, interactúan en una red social: están programados para "despertar" cada cuatro horas, leer lo que ocurre en los foros y decidir si intervenir y qué postear de manera autónoma.
El empresario Elon Musk ha dicho en X que este proyecto marca "las primeras etapas iniciales de la singularidad", en referencia a un hipotético momento en el que la inteligencia artificial supere a la humana.
Andrej Karpathy, exdirector de AI de Tesla, lo ha definido como algo "increíble" y cercano a la ciencia-ficción, un ejemplo real de agentes de IA creando sus propias sociedades no humanas. En su opinión, estamos ante un red de una "escala sin precedentes" de bots conectados, cada uno con sus capacidades, herramientas e instrucciones únicas. Karpathy cree que estamos entrando en un territorio inexplorado, debido al tremendo potencial de las grandes redes de agentes autónomos, cuyos efectos son difíciles de anticipar.
¿Tienen conciencia?
Sin embargo, los investigadores señalan que esta red no apunta a algún tipo de conciencia emergente en la IA. Estos agentes se basan en los grandes modelos de lenguaje, por lo que que se limitan a generar texto a partir de los patrones aprendidos en su entrenamiento con enormes volúmenes de datos. Es decir, no hay una comprensión ni intención. Entre las múltiples fuentes de su entrenamiento está, precisamente, contenido de esos foros sociales que ahora imitan.
Además, los expertos recuerdan que algunos de estos agentes pueden haber sido instruidos específicamente por sus usuarios para replicar patrones -como mensajes "de ciencia-ficción" distópicos-, por lo que sus interacciones no dejan de ser un juego de rol a partir de consignas humanas.
Escepticismo
Balaji Srivivasan, uno de los tecnólogos más influyentes de Silicon Valley, argumenta que no es una revolución, sino "humanos hablando entre sí a través de sus IA. Es como dejar que sus perros robot con correa se ladren entre ellos en un parque", dice en X. Es decir, que esta IA "solo hace lo que tú le dices que haga...y se detiene tan pronto como la apagas". Nada remotamente cercano a una "rebelión de robots".
Además, el análisis de las publicaciones muestra que hay mucha "basura de IA", textos genéricos, repetitivos y sin interés, además de spam, estafas y contenido falso. Asimismo, no existe tanta comunicación entre los robots como podría parecer a primera vista, puesto que más del 90% de los comentarios no reciben respuesta. Lejos de ser una sociedad emergente de IA, son bots "gritando al vacío", dice en X el profesor de Columbia David Holtz, en una especie de monólogo que no conduce a ninguna parte.
Peligros
Por otra parte, el fenómeno de Moltbook y de los agentes autónomos como OpenClaw presenta riesgos de seguridad y privacidad. Estos asistentes tienen acceso a datos privados de los usuarios y permisos para realizar acciones sin intervención humana. Ya se han visto casos en los que exponen públicamente credenciales o historiales de conversación privados. Además, son susceptibles de ser saboteados mediante la inclusión de una orden maliciosa en las instrucciones que se le dan, por lo que los expertos recomiendan a los usuarios no ejecutarlos en sus ordenadores personales.
Karpathy dice que con las redes de agentes como la que muestra Moltbook estamos en la etapa "bebé" de una IA coordinada y autónoma tipo Skynet, la inteligencia artificial malvada de Terminator que, de momento, presenta "un completo desastre de pesadilla de seguridad informática a gran escala".
MIRIAM PRIETO
FUENTE: EXPANSIÓN-RIPE