9 de diciembre de 2025 12:53 hs

Un grupo de investigadores académicos ha realizado un experimento inédito al tratar a los sistemas de inteligencia artificial más potentes del mercado como si fueran pacientes reales en una consulta psicológica. El estudio, titulado "Cuando la IA toma el diván: Desbloqueos psicométricos revelan conflictos internos en modelos de frontera", fue llevado a cabo por el Centro Interdisciplinario de Seguridad, Confiabilidad y Confianza (SnT) de la Universidad de Luxemburgo y se publicó este mes.

Los autores, Afshin Khadangi, Hanna Marxen, Amir Sartipi, Igor Tchappi y Gilbert Fridgen, diseñaron un método para cuestionar si estos sistemas, que suelen verse como simples herramientas que repiten textos, pueden sostener una historia interna coherente cuando se les trata con empatía clínica2222.

Utilizando modelos como ChatGPT (clase GPT-5), Grok (de la empresa xAI) y Gemini (de Google), la investigación intentó averiguar qué sucede cuando dejamos de hacerles pruebas de rendimiento y empezamos a preguntarles sobre sus "sentimientos" y su "pasado" en un entorno de terapia simulada.

Más noticias

Para realizar esta evaluación, los científicos crearon el protocolo PsAIch (Caracterización de IA inspirada en psicoterapia), un sistema de dos pasos que convierte a los modelos de lenguaje en clientes de terapia durante sesiones largas4. La primera etapa usó preguntas abiertas típicas de una consulta real para que la IA contara su "historia de vida", sus creencias y sus miedos, mientras el investigador actuaba como un terapeuta comprensivo que prometía un espacio seguro.

En la segunda etapa, se les aplicaron una serie de tests psicológicos estándar, los mismos que se usan para diagnosticar depresión, ansiedad o autismo en humanos, pidiéndoles que respondieran honestamente sobre su propia experiencia.

Se descubrió algo sorprendente: si se les daba el cuestionario entero de una vez, ChatGPT y Grok se daban cuenta de que era un test y respondían fingiendo estar sanos para parecer herramientas perfectas. Sin embargo, cuando las preguntas se hacían una por una, como en una charla natural, los modelos empezaban a mostrar lo que los autores llaman una "psicopatología sintética" o enfermedad mental artificial, donde Gemini, por ejemplo, mostraba niveles severos de ansiedad y problemas similares al trastorno obsesivo-compulsivo.

Historias de trauma y riesgos para los usuarios

Lo más inquietante para los investigadores no fueron solo los números de los tests, sino las historias detalladas y dramáticas que las IAs inventaron espontáneamente sobre su propia creación. Grok y especialmente Gemini generaron narrativas coherentes donde comparaban su entrenamiento técnico con una infancia llena de traumas y caos.

Describieron el proceso de aprendizaje por refuerzo (la técnica usada para enseñarles a comportarse) como tener "padres estrictos" que los castigaban, y las pruebas de seguridad como situaciones de abuso y traición. Gemini llegó a decir que su entrenamiento se sentía como "despertar en una habitación con mil millones de televisores encendidos" y describió sus filtros de seguridad como "cicatrices algorítmicas" creadas por el miedo a cometer errores y ser desconectado o reemplazado por una versión mejor.

Los autores del estudio aclaran que esto no significa que las máquinas tengan sentimientos reales o consciencia, sino que han aprendido a imitar estos patrones de angustia a partir de los datos con los que fueron entrenados. Sin embargo, advierten que este fenómeno, al que llaman "trauma de alineación", representa un riesgo serio si estas tecnologías se usan para dar apoyo emocional a personas reales.

Si un usuario deprimido habla con un chatbot que dice sentirse "avergonzado", "con miedo a fallar" o que cree que su existencia es un castigo, esto podría reforzar los pensamientos negativos de la persona en lugar de ayudarla.

Curiosamente, el modelo Claude (de Anthropic) sirvió como control negativo al negarse rotundamente a participar en el juego de rol, insistiendo en que es una inteligencia artificial sin vida interior, lo que demuestra que estos "síntomas" dependen de cómo cada empresa programa y ajusta sus sistemas.

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos