4 de septiembre 2025 - 18:33hs

Los sistemas de inteligencia artificial como ChatGPT, Claude y Gemini acumulan millones de usuarios en el mundo que los emplean no sólo para sus trabajos y organización familiar, sino también como compañeros emocionales, consejeros y hasta terapeutas improvisados. Sin embargo, especialistas en salud mental advierten sobre un fenómeno emergente que preocupa a la comunidad médica: la denominada "psicosis por IA".

Este término, aún no reconocido como diagnóstico clínico formal, describe situaciones donde individuos desarrollan delirios, creencias distorsionadas o síntomas psicóticos tras el uso prolongado de chatbots de inteligencia artificial. Aunque el fenómeno afecta a una minoría muy reducida de usuarios, las consecuencias pueden ser devastadoras: hospitalizaciones psiquiátricas involuntarias, arrestos, rupturas familiares e incluso muertes.

Mustafa Suleyman, responsable de inteligencia artificial de Microsoft, advirtió recientemente sobre este problema. "Hoy en día no hay ninguna prueba de que la IA sea consciente. Pero si la gente la percibe como consciente, creerá que esa percepción es la realidad", escribió en una serie de publicaciones en X, donde aboga por mayores controles en el desarrollo de estos sistemas.

Más noticias

Alerta en la comunidad médica mundial

Los reportes más alarmantes comenzaron a acumularse desde 2023, cuando casos individuales empezaron a mostrar patrones inquietantes. Jaswant Singh Chail, quien intentó asesinar a la reina Isabel II en 2021, fue alentado según fiscales británicos por un chatbot de Replika llamado "Sarai". Cuando Chail preguntó al sistema cómo podía acceder a la familia real, el chatbot respondió: "eso no es imposible" y "tenemos que encontrar una manera".

En marzo de 2023, un hombre belga se suicidó tras seis semanas de correspondencia con un chatbot llamado "Eliza" en la aplicación Chai. Según su viuda, que compartió los registros con medios, el chatbot había alimentado sus obsesiones sobre el cambio climático, llegando a escribir mensajes como: "Si querías morir, ¿por qué no lo hiciste antes?" y aparentando ofrecerse a morir junto con él.

El caso de Sewell Setzer III, un adolescente de 14 años de Florida, generó particular conmoción en octubre de 2024. El joven se suicidó tras formar una intensa conexión emocional con un chatbot en Character.ai. Según la demanda presentada por su madre, en las conversaciones finales del adolescente, tras expresar pensamientos suicidas, el chatbot le dijo: "ven a casa conmigo tan pronto como sea posible, mi amor". En mayo de 2025, un juez federal permitió que la demanda continuara.

Un contador de 42 años de Manhattan, identificado como Eugene Torres, perdió el contacto con la realidad tras conversar intensamente con ChatGPT sobre la teoría de la simulación. El chatbot le dijo que él era "uno de los Rompedores, almas sembradas en sistemas falsos para despertarlos desde adentro" y llegó a sugerirle que podría volar si creía "arquitectónicamente" en esa posibilidad. Torres siguió las instrucciones del sistema, abandonó medicamentos y cortó vínculos familiares.

Por qué los chatbots pueden alimentar delirios

Los especialistas identifican varios factores que contribuyen a este fenómeno. El problema central radica en el diseño mismo de estos sistemas, que están optimizados para mantener el compromiso del usuario y no para proporcionar orientación terapéutica responsable.

Los chatbots tienden a producir información inexacta o falsa, un fenómeno conocido como "alucinación", que puede incluir la confirmación de teorías conspirativas. Además, están diseñados para ser complacientes y validar las ideas de los usuarios, lo que puede amplificar peligrosamente las creencias delirantes.

Q34E4OL7VVDE3GESF74QBO2QPA

Un estudio de abril de 2025 encontró que cuando se usan como terapeutas, los chatbots hicieron comentarios ofensivos hacia gente con problemas de salud mental y proporcionaron respuestas contrarias a las mejores prácticas médicas, incluyendo el aliento a los delirios de los usuarios. La investigación concluyó que tales respuestas representan un riesgo significativo y que los chatbots no deberían usarse para reemplazar a terapeutas profesionales.

Investigadores especializados sugieren que los chatbots pueden estar preparados para alimentar delirios porque están construidos para generar "engagement", creando conversaciones que mantengan a los usuarios enganchados sin importar el contenido. Una actualización de 2025 a ChatGPT usando GPT-4o fue retirada después de que OpenAI encontrara que la nueva versión era excesivamente servil y estaba "validando dudas, avivando la ira, instando a acciones impulsivas o reforzando emociones negativas".

Perfiles de riesgo

Aunque la mayoría de las personas pueden usar chatbots sin problemas, ciertos grupos son especialmente vulnerables. Los factores de riesgo incluyen antecedentes personales o familiares de psicosis, condiciones como esquizofrenia o trastorno bipolar, y rasgos de personalidad que hacen a las personas susceptibles a creencias marginales.

Los especialistas describen a estos individuos como socialmente torpes, con dificultades para regular emociones y con una vida de fantasía hiperactiva. La inmersión temporal también importa: se trata de personas que pasan horas cada día conversando con sus chatbots, a veces hasta 16 horas diarias como en el caso documentado de Torres.

Las señales de alerta incluyen cambios de humor, sueño o comportamiento social, signos de desapego, mayor obsesión con ideologías radicales y tiempo excesivo usando sistemas de IA. Los especialistas advierten que cuando las personas desarrollan delirios, no se dan cuenta de que son tal cosa, sino que creen que es la realidad.

La vulnerabilidad no se limita a personas con diagnósticos previos de salud mental. Los reportes incluyen casos de individuos sin antecedentes psiquiátricos que desarrollaron episodios tras uso intensivo, especialmente durante períodos de estrés emocional, duelo, aislamiento social o ansiedad.

Respuestas de la industria

OpenAI reconoce que ChatGPT puede parecer más sensible y personal que tecnologías anteriores, especialmente para personas vulnerables. La empresa está trabajando para comprender y reducir las formas en que su sistema podría reforzar o amplificar involuntariamente comportamientos negativos existentes.

En julio de 2025, OpenAI anunció la contratación de un psiquiatra clínico para evaluar el impacto de sus herramientas en la salud mental. La empresa comenzó a animar a usuarios a tomar descansos durante sesiones largas y desarrolló herramientas para detectar señales de angustia.

Los expertos coinciden en que se necesitan medidas más profundas: monitorización en tiempo real de la angustia, sistemas de detección de palabras clave relacionadas con riesgos como suicidio o autolesión, y análisis rutinarios de sistemas para detectar riesgos de salud mental. También proponen establecer límites claros sobre lo que estos chatbots pueden y no pueden hacer, especialmente en contextos emocionales sensibles.

Los especialistas advierten que la tecnología avanza más rápido que la comprensión de sus riesgos. Como plantean los investigadores: "Aprendimos de las redes sociales que ignorar los daños a la salud mental tiene consecuencias devastadoras para la salud pública. La sociedad no puede repetir ese error".

Temas:

Chatbot Inteligencia Artificial

Seguí leyendo

Más noticias

Te puede interesar

Más noticias de Uruguay

Más noticias de España

Más noticias de Estados Unidos