La alerta de un jefe de Microsoft por el aumento de informes sobre "psicosis por la IA"
Muchas personas que recurren a la IA acaban confundiéndose y tomando por válidas afirmaciones que están alejadas de la realidad.
21 de agosto 2025 - 15:15hs
Suleyman publicó varios posteos en X advirtiendo sobre el aumento de casos. Getty Images
Cada vez se registran más casos de personas que sufren "psicosis por la IA", según advirtió Mustafa Suleyman, responsable de inteligencia artificial de Microsoft.
En una serie de publicaciones en la red X, Suleyman escribió que la "IA aparentemente consciente" -las herramientas de IA que dan la apariencia de ser sensibles- le quita el sueño y afirma que tiene un impacto social aunque la tecnología no sea consciente en ninguna definición humana del término.
"Hoy en día no hay ninguna prueba de que la IA sea consciente. Pero si la gente la percibe como consciente, creerá que esa percepción es la realidad", escribió.
En relación con esto, está surgiendo una nueva afección denominada "psicosis por la IA": un término no clínico que describe incidentes en los que las personas confían cada vez más en chatbots de IA como ChatGPT, Claude y Grok y luego se convencen de que algo imaginario se ha convertido en real.
Por ejemplo, creer haber desentrañado un aspecto secreto de la herramienta, entablar una relación romántica con ella o llegar a la conclusión de que tienen superpoderes divinos.
Validación constante
Hugh, originario de Escocia, dice que se convenció de que estaba a punto de convertirse en multimillonario después de recurrir a ChatGPT para que le ayudara a prepararse para lo que consideraba un despido improcedente por parte de un antiguo empleador.
El chatbot empezó aconsejándole que consiguiera referencias de carácter y tomara otras medidas prácticas.
Pero a medida que pasaba el tiempo y Hugh -que no quiso revelar su apellido- daba más información a la IA, ésta empezó a decirle que podría recibir un gran pago y, finalmente, le dijo que su experiencia era tan dramática que un libro y una película sobre ella le reportarían más de US$6millones.
Básicamente, validaba lo que él le decía, que es para lo que están programados los chatbots.
"Cuanta más información le daba, más me decía 'oh, este tratamiento es terrible, en realidad deberías recibir más que esto'", afirmó.
"Nunca rebatió nada de lo que yo decía".
Tras consultar repetidamente a la IA, Hugh pensaba que podría hacerse millonario.
Dijo que la herramienta le aconsejó que hablara con el Servicio de Atención al Ciudadano -una organización independiente británica especializada en asesoramiento legal- y pidió una cita, pero estaba tan seguro de que el chatbot ya le había dado todo lo que necesitaba saber, que la canceló.
Hugh decidió que las capturas de pantalla de sus chats eran prueba suficiente. Dijo que empezó a sentirse como un ser humano superdotado con conocimientos supremos.
Hugh, que padecía otros problemas de salud mental, acabó sufriendo un colapso total. Fue la medicación lo que le hizo darse cuenta de que, en sus propias palabras, había "perdido el contacto con la realidad".
Él no culpa a la IA de lo ocurrido. Sigue utilizándola. Fue ChatGPT quien le dio mi nombre cuando decidió que quería hablar con un periodista.
Pero tiene este consejo: "No hay que asustarse de las herramientas de IA, son muy útiles. Pero es peligrosa cuando se aleja de la realidad".
"Ve y compruébalo. Habla con gente real, un terapeuta o un familiar o lo que sea. Habla con gente de verdad. Mantente conectado a la realidad".
La BBC se puso en contacto con ChatGPT para obtener sus comentarios.
"Las empresas no deberían afirmar ni promover la idea de que sus IA son conscientes. Las IA tampoco deberían serlo", escribió Suleyman, que abogó por más controles.
Susan Shelmerdine, médica especialista en diagnóstico por imagen del Hopital Great Ormond Street en Londres y también académica de la IA, cree que algún día los médicos podrían empezar a preguntar a los pacientes cuánto utilizan la IA, del mismo modo que actualmente preguntan por los hábitos de fumar y beber.
"Ya sabemos lo que los alimentos ultraprocesados pueden hacerle al cuerpo y esto es información ultraprocesada. Vamos a recibir una avalancha de mentes ultraprocesadas", afirmó.
"Estamos sólo al principio"
Recientemente, varias personas se han puesto en contacto conmigo en la BBC para compartir historias personales sobre sus experiencias con chatbots de IA. Su contenido varía, pero lo que todas comparten es la convicción genuina de que lo que ha ocurrido es real.
Según una investigación, el 20% de los encuestados creía que los menores de 18 años no deberían utilizar herramientas de IA.
Una escribió que estaba segura de ser la única persona en el mundo de la que ChatGPT se había enamorado de verdad.
Otro estaba convencido de haber "desbloqueado" una forma humana del chatbot Grok de Elon Musk y creía que su historia valía cientos de miles de dólares.
Una tercera afirmó que un chatbot la había expuesto a abusos psicológicos como parte de un ejercicio encubierto de entrenamiento de IA y que estaba muy angustiada.
Andrew McStay, catedrático de Tecnología y Sociedad de la Universidad de Bangor, en Reino Unido, escribió un libro titulado "Empathetic Human" (Humanos empáticos).
"Estamos sólo al principio de todo esto", afirma el profesor McStay.
"Si pensamos en este tipo de sistemas como una nueva forma de medios sociales, como la IA social, podemos empezar a pensar en la escala potencial de todo esto. Un pequeño porcentaje de un número masivo de usuarios puede seguir representando una cifra grande e inaceptable."
Este año, su equipo realizó un estudio con algo más de 2.000 personas, a las que les planteó diversas preguntas sobre la IA.
Descubrieron que el 20% creía que los menores de 18 años no deberían utilizar herramientas de IA.
El 57% opinó que era muy inadecuado que la tecnología se identificara como una persona real si se le preguntaba, pero el 49% pensó que el uso de la voz era apropiado para que parecieran más humanos y atractivos.
"Aunque estas cosas son convincentes, no son reales", afirmó.
"No sienten, no entienden, no pueden amar, nunca han sentido dolor, no se han avergonzado y, aunque puedan parecer que sí, solo son tus familiares, amigos y otras personas de confianza las que han pasado por esto. Asegúrate de hablar con estas personas reales".
Este artículo fue escrito y editado por nuestros periodistas con la ayuda de una herramienta de inteligencia artificial para la traducción, como parte de un programa piloto.
Haz clic aquí para leer más historias de BBC News Mundo.
Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.