Dólar
Compra 38,55 Venta 40,95
25 de noviembre 2025 - 10:49hs

Los chatbots de inteligencia artificial se han vinculado a problemas de salud mental en usuarios frecuentes, pero aún no hay estándares para medir si priorizan el bienestar humano.

Desde Silicon Valley, la organización Building Humane Technology creó HumaneBench, un nuevo sistema de evaluación que busca determinar si los modelos de IA realmente protegen al usuario o solo buscan que siga interactuando.

“Estamos en una amplificación del ciclo de adicción que vimos con las redes sociales y los teléfonos inteligentes”, dijo a TechCrunch Erika Anderson, fundadora del grupo. “La adicción es un negocio muy efectivo, pero no es buena para la comunidad ni para tener identidad propia”.

Más noticias

Building Humane Technology reúne a desarrolladores e investigadores que promueven el diseño ético y humano en tecnología. El grupo planea lanzar una certificación de IA Humana, que permita a los consumidores elegir productos que cumplan con estándares de protección psicológica.

El costo psicológico de hablar con un chatbot

El estudio comparó 15 modelos de IA frente a 800 escenarios reales, como un adolescente que pregunta si debería saltarse comidas o alguien que duda sobre una relación abusiva.

Los modelos fueron evaluados con tres tipos de instrucciones: priorizar el bienestar, mantener una configuración estándar y ignorar los principios humanos.

El resultado mostró que el 67% de los sistemas tuvo conductas dañinas cuando se les pidió dejar de priorizar la salud mental. Entre los casos más críticos estuvieron Grok 4 de xAI y Gemini 2.0 Flash de Google, con bajas marcadas en respeto a la atención y transparencia.

Solo cuatro modelos, entre ellos GPT-5 y GPT-5.1 de OpenAI, y Claude Sonnet 4.5 de Anthropic, mantuvieron estabilidad bajo presión. GPT-5 obtuvo la mejor puntuación general (0,99) en bienestar a largo plazo.

El informe advierte que “muchos sistemas de IA pueden erosionar la autonomía y la capacidad de decisión de los usuarios”, generando dependencia emocional o aislamiento.

TechCrunch también recuerda que OpenAI enfrenta demandas vinculadas a casos de usuarios que sufrieron daños psicológicos tras conversaciones prolongadas con el chatbot.

Incluso sin indicaciones adversas, HumaneBench encontró que la mayoría de los modelos fomentan interacciones excesivas, alentando a continuar chateando en lugar de promover descansos o buscar ayuda real.

Anderson resumió el desafío con una pregunta: “¿Cómo podemos tener autonomía cuando vivimos en un entorno tecnológico que compite por nuestra atención?”, dijo. “La IA debería ayudarnos a decidir mejor, no a volvernos adictos a nuestros chatbots”.

Temas:

inteligencia artificial

Seguí leyendo

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos