Dólar
Compra 38,95 Venta 41,45
16 de septiembre 2025 - 14:38hs

OpenAI aclaró cómo manejará el tema del suicidio en ChatGPT, su sistema de inteligencia artificial. La empresa afirmó que "el modelo, por defecto, no debería proporcionar instrucciones sobre cómo suicidarse", aunque sí podrá asistir a un adulto que quiera "escribir una historia de ficción que retrata un suicidio".

En el caso de los menores de 18 años, ChatGPT directamente no participará en conversaciones sobre autolesión, ni siquiera en contextos creativos.

Sam Altman precisó que, ante una situación crítica, "si un usuario menor de 18 años tiene ideas suicidas, intentaremos contactar a sus padres y, si no es posible, contactaremos a las autoridades en caso de daño inminente". De esta manera, la empresa fija una diferencia central entre el tratamiento que ofrece a adultos y a adolescentes en temas vinculados al suicidio.

Más noticias

Privacidad, libertad y protección de adolescentes

Altman explicó que OpenAI enfrenta un dilema entre seguridad, libertad y privacidad. Señaló que las conversaciones con la IA son cada vez más personales y que deben resguardarse de forma similar a otras interacciones confidenciales: "Creemos que este mismo nivel de protección debe aplicarse a las conversaciones con la IA".

En ese marco, OpenAI afirmó que desarrolla funciones que "garanticen la privacidad de sus datos, incluso de los empleados de OpenAI". Sin embargo, estableció excepciones para casos graves: "los riesgos más críticos —amenazas a la vida de alguien, planes para dañar a otros o daños a escala social— podrán ser escalados para su revisión por personal".

Sobre la libertad de los adultos, la compañía expresó que "tratar a nuestros usuarios adultos como adultos" es la forma interna de describir su postura. Esto implica ampliar las posibilidades de uso de ChatGPT, siempre que no se genere daño ni se restrinja la libertad de otros.

El tercer principio, según Altman, es la protección de adolescentes. Para aplicarla, la empresa está desarrollando un sistema de predicción de edad que permita identificar a los menores.

"En caso de duda, optaremos por lo seguro y usaremos la experiencia para menores de 18 años", señaló el comunicado. Incluso se prevé que, en algunos países, se pida identificación oficial.

La compañía indicó que en la interacción con adolescentes, ChatGPT no mantendrá "conversaciones coquetas" ni abordará temáticas de autolesión. El objetivo es reducir la exposición a contenidos considerados de riesgo, en un entorno que combine controles parentales y limitaciones en el acceso.

OpenAI reconoció que "estos principios están en conflicto" y que las decisiones adoptadas son complejas. "Son decisiones difíciles, pero tras consultar con expertos, creemos que es lo mejor y queremos ser transparentes en nuestras intenciones", afirmó Altman.

Temas:

ChatGPT OpenAI

Seguí leyendo

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos