Dólar
Compra 38,80 Venta 41,30
2 de septiembre 2025 - 11:20hs

OpenAI anunció la incorporación de nuevas funciones de control parental en ChatGPT, orientadas a brindar mayor seguridad a los adolescentes que utilizan la herramienta.

La compañía informó que estas medidas permitirán a las familias tener más control sobre el uso de la inteligencia artificial por parte de sus hijos, estableciendo pautas que se ajusten al desarrollo de cada usuario. El objetivo es facilitar un entorno de uso más saludable y protegido, especialmente para quienes están en etapas tempranas de formación.

Una de las principales características será la posibilidad de que los padres o tutores vinculen su cuenta con la de su hijo adolescente —siempre que tenga al menos 13 años— mediante una invitación por correo electrónico. Una vez activada esta conexión, podrán configurar distintos aspectos del uso, entre ellos las reglas de comportamiento que guían las respuestas del sistema. Estas reglas estarán activadas por defecto y serán apropiadas para la edad del usuario, aunque podrán ser modificadas por la familia según su criterio.

Más noticias

Los padres también podrán administrar funciones clave como la memoria del sistema y el historial de chat, eligiendo qué opciones habilitar o restringir. Además, el sistema ofrecerá una función novedosa: enviará notificaciones a los adultos responsables cuando detecte signos de angustia aguda en el adolescente. Esta herramienta fue diseñada siguiendo aportes de especialistas en salud mental, con la intención de fomentar el diálogo y la confianza entre padres e hijos, y no como un mecanismo de vigilancia.

Estas nuevas funciones se suman a otras ya disponibles en la plataforma, como los recordatorios automáticos durante sesiones prolongadas, que invitan a los usuarios a tomar descansos. Según OpenAI, el despliegue de estas herramientas comenzará en las próximas semanas, con actualizaciones previstas a lo largo del año. Se trata de uno de los ejes del plan de trabajo anunciado por la empresa para los próximos 120 días, en los que se priorizarán avances vinculados al bienestar de los usuarios, especialmente los más jóvenes.

Asesoramiento de expertos y avances técnicos

El desarrollo de estas herramientas se apoya en el trabajo de un Consejo de Expertos en Bienestar e Inteligencia Artificial, convocado por OpenAI a comienzos de este año. El consejo está integrado por profesionales en salud mental, desarrollo juvenil e interacción humano-computadora, y tiene como función asesorar en la definición de criterios y lineamientos basados en evidencia científica. Su rol incluye proponer formas de medir el bienestar, establecer prioridades y orientar el diseño de futuras medidas de protección.

Junto con este grupo de expertos, OpenAI trabaja también con una Red Mundial de Médicos, compuesta por más de 250 profesionales de la salud de 60 países. Dentro de este colectivo, al menos 90 médicos —incluyendo psiquiatras, pediatras y médicos generales— han contribuido directamente a investigaciones sobre el comportamiento de los modelos de IA en situaciones relacionadas con la salud mental. Sus recomendaciones se integran a los procesos de seguridad, entrenamiento de modelos e intervenciones de la plataforma.

La compañía también anunció que está incorporando médicos e investigadores con experiencia específica en trastornos alimentarios, consumo de sustancias y salud adolescente, como parte de una estrategia para mejorar la capacidad de respuesta del sistema en contextos sensibles. Esta ampliación de la red médica busca asegurar que el desarrollo de la inteligencia artificial esté guiado por conocimientos clínicos actualizados y una comprensión profunda de los factores de riesgo.

En términos técnicos, OpenAI señaló que está aplicando un sistema de enrutamiento en tiempo real que selecciona dinámicamente entre distintos modelos de lenguaje según el contexto de la conversación. Este mecanismo permitirá que interacciones clasificadas como sensibles —como aquellas que contengan señales de angustia emocional— sean redirigidas a modelos más avanzados de razonamiento, como GPT-5, capaces de proporcionar respuestas más precisas y cuidadosas.

Estos modelos fueron entrenados bajo un enfoque llamado alineación deliberativa, que permite mejorar su adherencia a las pautas de seguridad y su resistencia ante indicaciones maliciosas. La empresa indicó que continuará probando esta estrategia de forma controlada, evaluando su impacto en la calidad y seguridad de las respuestas generadas. Todo este trabajo forma parte de un proceso mayor que continuará más allá de los próximos 120 días, aunque el objetivo es implementar la mayor cantidad de mejoras antes de que finalice el año.

Temas:

ChatGPT Inteligencia Artificial OpenAI

Seguí leyendo

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos