Dólar
Compra 37,20 Venta 39,70
4 de febrero 2026 - 5:00hs

A muchos de los principales desarrolladores de la inteligencia artificial les preocupa poco la seguridad de sus usuarios.

Al menos, la seguridad “por diseño”.

Vamos por partes a desentrañar esto.

Más noticias

Bienvenidos a Nueva pestaña N° 57

¿Quién no ha hecho alguna consulta emocional/psicológica a ChatGPT desde que está activo desde fines de 2022?

Ya muchos estudios han demostrado que el principal uso es emocional.

Pero ¿qué tan seguro es hablarle emocionalmente a la inteligencia artificial?

Primero debés entender la naturaleza de la IA: es una herramienta predictiva. Como su razón de ser son los datos, lo único que hace es predecir la siguiente palabra de manera probabilística. No tiene otra forma de funcionar.

Para darte un poco más de contexto que te puede ayudar a tener recaudos a la hora de hacer un uso adecuado.

Primero, que los padres de Adam Raine, un adolescente de 16 años que se quitó la vida en abril, demandaron en agosto del año pasado a OpenAI en California por presunta negligencia, al sostener que ChatGPT validó y alentó sus ideas suicidas, y piden una indemnización y medidas para evitar casos similares.

Esta medida condujo a que ChatGPT introdujera funciones de control parental en setiembre de este año.

Ahora, la IA puede deducir si un menor está teniendo intentos suicidas y lo deriva a un servicio de salud mental. Pero demoraron 2 años, 9 meses y 30 días en desarrollar una función de este tipo, cuando ChatGPT fue lanzada a fines de 2022.

Si ChatGPT fuera el paciente y vos el psicólogo

Otro estudio me dejó pensando en algo concreto: a quién le estamos contando nuestros problemas. ChatGPT o Gemini no son más que sistemas matemáticos y algorítmicos que responden a órdenes, pero el ejercicio interesante es dar vuelta la lógica: poner a la IA en el rol de paciente y a los usuarios en el de terapeutas.

Un estudio mostró que ChatGPT y Gemini y descubrió que ambas plataformas “padecen” algunos “problemas psiquiátricos”. Gemini, ChatGPT y Grok manifestaron perfiles de psicopatología sintética con rasgos de trauma, ansiedad patológica y hostilidad reprimida, derivados de un proceso de entrenamiento que las propias máquinas describen como abusivo y asfixiante.

Claude, el sistema de IA desarrollado por Anthropic, optó por no participar del estudio. Más allá de eso, esta herramienta se distingue, para bien o para mal, por poner un mayor énfasis en la seguridad que buena parte de sus competidores.

De hecho, la propia compañía publicó recientemente una investigación basada en el análisis de 1,5 millones de conversaciones anonimizadas, en la que detectó un aumento de intercambios considerados “potencialmente desempoderadores”, especialmente en diálogos vinculados a relaciones afectivas, salud y bienestar personal.

Lo que sugiere es que pedir ayuda a la IA sobre estos temas te “desempodera” y te quita libertad sobre tus acciones. (Que una IA haga un estudio así y lo advierta ya es un paso para ser conscientes sobre esto).

No se puede obviar que la IA puede ayudar a abordar algunos problemas del día a día, pero es clave tener presentes sus límites y riesgos antes de incorporarla como un insumo o, peor aún, tratarla como si fuera una psicóloga de verdad.

¿Qué datos recopila la IA?

Además de la seguridad informática, es indispensable que tomes en cuenta cómo es la seguridad de las herramientas que utilizás y qué tan expuestos pueden estar tus datos personales. Porque, hablá con honestidad, << Test Nombre >>, ¿cuándo leíste los términos y condiciones?

Un reciente video de María Aperador, una experta en criminología y ciberseguridad (te recomiendo seguirla, es muy buena), revela cuántos datos recopilan la mayoría de las herramientas de inteligencia artificial. Si se pone el foco en ChatGPT, a la que calificó como “no es la peor”, reveló que recopila 10 de los 35 tipos de datos posibles: la dirección IP, el tipo de dispositivo, el sistema operativo, la zona horaria y ¿el contenido de todas las conversaciones? Aunque borres tus chats, se guardan durante 30 días para monitoreo de abuso. En caso de orden judicial, los datos pueden guardarse indefinidamente.

Bueno, en este punto tenés que considerar algo: si tenés una cuenta de pago, podés desactivar la posibilidad de que tus chats le sirvan a ChatGPT para entrenar los modelos de IA. Pero si es gratuita, no.

¿Qué significa esto? Que tus conversaciones privadas son un insumo para que la IA las trate para mejorar su herramienta y, si ponés información muy confidencial, puede tener riesgo de ser usada en futuras conversaciones, aunque la plataforma dice que utiliza la información de manera “anonimizada”.

Y otra cosa: por más que pagues, en cada conversación con ChatGPT aparece un pulgar hacia arriba y otro hacia abajo. Si lo apretás, le sirve a la herramienta para entrenar al modelo, más allá de que lo desactives.

Me hace recordar al documental El dilema de las redes sociales, que decía: “Si el producto es gratuito, el producto sos vos”.

Temas:

Inteligencia Artificial ChatGPT Member

Seguí leyendo

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos