29 de julio 2025 - 10:34hs

Sam Altman, CEO de OpenAI, reconoció que la industria de la inteligencia artificial “todavía no ha resuelto el tema de la privacidad” en las conversaciones sensibles.

En el pódcast “This Past Weekend with Theo Von”, Altman afirmó: “La gente habla de las cosas más personales de su vida con ChatGPT”.

Explicó que “especialmente los jóvenes lo usan como terapeuta, como coach de vida, preguntando sobre problemas de pareja y qué hacer”.

Más noticias

Sin embargo, aclaró: “En este momento, si hablás con un terapeuta, un abogado o un médico sobre esos problemas, hay un privilegio legal para eso... Todavía no hemos resuelto eso para cuando hablás con ChatGPT".

Embed - Sam Altman | This Past Weekend w/ Theo Von #599

Diferencias con la confidencialidad profesional

Altman explicó que, a diferencia de los profesionales de la salud, la ley no protege lo conversado con la inteligencia artificial.

El CEO remarcó: “Todavía no hemos logrado eso para cuando hablás con ChatGPT”.

Esto significa que las conversaciones no están protegidas legalmente, y pueden ser accedidas por terceros o requeridas por la Justicia.

Altman añadió: “Nadie tenía que pensar en eso ni siquiera hace un año” y describió la situación como “muy complicada”.

La retención de datos y los litigios

Según Mashable, OpenAI “está obligada a retener registros de todas las conversaciones de los usuarios —incluso las que los usuarios han borrado— debido a su batalla legal en curso con The New York Times”.

La empresa intenta revertir la orden, pero debe conservar todos los chats mientras el caso se resuelve.

El texto advierte que “sin protecciones de confidencialidad, cualquier cosa dicha en una sesión de terapia con IA podría ser accedida o incluso solicitada en la Justicia”.

Un marco legal incierto

El artículo detalla que la industria de la inteligencia artificial opera en un “área gris legal”, ya que las normas federales y estatales difieren en Estados Unidos.

El uso y acceso a los datos generados por los chats de IA depende de la legislación de cada estado, lo que genera incertidumbre.

Actualmente, algunas leyes federales solo aplican a deepfakes, pero no cubren los datos de los chats personales.

Esta falta de regulación integral dificulta que los usuarios tengan certeza sobre el destino y protección de su información.

Riesgos para quienes buscan ayuda emocional

Mashable destaca que cualquier conversación en ChatGPT puede ser requerida como prueba legal, ya que no existe secreto profesional en estos casos.

Altman reconoció que la industria todavía enfrenta el desafío de establecer un marco legal similar al privilegio profesional.

La advertencia de Altman está dirigida especialmente a quienes usan ChatGPT para hablar de temas personales o emocionales, porque no existe protección legal sobre lo compartido en la plataforma.

Temas:

ChatGPT OpenAI

Seguí leyendo

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos