La ex investigadora de OpenAI, Zoë Hitzig, renunció esta semana y cuestionó en su cuenta de X y en una columna de opinión divulgada en The New York Times que la empresa haya comenzado a probar anuncios en ChatGPT, tras dos años en los que ayudó a definir la creación y el precio de los modelos de IA.
La exempleada de la compañía creadora de ChatGPT, que también ayudó a guiar las primeras políticas de seguridad antes de que se establecieran estándares formales en la industria, publicó en X: "Renuncié a OpenAI el lunes. Ese mismo día, empezaron a probar anuncios en ChatGPT. OpenAI posee el registro más detallado del pensamiento humano privado jamás recopilado. ¿Podemos confiar en que resistirán las fuerzas de marea que los impulsan a abusar de él?".
“Una vez creí que podía ayudar a anticiparse a los problemas que esta crearía.”, expresó Zoë Hitzig al explicar su salida, y sostuvo que “OpenAI parece haber dejado de plantear las preguntas que me uní para ayudar a responder.” en relación con el rumbo actual de la compañía.
“No creo que la publicidad sea inmoral ni poco ética. La IA es costosa de gestionar y la publicidad puede ser una fuente crucial de ingresos”, señaló, aunque aclaró que mantiene “serias reservas sobre la estrategia de OpenAI” en esta nueva etapa.
Advirtió que durante años los usuarios generaron “un archivo de franqueza humana sin precedentes” porque creían interactuar con una herramienta “sin intenciones ocultas”, y afirmó que “La publicidad basada en ese archivo crea la posibilidad de manipular a los usuarios de maneras que no tenemos las herramientas para comprender, y mucho menos prevenir”.
Recordó que OpenAI afirmó que “Los anuncios estarán claramente etiquetados, aparecerán al final de las respuestas y no influirán en ellas.”, pero sostuvo que “Me preocupa que las versiones posteriores no lo hagan.” debido a los incentivos económicos que, según indicó, podrían presionar para modificar esas reglas.
También señaló que optimizar la interacción para generar ingresos publicitarios “va en contra de los principios de la empresa” y mencionó reportes sobre la búsqueda de “usuarios activos diarios”, lo que, según indicó, podría fomentar mayor dependencia y se da en un contexto en el que se han documentado casos de “psicosis de chatbots” y acusaciones de refuerzo de ideación suicida.
Como alternativa, propuso subsidios para financiar el acceso amplio a la IA, una estructura con “supervisión independiente” sobre el uso de datos personales y la creación de fideicomisos o cooperativas que administren la información con obligación legal de actuar en beneficio de los usuarios.