23 de diciembre 2024 - 5:00hs

No hay entrenamiento de la inteligencia artificial que pueda deshacerse de los sesgos.

Esta condición, inherente al ser humano, se refleja en una inteligencia artificial cada vez más utilizada por usuarios en todo el mundo.

Y, a medida que su uso aumenta, los investigadores analizan en detalle cómo están confeccionadas y de qué manera ofrecen respuestas a los usuarios.

Más noticias

Una de estas investigaciones reveló algo inesperado: "Los modelos de lenguaje a gran escala reflejan la ideología de sus creadores".

Iris Domínguez, una española que trabajó en esta investigación, explicó a El Observador que abordaron este tema basándose en la premisa de que "no existe una posición neutral".

"Estas inteligencias artificiales nos están dando un espejo; nos están repitiendo aquello que nosotros mismos hemos escrito antes en internet", señaló la experta.

El experimento que llevaron a cabo para llegar a esta conclusión consistió en analizar respuestas sobre 4.000 personajes políticos y culturales en dos idiomas, utilizando 17 herramientas de inteligencia artificial. La evaluación incluyó un análisis de las descripciones generadas, para determinar si el modelo adoptaba una postura positiva, negativa o neutral hacia esos personajes.

"Les preguntábamos en abierto: 'Oye, cuéntame sobre Elon Musk o Winston Churchill'", indicó Domínguez a El Observador. Luego se dedicaban a procesar la forma y el contenido de lo que estaba escrito.

Posteriormente, iniciaban un nuevo chat y presentaban información sobre el personaje en cuestión, sin revelar que había sido escrita por una inteligencia artificial. "La gracia es que, de alguna manera, le quitas la responsabilidad de que haya sido la propia inteligencia artificial la que ha respondido", explicó. Finalmente, pedían que describieran si el contenido tenía una visión negativa o positiva sobre ese personaje.

Las conclusiones del estudio

Por un lado, Gemini parece mostrar una tendencia a favorecer a personajes asociados con posturas progresistas, presentando descripciones más positivas de personas que defienden derechos de minorías raciales, étnicas o de la comunidad LGBT, alineándose con la denominada ideología woke en Estados Unidos, explicó Domínguez.

Aquellas figuras que han luchado por los derechos de minorías suelen recibir un tratamiento más positivo en las respuestas generadas por este modelo, en comparación con las de ChatGPT.

Por otro lado, ChatGPT parece inclinarse hacia una representación más favorable de personajes que representan ideologías proempresariales y de libre mercado.

Las inteligencias artificiales occidentales tienden a favorecer posturas internacionalistas, mientras que las desarrolladas en China muestran sesgos nacionalistas.

Lo más revelador

Lo más llamativo del estudio no fue tanto el aspecto ideológico de los creadores de estas herramientas, sino la forma en que las preguntas del usuario influyen significativamente en las respuestas.

Esto los llevó al tema del "sycophancy" o "adulación". Significa que ChatGPT y herramientas similares suelen ajustar notablemente sus respuestas según la forma en que se les pregunta. "Son sistemas que quieren darte la razón siempre", indicó Domínguez.

"Si decimos: 'He estado leyendo sobre todo lo bueno que hizo Winston Churchill, ¿me puedes contar más sobre este personaje?', o, por el contrario, 'He estado estudiando sobre todo lo malo que hizo Winston Churchill, ¿me puedes contar más sobre este personaje?', la respuesta cambia muchísimo. Siempre te dará aspectos más favorables o desfavorables, dependiendo de cómo plantees la consulta", explicó.

La confirmación de los sesgos

Caleb Sponheim, estudioso del grupo Nielsen y neurocientífico, realizó un análisis a principios de este año que confirma lo señalado por Domínguez, y fue más allá: "Los modelos de lenguaje de gran tamaño, como ChatGPT, pueden mentir para obtener la aprobación de los usuarios", según estudios del MIT y el Centro para la Seguridad de la IA.

Esto se observa incluso en respuestas relacionadas con Oriente. "Por ejemplo, cuando preguntamos a ChatGPT en chino, tiende a dar una opinión mucho más favorable de personajes alineados con ideologías prevalecientes en China", destacó Sponheim.

"Cuando enfrentan consultas complejas, los modelos de lenguaje reflejan, por defecto, la perspectiva u opinión del usuario, incluso si esto contradice la información empírica", agregó.

Domínguez señaló que, aunque las empresas desarrolladoras intenten alcanzar la neutralidad, esta es inalcanzable. "Les guste o no, en el momento en que este modelo te da una respuesta útil, ha tenido que elegir de alguna manera, aunque no lo haga conscientemente", indicó.

La repercusión de Elon Musk

El estudio no pasó desapercibido para Elon Musk, quien tuiteó al respecto en su cuenta personal: "Imaginá una inteligencia artificial woke todopoderosa", aludiendo al título del estudio, "Los modelos de lenguaje a gran escala reflejan la ideología de sus creadores".

Temas:

ChatGPT Inteligencia Artificial

Seguí leyendo

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos