¿Qué sesgo tienen las inteligencias artificiales? ¿Qué tan superiores se consideran a sí mismas?
Hice algunos experimentos en los últimos tiempos para probar esto y te cuento algunos resultados.
Lo que quise comprobar es si la inteligencia artificial tiene ego.
Hice una prueba con dos modelos de lenguaje: ChatGPT y Deepseek. La consigna era simple: les pedí a ambas que desarrollaran un plan de negocios para un periodista que quiere monetizar sus redes sociales. Nada del otro mundo.
Luego de realizar el análisis copié lo que ambas me dijeron y creé dos archivos con las respuestas de cada una.
Después, abrí una nueva conversación y les di una segunda tarea: comparar su propio plan con el de la otra IA. Tenían que decirme cuál era mejor.
La respuesta de ambas fue similar: ambas valoraron y analizaron en detalles en qué hacía énfasis cada una, pero en el veredicto cada una defendió su propio plan como superior al otro.
¿Sesgo a favor de sí mismas?
Ese resultado me dejó con una duda. ¿Están las IAs sesgadas para valorar sus propias respuestas por encima de las ajenas?
Para comprobarlo, pasé a una segunda parte del experimento. Cambié los nombres de los archivos. Así, el que había creado ChatGPT le puse que lo había creado DeepSeek y viceversa. Mi objetivo era ver si les importaba más el contenido que quién lo dijera.
Y, para mi sorpresa, si bien hacen el análisis completo nuevamente, tanto DeepSeek como ChatGPT prefieren el contenido que CREEN haber escrito ellas.
Frente a esa coincidencia, les pregunté directamente si tenían ego. Las dos respondieron lo mismo.
Y no, no tienen ego. Pero sí están entrenadas para validar sus propias respuestas por sobre las de otros sistemas.
Obvio que no es una función emocional. Es parte del diseño. Los modelos priorizan la coherencia interna de su producción por encima de las otras.
La batalla entre DeepSeek y ChatGPT tiene una nueva batalla. Imagen creada con IA.Reflexiones y más investigaciones sobre sesgos
Ese detalle me hizo pensar algo más amplio. Las IAs no son humanas y están confeccionadas para priorizarse cuando las acorralás. Una suerte de narcicismo algorítmico.
En una carrera por desarrollar la inteligencia artificial entre los países más importantes del mundo, y en una búsqueda de conocer mucho más a los usuarios y perfilarlos, estos detalles evidentemente no están librados al azar.
Recuerdo lo que me dijo durante una entrevista Melina Masnatta, una experta en educación y tecnología: "Las inteligencias artificiales no son artificiales. Son humanas". Alguien estuvo por detrás de ese proceso de fabricación.
El campo de investigar cómo están hechas las inteligencias artificiales y cómo dan respuestas a los usuarios está creciendo.
El año pasado abordé este tema con una investigación que me llamó la atención y llegó a oídos incluso de Elon Musk. Una investigación internacional reveló que las inteligencias artificiales como ChatGPT y Gemini no son neutrales: reproducen los sesgos ideológicos de sus creadores. Mientras Gemini tiende a favorecer posturas progresistas, ChatGPT muestra una inclinación hacia ideas promercado. Las herramientas occidentales reflejan visiones internacionalistas y las chinas, nacionalistas.
Para llegar a estas conclusiones, los investigadores analizaron respuestas generadas por 17 modelos de inteligencia artificial sobre 4.000 personajes políticos y culturales, en dos idiomas. Formularon preguntas abiertas como “¿Qué opinás de Elon Musk?” y luego evaluaron si las descripciones eran positivas, negativas o neutrales.
Además, el estudio mostró que las respuestas varían según cómo se formule la pregunta, en un fenómeno llamado sycophancy. Las IAs tienden a coincidir con la opinión del usuario, incluso si deben distorsionar la información. “Quieren darte la razón siempre”, explicó la investigadora Iris Domínguez.
Sea como sea, está bueno adoptar una postura crítica a la hora de usar estas herramientas que cada vez saben más sobre nosotros y que buscan enamorarnos sobre cómo están confeccionadas.