¿Cuáles son los sesgos raciales que tiene la inteligencia artificial? ¿Cómo se replican?
Hay investigadores que exploran cómo los sistemas de IA replican patrones preexistentes. Uno de ellos es Arsenii Alenichev, un belga investigador especializado en el análisis de imágenes vinculadas a la salud global y la comunicación humanitaria.
Su trabajo se centra en estudiar cómo los fotógrafos construyen "imágenes reales" (y hace énfasis en decir "reales" entre comillas porque muchas son manipuladas) para organizaciones no gubernamentales y entidades que operan en contextos de cooperación internacional, donde la representación visual juega un papel clave para sensibilizar, recaudar fondos y construir narrativas sobre crisis, pobreza y asistencia.
Alenichev, quien tiene formación en ética, biología y antropología, en los últimos años incorporó a su investigación el impacto de la inteligencia artificial en este campo. Analiza cómo estas herramientas comienzan a sustituir la fotografía tradicional en campañas humanitarias y de salud global.
Recientemente, CAlenichev realizó pruebas con herramientas que crean imágenes vinculadas a escenas de ayuda humanitaria en África y detectó que la IA reproducía de forma sistemática el “sesgo del salvador blanco”, asociaba pobreza a piel oscura y, además, incluía automáticamente logos reales de ONG sin que fueran solicitados.
Sobre la relevancia de este tema habló con El Observador.
¿Qué patrones visuales se han repetido históricamente en la fotografía humanitaria y cómo esos mismos patrones están reapareciendo hoy en las imágenes generadas por IA?”
La fotografía humanitaria y de ayuda tiene raíces en la fotografía colonial, que a su vez puede rastrearse hasta dibujos y estereotipos que los primeros colonizadores, misioneros y viajeros producían sobre ese Otro con el que se encontraban. Por lo tanto, es justo decir que la fotografía humanitaria es solo la punta del iceberg. Probablemente el llamado “salvador blanco”, el sujeto sufriente y el “porno de pobreza” sean los ejemplos más comunes discutidos en el espacio público y académico, pero seguramente haya muchos otros. Estoy seguro de que para cada contexto colonizado los sesgos humanitarios serían únicos. Usando la metáfora de “basura que entra, basura que sale”: todos estos estereotipos visuales han sido absorbidos por los algoritmos, y la IA los recombina y reordena, reproduciendo y ampliando viejos tópicos.
¿Qué responsabilidad tienen las empresas tecnológicas en la reproducción de estos sesgos, considerando que entrenan sus modelos con archivos visuales preexistentes? En un contexto donde la IA puede producir imágenes ‘creíbles’ sin haber estado en el lugar, ¿cómo debería redefinirse el concepto de testimonio visual en el periodismo y la comunicación humanitaria?”
La parte complicada del corpus visual histórico y colonial es que los modelos de IA probablemente se entrenan sin el consentimiento de los propietarios de las imágenes y sin una reflexión ética profunda. Las empresas tecnológicas tienden a reducir el problema a sesgos “manejables” en lugar de a las infraestructuras coloniales que hicieron posible (y siguen haciendo posible) que ese tipo de imágenes existieran desde el principio. Es un poco como buscar chivos expiatorios. Pero claro, las empresas intentan minimizar este sesgo del “salvador blanco”, aunque sigue siendo muy prominente.
Si bien puede parecer que la IA introduce “falsedad” en la comunicación sobre salud global, tenemos que enfrentar al elefante en la habitación: muchas imágenes “reales” de ayuda humanitaria y afines han sido históricamente construidas para que el espectador occidental vea “sufrimiento” y done. Durante muchos años, fotógrafos realizaron encargos prediseñados, llamados briefs, que detallaban qué tipo de imágenes debían tomar para una ONG. Podés pensar el brief como una especie de proto–prompt.
Por lo tanto, no deberíamos simplemente cuestionar el efecto de la IA, sino también el fotoperiodismo contractual en la visualidad de la salud global. ¡Alternativas locales, de abajo hacia arriba, son posibles!
Desde una mirada más simple: más allá del problema de las representaciones, muchas misiones humanitarias siguen estando compuestas por personas blancas, mientras que quienes reciben ayuda en África son mayoritariamente poblaciones negras. ¿Cómo se puede criticar el sesgo visual sin perder de vista el problema de fondo: que África sigue siendo una de las regiones más postergadas del mundo?”
En los últimos años ha habido un cambio importante con la descolonización de la salud global y la creciente localización de las intervenciones. Si bien, por supuesto, el “salvador blanco” sigue siendo muy prominente, ha habido cambios enormes en cómo la ayuda se implementa localmente, no solo en el continente africano, sino en el Sur Global en general. Cuando la IA reproduce el “salvador blanco” y los tópicos históricos asociados, ignora —y diría que socava— el progreso que efectivamente se ha logrado.
Para darte un ejemplo: hace algunos meses probé prompts en Midjourney con “Voluntarios ayudan a niños en Mumbai” y las imágenes estaban llenas de jóvenes blancos. Esto no tiene sentido en la vida real: el 99% de las personas voluntarias que ayudan a niños en Mumbai son locales indios, según lo que he leído. Creo que deberíamos criticar los sesgos y canalizar esa crítica hacia la descolonización de la IA y de la salud global. ¡Me siento un poco como un “salvador blanco” diciendo esto!
Cuando se cuestiona el llamado ‘sesgo del salvador blanco’, ¿qué alternativas reales existen hoy para responder a emergencias humanitarias sin recurrir a personal, recursos y estructuras extranjeras?”
La solución sería invertir en los sistemas de respuesta nacionales. El problema actual puede rastrearse hasta la implementación de las llamadas políticas de ajuste estructural por parte de instituciones financieras globales y sus políticas de condicionalidad en los años 80, cuyos efectos se sienten hasta hoy. Eso implicó que los nuevos Estados poscoloniales solo pudieran utilizar un pequeño porcentaje de dinero para invertir en salud pública nacional, abriendo el mercado a asociaciones público-privadas. Eso resultó en el auge de las ONG en vez de sistemas nacionales fuertes.
Pero todas esas ONG requieren un flujo constante de dinero desde afuera, lo que significa una demanda estructural de imágenes sensacionalistas dirigidas a espectadores occidentales, lo que a su vez implica la reproducción de sesgos y tópicos. Espero que, en el futuro, no se necesiten imágenes para garantizar acceso a salud para todas las personas del mundo.
En términos concretos, ¿cuál sería hoy una representación correcta o más justa de la ayuda humanitaria, y qué cambios prácticos podrían ayudar a reducir los sesgos existentes en imágenes reales y generadas por IA?”
Las grandes ONG ahora están intentando reparar el daño que hicieron desarmando esos tópicos, tratando de “descolonizar” los briefs y contratando fotógrafos locales, dándoles libertad representacional. Muchas veces esto es tokenista e idealista, pero creo que es un paso en la dirección correcta.
Desde el lado del desarrollo de IA, el consejo típico es diversificar los datasets y contratar personas de comunidades minorizadas que puedan detectar sesgos basándose en sus experiencias de vida. En cuanto a ONG que utilicen IA, podría ser una buena idea co-crear los prompts junto a las propias comunidades representadas, si la fotografía real o el arte producido por humanos no fuera posible.