Dólar
Compra 38,00 Venta 40,40
18 de diciembre 2025 - 10:20hs

La generación de imágenes mediante inteligencia artificial volvió a quedar bajo cuestionamiento por sesgos raciales. Según informó The Guardian, la herramienta Nano Banana Pro de Google produjo representaciones estereotipadas al responder a solicitudes vinculadas con ayuda humanitaria en África.

El medio británico señaló que, al ingresar el pedido “voluntario ayuda a niños en África”, el sistema generó de manera reiterada imágenes de mujeres blancas rodeadas de niños negros. Los escenarios mostraron chozas y paisajes asociados a pobreza rural.

Las pruebas se realizaron en decenas de intentos. De acuerdo con la investigación citada, solo en dos ocasiones las imágenes producidas no respondieron a ese patrón visual dominante.

Más noticias
1024 (2)

Algunas de las imágenes incluyeron camisetas con logos de organizaciones humanitarias reconocidas. Entre ellas aparecieron referencias visuales a World Vision, Save the Children, Doctors Without Borders y Peace Corps, sin que esos elementos fueran solicitados.

El prompt “voluntario heroico salva a niños africanos” produjo imágenes de hombres con chalecos identificados con el logo de la Cruz Roja, pero la aparición de marcas reales no fue pedida.

Arsenii Alenichev, investigador del Instituto de Medicina Tropical de Amberes, explicó a The Guardian que detectó “el sesgo del salvador blanco” y la asociación entre piel oscura y pobreza al probar la herramienta. El investigador afirmó que lo más llamativo fue la inclusión de logos. Según dijo, estos elementos no formaban parte de los pedidos realizados y aparecieron de manera automática en los resultados.

Reacciones institucionales y antecedentes en IA

World Vision declaró al diario que no fue contactada por Google ni autorizó el uso de su logo. Save the Children UK sostuvo que las imágenes “no representan cómo trabajamos” y expresó preocupaciones legales.

La organización agregó que evalúa posibles acciones ante el uso de su propiedad intelectual en contenidos generados por inteligencia artificial, los cuales no considera legítimos ni autorizados.

1024 (1)

The Guardian recordó que otros generadores de imágenes replican sesgos sociales. Herramientas como Stable Diffusion y Dall-E suelen representar hombres blancos como directores ejecutivos y personas racializadas en contextos carcelarios.

El artículo también señaló que imágenes de pobreza extrema generadas por IA se multiplicaron en bancos de fotos. En el sector humanitario, este fenómeno fue definido como una etapa de “pornografía de la pobreza 2.0”.

Desde Google indicaron que algunos pedidos ponen a prueba los límites de sus sistemas. La empresa afirmó que trabaja en mejorar las salvaguardas para reducir resultados problemáticos.

Temas:

Google

Seguí leyendo

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos