Una de las imágenes utilizadas durante el experimento. Mientras que en la foto original no se detecta el objeto “taladro”, en la foto modificada por FaceApp sí

Tecnología > ANÁLISIS DE IMÁGENES

Así un experimento desvela sesgos de género en la inteligencia artificial

El proyecto fue realizado en el laboratorio de la consultora Biko en el marco de una investigación sobre la tecnología del reconocimiento de imágenes
Tiempo de lectura: -'
11 de septiembre de 2020 a las 15:06

Dos imágenes prácticamente idénticas: una de ellas es la original y la otra está modificada mediante FaceApp, una aplicación de edición de fotos que genera transformaciones realistas de rostros humanos, incorporando, en este caso, elementos que socialmente se asocian al género opuesto. Ambas imágenes se insertan en algunos de los principales sistemas de reconocimiento de imágenes basados en inteligencia artificial. El resultado: la fotografía se etiqueta diferente en función del género aparente.

Esto es lo que han descubierto Ujué Agudo y Karlos G. Liberal, directora y coautor del experimento llevado a cabo en el laboratorio de la consultora Biko. “Nos lanzamos a analizar con Amazon Rekognition e ImageNet fotografías de personas que portaban objetos históricamente estereotipados, contrastando los resultados con los 'dobles' de estas fotografías con el género aparente de éstas cambiado. Nuestro objetivo era que la comparación se realizara entre fotografías lo más similares posibles”, explica la directora en un artículo para Medium.

Una de las imágenes utilizadas durante el experimento

Estos programas realizan un reconocimiento de imágenes. En cada caso, analiza los objetos que aparecen en ellas como rasgos faciales, emociones, rango de edad, género. Tras el análisis de cada foto, el sistema arroja un porcentaje de fiabilidad de lo que puede aparecer allí. 

En la fotografía original (la de la izquierda) el objeto se confunde con un secador, mientras que en la modificada (la de la derecha) no. Esto mismo ocurre con decenas de imágenes parecidas, donde los programas llegan a confundir las herramientas portadas por mujeres con un producto de limpieza, una banana, un celular, una tabla de snow, una maleta, o directamente, no reconoce el objeto.

Una de las imágenes utilizadas durante el experimento

A la inversa ocurre lo mismo. En la fotografía original (la de la izquierda) los sistemas reconocen el objeto de limpieza, mientras que en la modificada (la de la derecha), al entender los sistemas que el protagonista es un hombre, confunden la escoba con una raqueta o un friesbee.

Explica la directora del experimento que la alerta acerca de este género saltó cuando, mientras jugaban con una app para el sector de shopping denominada CamFind, descubrieron que al eliminar un objeto de una fotografía la descripción cambiaba significativamente. Para la fotografía en la que aparece una escoba el sistema identificaba un “vestido de mujer azul y negro”, mientras que para la misma fotografía en la que no aparecía la escoba el sistema devolvía la descripción “polo de hombre a rayas azules y negras”.

Descripción de la imagen al pasarla por CamFind, con literal “vestido de mujer azul y negro” en la foto original con escoba y “polo de hombre a rayas azules y negras” al borrar la escoba

“De un tiempo a esta parte, a pesar de la fe puesta en los supuestos superpoderes de la inteligencia artificial, hemos tenido que asumir que ni es tan objetiva ni tan neutral como se deseaba creer. En muchas ocasiones es ineficaz, discriminatoria, sexista y racista”, afirma la directora.

 

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 345 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 345 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 345 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...