BBC

BBC News Mundo

El algoritmo de Amazon al que no le gustan las mujeres

Tiempo de lectura: -'
11 de octubre de 2018 a las 12:37

Amazon logró con Alexa convertirse en el rey de los asistentes personales y de la automatización. Tal vez por eso no resulte extraño que la firma quisiera poner la contratación de sus empleados en manos de la inteligencia artificial.

hombre, mujer y robot
Getty Images
No es la primera vez que la inteligencia artificial resulta sexista.

Pero esta aventura no salió como esperaba.

En 2014 la compañía de comercio electrónico puso en marcha un sistema algorítmicocon el que esperaba optimizar recursos y ahorrar tiempo y mano de obra, además de encontrar un sistema neutral para contratar personal.

Pero Amazon tuvo que despedir a su nuevo reclutador porque el algoritmo resultó sersexista, de acuerdo con una investigación elaborada por Reuters*.

El sistema recibió información sobre solicitantes de empleo en Amazon durante un periodo de 10 años, y fue entrenado para observar patrones.

Y la mayoría de ellos eran hombres, lo cual pudo resultar en el sesgo que afectó a su toma de decisiones.

Cinco miembros del equipo que trabajaron en el desarrollo de esta herramienta le contaron a Reuters que el algoritmo "se enseñó a sí mismo que los candidatos masculinos eran una preferencia".

oficinas de Amazon en Francia
Getty Images
El algoritmo aprendió por su cuenta que ser hombre era favorable para trabajar en Amazon.

Según el informe de Reuters, esta tecnología funcionaba revisando solicitudes de empleo y dándoles a los candidatos un puntaje de una a cinco estrellas.

"Querían crear una máquina que recibiera 100 currículos y seleccionara los cinco mejores, para después nosotros contratarlos", explicó uno de los ingenieros, que prefirió no revelar su identidad.

Amazon todavía no ha respondido a las acusaciones.

Mujeres "penalizadas"

En 2015, quedó claro que el sistema tenía un sesgo machista a la hora de seleccionar a los solicitantes, sobre todo a quienes aspiraban a puestos técnicos típicamente asignados a hombres, como desarrollador de software.

Entonces, comenzó a penalizar a los currículos que incluían la palabra "mujer".

Amazon
Getty Images
Las mujeres eran descartadas principalmente para puestos técnicos.

El programa fue revisado para intentar erradicar el sesgo, pero Amazon ya no podía seguir confiando en él.

Finalmente, el proyecto fue abandonado, aunque Amazon nunca llegó a sacar a la luz información sobre este proyecto fallido.

Pero, de acuerdo con el informe de Reuters, el algoritmo fue usado durante algún tiempo por los reclutadores de personal de la compañía, quienes tenían en cuenta sus recomendaciones para sus decisiones (aunque no se regían únicamente por ellas).

60/40

Amazon dice que su fuerza laboral global cumple la proporción de 60/40, a favor de los hombres. Ese ratio es el mínimo que marca la Ley de Igualdad en muchos países.

Y la compañía fue nombrada en el último análisis de la red social para contactos profesionales LinkedIn "la mejor empresa del mundo para trabajar" por su retención de talento, solicitudes del empleo y el grado de interés que despierta.

Amazon
Getty Images
Según LikedIn, Amazon es la mejor empresa del mundo para trabajar.

Cerca del 55% de los directores de recursos humanos en Estados Unidos dicen que la inteligencia artificial jugará un papel crucial en la contratación de personal en los próximos cinco años, de acuerdo con una entrevista elaborada por la firma de software CareerBuilder.

Algoritmos discriminadores

Esta no es la primera vez que hay dudas sobre cuán confiables son los algoritmos y cómo los datos que analizan pueden resultar en decisiones sesgadas.

En junio, un experimento del MIT, el Instituto Tecnológico de Massachusetts, EE.UU., reveló que es posible entrenar a un algoritmo para convertirlo en psicópata y que interprete la realidad de cierta manera.

Norman, algoritmo psicópata
MIT
El MIT creó un algoritmo psicópata.

Y en mayo del año pasado un informe sugirió que alguno programas computacionales generados por inteligencia artificial usados por un tribunal en Estados Unidos discriminaban a las personas de raza negra.

En algunos algoritmos de vigilancia predictiva también se observó el mismo sesgo: como los datos mostraban que los negros eran arrestados más veces, el sistema tomó esa pauta como norma.


*Puedes leer la investigación original de Reuters (en inglés) aquí. (La BBC no se hace responsable del contenido de páginas externas).


Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

    BBC

    Comentarios

    Registrate gratis y seguí navegando.

    ¿Ya estás registrado? iniciá sesión aquí.

    Pasá de informarte a formar tu opinión.

    Suscribite desde US$ 345 / mes

    Elegí tu plan

    Estás por alcanzar el límite de notas.

    Suscribite ahora a

    Te quedan 3 notas gratuitas.

    Accedé ilimitado desde US$ 345 / mes

    Esta es tu última nota gratuita.

    Se parte de desde US$ 345 / mes

    Alcanzaste el límite de notas gratuitas.

    Elegí tu plan y accedé sin límites.

    Ver planes

    Contenido exclusivo de

    Sé parte, pasá de informarte a formar tu opinión.

    Si ya sos suscriptor Member, iniciá sesión acá

    Cargando...