Tecnología > DEBATE

Expertos de la ONU dan alarma por sesgos raciales en algoritmos de vigilancia

"Hemos tenido quejas por esta forma de identificación errónea fruto de estas tecnologías, quién las desarrolla o de las muestras utilizadas por estos sistemas", indicó Verene Shepherd, experta en derechos humanos
Tiempo de lectura: -'
26 de noviembre de 2020 a las 13:42

Los países deben bregar más para combatir los sesgos raciales, sobre todo en los algoritmos de inteligencia artificial utilizada para los reconocimientos faciales o los controles policiales. "Podrían reforzar estas prácticas", advirtieron este jueves expertos de la ONU.

"Hay un gran peligro de que (la inteligencia artificial) refuerce los sesgos, y por lo tanto agrave o dé lugar a prácticas discriminatorias", advirtió en entrevista con la AFP Verene Shepherd, experta en derechos humanos.

Esta jamaicana es miembro del Comité de la ONU para la eliminación de la discriminación racial, integrado por 18 expertos, que este jueves publicó un informe sobre cómo las autoridades deben combatir estas derivas.

Este comité está preocupado en particular por los algoritmos utilizados entre las herramientas policiales de "prevención" o "evaluación de riesgos", así como por el motor de búsqueda o redes sociales preferidos por las personas, que pueden bombardearlas con publicidad ultrasesgada.

Estos sistemas de vigilancia que supuestamente apoyan la prevención de delitos y fueron implementados por primera vez en Estados Unidos a mediados de la década del 2000, son también criticados puesto que refuerzan los prejuicios hacia algunas comunidades.

Círculo vicioso

"Los datos históricos respecto a arrestos en un barrio determinado (que alimentan a la inteligencia artificial) pueden reflejar muy bien prácticas policiales sesgadas" y, en consecuencia, reproducirlas, subraya Shepherd.

"Estos datos aumentan el riesgo de un exceso de presencia policial que podría llevar a practicar más arrestos y así crear un círculo vicioso", advierte.

"Los datos incorrectos provocan malos resultados", resume.

Entre sus recomendaciones, el comité también se muestra inquieto por la utilización cada vez más generalizada del reconocimiento facial u otras tecnologías de supervisión utilizadas en misiones de seguridad.

Nuevamente, respecto a esto, el discernimiento de la inteligencia artificial está íntimamente vinculado a los datos utilizados para "educar" a estos sistemas, explica.

Además, los estudios realizados han demostrado que estos tienen dificultades para reconocer los rostros de piel oscura o de las mujeres.

Un sesgo bien ilustrado, por ejemplo, fue el arresto este año en Detroit de un afro-estadounidense, Robert Williams, basándose en "conclusiones" de un algoritmo mal desarrollado, que lo identificó como al sospechoso de un robo.

"Hemos tenido quejas por esta forma de identificación errónea fruto de estas tecnologías, quién las desarrolla o de las muestras utilizadas por estos sistemas", indica Shepherd. Añadiendo: "se trata de una preocupación real".

El comité pide a los países en particular que reglamenten las empresas que trabajan en este sector para así asegurarse que tales sistemas respeten las leyes internacionales sobre los derechos humanos, e insiste en la necesidad de transparencia en la concepción y aplicación de estos para el público en general.

Las recomendaciones de este comité no se limitan a estas nuevas tecnologías. "El desarrollo de perfiles raciales no empezó con estas", recuerda Shepherd.

Ella espera que "la intensificación e internacionalización del movimiento Black Lives Matter (…) y otras campañas que denuncian discriminación contra grupos vulnerables ayuden (a destacar) la importancia de estas recomendaciones", anhela.

AFP

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 345 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 345 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 345 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...