Los países deben bregar más para combatir los sesgos raciales, sobre todo en los algoritmos de inteligencia artificial utilizada para los reconocimientos faciales o los controles policiales. "Podrían reforzar estas prácticas", advirtieron este jueves expertos de la ONU.
"Hay un gran peligro de que (la inteligencia artificial) refuerce los sesgos, y por lo tanto agrave o dé lugar a prácticas discriminatorias", advirtió en entrevista con la AFP Verene Shepherd, experta en derechos humanos.
Esta jamaicana es miembro del Comité de la ONU para la eliminación de la discriminación racial, integrado por 18 expertos, que este jueves publicó un informe sobre cómo las autoridades deben combatir estas derivas.
Este comité está preocupado en particular por los algoritmos utilizados entre las herramientas policiales de "prevención" o "evaluación de riesgos", así como por el motor de búsqueda o redes sociales preferidos por las personas, que pueden bombardearlas con publicidad ultrasesgada.
Estos sistemas de vigilancia que supuestamente apoyan la prevención de delitos y fueron implementados por primera vez en Estados Unidos a mediados de la década del 2000, son también criticados puesto que refuerzan los prejuicios hacia algunas comunidades.
"Los datos históricos respecto a arrestos en un barrio determinado (que alimentan a la inteligencia artificial) pueden reflejar muy bien prácticas policiales sesgadas" y, en consecuencia, reproducirlas, subraya Shepherd.
"Estos datos aumentan el riesgo de un exceso de presencia policial que podría llevar a practicar más arrestos y así crear un círculo vicioso", advierte.
"Los datos incorrectos provocan malos resultados", resume.
Entre sus recomendaciones, el comité también se muestra inquieto por la utilización cada vez más generalizada del reconocimiento facial u otras tecnologías de supervisión utilizadas en misiones de seguridad.
Nuevamente, respecto a esto, el discernimiento de la inteligencia artificial está íntimamente vinculado a los datos utilizados para "educar" a estos sistemas, explica.
Además, los estudios realizados han demostrado que estos tienen dificultades para reconocer los rostros de piel oscura o de las mujeres.
Un sesgo bien ilustrado, por ejemplo, fue el arresto este año en Detroit de un afro-estadounidense, Robert Williams, basándose en "conclusiones" de un algoritmo mal desarrollado, que lo identificó como al sospechoso de un robo.
"Hemos tenido quejas por esta forma de identificación errónea fruto de estas tecnologías, quién las desarrolla o de las muestras utilizadas por estos sistemas", indica Shepherd. Añadiendo: "se trata de una preocupación real".
El comité pide a los países en particular que reglamenten las empresas que trabajan en este sector para así asegurarse que tales sistemas respeten las leyes internacionales sobre los derechos humanos, e insiste en la necesidad de transparencia en la concepción y aplicación de estos para el público en general.
Las recomendaciones de este comité no se limitan a estas nuevas tecnologías. "El desarrollo de perfiles raciales no empezó con estas", recuerda Shepherd.
Ella espera que "la intensificación e internacionalización del movimiento Black Lives Matter (…) y otras campañas que denuncian discriminación contra grupos vulnerables ayuden (a destacar) la importancia de estas recomendaciones", anhela.
AFP
Inicio de sesión
¿Todavía no tenés cuenta? Registrate ahora.
Para continuar con tu compra,
es necesario loguearse.
o iniciá sesión con tu cuenta de:
Disfrutá El Observador. Accedé a noticias desde cualquier dispositivo y recibí titulares por e-mail según los intereses que elijas.
Crear Cuenta
¿Ya tenés una cuenta? Iniciá sesión.
Gracias por registrarte.
Nombre
Contenido exclusivo de
Sé parte, pasá de informarte a formar tu opinión.
Si ya sos suscriptor Member, iniciá sesión acá