Críticas a un algoritmo racista
Un software de análisis de comportamiento criminal está sesgado en contra de los negros, según investigación
Tiempo de lectura: -'
25 de mayo de 2016 a las 05:00
Te quedan {{observador.articlesLeft}} notas gratuitas.
Accedé ilimitado desde US$ 3 45 / mes
Un software utilizado en EEUU para predecir si las personas que terminan en los tribunales, cárceles o prisiones son propensas a cometer más crímenes parece estar sesgado en contra de los negros, de acuerdo con una investigación de ProPublica.
El software analiza una serie de factores de riesgo en la vida de las personas y les asigna "puntuaciones de riesgo" en cuanto a qué tan probable son de volver a cometer un delito. Según publicó Business Insider, en Arizona, Colorado, Delaware, Kentucky, Louisiana, Oklahoma, Virginia, Washington y Wisconsin, estos resultados son utilizados en el proceso de sentencia.
ProPublica estudió los datos de 7.000 personas detenidas en el condado de Broward, Florida, y se encontró tres elementos: los resultados arrojados por el software no son muy buenos para predecir que va a reincidir; las personas blancas eran mucho más propensas a tener puntuaciones bajas (aunque luego reincidieran) y las personas negras eran mucho más propensas a tener puntuaciones altas y no a reincidir.Northpointe, la empresa que evalúa los riesgos en el condado de Broward, rechazó el análisis de ProPublica, con el argumento de que estas afirmaciones no "reflejan con precisión los resultados de la aplicación del modelo", pero no dio a conocer cómo llegó a determinadas puntuaciones de riesgo.
Esta nota es exclusiva para suscriptores.
Accedé ahora y sin límites a toda la información.
¿Ya sos suscriptor?
iniciá sesión aquí
Alcanzaste el límite de notas gratuitas.
Accedé ahora y sin límites a toda la información.
Registrate gratis y seguí navegando.
¿Ya estás registrado? iniciá sesión aquí.
Para comentar debe iniciar sesión.