Críticas a un algoritmo racista

Un software de análisis de comportamiento criminal está sesgado en contra de los negros, según investigación

Tiempo de lectura: -'

25 de mayo de 2016 a las 05:00

Estás por alcanzar el límite de notas.

Suscribite ahora a

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 3 45 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 3 45 / mes

Un software utilizado en EEUU para predecir si las personas que terminan en los tribunales, cárceles o prisiones son propensas a cometer más crímenes parece estar sesgado en contra de los negros, de acuerdo con una investigación de ProPublica.

El software analiza una serie de factores de riesgo en la vida de las personas y les asigna "puntuaciones de riesgo" en cuanto a qué tan probable son de volver a cometer un delito. Según publicó Business Insider, en Arizona, Colorado, Delaware, Kentucky, Louisiana, Oklahoma, Virginia, Washington y Wisconsin, estos resultados son utilizados en el proceso de sentencia.

ProPublica estudió los datos de 7.000 personas detenidas en el condado de Broward, Florida, y se encontró tres elementos: los resultados arrojados por el software no son muy buenos para predecir que va a reincidir; las personas blancas eran mucho más propensas a tener puntuaciones bajas (aunque luego reincidieran) y las personas negras eran mucho más propensas a tener puntuaciones altas y no a reincidir.

Northpointe, la empresa que evalúa los riesgos en el condado de Broward, rechazó el análisis de ProPublica, con el argumento de que estas afirmaciones no "reflejan con precisión los resultados de la aplicación del modelo", pero no dio a conocer cómo llegó a determinadas puntuaciones de riesgo.

CONTENIDO EXCLUSIVO Member

Esta nota es exclusiva para suscriptores.

Accedé ahora y sin límites a toda la información.

¿Ya sos suscriptor?
iniciá sesión aquí

Alcanzaste el límite de notas gratuitas.

Accedé ahora y sin límites a toda la información.

Registrate gratis y seguí navegando.