Antes de que acabe este año, la Policía uruguaya contará con el acceso a unas 11.900 cámaras de video-vigilancia. La apuesta del Ministerio del Interior es que buena parte de la visualización se automatice —mediante inteligencia artificial— y que el sistema arroje alertas cuando se detecta una cara que coincide con una base de datos de personas requeridas, o cuando localice a un señor buscado que se viste de determinada manera.
La incorporación de inteligencia artificial al servicio de los policías no es nueva. De hecho, unas 350 cámaras ya cuentan y usan licencia LPR, un software que identifica las matrículas (placas o chapas) de los vehículos que están requeridos. La lógica —aunque parezca ciencia ficción— es sencilla: existe una base de datos de autos robados con sus respectivas matrículas. Cuando la cámara lee el código alfanumérico de las matrículas e identifica que coincide con un código de la base, lanza una alerta. Nada muy distinto a cuando se escanea una huella dactilar —que por definición es única— y se constata por la base a quién pertenece.
Pero la nueva apuesta de Interior es más compleja y polémica. Porque el reconocimiento de rostros humanos que deambulan en la vía pública supone desafíos tecnológicos (que el sistema arroje muy pocos falsos positivos o que sea eficaz en su detección si el día está nublado), supone sesgos (hay grupos poblacionales que tienen más chances de saltar en la alerta que otros, como está ocurriendo en Estados Unidos con el origen étnico), y supone desafíos legales (quiénes integran las bases de datos con las que se contrasta o si se admite el reconocimiento en espacios públicos, algo que prohibió la Unión Europea).
Por eso Interior trabaja en un protocolo en que quede bien establecido qué se puede y qué no. “Para ser parte de la base de datos se necesitará una autorización previa de la Justicia, como ya supone el uso del Guardián para las escuchas telefónicas”, aclara el director general de Secretaría de Interior, Nicolás Martinelli, quien insiste que se está “evaluando los nuevos avances y todas las opciones qué hay en el mercado de inteligencia artificial”.
La receta
Una huella dactilar cuenta con una serie de elevaciones, valles y minucias que la vuelven única. De ahí que la lectura de esas particularidades permite una identificación de la persona (sistema biométrico le dicen los técnicos). Pero el rostro humano es bastante más complejo y los científicos todavía no hallaron qué elementos lo hacen totalmente único.
El reconocimiento facial consiste en el uso de imágenes (fotos o videos) en que el rostro se convierte en una planilla facial (una representación matemática de puntos y conexiones que dibujan ese rostro). Luego esa planilla se cruza con la base de datos.
Datysoc
El reconocimiento facial.
El problema, dice el ingeniero Javier Preciozzi, es que "la coincidencia no es cabal y pueden existir un cúmulo de errores". "De la magnitud y tipo de errores dependerá si vale la pena o no el uso de esta tecnología", señaló. El cofundador de la empresa Digital Sense, especializada en procesamiento de imágenes, advierte que “para la operativa policial es esencial saber que la tasa de falsos positivos —declarar incorrectamente que dos imágenes son una coincidencia cuando en realidad son de dos personas diferentes— es baja (cercana a uno cada 10.000), porque, de lo contrario, supone contar con muchos recursos humanos entrenados para controlar esos falsos positivos que arroja la máquina, un problema que encima se incrementa acorde se colocan más y más cámaras”.
La ingeniera Lorena Etcheverry, del Instituto de Computación de la Facultad de Ingeniería de Udelar, explica el otro riesgo: los sesgos. “Los errores varían para distintas poblaciones: es como si se entrena a la máquina para que detecte animales y con los perros casi no se equivoca, pero con los gatos lo hace mucho. O como con las huellas dactilares que casi no fallan en adultos, pero tienen muchos errores en niños. En el caso de rostros humanos hay diferencias por color de piel, origen étnico, uso de lentes, entre otros”.
Por ejemplo: los softwares comerciales de reconocimiento facial automático suelen dar 0,8% de errores en los hombres de piel blanca, pero 34,7% para las mujeres de piel oscura.
“Estos sesgos”, dice Etcheverry, “no solo generan estigmatización, sino que le hacen perder utilidad al objetivo por el cual se usa la inteligencia artificial”.
¿Antes o después del crimen?
Bajo la gestión de Eduardo Bonomi, el Ministerio del Interior experimentó con inteligencia artificial para anticiparse a los lugares en los cuales había más chances de que ocurrieran delitos. El software adquirido (Predpol) intentaba, mediante un conjunto de datos con los que era entrenado el sistema, predecir en qué espacio geográfico era más probable un crimen y, por consiguiente, sugería concentrar las patrullas policiales en un lado u otro.
“Aquel proyecto no funcionó, porque se terminaba generando una información sesgada en base a dónde ya se estaba apuntando y dependía mucho de la calidad de datos que se cargaban”, comenta la ingeniera Etcheverry. Por ejemplo: si uno de los datos fundamentales son las denuncias previas de determinados delitos, puede haber un problema en aquellas zonas en que ocurren crímenes que la población no denuncia (y haría direccionar los esfuerzos a zonas que menos lo necesitan).
En este sentido, explica Preciozzi, “por ahora la inteligencia artificial funciona mejor para el trabajo forense —identificación de objetos o personas posterior a que ocurre un crimen— que a la anticipación del delito”.
Sobre el final de la era Bonomi, Uruguay adquirió un software de identificación facial (como el que se usa para ingresos de espectáculos deportivos y que se contrarresta con la lista negra de la Asociación Uruguay de Fútbol). Para probar el sistema, el Estado le facilitaba a los oferentes una lista de 10.000 imágenes de adultos mayores de edad.
La ley de Presupuesto de 2020 habilitó la creación de una base de datos de identificación facial para su tratamiento con fines de seguridad pública a cargo de la Secretaría del Ministerio del Interior.
A partir de entonces entra un vacío de información. Por un lado, se dice que se hicieron pruebas piloto en que el sistema de reconocimiento no estaba ajustado y saltaban demasiadas alertas. Por ejemplo: se buscaba a un hombre de campera roja y el sistema identificaba a cualquiera con buzo o campera de tonalidades similares al rojo. Por otro, la ONG Datysoc advirtió, tras la consulta a informantes, que la Dirección Nacional de Identificación Civil ya configuró una base con planillas de rostros y datos asociados de todas las personas con cédula uruguaya vigente. Eso, de ser así, supone la “inversión del principio de inocencia”: todos somos culpables hasta que el reconocimiento facial demuestre que uno no es el que aparece en pantalla.
Por estos problemas de derechos humanos, de privacidad, de derecho a reunión en espacios públicos y un largo etcétera, el Ministerio del Interior está afinando el protocolo que definirá qué base de datos se admitirá. Por ahora todo indica que son las personas requeridas que figuran en la lista de Policía Científica previa orden judicial.