Human Rights Watch (HRW) denunció en un comunicado que fotos personales de niños brasileños están siendo utilizadas para entrenar herramientas de inteligencia artificial (IA) sin su conocimiento ni consentimiento.
Estas imágenes, obtenidas de internet, son incorporadas a grandes conjuntos de datos que las empresas usan para entrenar sus sistemas de IA. Posteriormente, estas herramientas pueden ser empleadas para crear falsificaciones maliciosas, poniendo en riesgo a los menores de explotación y daño.
“Los niños no deberían vivir con el miedo de que sus fotos sean robadas y usadas en su contra”, declaró Hye Jung Han, investigadora y defensora de los derechos infantiles y la tecnología en HRW. “El gobierno debe adoptar políticas urgentes para proteger los datos de los niños contra el mal uso impulsado por la IA”.
Un análisis de HRW reveló que LAION-5B, un conjunto de datos utilizado para entrenar herramientas de IA populares y construido mediante el rastreo de gran parte de internet, contiene enlaces a fotos identificables de niños brasileños. Algunas fotos incluyen los nombres de los menores en las leyendas o las URL donde están almacenadas, lo que facilita la identificación de su identidad y proporciona información sobre cuándo y dónde se tomó la foto.
Entre las imágenes, destaca la de una niña de dos años tocando con sus dedos, y con cara de asombro, de su recién nacida hermana, con una leyenda que revela sus nombres y la ubicación exacta del hospital en Santa Catarina donde nació la bebé hace nueve años.
HRW identificó 170 fotos de niños provenientes de al menos 10 estados brasileños: Alagoas, Bahía, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Río de Janeiro, Río Grande del Sur, Santa Catarina y São Paulo. Esta cifra es probablemente una s"ubestimación significativa" del total de datos personales de niños en LAION-5B, informó HRW, que revisó menos del 0.0001% de las 5.85 mil millones de imágenes y leyendas contenidas en el conjunto de datos.
Las fotos abarcan toda la infancia, capturando momentos íntimos como el nacimiento de bebés, niños soplando velas de cumpleaños, estudiantes presentando en la escuela y adolescentes posando en carnavales escolares. Muchas de estas imágenes, anteriormente vistas por pocas personas, no son accesibles mediante búsquedas en línea y fueron publicadas en blogs personales y sitios de fotos y videos, a veces hace años.
Una vez incorporados en sistemas de IA, estos datos exponen a los niños a mayores riesgos de privacidad debido a fallas tecnológicas. Los modelos de IA, incluidos aquellos entrenados en LAION-5B, son conocidos por filtrar información privada y pueden reproducir copias idénticas de los materiales con los que fueron entrenados, incluyendo fotos de personas reales.