En el último año, la Inteligencia Artificial (IA), en un contexto cada vez más complejo por las crecientes tensiones políticas, sociales y económicas, aceleró los esfuerzos de los estados por controlar los contenidos o directamente reprimir las libertades en Internet.
Gobiernos y actores políticos de todo el mundo, tanto en democracias como en autocracias, están utilizando la IA para generar textos, imágenes y videos con el fin de manipular la opinión pública a su favor y censurar los contenidos digitales más críticos, según el informe anual que elabora la ONG Freedom Net.
El relevamiento de los expertos de la ONG, que proporciona datos sobre el estado de la libertad en Internet para países de todo el mundo, constató el uso de IA generativa en al menos 16 países “para sembrar la duda, desprestigiar a los oponentes o influir en el debate público”.
El informe de la entidad con sede en Estados Unidos puntúa y clasifica a los países según su grado de libertad online, medido por una serie de factores como los “apagones” en Internet, las leyes que limitan la libertad de expresión y las represalias por opinar en el mundo digital.
La edición de 2023 revela que, pese a los esfuerzos de las organizaciones civiles por garantizar la libertad en Internet, ésta disminuyó en todo el mundo por decimotercer año consecutivo, debido, en parte, a la proliferación de la IA.
“De los 70 países cubiertos, las condiciones de los Derechos Humanos en línea se deterioraron en 29 países, mientras que sólo 20 países registraron mejoras generales”, puntualiza el trabajo.
“La libertad en Internet se encuentra en su punto más bajo, y los avances en IA empeoran aún más esta crisis”, afirma Allie Funk, coautora del informe. Funk afirma que uno de los hallazgos más importantes de 2023 se relaciona con los cambios en la forma en que los gobiernos utilizan la IA.
El informe sugiere que se trata apenas del comienzo de un proceso en el que los avances tecnológicos contribuyen a la “opresión digital”. El análisis de los investigadores de Freedom Net señala dos factores. Por un lado, los bajos costos de la IA, que reducen las barreras de entrada para las campañas de desinformación. Por el otro, los sistemas automatizados, que permiten a los gobiernos llevar a cabo formas cada vez más precisas y sutiles de censura digital.
“A medida que las herramientas de IA generativa se vuelven más sofisticadas, muchos actores políticos siguen desplegando la tecnología para amplificar la desinformación”, advierte el informe.
El informe toma, entre otros, el caso de Venezuela, en donde los medios de comunicación estatales difundieron mensajes progubernamentales a través de videos generados por IA de presentadores de noticias de un inexistente canal internacional en inglés, producidos por Synthesia, una empresa que especializada en deepfakes por encargo.
El trabajo destaca también el caso de Estados Unidos, país en el que durante el último año se incrementó en forma notable la circulación por redes sociales de videos e imágenes de líderes políticos manipulados por IA, como el video en donde aparecía el presidente Joe Biden haciendo comentarios transfóbicos y una imagen de Donald Trump abrazando a Anthony Fauci, el ex titular del Instituto Nacional de Alergias y Enfermedades Infecciosas.
“Además de las herramientas de IA generativa, los gobiernos continuaron con tácticas tradicionales, como el uso de campañas híbridas de humanas y bots para manipular los debates online”, señala el informe. El trabajo da cuenta de que al menos 47 gobiernos desplegaron “comentaristas” online para difundir propaganda en 2023, el doble que hace una década.
Aunque estos avances no son sorprendentes, Funk explica que una de las conclusiones más interesantes y preocupantes es que la accesibilidad generalizada a la IA generativa puede socavar la confianza en los hechos verificables.
“A medida que se normalicen los contenidos generados por IA será cada vez más fácil para los actores políticos poner en duda la fiabilidad de la información”, estima Funk. El fenómeno se conoce como “lucro del mentiroso”. La especialista explica que a medida que la desconfianza ante la falsificación crece, el público se torna cada vez más escéptico ante la información veraz, sobre todo en tiempos de crisis, cuando la información falsa suele proliferar.
Por ejemplo, en abril de este año, unas grabaciones filtradas de Palanivel Thiagarajan, un destacado funcionario indio, desataron una polémica a nivel nacional al mostrar al político menospreciando a compañeros de su partido. Thiagarajan denunció que los clips de audio eran generados por IA y varios investigadores independientes lo confirmaron. Sin embargo, las conclusiones de los peritos no consiguieron convencer al público.
La investigación de Freedom Net destaca que 22 países durante el año pasado aprobaron leyes que exigen o incentivan a las plataformas que brindan servicios en Internet a utilizar el aprendizaje automático para eliminar discursos desfavorables a los gobiernos.
En China, por ejemplo, el relevamiento detectó chatbots programados para que no respondan a preguntas sobre la represión de estudiantes en la plaza de Tiananmen, ocurrida en junio de 1989. En India, en tanto, las autoridades del gobierno del primer ministro Narendra Modi ordenaron a YouTube y Twitter restringir el acceso a un documental sobre la violencia durante el mandato de Modi como ministro jefe del estado de Gujarat.
“La situación anima a las empresas tecnológicas a filtrar contenidos mediante herramientas de moderación basadas en IA según los pedidos de los gobiernos, lo que refuerza la censura en el ámbito de internet”, dice Funk. El informe, además, puntualiza que 41 gobiernos bloquearon el acceso a sitios webs por motivos políticos, sociales y religiosos durante 2022, lo que “pone de manifiesto la intensificación de la censura en todo el mundo”.
El relevamiento toma el caso de Irán, que sufrió la mayor caída anual en la clasificación de Freedom Net después de que las autoridades cerraran el acceso a Internet, bloquearan WhatsApp e Instagram y aumentaran la vigilancia tras las históricas protestas antigubernamentales en otoño de 2022.
“Muchos observadores debatieron sobre los riesgos existenciales que plantean los futuros avances de la IA, pero no se debe permitir que estos debates eclipsen las formas en que la tecnología de vanguardia está socavando la libertad en Internet en la actualidad”, enfatiza el informe.
Los investigadores de Freedom Net puntualizan que los formuladores de políticas deberían establecer una visión regulatoria positiva para el diseño y despliegue de herramientas de IA que se base en estándares de Derechos Humanos, transparencia y rendición de cuentas.
“A los expertos de la sociedad civil, impulsores de tantos avances en materia de Derechos Humanos en la era digital, se les debe dar un papel de liderazgo en el desarrollo de políticas y los recursos que necesitan para vigilar estos sistemas”, dice Funk.
“En definitiva, si bien la IA conlleva un potencial significativo de daño, también puede desempeñar un papel protector si la comunidad democrática aprende las lecciones correctas de la última década en materia de regulación de Internet”, concluye el trabajo.
(Con información de Freedom Net)