El gobernador de California, Gavin Newsom, promulgó esta semana una serie de leyes que buscan combatir el uso de inteligencia artificial (IA) para crear videos o imágenes falsos, entre ellas tres dirigidas a impedir la utilización de deepfakes en el marco de la campaña electoral.
"Salvaguardar la integridad de las elecciones es esencial para la democracia, y es fundamental que nos aseguremos de que la IA no se utiliza para socavar la confianza del público a través de la desinformación, especialmente en el tenso clima político actual", señaló Newsom este martes en un comunicado.
Una de las legislaciones hace que sea ilegal crear o publicar deepfakes - videos que crean secuencias falsas, pero realistas - vinculados a las elecciones en los 120 previos a los comicios o los 60 posteriores. Newsom también promulgó una norma que obliga a las campañas electorales a divulgar si están utilizando material modificado por IA en sus anuncios.
"Estas medidas ayudarán a combatir el uso nocivo de deepfakes en anuncios políticos y otros contenidos, una de las varias áreas en las que el Estado está siendo proactivo para fomentar una IA transparente y digna de confianza", apuntó el gobernador.
Otra ley, que entrará en vigor el año próximo y es la primera de este tipo en el país, establece que las redes sociales deberán sacar de circulación el contenido engañoso.
En 2019, California se convirtió en el primer estado del país en prohibir videos e imágenes manipulados vinculados a elecciones. Las regulaciones sobre inteligencia artificial propuestas por los legisladores del estado han sido utilizadas como ejemplo en todo Estados Unidos, según los especialistas del sector, consignó la agencia AP.
En julio, Newsom publicó en la red social X que manipular la voz en una publicidad "debería ser ilegal". El gobernador compartió una noticia sobre cómo Elon Musk había retuiteado un video falso de campaña de Kamala Harris.
La protección para los actores ante la IA
Newsom promulgó además dos leyes para proteger la imagen digital de los artistas del uso de las actuaciones generadas inteligencia artificial sin su consentimiento.
"Esta legislación ayudará a garantizar el uso responsable de la inteligencia artificial (IA) y otras tecnologías digitales en el entretenimiento al brindarles a los trabajadores más protecciones", informó la oficina del gobernador en un comunicado.
La ley AB 1836 prohíbe el uso comercial de réplicas digitales de artistas fallecidos en películas, programas de televisión, videojuegos, audiolibros, grabaciones de sonido y más, sin obtener el consentimiento previo de los herederos de esos artistas.
"Su objetivo es frenar los usos no autorizados de réplicas digitales, que abarcan cualquier obra audiovisual o grabación de sonido vinculada a actuaciones realizadas por artistas cuando estaban vivos", agregó el texto.
Newsom y Fran Drescher.jpg
Newsom firmó las leyes que protegen a los actores junto a Fran Drescher, presidenta del sindicato SAG-AFTRA
Por su parte, la AB 2602 pretende reforzar las protecciones para los artistas en los acuerdos contractuales sobre el uso de sus imágenes digitales, exigiendo que los estudios y otros empleadores soliciten un permiso específico a los artistas para poder crear réplicas digitales.
Newsom apostilló su firma para la regulación de sendas leyes en la sede del principal sindicato de actores, SAG-AFTRA, uno de los sectores que más reivindica la regulación del uso de la IA, un tema que formó parte de las demandas que el año pasado llevaron a miles de profesionales a una huelga que paralizó la industria de Hollywood por 118 días.
"Es un día trascendental para los miembros de SAG-AFTRA y para todos los demás, porque las protecciones de inteligencia artificial por las que luchamos tanto el año pasado como ahora se han ampliado mediante la ley de California gracias a la Legislatura y al gobernador Gavin Newsom", celebró la presidenta de SAG-AFTRA, Fran Drescher.
Con información de EFE