Lo que importa
-
El gobernador de California, Gavin Newsom, promulgó una serie de leyes destinadas a la seguridad de los menores online que abordan los riesgos de la inteligencia artificial (IA) y el uso de redes sociales.
-
La ley SB 243, que es pionera en el país, regula los chatbots de IA: exige que revelen su naturaleza artificial, pidan a los menores tomar un descanso cada tres horas, implementen herramientas de protección contra comportamientos dañinos y remitan a servicios de crisis a usuarios con ideas de autolesión o suicidio.
Otra normativa clave, la AB 1043, requiere que fabricantes como Apple y Google implementen herramientas de verificación de edad para los usuarios en sus tiendas de aplicaciones.
Las leyes AB 56 y AB 621 exigen a plataformas como Instagram añadir etiquetas de advertencia sobre riesgos para la salud mental y aumentan las sanciones por la distribución de pornografía deepfake, respectivamente.
- La promulgación de estas leyes es significativa debido a la gran influencia de California en el sector tecnológico. Además, representa un desafío directo a la Casa Blanca, que promueve que dicha tecnología no esté sujeta a controles.
Chat GPT. AP
La página de inicio de Chat GPT.
AP
Contexto
¿Por qué California busca regulas la IA y las redes sociales?
La creación y proliferación de chatbots de IA complejos, capaces de mantener conversaciones profundas, despertó serias alarmas debido a que muchas personas recurren a ellos como fuente de apoyo emocional. Por ello, la nueva legislación busca proteger a los niños y personas vulnerables de los posibles daños derivados de la interacción con esta tecnología.
“Hemos visto ejemplos verdaderamente horribles y trágicos de jóvenes perjudicados por tecnología no regulada, y no nos quedaremos de brazos cruzados mientras las empresas continúan sin límites necesarios y sin rendir cuentas”, dijo Newson luego de promulgar la ley.
Gobernador de California, Gavin Newsom. AP.webp
¿En qué contexto se promulgaron las leyes?
Las leyes se promulgaron luego de conocerse casos de suicidios que involucraron a adolescentes que utilizaron chatbots antes de quitarse la vida. Uno de ellos fue el de un joven de 14 años en Florida, en 2024. Su madre, Megan García, dijo que el menor se había “enamorado” de un chatbot en la plataforma Character.AI y cuando él luchaba con pensamientos suicidas, el chatbot le instó a “volver a casa” segundos antes de que el joven se disparara.
Garcia reaccionó poco después de la promulgación de la ley: “Por fin, hay una ley que requiere que las empresas protejan a sus usuarios que expresan ideas suicidas a los chatbots”.
¿Cómo responde la industria tecnológica a estas regulaciones?
Empresas de tecnología ya manifestaron su apoyo a las salvaguardas propuestas. Por ejemplo, en diálogo con CNBC, OpenAI calificó la SB 243 como un “avance significativo” para los estándares de seguridad de la IA y señaló que California está ayudando a dar forma a un enfoque más responsable. De manera similar, Google y Meta respaldaron la ley AB 1043 sobre verificación de edad. El mes pasado, Kareem Ghanem, director senior de asuntos gubernamentales y políticas públicas de Google, calificó la AB 1043 como uno de los “enfoques más reflexivos” para mantener a los niños seguros en línea.
¿California es la primera jurisdicción en implementar este tipo de regulaciones?
Otros países y estados ya promulgaron restricciones: la Unión Europea (UE) aprobó el año pasado la Ley de IA, que incluye multas por violar su marco legal. Además, Utah y Texas también aprobaron leyes que implementan salvaguardas de IA para menores, como la ley de Utah que exige la verificación de edad y el permiso de los padres para que los menores de 18 años usen ciertas aplicaciones.
Sin embargo, la nueva legislación en California tiene especial significado debido al tamaño de la población del estado, su economía y al hecho de que muchas empresas tecnológicas tienen su sede en el Área de la Bahía de San Francisco. El estado también endureció las sanciones por pornografía deepfake o de videos falsos permitiendo a las víctimas reclamar hasta 250.000 dólares por infracción a quienes ayuden a distribuir material sexualmente explícito sin consentimiento.