Un grupo de legisladores republicanos y demócratas presentó al Congreso norteamericano una propuesta de legislación destinada a evitar que algún dispositivo de Inteligencia Artificial (AI) pueda lanzar un ataque nuclear sin control humano alguno. La propuesta se hizo en nombre de “proteger a las generaciones futuras de consecuencias potencialmente devastadoras".
La Ley denominada Bloqueo de Lanzamiento Nuclear por Inteligencia Artificial Autónoma fue presentada por el senador demócrata por Massachussets Ed Markey, los representantes demócratas Ted Lieu de California, Don Beyer de Virginia y el republicano por Colorado Ken Buck., Ken Buck de Colorado, establece taxativamente que "toda decisión de lanzar un arma nuclear no debe ser tomada" por Inteligencia Artificial.
La legislación propuesta reconoce que la Revisión de la postura nuclear de 2022 del Pentágono determina que la política actual de EE. UU. es "mantener a un humano al tanto de todas las acciones críticas para informar y ejecutar las decisiones del presidente para iniciar y terminar el empleo de armas nucleares".
El proyecto de ley reglamentaría esa política para que no se puedan usar fondos federales "para lanzar un arma nuclear o seleccionar o atacar objetivos con el fin de lanzar" armas nucleares.
"Como vivimos en una era cada vez más digital, debemos asegurarnos de que los humanos tengan el poder de comandar, controlar y lanzar armas nucleares, no los robots", afirmó el senador Markey en un comunicado. "Necesitamos mantener a los humanos informados sobre la toma de decisiones de vida o muerte para usar la fuerza letal, especialmente para nuestras armas más peligrosas".
El republicano Buck argumentó que "si bien el uso militar de la IA por parte de Estados Unidos puede ser apropiado para mejorar la seguridad nacional, el uso de la IA para desplegar armas nucleares sin una cadena humana de mando y control es imprudente, peligroso y debe prohibirse".
Según el Informe del Índice de IA de 2023, una iniciativa independiente del Instituto Stanford para la Inteligencia Artificial centrada en el ser humano (HAI), un grupo interdisciplinario de expertos de todo el mundo académico y la industria, el 36% de los expertos en IA encuestados se preocupan por la posibilidad de que los sistemas automatizados "puedan causar una catástrofe de nivel nuclear".
El informe siguió a una evaluación realizada en febrero por la Asociación de Control de Armas, un grupo de defensa, de que la IA y otras tecnologías emergentes, incluidos los sistemas de armas autónomas y los misiles hipersónicos, representan una amenaza existencial potencial que subraya la necesidad de medidas para desacelerar el ritmo de la militarización automatizada.
“Si bien todos tratamos de lidiar con el ritmo al que se acelera la IA, el futuro de la IA y su papel en la sociedad sigue sin estar claro”, dijo Lieu en el comunicado con el que se presentó el nuevo proyecto de ley.
El representante demócrata agregó que “es nuestro trabajo como miembros del Congreso tener una previsión responsable cuando se trata de proteger a las generaciones futuras de consecuencias potencialmente devastadoras”.
“Es por eso que me complace presentar la Ley de Lanzamiento Nuclear en Bloque por IA Autónoma, bipartidista y bicameral, que garantizará que pase lo que pase en el futuro, un ser humano tiene control sobre el empleo de un arma nuclear, no un robot”, dijo Lieu al presentar el proyecto.
Si bien docenas de países apoyan el Tratado sobre la Prohibición de las Armas Nucleares, ninguna de las nueve potencias nucleares del mundo, incluido Estados Unidos, lo ha firmado, y la invasión de Ucrania por parte de Rusia ha vuelto a despertar los temores de un conflicto nuclear que estaban en gran medida latentes desde la Guerra Fría.
(Con información de agencias)