FT View
Robots asesinos: las reglas de la guerra deben reescribirse para la era de la inteligencia artificial
Los "robots asesinos" combinan el poder de destrucción masiva con una producción barata
Los "robots asesinos" combinan el poder de destrucción masiva con una producción barata
FT View
Quien se convierta en el líder en inteligencia artificial "se convertirá en el gobernante del mundo", dijo Vladimir Putin en 2017, prediciendo que las guerras futuras se librarán con drones. Incluso entonces, a pesar de todas las ambiciones del propio líder ruso, China y EEUU fueron los pioneros en el desarrollo de la tecnología. Sin embargo, cuatro años después, la visión de las unidades de combate autónomas se está convirtiendo en realidad, con consecuencias potencialmente devastadoras. El científico informático Stuart Russell, que dedicará una próxima conferencia al tema en la radio de la BBC, se reunió recientemente con funcionarios de defensa del Reino Unido para advertir que la incorporación de inteligencia artificial (IA) en las armas podría acabar con la humanidad.
La IA promete enormes beneficios. Sin embargo, al igual que la energía nuclear, puede usarse para bien y para mal. Su introducción en el ámbito militar representa el mayor salto tecnológico desde la llegada de las armas nucleares. Si bien las bombas atómicas se usaron en ciudades reales en 1945, pasaron más de dos décadas antes de que se firmaran los primeros tratados de control de armas.
Las armas nucleares también son difíciles y costosas de desarrollar u obtener. Por el contrario, las armas asistidas por IA, utilizadas a gran escala, podrían combinar el poder de las armas de destrucción masiva con el alcance de la producción barata del AK-47. Eso amplía la posibilidad de su uso — aunque no necesariamente en sus formas más sofisticadas — no sólo por las economías avanzadas sino por Estados canallas y terroristas. Y el mundo está empezando a buscar formas de controlarlas a medida que la tecnología sigue evolucionando a la velocidad del rayo.
La preocupación más inmediata son los "sistemas de armas autónomos letales" (LAWS, por sus siglas en inglés), a menudo denominados "robots asesinos". De hecho, el término significa cualquier plataforma móvil — dron, androide, avión autónomo — que lleve una máquina que pueda percibir su entorno, tomar decisiones sobre tácticas y objetivos, y matar. Actualmente existen versiones rudimentarias. La Organización de las Naciones Unidas (ONU) dice que los drones Kargu de fabricación turca que incorporan capacidades de procesamiento de imágenes se utilizaron en conflictos libios el año pasado para identificar objetivos seleccionados.
Los académicos advierten sobre los enjambres de drones en miniatura baratos armados con reconocimiento facial y pequeñas bombas que se utilizan como máquinas de matar en masa. Muchos expertos han exigido la prohibición del desarrollo de armas autónomas letales. Un organismo de la ONU ha elaborado directrices y ha trabajado en un posible embargo. Varias potencias militares se oponen a una prohibición, por temor a perder la oportunidad de obtener una ventaja militar o que otros ignoren una prohibición que sería casi imposible de hacer cumplir.
Sin embargo, muchos países se han adherido a convenciones sobre armas biológicas y químicas, aunque también ofrecen rutas económicas hacia la letalidad masiva. La comunidad científica dice que tiene ideas y lecciones de otros esfuerzos de control de armas que se pueden usar para diseñar y supervisar una prohibición de LAWS.
Más allá de los robots asesinos, la IA podría usarse para mejorar o reemplazar la habilidad humana en todo, desde operar armas hasta recopilación y análisis de inteligencia, sistemas de alerta temprana y comando y control. Se requiere un diálogo no sólo entre las mayores potencias militares, sino que también abarque más ampliamente las reglas de enfrentamiento, el tipo de guerras que pueden tolerar los países en una era de IA y cómo imponer cierta transparencia y restricciones. Se necesitan acuerdos para mantener a los seres humanos "informados" en todas las formas de toma de decisiones militares.
Establecer tales contactos no será fácil; China se muestra reacia a comprometerse con EEUU incluso en materia de armas nucleares. Pero los líderes pasados acordaron las "reglas" de la guerra, con al menos cierto éxito limitado, porque vieron que era de interés mutuo hacerlo. Debería ser más que una ingenua esperanza que esas reglas puedan actualizarse para una época en la que los humanos pueden combinar una fuerza destructiva asombrosa con máquinas que pueden calcular más rápido que ellos.