Militares de posgrado de la Marina de Estados Unidos participan en un Juego de Guerra en un escenario bélico imaginario en el mar.

Mundo > TECNOLOGÍA BÉLICA

Inteligencia artificial y “juegos de guerra”: una mezcla peligrosa

La fusión de los nuevos algoritmos multitarea de gran capacidad de análisis con representaciones de conflictos puede influir en las decisiones de los líderes sobre la guerra y la paz
Tiempo de lectura: -'
29 de diciembre de 2023 a las 05:03

A principios de noviembre se realizó la primera Cumbre Mundial de Seguridad de la Inteligencia Artificial (IA) en Bletchley Park, el otrora sitio británico de alto secreto donde la tecnología de descifrado del código de guerra alemán ayudó a asegurar la victoria en la Segunda Guerra Mundial. La cumbre tenía como objetivo comprender los riesgos de la IA de frontera (modelos de propósito general altamente capaces que pueden realizar una amplia variedad de tareas), particularmente cuando la utilizan “malos actores”, e impulsar la acción internacional, explica la académica y especialista en seguridad internacional y tecnología Ivana Barzashka en un artículo para The Atomic Scientists Bulletin.

En la agenda de la cumbre no figuraba el uso de la IA por parte de actores estatales para aplicaciones de seguridad nacional, lo que pronto podría transformar la geopolítica y la guerra. Los sistemas de inteligencia artificial podrían examinar datos para identificar ventajas competitivas, generar nuevas estrategias para el adversario y evaluar las condiciones bajo las cuales se pueden ganar o perder las guerras.

Esto se puede lograr mediante la fusión de la IA con los Juegos de guerra, definidos por la OTAN como “representaciones de conflicto o competencia en un entorno seguro, en el que las personas toman decisiones y responden a las consecuencias de esas decisiones”. Los juegos de guerra, un arte centenario, recién ahora están emergiendo como ciencia y disciplina académica.

Barzashka indica que la integración de la IA en los juegos de guerra puede influir sutilmente en las decisiones de liderazgo sobre la guerra y la paz, y posiblemente conducir a riesgos existenciales. El panorama actual de los juegos de guerra centrados en humanos, combinados con algoritmos de inteligencia artificial, enfrenta un notable desafío de “caja negra”, donde el razonamiento detrás de ciertos resultados sigue sin estar claro.

Esta oscuridad, junto con posibles sesgos en los datos de entrenamiento de IA y el diseño de juegos de guerra, resalta la necesidad urgente de una gobernanza ética y responsabilidad en este dominio en evolución. Explorar estas cuestiones puede arrojar luz sobre el imperativo de una supervisión responsable en la fusión de la IA con los juegos de guerra, una fusión que podría decidir conflictos futuros.

Los juegos de guerra se han disparado en popularidad: los estados miembros de la OTAN, los grupos de expertos y las universidades están utilizando estas herramientas para examinar una variedad de cuestiones de seguridad, desde crisis nucleares hasta la competencia entre grandes potencias. Algunos juegos de guerra buscan educar a los participantes, mientras que otros recopilan datos para analizarlos y así informar la teoría académica o la política gubernamental.

El resurgimiento -reseña la autora- comenzó en 2015, cuando el Pentágono pidió más juegos de guerra para superar a rivales importantes como Rusia y China. Ahora, la OTAN está desarrollando una capacidad “audaz” de juegos de guerra: un cambio cultural que fomenta el pensamiento crítico, la experimentación y la polinización cruzada de ideas en la estrategia y planificación militar para obtener ventajas estratégicas. Instituciones líderes como el King's College de Londres y la Universidad de Stanford también han establecido nuevos centros de investigación en este campo.

Como resultado del resurgimiento, los juegos de guerra tienen una influencia cada vez mayor sobre los líderes occidentales. Como destacó el secretario de Defensa del Reino Unido, Ben Wallace, en julio de 2023, “los resultados de los juegos de guerra han sido fundamentales para la toma de decisiones [del Ministerio de Defensa]”. Por ejemplo, la Oficina de Evaluación y Desafío de Redes de la Secretaría de Estado ha estado realizando extensos juegos de guerra, informados por inteligencia de defensa y experiencia independiente, para garantizar que las estrategias actuales y emergentes se prueben exhaustivamente antes de implementarlas.

Barzashka señala que en Estados Unidos los juegos de guerra son aún más frecuentes, ya que el Pentágono habitualmente utiliza este tipo de simulaciones para “prepararse para la guerra real”. Por ejemplo, Hedgemony, desarrollado por RAND Corporation, fue un juego de guerra estratégico que jugó un papel clave en la configuración de la Estrategia de Defensa Nacional de 2018 del Pentágono. El juego simuló las compensaciones en la gestión de recursos y fuerzas que guiaron a los profesionales de defensa estadounidenses a alinear las capacidades militares con las estrategias y objetivos nacionales en evolución en un entorno de seguridad global dinámico. RAND, un centro de investigación y desarrollo financiado con fondos federales, ha estado trabajando en juegos de guerra desde finales de los años 1940.

Sin embargo, la supervisión no ha seguido el ritmo. En una encuesta que la autora dirigió en el King's College de Londres en 2023, fueron encuestados más de 140 diseñadores de juegos de guerra de 19 países. Los resultados fueron preocupantes: el 80 por ciento de los juegos de guerra analíticos se saltaron las revisiones éticas, ignorando el proceso estándar para estudios de investigación que involucran participantes humanos. Esta tendencia también se refleja en los datos del Ministerio de Defensa del Reino Unido: según la información obtenida a través de una solicitud de la Ley de Libertad de Información, solo se presentó un estudio para la revisión del comité de ética de la investigación entre 2018 y 2023.

¿Por qué los juegos de guerra han carecido de supervisión ética? En primer lugar, las directrices influyentes, como el manual sobre juegos de guerra de la OTAN publicado este año, no describen los requisitos éticos, a pesar de que estos juegos sirven de base para tomar decisiones en el mundo real. Los patrocinadores gubernamentales también rara vez exigen el cumplimiento formal de las normas de ética de la investigación. Además, conseguir la aprobación ética puede ser arduo y llevar mucho tiempo, lo que entra en conflicto con los apremiantes calendarios políticos.

Para la autora, los desafíos éticos se multiplican a medida que los juegos de guerra adoptan la IA. Empresas y agencias gubernamentales como la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) de los Estados Unidos y el Laboratorio de Ciencia y Tecnología de Defensa del Reino Unido están encabezando proyectos experimentales sobre la integración de la IA y los juegos de guerra. En particular, la Corporación RAND ha jugado con dicha fusión desde los años 1980.

Un estudio de 2023 del Instituto Alan Turing, el principal centro de inteligencia artificial del Reino Unido, encontró que esta fusión podría aumentar la velocidad y la eficiencia y mejorar el análisis. La IA podría descubrir rápidamente conocimientos a partir de una gran cantidad de datos. Los jugadores podrían experimentar juegos más inmersivos con escenarios generados por IA y estrategias adversas. ¿El resultado esperado? Un salto transformador en previsión y ventaja estratégica sobre los competidores.

Sin embargo, tanto los juegos de guerra como los modelos de IA comparten dos desafíos: la falta de explicabilidad (dificultades para comprender cómo se produce el conocimiento) y el sesgo, que plantean preocupaciones éticas. Los juegos de guerra “no son reproducibles”, según las directrices sobre juegos de guerra de la OTAN y el Ministerio de Defensa del Reino Unido. Cuando se combinan con modelos de aprendizaje profundo de caja negra (sistemas donde el proceso de toma de decisiones es opaco y no fácilmente interpretable), la confianza en los resultados disminuye aún más. Los sesgos en ambos pueden surgir de datos limitados o de un diseño defectuoso, lo que podría llevar a conclusiones erróneas. Además, los métodos y conocimientos de los juegos de guerra suelen estar clasificados. Impulsarlos con IA puede propagar errores con importantes consecuencias en el mundo real, libres del escrutinio público.

En los juegos realistas, los participantes pueden experimentar altos niveles de estrés, lo que a veces conduce a un comportamiento agresivo similar a la dinámica que se observa en los deportes competitivos. Además, si las identidades de los jugadores pueden vincularse con sus acciones y discusiones en el juego, esto podría dañar la reputación profesional de las personas e incluso poner en peligro su seguridad. Los juegos éticos, al igual que los estudios de investigación adecuados, evitan esos escollos mediante protocolos cuidadosos, como el consentimiento informado y la anonimización de los datos.

En términos más generales, los juegos de guerra estratégicos pueden tener influencias tanto directas como indirectas en las decisiones del mundo real. Los jugadores que son o serán tomadores de decisiones en el mundo real podrían verse preparados por sus experiencias de juego, lo que posiblemente afecte sus decisiones futuras de manera sutil. Esto es como hacer que un participante de un ensayo médico, que tuvo una reacción adversa a un medicamento, decida sobre la aprobación del medicamento.

Como informó The Guardian recientemente, un reciente juego de guerra fue realizado en una universidad en el que personal de la OTAN y militares uniformados exploraban una invasión rusa a Finlandia. Si este juego fuera patrocinado por una entidad como la OTAN para obtener conocimientos estratégicos, sus resultados podrían guiar las decisiones políticas o militares inmediatas. Por ejemplo, si se presenta involuntariamente a los dirigentes rusos como demasiado agresivos debido a sesgos ocultos en el diseño o escenario del juego, esto podría conducir a una mala asignación de los recursos de defensa o a una escalada involuntaria del conflicto.

Por supuesto, es poco probable que se tomen decisiones tan trascendentales basándose en los resultados de un juego único, pero muchos juegos con un gran número de jugadores pueden exacerbar los riesgos. La escala importa.

Consideremos ahora una versión digital impulsada por IA de un juego analítico implementado a gran escala. La IA corre el riesgo de amplificar los sesgos existentes al producir volúmenes de datos sesgados que podrían validar falsamente una hipótesis. La IA también podría elaborar narrativas notablemente persuasivas pero engañosas que desdibujan aún más la línea entre simulación y realidad. Irónicamente, a los ojos de quienes toman decisiones, estos conocimientos basados en datos podrían agregar credibilidad indebida a resultados que de otro modo serían cuestionables.

Si los juegos de guerra siguen siendo fundamentales en las decisiones de defensa, como afirmó el ex secretario de Defensa del Reino Unido, Wallace, los líderes podrían considerar que las guerras son más necesarias y ganables de lo que en realidad son. Los juegos basados en IA sesgados o inexplicables pueden exagerar las posibilidades de victoria o tergiversar las intenciones de los adversarios, lo que lleva a los tomadores de decisiones a creer que la guerra es esencial cuando persisten opciones diplomáticas. Esto podría comprometer los principios éticos de la teoría de la guerra justa, como causa justa y último recurso.

La integración del poder analítico de la IA con la creatividad humana de los juegos de guerra promete una ventaja estratégica para disuadir o ganar guerras futuras. Pero para cosechar estos beneficios se necesitan normas éticas, rendición de cuentas y supervisión.

En primer lugar, los expertos deben desarrollar directrices éticas para los juegos de guerra tradicionales y de alta tecnología, adaptando los estándares de investigación para tener en cuenta los riesgos específicos de los juegos. Estas normas deben convertirse en la piedra angular de las directrices gubernamentales. Organizaciones como la OTAN pueden proporcionar foros para compartir mejores prácticas, evitando esfuerzos duplicados.

En segundo lugar, los desafíos de la explicabilidad y los sesgos inherentes a la IA deben abordarse mediante la inversión en investigación fundamental. Si bien la investigación sobre la explicabilidad de la IA gana impulso, pocos académicos están trabajando en la metodología y la epistemología de los juegos de guerra. Se necesita colaboración multidisciplinar. Los informáticos deberían trabajar junto con los estudiosos y profesionales de los juegos de guerra para avanzar en la teoría.

En tercer lugar, las instituciones que organizan y patrocinan juegos deben proporcionar supervisión. Esto requiere la aceptación de la alta dirección. Si los juegos influyen sutilmente en las decisiones de defensa libres del escrutinio público, esto puede requerir controles y contrapesos adicionales, como revisiones de los órganos legislativos.

Así como las máquinas descifraron códigos enemigos en Bletchley Park para ganar la guerra, la IA pronto desentrañará estrategias complejas para asegurar la paz. Según la autora, reuniones como la Cumbre de Seguridad de la IA, pueden catalizar el diálogo y las reformas para incorporar la gobernanza ética en el futuro digital de los juegos de guerra.

(Extractado de The Atomic Scientists Bulletin)

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 345 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 345 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 345 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...