ver más

Si bien el uso de inteligencia artificial en el ámbito militar no es una novedad, su despliegue cobró una dimensión sin precedentes en los conflictos recientes. El Ejército de Estados Unidos confirmó la integración de herramientas de IA en sus operaciones contra Irán y reconoció que esta tecnología se convirtió en un factor clave para la selección de objetivos. No obstante, el mando militar subrayó que "los humanos siempre tomarán las decisiones finales".

Este anuncio se produce en medio de una creciente tensión de la administración Donald Trump con la empresa tecnológica Anthropic, proveedora del Pentágono, debido a las restricciones que la compañía busca imponer al uso de sus sistemas para la vigilancia masiva y el desarrollo de armas autónomas.

"Nuestros combatientes están utilizando una variedad de herramientas avanzadas de inteligencia artificial. Estos sistemas nos ayudan a analizar enormes cantidades de datos en cuestión de segundos, de modo que nuestros líderes puedan filtrar el ruido y tomar decisiones más inteligentes más rápido de lo que el enemigo puede reaccionar", dijo el almirante Brad Cooper, líder del Comando Central de EEUU (CENTCOM), en un video publicado el miércoles en X, en el que dio detalles sobre la operación "Furia épica".

"Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo disparar, pero las herramientas avanzadas de IA pueden convertir procesos que solían tomar horas y, a veces, incluso días, en segundos", agregó.

Palantir y Anthropic

Dos personas con conocimiento del asunto, que solicitaron el anonimato, confirmaron a NBC News que el ejército está utilizando sistemas de IA de la empresa de análisis de datos Palantir para identificar objetivos potenciales en los ataques en curso. El uso del software de Palantir depende en parte de los sistemas de IA Claude de Anthropic, que se encuentra integrado a su sistema Maven Smart System, utilizado ampliamente por organizaciones militares, de inteligencia y de seguridad. Maven utiliza algoritmos de IA para identificar posibles objetivos a partir de datos satelitales y otros datos de inteligencia, y Claude ayuda a los militares a clasificar la información, decidir los objetivos y evaluar su legalidad.

La capacidad del sistema Palantir-Claude reside en procesar volúmenes ingentes de información, desde imágenes de drones e inteligencia humana hasta interceptaciones de telecomunicaciones, mediante aprendizaje automático.

Anthropic Claude. AP

La escala de esta integración es masiva: en las primeras 12 horas de conflicto, Estados Unidos e Israel, país que ya había aplicado tecnologías similares en Gaza, ejecutaron casi 900 ataques contra objetivos iraníes. En este lapso, un misil israelí abatió al líder supremo de Irán, el ayatolá Ali Jamenei. Además, el papel de Claude también fue clave en la intervención en Venezuela y la captura de Nicolás Maduro.

Expertos académicos definen este avance como "compresión de decisiones", un fenómeno donde la IA reduce tiempos de planificación que antes requerían días o semanas a solo minutos o segundos. Aunque Claude se utiliza para ayudar a los analistas militares a clasificar la información de inteligencia y no proporciona directamente consejos sobre objetivos, la rapidez genera temores entre especialistas legales y militares sobre la posibilidad de que los supervisores humanos terminen actuando como meros validadores automáticos de planes generados por algoritmos.

La confirmación del uso de IA por parte del Ejército se produce en medio de una intensa disputa entre el secretario de Defensa, Pete Hegseth, y la tecnológica Anthropic. El conflicto escaló después de que la empresa intentara restringir el uso de sus sistemas para tareas de vigilancia masiva a estadounidenses y el desarrollo de armas autónomas letales. Como represalia, el Departamento de Defensa catalogó la semana pasada a Anthropic como una amenaza a la seguridad nacional, una medida que podría apartarla de las operaciones militares en los próximos meses. Ante esto, la compañía presentó una demanda para impugnar dicha designación.

En medio de la disputa, OpenAI, el competidor principal de Anthropic, firmó un polémico y acelerado contrato con el gobierno para proveer sus propios modelos en el ámbito militar.

Secretario de Defensa, Pete Hegseth. AP

El temor por las armas autónomas

Aunque el Departamento de Defensa y gigantes tecnológicos como OpenAI y Anthropic declararon públicamente que los sistemas actuales no deben tener capacidad letal autónoma sin supervisión humana, persiste una profunda preocupación sobre el impacto de delegar decisiones estratégicas en algoritmos. Legisladores y expertos independientes manifestaron su alarma ante el uso acelerado de estas herramientas, exigiendo salvaguardas que garanticen una intervención humana real en las decisiones de vida o muerte en el campo de batalla.

El escepticismo no solo proviene del ámbito legislativo, sino de las propias empresas desarrolladoras. Tanto OpenAI como Anthropic reconocieron que incluso sus sistemas más avanzados son propensos a errores. De hecho, los investigadores líderes en inteligencia artificial admiten que, en gran medida, el funcionamiento interno de estos modelos sigue siendo una "caja negra" que no terminan de comprender totalmente.

Dario Amodei, CEO de Anthropic. AFP.webp

El propio CEO de Anthropic, Dario Amodei, dijo en una entrevista con NBC el mes pasado: "No puedo decirte que exista un 100% de probabilidad de que incluso los sistemas que construimos sean perfectamente fiables".

A esto se suma la vulnerabilidad técnica de los modelos actuales. Un estudio exhaustivo de OpenAI, publicado en septiembre, reveló que todos los chatbots basados en grandes modelos de lenguaje tienden a "alucinar" o fabricar información de manera periódica.

En este contexto, surgieron diversos cuestionamientos por el ataque con misiles por parte de EEUU que impactó en una escuela en el sur de Irán donde murieron 165 personas, la mayoría de ellas niñas. Según medios estatales iraníes, el proyectil tenía como objetivo una zona aledaña a un cuartel militar, lo que llevó a la ONU a calificar el suceso como "una grave violación del derecho humanitario". Por la gravedad de los reportes, el ejército estadounidense tuvo que iniciar una investigación interna.

Un apocalipsis al estilo "Terminator"

Bandera de EEUU y el emblema nacional de China. AP

Después de conocer la noticia, el gobierno de China envió una advertencia a EEUU por el uso desmesurado de la IA.

"Continuar sin límites con la militarización de la inteligencia artificial, utilizarla como instrumento para violar la soberanía de otras naciones, permitir que influya excesivamente en las decisiones bélicas y dejar que los algoritmos tengan poder de vida o muerte sobre los seres humanos no solo socava los fundamentos éticos y las responsabilidades en tiempo de guerra, sino que también corre el riesgo de provocar una pérdida de control tecnológico", indicó Jiang Bin, portavoz del Ministerio de Defensa chino.

"Una distopía como la que se describe en la película estadounidense Terminator podría convertirse algún día en realidad", subrayó el miércoles en un comunicado, en respuesta a una pregunta sobre la voluntad de Washington de dar al ejército estadounidense acceso ilimitado a la IA.

Inteligencia artificial. AP

La responsabilidad sigue siendo humana

A pesar de los temores y las advertencias, herramientas como Claude siguen siendo un sistema de apoyo a la toma de decisiones, no un arma, aclaró Jon R. Lindsay, profesor asociado de Ciberseguridad y Privacidad y de Asuntos Internacionales del Instituto Tecnológico de Georgia.

"La impresionante forma estadounidense de hacer la guerra que se observa en Venezuela e Irán es el fruto de décadas de ensayo y error.... La única razón por la que la IA puede utilizarse en todo el ciclo de selección de objetivos es que innumerables personas trabajan en todas partes para mantenerla en funcionamiento", dijo Lindsay en una publicación en The Conversation.

El especialista asegura que las preocupaciones por el "sesgo de automatización" y la tendencia de las personas a dar un peso excesivo a las decisiones automatizadas en la selección de objetivos militares no son nuevas, pero que en verdad, los éxitos y fracasos de los sistemas de apoyo a la toma de decisiones en la guerra se deben más a factores organizacionales que a la tecnología. "La IA puede ayudar a las organizaciones a mejorar su eficiencia, pero también puede amplificar los sesgos organizacionales", afirmó.

"A mi juicio, esto significa que el creciente uso militar de la IA está haciendo que los seres humanos sean en realidad más importantes en la guerra, no menos", concluyó.

Temas:

Pentágono IA Irán ejército Anthropic Estados Unidos

seguí leyendo