ver más

El pasado viernes 28 de febrero, el secretario de Defensa de Estados Unidos, Pete Hegseth, firmó la exclusión de Anthropic de todos los contratos con el Pentágono. Lo que comenzó como una negociación técnica sobre los términos de uso de modelos de inteligencia artificial terminó convertido en el primer gran conflicto público entre un Estado y una empresa de IA de vanguardia, con consecuencias que ya se sienten en los mercados, en las tiendas de aplicaciones y en el debate político global.

Anthropic es la empresa creadora de Claude, uno de los modelos de inteligencia artificial más avanzados del mundo, fundada en 2021 por ex empleados de OpenAI —la compañía que lanzó ChatGPT— y respaldada con inversiones de Amazon por más de 4.000 millones de dólares. Durante los últimos años fue el principal proveedor de servicios de IA para redes clasificadas del Departamento de Defensa, con contratos que superaron los 200 millones de dólares.

La línea que Anthropic se negó a cruzar

El conflicto giró en torno a dos condiciones que Anthropic exigía incluir en cualquier renovación contractual: que sus modelos no fueran usados para vigilancia masiva de ciudadanos estadounidenses ni para alimentar sistemas de armas completamente autónomas, es decir, aquellas donde ningún ser humano interviene en la decisión de matar. El Pentágono rechazó esas condiciones: las leyes vigentes ya cubren esos límites, argumentó, y no corresponde a una empresa privada definir qué constituye un uso "seguro" de la tecnología que vende al gobierno.

Las negociaciones se cortaron cuando el Departamento de Defensa exigió que Anthropic aceptara una cláusula de "cualquier uso legal", que en la práctica hubiera eliminado ambas salvaguardas. Anthropic rechazó el texto final, señalando que estaba "acompañado de tecnicismos legales que permitirían ignorar esas protecciones a voluntad". En respuesta, Hegseth amenazó con designar a la empresa como "riesgo de cadena de suministro", la misma clasificación que se aplica a la empresa china de telecomunicaciones Huawei por sus vínculos con el gobierno de Beijing. Esa designación hubiera obligado a compañías como Amazon a elegir entre sus contratos con el Pentágono y su relación con Anthropic. Finalmente Hegseth se detuvo antes de ese extremo y dispuso la exclusión con un período de transición de seis meses. Donald Trump calificó a Anthropic de empresa "woke" y sus representantes dijeron que la compañía representaba una "amenaza a la seguridad nacional".

500_333

OpenAI entra en escena

Mientras los abogados de Anthropic preparaban una demanda, esa misma noche el CEO de OpenAI, Sam Altman, anunció un acuerdo con el Departamento de Defensa. Altman había declarado días antes que su empresa tampoco permitiría el uso de sus modelos en armas autónomas, en lo que pareció ser un gesto de solidaridad. Sin embargo, el acuerdo que firmó generó críticas inmediatas, incluso dentro de su propia empresa.

Un empleado de OpenAI acusó públicamente a la empresa de escudarse en terminología técnica para disimular que las restricciones prometidas eran, en la práctica, letra muerta. La crítica apuntaba a que el contrato contiene referencias a marcos legales que podrían vaciar de contenido cualquier restricción nominal, entre ellos la Orden Ejecutiva 12333, el mecanismo que usó la Agencia de Seguridad Nacional (NSA) para interceptar comunicaciones de ciudadanos estadounidenses fuera del territorio del país. Altman, por su parte, dijo que los términos acordados deberían funcionar como "plantilla para todas las empresas de IA que trabajen con defensa, y que todas deberían estar dispuestas a aceptar".

La reacción del público fue inmediata y masiva. Las desinstalaciones de ChatGPT subieron un 295% en un solo día. Las reseñas negativas en la App Store aumentaron un 775% en un sábado. Claude pasó del puesto 131 al número 1 en la tienda de Apple en varios países, entre ellos Estados Unidos. La cantante Katy Perry compartió en sus redes sociales una captura de pantalla con los precios de la suscripción a Claude, rodeados por un corazón rojo. El hashtag #CancelChatGPT acumuló millones de interacciones en pocas horas.

La narrativa que circuló fue relativamente simple: Anthropic puso límites éticos y pagó el precio; OpenAI cedió para conservar el negocio. Esa simplificación, sin embargo, omite un dato que complica bastante el cuadro: Claude también fue utilizado esta semana en operaciones militares activas de Estados Unidos en Irán y Venezuela. La posición de Anthropic no es la de una empresa que rechaza el uso militar de su tecnología, sino la de una que trazó una línea en dos puntos específicos: la vigilancia doméstica masiva y las decisiones letales sin intervención humana.

Una regulación que se construyó sobre el silencio

Hasta este conflicto existía en Estados Unidos un mecanismo informal pero, a su manera, funcional: las grandes empresas de IA mantenían informado al establishment de seguridad nacional sobre sus avances, y el Estado ejercía una presión implícita para que los productos fueran razonablemente seguros, sin leyes específicas y sin el Congreso en el medio. El economista Tyler Cowen, miembro del consejo asesor de Anthropic, describió ese equilibrio con una frase que resume bien la situación: "Los controles actuales de la IA dependen de la amenaza de regulación, no de la regulación en sí misma, con el aparato de seguridad nacional como guardián."

Cowen, que no es precisamente un crítico habitual del gobierno de Trump, señaló que el verdadero villano de la historia es Hegseth: al convertir la disputa en una guerra política pública, politizó el vínculo entre el Estado y las empresas de IA y destruyó un equilibrio que, con todos sus defectos, tenía la ventaja de ser adaptable a la velocidad del cambio tecnológico. El efecto de largo plazo, predice, será reducir la influencia de los militares sobre el desarrollo de la IA y aumentar la del Congreso —que podría terminar siendo de mayoría demócrata. Difícilmente eso entusiasme a quienes tomaron las decisiones en el Pentágono.

Lo que quedó en evidencia, más allá de los ganadores y perdedores inmediatos, es que la pregunta ya no es si la inteligencia artificial se usará en la guerra. La pregunta es quién construye esos sistemas, con qué restricciones, y quién tiene el poder de fijar esos límites: si los Estados, si los mercados o si las propias empresas que desarrollan la tecnología.

Temas:

Anthropic OpenAI Pentágono IA

seguí leyendo