ver más

El fin de semana se vio sacudido por un escándalo entre el Pentágono y la tecnológica Anthropic. En una decisión sin precedentes, Donald Trump ordenó el cese inmediato de todas las operaciones de la firma con las agencias federales, luego de que esta se negara a otorgar acceso incondicional de su modelo "Claude" al Departamento de Defensa. Mientras la Casa Blanca calificó a la empresa como un "riesgo para la cadena de suministro", Anthropic denunció presiones para que su IA se utilizara en prácticas de vigilancia masiva y en el desarrollo de armamento autónomo. En medio de la disputa, se conoció que el gobierno ya cerró un contrato con su principal competidor: OpenAI.

“¡Estados Unidos de América nunca permitirá que una empresa radical de izquierda y progresista dicte la manera en que nuestro gran ejército combate y gana guerras!”, escribió Trump en mayúsculas a través de Truth Social, al anunciar el viernes la orden a las agencias federales de "cesar inmediatamente" todo uso de la tecnología de Anthropic. "¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos!", agregó.

Embed

Anthropic había dicho que buscaba garantías por parte del Pentágono de que su chatbot de IA, Claude, no se utilizaría en prácticas de vigilancia a gran escala de estadounidenses ni en el desarrollo de armamento completamente autónomo. El Pentágono afirmó que no estaba interesado en ese tipo de uso y únicamente desplegaría la tecnología de manera legal, pero también insistió en que sus contratistas no pueden imponer condiciones sobre cómo se usarán sus productos y que deberían tener acceso sin ninguna limitación.

El esfuerzo del gobierno por imponer su dominio sobre las decisiones internas de la empresa surge en medio de un choque más amplio sobre el papel de la IA en la seguridad nacional y los riesgos éticos de delegar fuerza letal, información sensible o vigilancia gubernamental en algoritmos cada vez más potentes.

Trump afirmó que la mayoría de las agencias debían dejar de usar de inmediato la IA de Anthropic, pero concedió al Pentágono"un periodo de eliminación gradual de seis meses", ya que tiene integrada la tecnología de la firma en varios niveles.

"Parece muy punitivo e inapropiado, considerando todo lo que hemos hecho por la seguridad nacional de Estados Unidos", afirmó el CEO de Anthropic, Dario Amodei, en una entrevista con CBS el sábado.

"Tenemos estas dos líneas rojas. Las hemos tenido desde el primer día. Seguimos defendiendo esas líneas rojas. No vamos a cambiarlas", dijo Amodei, quien aseguró que "se trata del principio de defender lo que es correcto".

Donald-Trump-con-Pete-Hegseth.-AP.jpg

Un "riesgo para la cadena de suministro"

En una de las decisiones políticas más trascendentales hasta la fecha en la intersección entre inteligencia artificial y seguridad nacional, el mismo viernes, el secretario de Defensa, Pete Hegseth, declaró que la compañía sería considerada un “riesgo para la cadena de suministro”, por negarse a ceder en sus negociaciones con el Pentágono.

La decisión de Hegseth activa una herramienta administrativa diseñada originalmente para bloquear a empresas bajo control de potencias extranjeras, como es el caso de la firma china Huawei.

"Esta semana, Anthropic ofreció una lección magistral de arrogancia y traición, además de un ejemplo clásico de cómo no hacer negocios con el Gobierno de Estados Unidos ni con el Pentágono", publicó el secretario de Defensa en X.

En respuesta, el viernes por la noche, la startup con sede en San Francisco publicó un extenso comunicado firmado por su CEO en el que sostienen que impugnarán cualquier designación de "riesgo para la cadena de suministro" ante los tribunales. En ese sentido, consideran que esta es una medida "sin precedentes, históricamente reservada para adversarios de Estados Unidos, nunca antes aplicada públicamente a una empresa estadounidense” y que la designación sería "insostenible jurídicamente" y establecería un "peligroso precedente para cualquier empresa estadounidense que negocie con el gobierno”.

"Esperamos que nuestros líderes dejen de lado sus diferencias (...), rechazando las exigencias actuales del Departamento de Guerra de obtener permiso para usar nuestros modelos en la vigilancia masiva dentro del país y para matar personas de forma autónoma, sin supervisión humana", afirmó el comunicado.

Cómo se desató el conflicto

Después de que meses de conversaciones privadas estallaran en debate público esta semana. Según la tecnológica, el nuevo lenguaje contractual del Pentágono permitiría que “las salvaguardas se pasen por alto a voluntad”. Amodei afirmó que su empresa “no puede, en conciencia, acceder” a las exigencias.

El Pentágono también había dicho que Anthropic debía aceptar sus condiciones antes de las 17 del viernes o enfrentarse a una orden de cumplimiento forzoso bajo la Ley de Producción de Defensa.

Según reveló Axios, el subsecretario de Defensa, Emil Michael, estaba al teléfono ofreciendo un acuerdo a Anthropic justo cuando el secretario de Defensa, Pete Hegseth, publicaba en X que la empresa sería designada como "riesgo para la cadena de suministro". Fuentes cercanas a las conversaciones citadas por el medio aseguraron que ese acuerdo habría requerido permitir la recopilación o el análisis de datos de estadounidenses, desde geolocalización hasta datos de navegación web e información financiera personal comprada a data brokers.

En la entrevista con CBS, Amodei afirmó que la empresa todavía mantiene conversaciones con el gobierno y reafirmó su interés por mantener la continuidad del contrato, pero que por el momento no recibieron ninguna oferta que cumpla con sus "dos líneas rojas".

Open AI - Sam Altman - AFP

Sam Altman, CEO de OpenAI

Open IA cierra un acuerdo

El CEO de OpenAI, Sam Altman, anunció el viernes por la noche la firma de un acuerdo con el Pentágono para integrar sus herramientas de IA en sistemas militares clasificados. La noticia causó sorpresa ya que, según lo publicado por Altman en X, el pacto incluye restricciones aparentemente similares a las que Anthropic había exigido, por lo que no queda claro qué diferencia hay entre el acuerdo de OpenAI con el Pentágono y lo que Anthropic quería.

Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluyendo los sistemas de armas autónomas. El Departamento de Guerra (DoW) está de acuerdo con estos principios, los refleja en la legislación y las políticas, y (por lo tanto) los incorporamos en nuestro acuerdo”, declaró Altman en X.

También implementaremos salvaguardas técnicas para garantizar que nuestros modelos se comporten como corresponde, algo que el Departamento de Guerra también deseaba”, agregó y anunció que enviarían ingenieros al Pentágono para garantizar la seguridad de sus modelos.

“Solicitamos al DoW que ofrezca estas mismas condiciones a todas las empresas de IA; en nuestra opinión, todos deberían estar dispuestos a aceptarlas. Hemos expresado nuestro firme deseo de que la situación se desescale, que se aleje de las acciones legales y gubernamentales y que avance hacia acuerdos razonables”, señaló Altman.

Otras empresas

Aunque Anthropic posee la solidez financiera para absorber la pérdida del contrato, las acciones del gobierno plantearon riesgos más amplios en el punto álgido del ascenso meteórico de la empresa, que pasó de ser un poco conocido laboratorio de investigación en ciencias de la computación en San Francisco a una de las startups más valiosas del mundo.

La decisión de cesar el uso de la tecnología de Anthropic de la noche a la mañana, incluso con el periodo de transición incluido, será difícil a la hora de ponerla en práctica. Claude fue el motor de operaciones estratégicas recientes, como la captura de Nicolás Maduro, y su salida deja en una posición vulnerable proyectos de firmas como Palantir, que integra la tecnología de Anthropic en sus misiones más sensibles con el Ejército y ahora se verá ahora obligada a buscar alternativas entre los competidores de la firma.

xAI, de Elon Musk, firmó recientemente un acuerdo para permitir que el ejército utilice su modelo, Grok, en sistemas clasificados, aunque, según la fuentes citadas por Axios, es poco probable que sea un reemplazo equivalente para Claude. Musk se sumó a las declaraciones públicas del viernes y, citando una publicación en la que Emil Michael criticaba la "Constitución" de la empresa, afirmó que "Anthropic odia a la civilización occidental".

Temas:

Donald Trump Anthropic OpenAI Pentágono IA

seguí leyendo