La política, la moral, la enemistad personal, las diferencias comerciales. Todo esto está teniendo un impacto en la forma que usamos la inteligencia artificial.
En la última semana hubo un hecho que repercutió muy fuerte en el mundo de la IA, y que repercute en la forma en que usamos la IA: el presidente Donald Trump ordenó el viernes al gobierno de Estados Unidos dejar de usar "inmediatamente" Claude, la herramienta de inteligencia artificial de Anthropic, luego de que la empresa rechazara la exigencia del Pentágono de autorizar el uso militar incondicional de sus modelos.
Anthropic aseguró en que su tecnología no debe utilizarse para la vigilancia masiva de ciudadanos estadounidenses o implementarse en sistemas autónomos de armamento y, en su visión, acceder a este pedido del Pentágono era romper con posturas filosóficas de su compañía que van "en contra de los valores estadounidenses".
Primero, hay que remontarse a los comienzos de OpenAI, la empresa creadora del popular ChatGPT.
Sam Altman, que la cofundó en 2015, contrató en 2016 a Darío Amodei, un investigador que trabajó en Google y otras compañías. Trabajó bajo las órdenes de Altman en OpenAI desde 2016 hasta 2020. Su último cargo fue vicepresidente de investigación, con foco en seguridad, uno de los roles más importantes dentro de la compañía.
Ese año, decidió irse de la empresa por diferencias con Altman. Pese a que nunca estuvo bien claro por qué se fue, en una entrevista con el youtuber Lex Fridman hace un año, Amodei dijo: "Es increíblemente improductivo intentar discutir con la visión de otra persona". Durante la charla contó que en vez de quedarse, se dijo a sí mismo: "Toma a gente en la que confíes y ve a hacer realidad tu propia visión".
En 2021, junto a su hermana Daniela y otros siete exempleados de OpenAI, cofundó Anthropic. Según ha dicho, él siempre pretendió que la seguridad debía ser central en el desarrollo de IA. "Había un grupo de personas que creían en esas ideas. Realmente confiábamos los unos en los otros y queríamos trabajar juntos. Y así nos fuimos y fundamos nuestra propia empresa con esa idea en mente", dijo Amodei en la conferencia Fortune Brainstorm Tech en 2023.
Desde que se fundó hasta ahora, Claude no priorizó sacar modelos y funciones para el público masivo como ChatGPT. A priori, empezó a ser mucho más usada por programadores y profesionales del mundo TI, según el estudio oficial que realiza llamado Anthropic Economic Index. Pero conforme fue pasando el tiempo, empezó a ganar más y más usuarios, y sus modelos y funciones a hacer más valoradas.
Del amor al odio con el Departamento de Guerra
En julio del año pasado, Anthropic firmó un contrato por US$ 200 millones con el Pentágono para desarrollar capacidades de inteligencia artificial orientadas a reforzar la seguridad nacional. En la práctica, el acuerdo implicó que la compañía diseñara modelos de "frontera" —los sistemas de IA más avanzados disponibles— adaptados específicamente para asistir al gobierno estadounidense en tareas vinculadas a defensa y protección del país. El contrato marcó un hito en la relación entre la industria de la inteligencia artificial y el sector público, ya que Anthropic se convirtió en la primera empresa del sector en cerrar un acuerdo de estas características con el Departamento de Defensa de Estados Unidos.
Pero empezaron a surgir rispideces en ese acuerdo.
El 3 de enero de 2026, fuerzas especiales de EEUU capturaron al presidente venezolano Nicolás Maduro en Caracas en el que murieron entre 70 y 100 personas, según cifras de ONGs y del gobierno de Venezuela. The Wall Street Journal informó que la tecnología de Anthropic se utilizó en la operación militar y empleados de la empresa de IA le expresaron al gobierno estadounidense su preocupación sobre el papel de su tecnología. Esto fue visto por el Pentágono como una resistencia de Anthropic en el uso militar que quería darle el gobierno de Trump, informó The New York Times.
Entonces, llegaron las amenazas y nuevos planes de Trump para acelerar el uso de la IA en asuntos militares.
El 9 de enero se redactó un memorándum dirigido al Pentágono, que en la página 5 dice que se crearía en el Departamento de Guerra "una 'Junta de Eliminación de Barreras' mensual con autoridad para anular requisitos no estatutarios". Significaba que los modelos pudieran usarse para "all lawful purposes". Es decir: cualquier uso legal que el gobierno considere válido.
Y luego llegaron las amenazas a Anthropic para hacer valer este pedido del gobierno.
El secretario de Defensa Pete Hegseth informó que terminaría el contrato de 200 millones y etiquetaría a la empresa como un "riesgo en la cadena de suministro" si Anthropic no cumplía. Le envió un útimatum obligando a Anthropic a ceder. Esto puede tener un impacto muy grave para una compañía valorada en más de 300 mil millones de dólares. ¿Qué implica etiquetarla de esta forma? Cualquier empresa que quiera trabajar con el ejército tiene que cortar vínculos con Anthropic. O estás con el ejército, o estás con Anthropic. No los dos.
En otras palabras, el gobierno de estadounidense le está diciendo: "O hacés lo que te pedimos, o te ponemos en una lista negra que te va a destruir comercialmente, y además vamos a obligar a todas las empresas que trabajan con nosotros a que te abandonen".
Amodei respondió el 26 de febrero diciendo que "no puede en buena conciencia acceder a la solicitud del Pentágono". Amodei dijo que no. Que había algo irrenunciable en este intento del gobierno de EEUU de usar "sin límites" la IA. Y eran dos aspectos que "nunca se han incluido" en un contrato y que tampoco deberían incluirse ahora: el uso de la IA para la vigilancia masiva de ciudadanos y el desarrollo de armas "totalmente autónomas".
Sobre la vigilancia de ciudadanos dijo que hoy es legal en EEUU usar tecnología para realizar esto. "Si dicha vigilancia es legal actualmente, esto se debe únicamente a que la ley aún no se ha puesto al día con las crecientes capacidades de la IA. Por ejemplo, bajo la ley actual, el gobierno puede comprar registros detallados de los movimientos, la navegación web y las asociaciones de los estadounidenses de fuentes públicas sin obtener una orden judicial", indicó.
En cuanto a las armas: "Hoy en día, los sistemas de IA de vanguardia simplemente no son lo suficientemente fiables como para impulsar armas totalmente autónomas. No proporcionaremos, a sabiendas, un producto que ponga en riesgo a los combatientes y civiles estadounidenses".
Según Amodei, Anthropic ofreció colaborar directamente con el Departamento de Guerra en investigación y desarrollo "para mejorar la fiabilidad de estos sistemas, pero no han aceptado la oferta".
Trump ordenó que todos los organismos federales cesaran de inmediato el uso de la tecnología de Anthropic. En su red social Truth escribió que los "izquierdistas radicales en Anthropic cometieron un ERROR DESASTROSO al querer DOMINAR al Departamento de Guerra".
Apareció OpenAI a salvo del gobierno y afectó a ChatGPT
Tras la ruptura con Anthropic, OpenAI cerró un contrato que dejó perplejo a muchos usuarios de IA en el mundo: reemplazó a su competidor para permitir el uso de sus modelos en sistemas del Departamento de Defensa.
Altman explicó que el acuerdo incluía principios como no usar la IA para vigilancia doméstica masiva y mantener responsabilidad humana en el uso de la fuerza.
image
Esto desató una ola de críticas de usuarios y de sus empleados. Una carta abierta titulada "We Will Not Be Divided" creció de pocos cientos de firmas a casi 900 el lunes, con cerca de 100 firmantes de OpenAI y casi 800 de Google, exigiendo que sus empleadores adoptaran las mismas "líneas rojas" que Anthropic". Y Jeff Dean, científico jefe de Google, expresó públicamente simpatía con esas preocupaciones, escribiendo que "la vigilancia masiva viola la Cuarta Enmienda".
Esto desató comunicaciones internas de Altman a sus propios empleados. "Creo que hice algo mal: no debimos habernos apresurado a publicar esto el viernes", dijo. "Los problemas son sumamente complejos y exigen una comunicación clara. Realmente intentábamos reducir la tensión y evitar un resultado mucho peor, pero creo que simplemente pareció oportunista y descuidado. Fue una buena experiencia de aprendizaje para mí, ya que nos enfrentamos a decisiones de mayor importancia en el futuro".
También ofreció a sus seguidores en X a explicar el acuerdo, con el objetivo de aplacar el rechazo generalizado que estaba causando.
Las repercusiones no cesaron a Altman. Este anuncio le generó un problema al producto estrella de OpenAI: ChatGPT. Las desinstalaciones de la app pasaron este martes un 295% respecto al sábado 28 de febrero, de acuerdo con Sensor Tower. Por el contrario, Claude, de Anthropic, creció al primer puesto de descargas en la App Store, puesto que reinaba la app de OpenAI, señal de que muchos consumidores de su lado en el conflicto.
En redes sociales, Anthropic empezó promocionar que los usuarios podían mudar "la memoria" de ChatGPT a Claude. Significa que todo lo que sabe sobre vos la herramienta de OpenAI podía ser fácilmente trasladable a su nuevo sistema. Y muchos influencers también empezaron a dar instructivos sobre cómo hacerlo.
Tras la decisión del gobierno estadounidense, mientras Anthropic define que acudirá a la justicia, se supo que el Departamento de Guerra, según informó el portal Axios y The Wall Street Journal, utilizó Claude para el "procesamiento de objetivos" en el conflicto con Irán.