Renuncia la directora de Robótica de OpenAI por el polémico acuerdo con el Pentágono: "Merecía más deliberación"
Le renuncia de Caitlin Kalinowski expuso las crecientes tensiones dentro de OpenAI por el acuerdo que firmó la empresa con la administración Trump. Los cuestionamientos van de la mano con sospechas de que no existan suficientes salvaguardas para que la tecnología de la firma sea utilizada para vigilancia masiva y desarrollo de armamento autónomo.
En las últimas semanas, el debate sobre el uso de la inteligencia artificial en la seguridad nacional dominó la agenda pública. La discusión cobró un nuevo impulso este fin de semana tras la renuncia de la directora de Robótica de OpenAI, Caitlin Kalinowski, quien manifestó profundas preocupaciones por los términos del reciente acuerdo entre la tecnológica y el Pentágono. Esto ocurre luego de que la administración Trump rescindiera el contrato con Anthropic, tras la negativa de esta firma a otorgar acceso incondicional de su modelo "Claude" al Departamento de Defensa. Anthropic había denunciado presiones para que su IA fuera utilizada en vigilancia masiva y desarrollo de armamento autónomo; al día siguiente, OpenAI firmó un convenio con el gobierno.
"Renuncié a OpenAI. Me importa profundamente el equipo de Robótica y el trabajo que construimos juntos. No fue una decisión fácil. La IA tiene un papel importante en la seguridad nacional. Sin embargo, la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que recibieron", dijo Kalinowski en la publicación de X en la que anunciaba su renuncia.
I resigned from OpenAI. I care deeply about the Robotics team and the work we built together. This wasn’t an easy call. AI has an important role in national security. But surveillance of Americans without judicial oversight and lethal autonomy without human authorization are…
"Se trata de una cuestión de principios, no de personas. Siento un profundo respeto por Sam y por el equipo, y estoy orgullosa de lo que logramos juntos", aclaró Kalinowski, que se unió a OpenAI en 2024.
Kalinowski es una ingeniera mecánica y diseñadora de productos de consumo masivo especializada en hardware. Es conocida también por su trabajo en empresas como Apple y Meta. Previo a su integración a las filas de OpenAI, lideró el desarrollo de dispositivos de realidad virtual y realidad aumentada, incluidos productos de Oculus y prototipos de gafas inteligentes para Meta.
OpenAi - EFE
EFE
El acuerdo de OpenAI con el gobierno de EEUU
La renuncia se produjo una semana después de que OpenAI firmara un contrato con el Pentágono para integrar sus herramientas de IA en sistemas militares clasificados. La noticia del acuerdo sorprendió, ya que ocurrió horas después de que la empresa competidora, Anthropic, denunciara presiones por parte de la administración Trump para que su chatbot de IA, Claude, se utilizaría en prácticas de vigilancia a gran escala de estadounidenses y en el desarrollo de armamento completamente autónomo.
El CEO de Anthropic, Dario Amodei, sostuvo en una entrevista con CBS, que lo que la firma buscaba era garantías para que su tecnología no se aplicara para ninguno de estos dos casos. "Tenemos estas dos líneas rojas. Las hemos tenido desde el primer día. Seguimos defendiendo esas líneas rojas. No vamos a cambiarlas", dijo Amodei, quien aseguró que "se trata del principio de defender lo que es correcto".
El Pentágono afirmó que no estaba interesado en ese tipo de uso y únicamente desplegaría la tecnología de manera legal, pero también insistió en que sus contratistas no pueden imponer condiciones sobre cómo se usarán sus productos y que deberían tener acceso sin ninguna limitación.
Dario Amodei, CEO de Anthropic. AFP.webp
Horas antes de que Estados Unidos e Israel lanzaran en conjunto los primeros ataques contra Irán, Donald Trump ordenó a todas las agencias federales suspender de inmediato el uso de la tecnología de Anthropic.
Sam Altman, CEO de OpenAI, anunció ese día el acuerdo con el Gobierno, aunque aclaró que el pacto incluía restricciones aparentemente similares a las exigidas por Anthropic. Esta similitud despertó fuertes interrogantes sobre cuáles serían entonces las diferencias reales entre el convenio de OpenAI con el Pentágono y las condiciones que su competidor pretendía establecer.
“Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva nacional y la responsabilidad humana por el uso de la fuerza, incluyendo los sistemas de armas autónomas. El Departamento de Guerra (DoW) está de acuerdo con estos principios, los refleja en la legislación y las políticas, y (por lo tanto) los incorporamos en nuestro acuerdo”, declaró Altman en X.
El CEO precisó que el convenio contempla la implementación de diversas salvaguardas técnicas destinadas a garantizar el comportamiento adecuado de los modelos de IA. Entre ellas se encuentra la aplicación en redes de nube de un sistema de seguridad conocido como Full Disk Encryption o “cifrado de disco completo”, que codifica toda la información almacenada y procesada en los servidores donde se ejecutan los modelos. Con ello se busca impedir accesos no autorizados a los datos.
Sin embargo, varios empleados de OpenAI criticaron el acuerdo y pidieron a Altman que divulgara más información sobre este. En una publicación en redes sociales, Altman admitió que la situación fue "mal manejada".
Estas tensiones surgen en medio de un choque más amplio sobre el papel de la IA en la seguridad nacional y los riesgos éticos de delegar fuerza letal, información sensible o vigilancia gubernamental en algoritmos cada vez más potentes.