La semana pasada, la empresa de inteligencia artificial Anthropic anunció que su nuevo modelo, Claude Mythos, encontró miles de vulnerabilidades críticas en todos los sistemas operativos y navegadores de uso masivo, incluyendo fallas que llevaban décadas sin ser detectadas. El anuncio vino acompañado por el lanzamiento del Proyecto Glasswing, una iniciativa que reúne a Amazon Web Services, Apple, Microsoft, Google, Cisco, Nvidia y otras compañías de primer nivel con un objetivo concreto: usar el propio modelo para parchear esas vulnerabilidades antes de que caigan en manos equivocadas.
Lo que distingue a Mythos de los modelos anteriores no es solo la cantidad de hallazgos, sino el modo en que opera: genera exploits funcionales sin intervención humana, encadena múltiples vulnerabilidades en un único vector de ataque y lo hace a partir de un solo prompt. En pruebas internas, Mythos generó 181 exploits funcionales sobre Firefox en condiciones en las que Claude Opus 4.6 —el modelo inmediatamente anterior— solo logró dos.
La carrera que ya venía acelerándose
El anuncio de Anthropic no ocurre en el vacío. Desde mediados de 2025, la evolución de las capacidades ofensivas de la IA viene siendo sostenida: en junio de ese año, el sistema autónomo XBOW se convirtió en el primero en superar a todos los hackers humanos en la plataforma HackerOne; en agosto, Google Big Sleep encontró 20 vulnerabilidades reales de día cero en proyectos de código abierto; en noviembre, la propia Anthropic reveló que un grupo chino patrocinado por el Estado usó Claude Code para ejecutar cadenas de ataque completas contra unos 30 objetivos globales. El dato más elocuente lo aporta el Zero Day Clock, proyecto lanzado en marzo de 2026 por el investigador de seguridad Sergej Epp: el tiempo promedio entre el descubrimiento de una vulnerabilidad y su explotación cayó de 2,3 años en 2018 a menos de 20 horas en 2026.
En este contexto, un documento elaborado por la Cloud Security Alliance (una importante organización sin fines lucro dedicada a promover las mejores prácticas que garanticen la seguridad computacional en la nube) —firmado, entre otros, por la CISO de Google Heather Adkins, el ex director de ciberseguridad de la NSA Rob Joyce y la fundadora de Luta Security Katie Moussouris— advierte sobre una asimetría que no es coyuntural sino estructural: la IA abarata y democratiza las capacidades ofensivas más rápido de lo que los defensores pueden adaptarse. Parchear sigue siendo más lento y costoso que atacar, y ese diferencial tiende a crecer.
La paradoja del defensor en desventaja
"Ya no podemos asumir que habrá un parche listo a tiempo", señala el documento de la Cloud Security Alliance. Las organizaciones que antes contaban con semanas para responder a una vulnerabilidad conocida hoy cuentan con horas, y en muchos casos el ataque llega antes de que exista siquiera una corrección disponible. Las pérdidas globales por ataques de inyección de prompt —la principal vulnerabilidad de los sistemas agénticos— alcanzaron los 2.300 millones de dólares en 2025, según estimaciones de la firma Recorded Future, y los métodos de detección actuales identifican apenas el 23% de los intentos sofisticados.
El problema no se limita a las grandes corporaciones. El documento advierte sobre el riesgo para proyectos de código abierto que sostienen infraestructura crítica global pero carecen de equipos de seguridad dedicados: el kernel de Linux pasó de recibir 2 reportes de vulnerabilidades por semana a 10, y el proyecto curl —que inicialmente había cancelado su programa de recompensas por bugs debido a la avalancha de reportes falsos generados por IA— informó que los reportes recientes son, en su mayoría, hallazgos reales y de calidad.
El propio Bruce Schneier, uno de los referentes más respetados de la ciberseguridad mundial, reconoció en su blog que el problema es real, aunque matizó el impacto mediático del anuncio de Anthropic: señaló que la empresa de seguridad Aisle replicó las vulnerabilidades encontradas usando modelos más viejos y económicos, lo cual sugiere que el salto cualitativo ya venía en camino y Mythos es más una señal de alarma que el punto de partida de la amenaza. "Tal vez el cambio de paradigma acaba de ocurrir con los nuevos modelos de Anthropic y OpenAI. Tal vez ocurrió hace seis meses. Tal vez ocurrirá en seis meses. Ocurrirá —no tengo dudas— y antes de que estemos listos".
Quién debe controlar la IA más peligrosa
El lanzamiento de Mythos abrió con nueva urgencia un debate que hasta ahora se mantenía en círculos académicos y de política tecnológica: si los modelos con capacidades potencialmente destructivas deben quedar bajo alguna forma de control estatal.
Charles Jennings, emprendedor y teórico de la IA que lleva tres años argumentando a favor de una mayor intervención del Estado, dice que Mythos representa exactamente el umbral que justifica una respuesta institucional comparable a la que Estados Unidos construyó alrededor de las armas nucleares tras la Segunda Guerra Mundial. Su propuesta es lo que llama "el modelo FDA": las empresas retienen la propiedad intelectual, pero no pueden lanzar nuevos modelos sin que pasen por un proceso de evaluación y aprobación federal. "Cuando el progreso tecnológico pasa de incremental a existencial", dijo Jennings a The Free Press, "necesitás alguna fuerza que no sea el CEO de una empresa orientada al lucro decidiendo qué se despliega y cuándo".
Schneier comparte la preocupación sobre el riesgo pero rechaza la solución estatal. "Regulamos las cosas que matan gente", dijo, trazando una analogía con el desarrollo de armas nucleares que ha estado desde el comienzo del Proyecto Manhattan en manos del gobierno federal de Estados Unidos. "A medida que se vuelven más peligrosas para la vida y la propiedad, ponemos más reglas a las corporaciones". Sin embargo, un proyecto gubernamental centralizado le parece tan poco confiable como dejar todo en manos privadas: en su visión, la pregunta no es si regular sino quién y cómo, y ahí ninguna de las opciones disponibles le resulta satisfactoria.
Dean Ball, asesor senior de política de IA en la Casa Blanca durante el gobierno de Joe Biden, advierte sobre otro riesgo: que la regulación termine penalizando justamente a los actores más responsables. Dado que modelos con capacidades similares a las de Mythos llegarán pronto a versiones de código abierto disponibles para cualquiera con el hardware necesario, Ball sostiene que restringir a los laboratorios de frontera solo dejaría el campo libre a actores menos escrupulosos.
En el Senado, los demócratas Josh Hawley y Richard Blumenthal introdujeron en 2025 un proyecto de ley que contempla la nacionalización como medida de último recurso si la IA alcanza un umbral de peligrosidad suficiente. La pregunta que nadie termina de responder es si ese umbral ya fue superado.
Ryan Fedasiuk, investigador del American Enterprise Institute, resume el dilema: "Es un error intentar encerrar esta tecnología en una caja, y es igualmente peligroso pretender que el mercado solo vaya a resolverlo". En algún punto entre esos dos extremos, los gobiernos, las empresas y la comunidad de seguridad informática tendrán que encontrar un modelo de gobernanza que todavía no existe.