24 de septiembre 2025 - 16:11hs

Durante la 80ª Asamblea General de la ONU, se presentó el Llamado Global por las Líneas Rojas de la IA, una campaña que exige un acuerdo internacional para 2026. El objetivo es fijar prohibiciones vinculantes sobre usos considerados de alto riesgo.

La iniciativa alerta que, sin reglas internacionales, la humanidad enfrenta riesgos como pandemias diseñadas, desinformación masiva, abusos a los derechos humanos y pérdida de control sobre sistemas avanzados.

El documento recuerda precedentes de acuerdos globales en torno a las armas biológicas y la clonación humana, y plantea que la IA requiere un marco similar para impedir desarrollos peligrosos.

Más noticias

¿Por qué 2026? El texto indica que esperar más podría reducir el margen técnico y político para intervenir eficazmente, mientras que la probabilidad de daños transfronterizos aumentaría de forma drástica. Por ello, se fija 2026 como el año límite para actuar.

El comunicado subraya que el ritmo del desarrollo de la IA ya plantea riesgos antes considerados especulativos, como el mal uso biológico, sistemas con comportamiento engañoso y resistencia al control. Según evaluaciones de empresas líderes, los últimos modelos se ubican en un espectro de riesgo que va de medio (Anthropic, 2025) a alto (OpenAI, 2025).

Otro punto clave es la rápida mejora de las capacidades de codificación de la IA, que podría conducir a una programación sobrehumana y acelerar aún más el progreso. Expertos de Google DeepMind (2024) prevén que las IA logren replicarse y proliferar en internet hacia finales de 2025, con una estimación media para 2027.

Más de 200 figuras y 70 organizaciones apoyan la campaña. Entre ellas, 9 ex jefes de Estado, 10 Premios Nobel, pioneros de la IA como Yoshua Bengio y líderes de la industria tecnológica.

Voces de alerta

Yoshua Bengio advirtió: "Necesitamos urgentemente la colaboración internacional. Establecer líneas rojas es un paso crucial para prevenir riesgos inaceptables".

La Nobel de la Paz Maria Ressa señaló: "Sin salvaguardas, podríamos enfrentar caos epistémico y pandemias diseñadas. La cooperación es la única forma racional de proteger intereses nacionales".

El académico Stuart Russell destacó: "El desarrollo de una IA altamente capaz podría ser el evento más significativo en la historia humana. Es imperativo que no sea el último".

El exdirector de la OPAQ, Ahmet Üzümcü, indicó: "Debemos evitar que la IA inflija daños irreversibles a la humanidad".

Por su parte, Yuval Noah Harari advirtió que la IA puede tomar decisiones e inventar ideas por sí misma, lo que obliga a fijar límites claros antes de perder control.

El ex presidente de la Asamblea General de la ONU, Csaba Krösi, afirmó que la humanidad está lejos de estar preparada en términos de regulación y gobernanza.

Temas:

Inteligencia Artificial IA

Seguí leyendo

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos