6 de febrero 2026 - 17:19hs

Cuatro investigadores publicaron en Nature un artículo que podría ser el más polémico en la historia de la revista: los modelos de lenguaje como ChatGPT ya alcanzaron la inteligencia artificial general (AGI), el tipo de inteligencia flexible y amplia que caracteriza al pensamiento humano. La afirmación llegó con un dato contundente: en marzo de 2025, GPT-4.5 aprobó un test de Turing —una prueba diseñada para evaluar si una máquina puede imitar el comportamiento humano de forma indistinguible— y fue identificado como humano el 73% de las veces, más que los propios humanos reales. Sin embargo, una encuesta realizada en simultáneo mostró que el 76% de los investigadores líderes en inteligencia artificial creen que escalar los modelos actuales no va a producir AGI.

Los autores —Eddy Keming Chen, Mikhail Belkin, Leon Bergen y David Danks, provenientes de la Universidad de California en San Diego— representan disciplinas que rara vez coinciden: filosofía, aprendizaje automático, lingüística y ciencia cognitiva. Según ellos, el problema de crear AGI "ya fue resuelto", y lo único que falta es que el mundo lo reconozca.

La evidencia que nadie quiere ver

El artículo propone una definición práctica de inteligencia general: tener suficiente amplitud y profundidad cognitiva para resolver problemas en múltiples dominios. No se trata de perfección ni de dominar todo el conocimiento humano. Marie Curie ganó premios Nobel en química y física, pero no era experta en teoría de números. Einstein revolucionó la física, pero no hablaba mandarín. Si esos estándares excluyen a los humanos más brillantes de la historia, entonces no estamos hablando de inteligencia general sino de algo imposible.

Más noticias

Los investigadores plantean una "cascada de evidencia" con tres niveles. El primero, nivel Turing, incluye aprobar exámenes escolares estándar, mantener conversaciones adecuadas y realizar razonamientos simples. El segundo, nivel experto, es considerablemente más exigente: medallas de oro en competencias internacionales de matemáticas, resolución de problemas de exámenes de doctorado en múltiples campos, programación de código complejo, fluidez en decenas de idiomas y asistencia útil en investigación de frontera. El tercer nivel, nivel superhumano, implicaría descubrimientos científicos revolucionarios y superioridad consistente sobre los principales expertos humanos en diversos dominios.

Según los autores, los LLM actuales ya cubren los dos primeros niveles. Es más: superan incluso algunos logros de la ciencia ficción. HAL 9000, la computadora de 2001: Odisea del espacio, exhibía menos amplitud que los modelos actuales.

Las objeciones que no se sostienen

El paper dedica una sección extensa a desarmar las objeciones clásicas contra la idea de que existe AGI. La primera es que los LLM son "loros estocásticos" que solo interpolan datos de entrenamiento y no pueden resolver problemas genuinamente nuevos. Pero los modelos actuales resuelven problemas matemáticos inéditos, realizan inferencias estadísticas casi óptimas sobre datos científicos y muestran transferencia entre dominios: entrenarlos en código mejora su razonamiento en áreas que nada tienen que ver con la programación.

turing-test-key-contribution-field-artificial-intelligence-1766246516312-Turing-Test.png

Otra objeción sostiene que los LLM carecen de modelos del mundo. Sin embargo, preguntarle a un modelo de frontera qué sucede si se tira un vaso de vidrio al piso versus una almohada produce respuestas correctas. Los LLM resuelven problemas de física e ingeniería que requieren entender principios físicos, lo que sugiere que poseen modelos funcionales de la realidad.

La falta de cuerpo físico tampoco debería descalificar la inteligencia. Stephen Hawking interactuaba con el mundo casi exclusivamente a través de texto y voz sintetizada, y nadie cuestionó su genio. Si un extraterrestre se comunicara con nosotros por radio, le negaríamos inteligencia por no tener cuerpo? La ausencia de autonomía o agencia tampoco es definitoria: el Oráculo de Delfos solo respondía cuando se lo consultaba, pero nadie dudaba de que había algo inteligente allí.

Los investigadores rematan con una observación incómoda: "No hay ninguna garantía de que la inteligencia humana no sea, en el fondo, una versión sofisticada de un loro estocástico". Toda inteligencia, humana o artificial, debe extraer estructura de datos correlacionales. La pregunta no es si lo hace, sino qué tan profunda es esa extracción.

El escepticismo perpetuo

Uno de los pasajes más filosos del artículo cuestiona a quienes sostienen que la IA siempre está a punto de fallar. Las hipótesis que retroceden ante cada nuevo éxito, siempre prediciendo el fracaso justo más allá de los logros actuales, no son teorías científicas, escriben los autores. Son, textualmente, "un compromiso dogmático con el escepticismo perpetuo".

Los investigadores explican la desconexión entre evidencia y percepción mediante tres factores: confusión conceptual, porque nadie se pone de acuerdo en qué significa realmente "inteligencia general"; miedo emocional al desplazamiento; e intereses comerciales que distorsionan cómo se evalúa el progreso. En algunos círculos industriales, la definición de AGI se desplazó hacia algo que debe generar retornos económicos sustanciales, cuando la capacidad económica es una aplicación de la inteligencia general, no un requisito para su presencia.

El paper concluye que reconocer la existencia de AGI importa para la política pública, la evaluación de riesgos y la comprensión de la naturaleza de la mente. Los marcos diseñados para evaluar herramientas estrechas son inadecuados para sistemas con inteligencia general. Las preguntas sobre coexistencia, responsabilidad legal y gobernanza adquieren nuevas dimensiones cuando los sistemas involucrados no son instrumentos limitados sino inteligencias generales.

Hace apenas cinco años no existía AGI; ahora, según estos investigadores, sí. Formas aún más poderosas de inteligencia llegarán pronto. Es notable y preocupante al mismo tiempo: notable porque estamos presenciando quizás la revolución científica y tecnológica más significativa de la historia humana; preocupante porque la línea de tiempo está comprimida más allá de cualquier precedente histórico y podría estar acelerándose.

Temas:

Inteligencia Artificial

Seguí leyendo

Más noticias

Te puede interesar

Más noticias de Uruguay

Más noticias de España

Más noticias de Estados Unidos