Poco antes del despido de Sam Altman como director ejecutivo de OpenAI, varios investigadores de la empresa enviaron al consejo de administración una carta, según publicó la agencia Reuters y el medio especializado The Information, en la que advertían de un poderoso descubrimiento de inteligencia artificial que, según ellos, podría amenazar a la humanidad.
No está claro el papel que jugó esa carta en el despido de Altman. El trasfondo es que “la humanidad estaría en riesgo” con nuevos avances y Sam Altman no estaría de acuerdo en frenar ciertas investigaciones riesgosas para la llamada superinteligencia que acarrearía escenarios peligrosos para la especie humana.
Fuentes citadas por Reuters señalan como decisiva esa carta de advertencia a los directivos de OpenAI, mientras que el medio especializado The Verge asegura que la carta no llegó al consejo de administración y que no tuvo que ver en el despido de Altman.
La víspera de su despido, Altman fue a la reunión de directivos de la compañía realizada en San Francisco en paralelo a la de la Asociación Económica Asia Pacífico (Apec). “Cuatro veces en la historia de OpenAI, la más reciente hace solo un par de semanas, tuve la oportunidad de estar en la sala en la que empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia delante, y poder hacerlo es el honor profesional de mi vida”, dijo Altman en ese encuentro.
Ese comentario no tuvo relevancia. Sin embargo, según The Information, algunos empleados de OpenAI creen que Altman se refería a una innovación realizada por los investigadores de la empresa a principios de este año que les permitiría desarrollar modelos de inteligencia artificial mucho más potentes. Y más riesgosos.
Ese avance, liderado por el científico jefe de OpenAI, Ilya Sutskever, suscitó la preocupación de algunos empleados por el hecho de que la empresa “no dispusiera de las salvaguardias adecuadas para comercializar modelos de inteligencia artificial tan avanzados”, menciona The Information.
A su vez, según las fuentes citadas por Reuters, la carta fue uno de los factores de una larga lista de fricciones que llevaron al despido de Altman. Sin embargo, Reuters no cuenta con una copia de la carta ni pudo hablar con los investigadores que la escribieron.
Según una de las fuentes, la directiva Mira Murati, elegida inicialmente como reemplazante de Altman, mencionó el proyecto -llamado Q*- a los empleados este miércoles y dijo que se había enviado una carta al consejo antes del despido de Altman, que luego ha sido readmitido por la presión de empleados e inversores.
Tras la publicación de la noticia, un portavoz de OpenAI declaró a Reuters que Murati había informado a los empleados de lo que iban a publicar los medios, pero que no se pronunció sobre la veracidad de la información.
Según Murati, el fabricante de ChatGPT ha hecho progresos en Q* que podría ser un gran avance en la búsqueda de una inteligencia que supere a la humana, también conocida como inteligencia artificial general (AGI, por sus siglas inglesas).
Otras fuentes familiarizadas con el proyecto Q*, sin embargo, no consideran que se trate de un avance rompedor. Gracias a sus enormes recursos informáticos, el nuevo modelo fue capaz de resolver ciertos problemas matemáticos.
Aunque solo realiza operaciones matemáticas simples, la superación de ese tipo de pruebas hizo que los investigadores se mostraran muy optimistas sobre el futuro de Q*. A diferencia de una calculadora que puede resolver un número limitado de operaciones, la IAG puede generalizar, aprender y comprender.
Los investigadores consideran que las matemáticas son la frontera del desarrollo de la IA generativa. Actualmente, la IA generativa es buena escribiendo y traduciendo idiomas mediante la predicción estadística de la siguiente palabra, como en ChatGPT.
Las respuestas a una misma pregunta pueden variar mucho. Pero la capacidad de hacer cálculos matemáticos donde solo hay una respuesta correcta implica que la IA tendría una mayor capacidad de razonamiento que se asemejaría a la inteligencia humana.
Esto podría aplicarse, por ejemplo, a la investigación científica. Según Reuters, en su carta al consejo, los investigadores advierten sobre los riesgos de este paso de la IA y su peligro potencial.
Los riesgos de las máquinas superinteligentes son, por ejemplo, si serían capaces de plantearse la destrucción de la humanidad. En el consejo de OpenAI había dos personas muy sensibles a esos riesgos, que renunciaron como parte del acuerdo para el retorno de Altman.
Según la carta que los empleados habrían enviado al consejo pidiendo su despido, a su vez habrían considerado la disolución de la compañía ya que ayudaría a conjurar los riesgos planteados.
Quien reemplaza temporariamente a Altman, Emmet Shear, se autodefine como un apocalíptico partidario de frenar el desarrollo de la inteligencia artificial. Sin embargo, también se mostró partidario del regreso de Altman.