9 de diciembre de 2023 5:03 hs

El pasado 6 de diciembre, el inglés nacido en Wimbledon Geoffrey Hinton cumplió 76 años. Fue uno de los pioneros de la Inteligencia Artificial (IA). En 2012, Hinton y dos de sus estudiantes de posgrado de la Universidad de Toronto crearon una tecnología que se convirtió en la base intelectual de los sistemas de IA.

Esa base es considerada clave por las empresas más grandes del sector tecnológico. Antes de su cumpleaños, Hinton renunció a su puesto en Alphabet, una compañía del gigante Google. No lo hizo para jubilarse sino para sumar su voz de advertencia a la de otros investigadores críticos de los peligros de crear productos basados en la IA generativa, la tecnología que impulsa chatbots populares como ChatGPT.

Hinton contó que había renunciado a su puesto en Google, donde trabajó durante más de una década y se convirtió en una de las voces más respetadas en este campo, a fin de poder hablar libremente sobre los riesgos de la IA.

Más noticias

Sobre sus aportes para estos resultados, dijo en una entrevista a The New York Times desde Toronto, donde vive: “Me consuelo con la excusa habitual. Si yo no lo hubiera hecho, habría sido alguien más”.

Tal es la velocidad de los cambios de la IA que Hinton pasó de ser uno de sus impulsores a dar cuenta de los riesgos que implica esta revolución dentro del mundo digital. Los sistemas de IA podrían ser tan importantes como el lanzamiento del navegador web a principios de la década de 1990.

Hinton adhiere a otros investigadores y ejecutivos de empresas de la IA generativa que esta nueva generación informática es, también, una herramienta para la desinformación y un riesgo para los puestos de trabajo. En algún momento, dicen los más preocupados por la tecnología, podría ser un riesgo para la humanidad.

“Es difícil evitar que los malos la utilicen para cosas malas”, expresó Hinton. Después de que la empresa OpenAI de San Francisco lanzó una nueva versión de ChatGPT en marzo, más de mil líderes tecnológicos e investigadores firmaron una carta abierta en la que pedían una moratoria de seis meses en el desarrollo de nuevos sistemas porque las tecnologías de IA plantean “profundos riesgos para la sociedad y la humanidad”.

Días después, 19 líderes actuales y antiguos de la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica con 40 años de antigüedad, publicaron su propia carta con el fin de advertir sobre los riesgos de la IA.

En ese grupo figuraba Eric Horvitz, director científico de Microsoft, la empresa que desplegó la tecnología de OpenAI en una amplia gama de productos. Hinton, llamado “el padrino de la IA”, no firmó ninguna de esas cartas y dijo que no quería criticar de manera pública a Google o a otras empresas hasta que hubiera dejado su trabajo.

A fines de noviembre renunció a su puesto en Alphabet, la compañía dependiente de Google, aunque no quiso hacer declaraciones al respecto.

Hinton, británico expatriado, es un académico de toda la vida cuya carrera se vio impulsada por convicciones personales sobre el desarrollo y el uso de la IA. En 1972, como estudiante de posgrado en la Universidad de Edimburgo, Hinton adoptó una idea llamada red neuronal. Una red neuronal es un sistema matemático que aprende habilidades analizando datos. En aquella época, pocos investigadores creían en la idea. Pero se convirtió en el trabajo de su vida.

En la década de 1980, Hinton era profesor de informática en la Universidad Carnegie Mellon, pero abandonó esa institución para irse a Canadá porque dijo que era reacio a aceptar financiamiento del Pentágono.

En esa época, la mayor parte de la investigación sobre IA en Estados Unidos estaba financiada por el Departamento de Defensa. Hinton se opone de manera profunda al uso de la IA en el campo de batalla, lo que él califica como “soldados robot”.

En 2012, Hinton y dos de sus estudiantes en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotografías y enseñarse a identificar objetos comunes, como flores, perros y autos.

Google invirtió millones de dólares para adquirir la empresa creada por Hinton y sus dos estudiantes. Además, su sistema condujo a la creación de tecnologías cada vez más potentes, incluyendo nuevos chatbots como ChatGPT y Google Bard. Sutskever pasó a ser científico jefe de OpenAI.

En 2018, Hinton y otros dos antiguos colaboradores recibieron el Premio Turing, a menudo llamado “el Premio Nobel de la informática”, por su trabajo en redes neuronales. Al mismo tiempo, Google y OpenAI comenzaron a construir redes neuronales que incorporaban enormes cantidades de textos digitales.

Hinton pensaba que era una forma muy potente de que las máquinas entendieran y generaran lenguaje, pero inferior a la forma en que lo hacían los humanos. El año pasado, cuando Google y OpenAI crearon sistemas que utilizaban cantidades mucho más grandes de datos, su perspectiva cambió.

Creía que esos sistemas eran inferiores al cerebro humano pero que empezaban a eclipsar la inteligencia humana. “Quizá lo que ocurre en estos sistemas es en realidad mucho mejor que lo que ocurre en el cerebro”, supuso.

A medida que las empresas mejoran sus sistemas de IA, cree que se vuelven más peligrosos. “Recordemos cómo era hace cinco años y veamos cómo es ahora”, dijo sobre la tecnología de IA a The New York Times.

“Tomemos esa diferencia y pensemos en lo que podría pasar más adelante. Eso da miedo”. Hasta el año pasado, aseguró, Google actuó como un “supervisor apropiado” de la tecnología, al tener cuidado de no lanzar algo que pudiera generar daños. Pero ahora que Microsoft impulsó su motor de búsqueda Bing con un chatbot –lo que desafía el negocio principal de Google–, y Google está compitiendo para implementar el mismo tipo de tecnología.

“Los gigantes tecnológicos están atrapados en una competencia que podría ser imposible de detener”, dijo Hinton.

También le preocupa lo relacionado al mundo laboral. Hoy, los chatbots como ChatGPT tienden a complementar a los trabajadores humanos, pero podrían remplazar a muchos puestos que manejan tareas cotidianas. “Elimina el trabajo pesado”, dijo. “Pero es posible que nos quite más que eso”.

Hinton cree que en ese camino las armas puedan ser autónomas del ser humano.

“Algunas personas creían en la idea de que estas cosas realmente podrían volverse más inteligentes que los humanos”, dijo. “Pero la mayoría de la gente pensaba que eso estaba muy lejos de pasar. Y yo pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso así”.

Este investigador cree que la competencia entre Google, Microsoft y otras empresas se convertirá en una carrera global que no se detendrá sin algún tipo de regulación a nivel mundial. “Pero eso puede ser imposible”, dijo.

A diferencia de las armas nucleares, aseguró, no hay forma de saber si las empresas o los países están trabajando en la tecnología en secreto. La mejor esperanza es que los principales científicos del mundo colaboren en formas de controlar la tecnología. “Creo que hasta que hayan entendido si pueden controlarlo, no deben desarrollar más esto”, dijo.

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos