Geoffrey Hinton es un científico inglés de 75 años que dedicó su carrera a investigar los sistemas matemáticos y de computación llamados “red neuronal”, procesos de algoritmos capaces de aprender a través del procesamiento de millones de datos.
Geoffrey Hinton es un científico inglés de 75 años que dedicó su carrera a investigar los sistemas matemáticos y de computación llamados “red neuronal”, procesos de algoritmos capaces de aprender a través del procesamiento de millones de datos.
Ese fue el inicio de lo que desde hace seis meses está en boca de todos quienes se involucran en el mundo digital, la Inteligencia Artificial (IA), y que implicó el enfrentamiento entre dos gigantes del mundo digital: Google y Microsoft.
OpenAI desarrolló un prototipo de chatbot, un robot digital capaz de mantener una conversación con usuarios informáticos y de dar respuestas articuladas apoyadas en bases de millones de datos procesados de acuerdo con las preguntas o temas que le plantean sus interlocutores humanos.
Ese prototipo de robot que “chatea” o habla es la base del ChatGPT, lanzado el último día de noviembre de 2022 por Open IA (Inteligencia Artificial Abierta). La característica de esta empresa, cuyos accionistas mayoritarios son Elon Muk y Sam Altman, es que sus investigaciones y desarrollos tienen patentes abiertas. Open IA se presenta como una institución sin fines de lucro.
La velocidad de desarrollo de nuevas versiones de ChatGPT hizo que, a fines de marzo, se estrenara el ChatGPT-4, que permite introducir más imágenes, libros o audios para que, por ejemplo, esta herramienta pueda hacer un resumen, un “paper” académico o, por qué no, un artículo de prensa.
En este proceso de una rapidez nunca conocida en la revolución industrial o las distintas fases de la revolución digital, OpenAl afirmó que GPT-4 es lo más avanzado en el llamado “Deep lerning” (aprendizaje profundo). Se trataría de lo que los científicos pudieron lograr al emular el funcionamiento del sistema nervioso humano.
En este cambio vertiginoso se dan una serie de curiosidades y temores. El propio Elon Musk, promotor de la IA, accionista mayoritario de Twitter, Tesla y SpaceX, no sólo puso en funcionamiento versiones de robots inteligentes, por caso el GPT-4, sino que también se sumó en el pasado mes de abril a cientos de empresarios e investigadores que firmaron una carta para que se hiciera una pausa de seis meses en la investigación sobre IA porque estos productos pueden ser "grandes riesgos para la humanidad".
Geoffrey Hinton es una figura central en estos conocimientos y puso su firma al espectro de expertos que advierten respecto de la necesidad de crear mecanismos de regulación y control de esta tecnología.
Hace cinco años, el científico inglés recibió el Premio Turing, junto a otros dos científicos –Yoshua Bengio y Yann LeCun–, considerado el Premio Nobel de la informática. Hinton accedió a ese galardón por sus investigaciones en la Deep Learning; o sea, cómo la IA puede ser cada vez más similar a la inteligencia del humano.
En una entrevista publicada por The New York Times el pasado lunes 1° de mayo, Hinton dijo respecto del resultado de sus investigaciones: "Me consuelo con la excusa normal. Si no lo hubiera hecho yo, lo habría hecho algún otro".
Sin embargo, Hinton no se quedó con un premio consuelo, sino que decidió dejar su puesto en Google y comparte los riesgos de desarrollar tecnologías que podrían competir o incluso ser más eficientes que cerebro humano.
El experto advierte también la necesidad de crear mecanismos y organismos de control. "No creo que deban ampliar esto más hasta que hayan entendido si pueden controlarlo", dijo Hinton a The New York Times y tomado por la cadena británica BBC.
Dijo estar convencido de que a medida que las empresas mejoren su IA, los sistemas se volverán cada vez más peligrosos. "Miremos cómo era hace cinco años y cómo es ahora", aseguró. "Tomemos la diferencia y proyectémosla hacia adelante. Es atemorizante".
Hinton advirtió que Internet se llenará con fotos, videos y textos falsos y el usuario promedio "ya no podrá saber qué es verdad". El científico, que dejó su puesto en Google, dijo que esta compañía actuó "de forma muy responsable" y como un "buen administrador" de la IA hasta el año pasado, tomando la precaución de no lanzar productos que pudieran hacer daño.
Pero luego de eso, Microsoft expandió su motor de búsqueda Bing con un chatbot, desafiando el negocio central de Google y eso desató una carrera entre los gigantes tecnológicos que "podría ser imposible de detener".
Tras la publicación de la entrevista en el diario neoyorquino, Hinton aclaró en su cuenta de Twitter que no había renunciado a Google para criticar la empresa. "En realidad, me fui para poder hablar sobre los peligros de la IA sin considerar cómo afecta esto a Google".
Otra de las inquietudes de Hinton es cómo la IA revolucionará el mercado laboral. En lugar de complementar a los humanos, podría reemplazarlos en innumerables oficios en los que se desempeñan tareas rutinarias.
"Se quita el trabajo pesado", pero "podría quitar más que eso", indicó. En el futuro estas tecnologías pueden desarrollar armas autónomas, como "robots asesinos". Los sistemas de IA "a menudo aprenden un comportamiento inesperado debido a la gran cantidad de datos que analizan", explicó. "Las personas y las empresas permiten a los sistemas de IA no sólo generar su propio código, sino también ejecutar ese código por su cuenta".
Algunas personas, según Hinton “creían que estas cosas podían volverse más inteligentes que las personas, aunque creían que eso estaba lejos. Yo mismo pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso".
Aunque se trata de una amenaza hipotética, el investigador inglés dijo lo nocivo que puede ser una competencia entre Google, Microsoft y otros actores globales sin regulaciones internacionales. A diferencia de las armas nucleares, que tienen el control de las Naciones Unidas, “no hay forma de saber si las empresas o los países están trabajando en la IA en secreto”.