ver más

El argentino Fredi Vivas es un pionero en inteligencia artificial, la tecnología de la que más se está hablando en los últimos meses. Es autor del libro Cómo piensan las máquinas y tiene una visión clara y actualizada del tema, en el que está inmerso hace más de 12 años.

Cofundador y CEO de RockingData, Fredi es además coordinador académico del programa Big Data de la Universidad de San Andrés y uno de los actuales speakeres de EvenPro, empresa argentina dedicada a la organización integral de eventos sociales y empresariales desde el año 1986.

Vivas da charlas para evangelizar y ayudar a comprender mejor cuál es actualmente nuestra relación con las máquinas. En su paso por Montevideo, hizo una pausa para conversar con El Observador.

Hace tiempo que venís hablando de inteligencia artificial: ¿cuáles fueron los principales cambios que viste desde que empezaste hasta ahora?

Desde siempre trabajé en tecnología y siempre estudié tecnología desde los 12 años, cuando no había internet y tuve la posibilidad de ver las primeras conexiones. Desde hace más de una década estoy específicamente en el mundo de los datos y hace seis que creé mi empresa RockinData. Cuando salíamos a decir que trabajábamos con machine learning, con inteligencia artificial y con big data y la gente nos miraba sin entender mucho de qué estábamos hablando.

Un indicador del cambio para mí es por ejemplo la cantidad de documentales del tema que hay en Netflix, cómo cambió desde hace unos años hasta hoy. También cambió a nivel de conocimiento general. Ahora se conoce la palabra generalmente asociada a una herramienta como ChatGPT y esto es mucho más amplio, pero por lo menos está en la conversación. 

Surgen preguntas como: ¿qué es esto?, ¿cómo lo puedo usar yo?, ¿me va a sacar el trabajo? Por su parte, creo que las empresas siempre lo usaron. Capaz que ahora todos están tratando de meterse más rápido.

En noviembre del año pasado, conocimos ChatGPT y parece que a partir de allí todo se aceleró.

Depende desde qué punto de vista lo miremos. Se aceleró con respecto a las herramientas nuevas que van saliendo. Ahora, si nos ponemos a pensar si un sanatorio médico lo está incorporando, si una ONG lo está usando, si un gobierno lo está usando, o una empresa lo está usando... no sé si se aceleró tanto.

Se aceleró también en términos de conocimiento de funciones, de productividad basadas en inteligencia artificial. Por ejemplo producción de texto a audio o de audio a texto, ponés tu cara y preguntás en diferentes idiomas, herramientas que graban los meetings de tu empresa y te generan los reportes de eso. Pero hay un montón de usos que no sé si se aceleraron tanto.

Pongo un ejemplo bien concreto, en el mundo del agro se está usando para identificar si una manzana está madura o no, si hay alguna planta que tiene una peste... en el mundo de la salud se está usando si una mancha en la piel puede ser peligrosa o no, hay algunas universidades del mundo que lo usan para predecir las probabilidades que un alumno abandone el curso, todo eso tremendamente poderoso y las organizaciones están medio luchando para poder hacerlo. En ese plano no creo que se haya avanzado tan rápido. 

Cuando tuviste contacto con ChatGPT ¿sabías que había algo diferente?

Sí, es verdad. Lo viví un poco antes. Cuando fue lo de ChatGPT tenía sentimientos encontrados porque la gente me venía a contar de inteligencia artificial y yo vengo hablando de esto hace años y por otro lado me pasó con el libro.

Primero, aclaro que hay varios tipos de inteligencia artificial. El que se conoce como NLP o procesamiento de lenguaje natural, que son las herramientas que analizan cómo hablamos, cómo escribimos, son las que entienden nuestro lenguaje.

Antes nosotros teníamos que aprender el lenguaje de las máquinas, aprender lenguaje de códigos de máquina, todo muy técnico. Ahora, las máquinas están yendo para nuestro lado, están empezando a hablar nuestro lenguaje, entonces el procesamiento de lenguaje natural es una de las herramientas más usadas de inteligencia artificial. Por ejemplo cuando entrás a alguna plataforma y querés escribir un comentario, te lo bloquea y  avisa: "no podés poder datos personales". ¿Cómo hace para entender que en esa nube de palabras hay un dato personal? Bueno lo que hace es analiza el texto. Eso se conoce como procesamiento de lenguaje natural.

¿Hay parte de eso en tu libro Cómo piensan las máquinas?

Bueno, estábamos haciendo un trabajo en mi empresa, usando precisamente el lenguaje natural y en el medio de eso termino mi libro. Ya me iba de vacaciones y la editora me pregunta quién va a escribir el prólogo. Justo en esos días una persona de mi equipo me dijo que me quería mostrar unos textos generados con GPT2. Eran más o menos, pero me quedó en la cabeza la idea de escribir el prólogo usando esa herramienta y así fue. El texto salió y algunas personas me dijeron que es el primer libro en el mundo con un texto que no está 100 por ciento escrito por un humano. Y en ese momento sí me llamó la atención cómo generaba texto una máquina, "cómo pensaba". 

En tus charlas hablás de la ética y de discutir algún tipo de legislación tras el avance de la AI, incluso ya hay juicios de un grupo de escritores importantes ¿cuál es tu visión de eso?

Recuerdo varias cosas que pasaron en estos años por ejemplo el caso de Cambridge Analítica. Hay videos donde aparece Mark Zuckerberg siendo juzgado en Estados Unidos y lo que más me llamó la atención fue la falta de conocimiento de las personas que lo estaban enjuiciando. No tenían idea de lo que pasaba. Eran preguntas como de gente que se estaba desayunando con esta cosa nueva de internet y las redes sociales. Es como que el desarrollo tecnológico va avanzando tan rápido que la gente que legisla y que gobierna, va detrás. Ahora en Europa se está trabajando en una ley, que en teoría a fin de año podría estar más encaminada, que si sale bien, es un ejemplo a seguir en todo el mundo.

¿Qué implica?

Cosas más que nada basadas en dos temas: uno es en la protección de datos personales y la otra es en la propiedad intelectual. Hay cosas en una visión más a largo plazo que no van a estar allí. El otro día estuve en una jornada de trabajo con abogados especializados en data privacy y le dicen a sus equipos "miremos privacidad de datos y miremos propiedad intelectual", eso es el mejor camino.

Hay todavía muchos grises, si por ejemplo alguien toma ChatGPT genera una canción, la graba y la vende ¿de quién es? O peor aun: si alguien pide a ChatGPT que le escriba un tratamiento médico, ejecuta el tratamiento y no le funciona bien a la persona ¿de quién es la responsabilidad de eso? Hoy es todo grises. Hay juicios a las plataformas pero todavía no hay nada cerrado.

Lo que parece que no podemos demorar mucho.

Hace poco terminé de escribir mi segundo libro. Quería hablar de inteligencia artificial, porque claramente era el año de la AI, no quería trabajar en la novedad, porque ¿qué vas a poner? si dentro de tres meses va a quedar viejo. 

Lo que traté de hacer es escuchar lo que me pregunta la gente, los miedos, la incertidumbre que hay respecto a cuestiones como el desempleo y lo plasmé como en un libro futurista.

Es un libro que está situado dentro como dentro de 100 años y lo que traté de hacer es una reflexión sobre cuáles son los nuevos principios de la inteligencia artificial. Porque muchas de las cosas que se pensaban respecto a la robótica, por ejemplo las tres leyes de la robótica de Asimov, rigieron el pensamiento durante mucho tiempo pero estaban asociadas a una lógica que era máquinas inteligentes, robots físicos y no pasó eso. Esperábamos que los robots nos ayuden en una fábrica trabajando en cosas pesadas y no pasó.

Como que esperábamos que nos sirvieran. 

Claro, de hecho la palabra robot se usó por primera vez en 1920, es de origen checo y el concepto es servidumbre, trabajo de esclavo. Se esperaba eso, pero nadie veía una revolución de las máquinas invisibles. Tu teléfono ahora sabe dónde vivís, con quién dormís, qué querés comprar, probablemente a quién vas a votar. Y eso medio que nos agarra desprevenidos y estos 10 principios que escribí están relacionados a eso. Que no es solamente en términos legales sino en términos por ejemplo que si está viendo una imagen o un texto y tiene que decir que es con inteligencia artificial, es como un principio de honestidad. Tenemos que aprender a convivir. Aprendimos a convivir con animales y plantas y ahora tenemos que aprender a convivir con agentes no biológicos inteligentes, que son las máquinas.                                              

Con el matiz que son más inteligentes que nosotros o pueden serlo. También es cierto que hay cosas que no se van  a hacer más y con eso también hay que convivir. ¿Cuál es el rol que nos toca como humanos ante eso?

Es todo futurismo esto. Siento que estamos como si fuese el año 2000 de Internet. Un año en que nadie sabía para qué iba a servir internet. Hay un video donde entrevistan a Bill Gates en el 95 y le dicen "nos contás esto de Internet" y el dice "vas a poder estudiar, vas a poder comprar cosas, vas a poder ver contenidos" y el conductor le contesta "está todo inventado: están los radios, está la tele" y la gente se empieza a reír. Nadie se esperaba todo lo que vino después.

Haciendo futurología, hay un informe muy bueno que se llama "el futuro del trabajo" del Word Economic Forum donde dicen que el 23% de los trabajos del mundo, van a estar fuertemente impactados por la AI, impactados, es decir en todo caso modificados o afectados en su tarea diaria. Creo que va a haber mucha destrucción de trabajo y mucha creación de trabajo. Después me imagino que cada rol, por ejemplo un médico. Tenemos un amigo, Diego Pereyra que es médico que sacó un libro llamado "La salud del futuro" y trabaja en una terapia intensiva y dice que en promedio cuando una persona tiene un accidente en Buenos Aires se tarda unos 22 minutos en darle de alta en el sistema. Todas estas cuestiones se pueden mejorar con tecnología. 

Hay otro gran desafío en la educación, vos estudiaste ingeniería y ya sabés que hay cosas que no se van a hacer más, ¿cómo hay que educar hacia el futuro?

Es uno de los principios que también está en el libro. Que le puse "frecuencia de uso". En 20 años probablemente no vamos a manejar más, te subís al auto y podés hacer que maneje el auto. Estás cansada y le decís "llevame vos" y puede ser que no quieras manejar más, y dos años después te vas a olvidar de cómo hacerlo. Entonces lo que planteo que quizás en el futuro haya una especie de cupo humano que sería que esta tarea que 100 por ciento puede ser hecha por una máquina, igual la tiene que hacer un humano. Que el auto de te diga que hoy tenés que manejar.  Es un momento de mucha reflexión.

Pero concretamente ¿cómo debería discutirse en relación a la manera de educar?

Creo firmemente que la universidad tiene que seguir siendo la universidad como lo fue. Hay fundamentos que todavía se aplican aunque vos uses una máquina para generar un código, en nuestro caso, igual tenés que saber el pensamiento computacional, cómo gestionar datos, pero ni siquiera hablo de una herramienta, es más que nada cómo pensamos. Y eso alguien te lo tiene que explicar, lo tenés que aprender en la Universidad, porque si no corrés el riesgo de copiar y pegar lo que te dice ChatGPT que tiene un alto margen de error. 

Esa es una de las debilidades.

Vamos a suponer que haya otras herramientas como ChatGPT que lo hagan mejor, que de ello va a pasar, el principio de veracidad de la información es muy importante y ChatGPT no lo cumple. Podés ver una estructura de texto bien hecha pero por ahí tiene errores. Otro de los principios que armé para el libro es un principio de iteración, de interacturar máquinas y humanos. En mi trabajo hemos creado más de 100 proyectos de machine learning y al que mejor les va es el que tiene más interacción entre los humanos que están trabajando en el proyecto, la inteligencia artificial y el modelo que construyen. Y eso son los que mejor funcionan: minimizan los errores y además se minimiza el sesgo. Mi propuesta de cómo trabajar con IA viene por ese lado: trabajar interactuando. 

Temas:

inteligencia artificial

Seguí leyendo