Durante una charla organizada en Sinergia, el ingeniero uruguayo Nicolás Loeff —cofundador de Zapia, una de las herramientas de inteligencia artificial más populares de América Latina— explicó cómo la inteligencia artificial llegó al punto donde está hoy. Dijo algo que parece una exageración, pero no lo es: “Los ingenieros de IA se volvieron estrellas mundiales”. Y lo ilustró con un dato concreto. En 2024, Meta pagó 100 millones de dólares por contratar a JiHai Yu, un investigador que trabajaba en OpenAI. Así como se paga por el pase de un futbolista, ahora se hace lo mismo con quienes construyen los modelos más avanzados del mundo.
Loeff dejó en claro que este fenómeno no arrancó hace dos o tres años, como muchos creen. Lo que está pasando ahora es el resultado de una evolución que viene acumulando velocidad desde hace décadas. ¿Por qué explotó todo justo ahora? Por tres razones clave: avances en el poder de cómputo (la capacidad que tienen las máquinas para procesar información), la forma en la que los algoritmos aprovechan ese poder, y el tamaño de los modelos. No es que alguien inventó algo mágico: lo que hubo fue una acumulación progresiva hasta que la combinación hizo “click”.
Un punto que repitió varias veces es que la IA actual no avanza solo por el software, sino por el hardware, es decir, por las máquinas físicas que corren esos algoritmos. Ahí aparece un concepto central: la “lotería del hardware”. Según Loeff, no gana la mejor idea, sino la que mejor se adapta al tipo de chip que usamos hoy. Es decir, aunque un modelo sea más preciso o elegante, si no corre bien sobre el hardware que existe, no sirve. Por eso, muchas ideas que podrían haber sido geniales se descartan porque simplemente no encajan en los límites técnicos.
La otra dimensión clave es el tamaño. Los modelos actuales son enormes. Y a medida que crecieron, fueron apareciendo nuevas capacidades que antes no existían. Loeff explicó que hay un punto donde, si un modelo es lo suficientemente grande, empiezan a pasar cosas que no estaban programadas. A eso se le llama comportamiento emergente. Los modelos no solo mejoran un poco: de golpe, entienden mejor el lenguaje, razonan mejor, o son capaces de resolver problemas que antes les resultaban imposibles.
Claro que hacer eso cuesta. Y mucho. Según explicó, entrenar uno de estos modelos puede costar más de 100 millones de dólares, además de requerir una cantidad de energía gigantesca. Por eso, las grandes empresas tecnológicas están tomando medidas que parecen sacadas de una novela de ciencia ficción. Meta compró una planta nuclear. Elon Musk trasladó una central térmica entera para instalarla junto a su nuevo data center. Google pagó 3.000 millones de dólares para quedarse con toda la energía que genera una represa. ¿Por qué? Porque sin esa infraestructura, no pueden alimentar los modelos que están entrenando.
La capacidad de cómputo: ¿cuánto vale?
Loeff se refirió a una predicción hecha por el futurista Ray Kurzweil hace muchos años y la explicó en su charla de forma clara. Dijo que si la tendencia actual sigue, para el año 2029 va a ser posible comprar con 1.000 dólares una capacidad de cómputo equivalente a la del cerebro humano.
Esto lo fundamentó mostrando cómo, a lo largo del tiempo, ha aumentado la cantidad de capacidad computacional que se puede adquirir por cada dólar (ajustado por inflación), siguiendo una curva exponencial, no lineal.
Agregó que para 2045, con esos mismos 1.000 dólares, se podría comprar tanta capacidad de cómputo como la de todos los cerebros humanos juntos.
También enfatizó que Kurzweil no sabía cuál sería el algoritmo exacto que se usaría, pero confiaba en que, cuando llegara ese nivel de capacidad, “alguien iba a saber cómo aprovecharla”.
Qué se viene: agentes, aprendizaje continuo y eficiencia
En la segunda parte de su charla, Loeff se enfocó en lo que está por venir. Y avisó que no se trata de un salto lineal.
“Va a ser como una montaña rusa. Ajusten los cinturones y les recomiendo ser como la señora que disfruta del paseo, y no como la que está al lado sufriendo", señaló, al mostrar una foto de una mujer con rostro de deleite y otra padeciendo el juego.
Uno de los cambios más importantes será la aparición de organizaciones de agentes inteligentes. Hasta ahora, un modelo puede hacer tareas como responder preguntas, resumir textos o escribir código. Pero lo que viene es distinto: un agente principal va a poder coordinar a otros agentes. "En vez de que un agente resuelva algo, voy a tener un agente jefe que va a pedirles a sus agentes súbditos que resuelvan problemas".
Otro cambio es el aprendizaje continuo. Hasta ahora, los modelos se entrenan, se “congelan” y luego se usan. En el futuro, van a seguir aprendiendo mientras interactúan con nosotros. Cada vez que conversás con un modelo, le estás enseñando algo. Va a poder ajustar sus respuestas según tu estilo, tus necesidades o el contexto. La IA no solo responderá, sino que crecerá con vos.
También habló de algo que llamó razonamiento simulado. En muchos casos, los modelos no están resolviendo algo porque lo saben, sino porque son buenos para simular cómo lo resolvería una persona. Y esa simulación, cuando se hace paso a paso, mejora los resultados. Por ejemplo, si un modelo comete errores en cálculos, se le puede pedir que “piense en voz alta”. Y eso, aunque suene raro, funciona: lo lleva a respuestas más correctas.
En cuanto a los modelos abiertos (esos que no son propiedad exclusiva de empresas como OpenAI o Google), la tendencia es que están cada vez más cerca del rendimiento de los modelos privados. Esa brecha se está achicando. Eso abre la puerta para que más desarrolladores, empresas chicas o instituciones puedan hacer productos con IA sin depender de los gigantes del sector.
Pero la palabra clave para los próximos años no es tamaño, sino eficiencia. Loeff explicó que los modelos grandes siguen siendo importantes, pero cada vez se usan más para entrenar modelos chicos. Esos modelos más livianos, bien ajustados, pueden resolver tareas concretas sin consumir tanto dinero ni energía. Son rápidos, accesibles y, en muchos casos, lo suficientemente buenos como para reemplazar a los modelos gigantes en contextos reales.
La combinación de estas tendencias está generando un nuevo ecosistema. Ya no se necesitan 500 ingenieros para levantar una startup de IA. Loeff mostró ejemplos de empresas que llegaron a facturar 100 millones de dólares en menos de un año, con equipos de menos de 50 personas. La clave no es construir modelos desde cero, sino saber cómo usarlos, ajustarlos y hacerlos útiles para la gente.
Antes de cerrar, hizo una reflexión para quienes miran todo esto desde lejos. Dijo que no hay que tener miedo. Que con conocimientos básicos de computación y algo de paciencia, se puede aprender cómo funciona todo esto. Que no hay magia, ni fórmulas secretas, ni física cuántica detrás. Solo procesos que se pueden entender, si se tiene la curiosidad para investigarlos.