—¿Por qué creés que vos y Tryolabs fueron elegidos?
—Nosotros venimos trabajando en esto hace quince años. Publicamos mucho contenido, tenemos un blog técnico y también no técnico, damos charlas en todo el mundo. Creo que por ahí nos encontraron. En particular, lo que destacó TIME fue nuestro enfoque en AI for Good. Hicimos cosas con UNICEF y con The Nature Conservancy, por ejemplo sobre la sobrepesca. Eso fue lo que resaltaron en la nota.
—Hay mucho hype sobre la inteligencia artificial. ¿Es una burbuja que está a punto de explotar o es una tendencia que llegó para quedarse?
—Para mí es bastante probable que explote, pero si pasa va a ser distinto a burbujas anteriores, como la del .com en los 2000. En ese momento había promesas de ganancias que nunca llegaron. Ahora la IA ya está en uso. Puede que no cumpla con todas las expectativas, pero ya es parte fundamental de muchos procesos.
—Tal vez que explota en lo empresarial, pero a nivel humano ya no hay vuelta atrás. ¿Cómo lo ves?
—Exacto. Si explota, será en términos de inversión. Una empresa puede decir: “pusimos 100 millones y no funcionó, el año que viene ponemos 2”. Pero la IA ya forma parte crucial de muchos procesos. Tenemos clientes que si se apaga la IA, están en el horno. No se puede volver atrás.
—¿Qué es lo que más te preocupa de esta tecnología? ¿Deepfakes, sesgos?
—Lo principal es el uso irresponsable. Puede ser uso consciente para generar desinformación, como con los deepfakes. O también asignarle capacidades que no tiene. Hay gente que la usa como terapia, pensando que es consciente. Eso puede reforzar conductas tóxicas y generar daños serios. Hubo casos de personas que se quitaron la vida después de interactuar con modelos de lenguaje.
—Mustafa Suleyman, de Microsoft, planteó en un ensayo la idea de una “inteligencia artificial aparentemente consciente”. ¿Qué opinás de ese concepto y del riesgo de que la gente genere una dependencia emocional hacia estas tecnologías?
—Yo lo veo súper peligroso para la amplia mayoría de las personas, y hasta los que trabajamos en esto no somos inmunes de caer en estas cosas. Ya pasaba hace unos años: un ingeniero de Google salió a decir que el modelo LaMDA era consciente y lo terminaron echando. Gente metida en el tema también puede caer en la trampa. No me voy a poner a definir qué es consciente y qué no, si es aparentemente consciente, porque es muy complejo, casi filosófico. Capaz nunca lo sepamos. La pregunta es: ¿importa? ¿Qué diferencia hay en cómo tratás a una IA o a una persona? El peligro es asignarle propiedades que no tiene y los efectos que eso puede tener en tu vida. Si estás en una situación complicada, podés brainstormear con ChatGPT y puede darte cosas útiles, pero tenés que saber de dónde viene y pensar críticamente lo que te devuelve.
—Vos dijiste a la revista Time que la IA hay que verla como parte de un sistema, no como un fin en sí mismo. ¿Qué pasa cuando se piensa lo contrario?
—El término inteligencia artificial se usa hoy como un paraguas demasiado amplio. A casi cualquier cosa se le dice IA: desde Google Maps hasta el pronóstico del tiempo, o sistemas de visión por computadora. Eso genera una confusión muy grande, porque en realidad estamos hablando de tecnologías distintas con alcances y limitaciones diferentes.
Hay un libro que recomiendo, que se llama AI Snake Oil, que explica esto con un ejemplo muy gráfico: si a cualquier cosa con ruedas se le dijera “vehículo”, las conversaciones serían absurdas. Lo mismo está pasando con la inteligencia artificial, se mete todo en la misma bolsa.
Y lo peligroso de esa generalización es que incluso proyectos con intenciones nobles pueden terminar generando efectos negativos si se los concibe como fines en sí mismos.
—¿Un ejemplo?
—Una universidad en EE. UU. usó IA para predecir desempeño académico. La idea era “ayudar” a reorientar carreras. Pero había poblaciones subrepresentadas: por ejemplo, afrodescendientes ~3 %. Terminaban empujando a “no vayas a STEM”, llevándolos a carreras con menor salario. La intuición era noble, pero el sistema producía un efecto contrario.
—Lo predictivo tiene ese problema sistémico…
—Sí. La IA no “sabe” los efectos en el sistema mayor. Vos ponés el componente acá y te funciona localmente, pero te puede romper todo lo demás y la IA no “sabe”. Podés mitigar con feedback loops: medir consecuencias reales y reentrenar, pero el problema existe.
—¿Cómo lograron en Tryolabs evitar errores en proyectos de impacto social?
—Las alucinaciones no tienen un arreglo definitivo, solo mitigaciones. Podés poner guard rails, filtros que bloqueen ciertas respuestas, pero no controlás desde dónde nace la salida. Es un problema abierto de research. Nosotros, por experiencia, ya sabemos dónde pueden estar los errores y tratamos de mitigarlos. Revisamos la distribución de datos, qué está sobre o subrepresentado. No se puede evitar todo, pero hay que estar muy consciente.
—¿Hacia dónde va todo esto en los próximos meses? ¿Vamos a un mundo donde cada uno tenga su propio agente y se conecte con agentes de las empresas con las que solemos interactuar?
—Proyectar a dos años es imposible. Hay muchísimas promesas sobre cómo transformará la economía, pero todavía no se ven esos resultados macro. El problema fundamental hoy es la reliability (fiabilidad de los sistemas de IA). No creo que solo escalando la tecnología actual se resuelva; hacen falta breakthroughs. Para que sea autónoma en serio, necesitás reliability “súper, súper, súper” alta.
Para brainstorming no importa si alucina 7 de 10: con 3 ideas buenas alcanza. Pero si controlo una planta nuclear, manejo un auto o expongo mi marca, quiero chances de falla ínfimas. Puede haber mejoras, pero insisto: sin reliability gigantesca, no sirve de forma autónoma. Hoy, con 99,99 % de acierto, a escala global tendrías igualmente demasiadas fallas. El listón es altísimo para que funcione sin supervisión humana.
a forma de potenciarte es ser el mejor en usarla: usarla a diario. Ves el anuncio de GPT-5 y parece impresionante; a los 10 minutos ya decís “esta parte es buenísima, esta sigue siendo una porquería”. Usándola calibrás tu modelo mental: para qué la uso, para qué no, cómo la uso.
—Saber preguntarle...
—La misma pregunta hecha de dos formas da respuestas distintas. A veces decís “este modelo es una porquería”, pero no especificaste bien. El modelo no es mágico; puede parecerlo, pero no lo es. Hay que usarlo, probar, aprender cómo otros lo usan. Hablar con colegas: “¿para qué lo usan?, ¿qué les sirve?”. Y saber que no podés confiar 100 % en lo que devuelve.
Hay otra faceta que casi no veo que se use fuera del mundo tecnológico, y es pedirle a la IA que te construya aplicaciones. Por ejemplo: “haceme una app que muestre la simulación de un cohete” y, más o menos, te la arma. Para temas educativos puede ser muy interesante, porque te permite crear aplicaciones personalizadas para tus propios casos de uso. A eso se le está llamando vibe coding, que es un término que ahora está bastante de moda.
Hoy en día, tanto en lo profesional como en lo personal, todos tenemos problemas que podrían resolverse con una aplicación sencilla. Y con estas herramientas, muchas veces es cuestión de pedírsela y ya la podés tener. Pero para eso hay que saber cómo, aprender a “promptearlas”, usarlas mucho y entender bien sus límites. Porque lo fundamental es no confiar nunca al 100 % en lo que devuelven. Hay que ser muy consciente de eso: uso responsable.