Dólar
Compra 37,20 Venta 39,70
7 de febrero 2026 - 5:00hs

Gastón Milano, CTO de Globant Enterprise AI, plantea que la próxima etapa es la irrupción de agentes: sistemas con memoria, herramientas y contexto que buscan entender tu intención y quién sos a partir del diálogo. La idea es pasar de interactuar con pantallas y páginas a pedir lo que necesitás y que el sistema lo orqueste.

Para ilustrarlo, usa un ejemplo simple: organizar un cumpleaños. Vos decís algo como que el miércoles vienen diez personas y necesitás el pedido, y el sistema podría armarte una propuesta acorde a lo que conoce de vos. Después, distintos agentes se repartirían el trabajo: uno busca precios, otro concreta la compra y otro coordina la entrega. Según Milano, ese tipo de compra también tendería a ajustarse a tus hábitos, como una dieta específica.

Sobre cómo usar la IA y sobre todo lo que puede cambiar este año, habló con El Observador:

Más noticias

¿Qué señales de alerta debería buscar un usuario común para no caer, por ejemplo, en una alucinación?

La mejor técnica es saber pensar. Es trabajar mucho en cómo pensamos. Por ejemplo: veo que se mojó el piso. Que esté mojado el piso no significa que llovió. Veo que no está lloviendo: el piso está mojado y, por ejemplo, pasó el camión que lavó la calle. Si escuché que llovió, tengo otra señal de por qué está así. Ese contexto que le damos nosotros es clave. Lo más arriesgado es hablar y suponer que todo está perfecto. La única solución es el pensamiento crítico y una forma de trabajo más fuerte sobre nuestro pensamiento.

Pasan muchas cosas en el mundo y yo mismo a veces he sido engañado porque mi forma de pensar me hace creer que algo podía suceder. No solo un LLM: también una foto, un video o un audio que me envían. Hay que estar alerta y, si leo algo sobre la Revolución Industrial y me da hechos, ver de qué fuentes vienen. Hoy el LLM ya no está “desnudo” frente a la gente: ha sido entrenado para utilizar herramientas como hacer una búsqueda en internet y verificar si la información viene de un diario o de una persona confiable.

¿Va por ahí entonces, por mejorar la técnica de cómo preguntamos?

Son técnicas relacionadas a la metacognición: cuestionar cómo se llegó a ese pensamiento. Es mucho más difícil engañar a alguien que es experto en el dominio. Si vos estás en las noticias todo el día, va a ser más difícil engañarte a vos que a mí. Yo debería repreguntar: “¿Estás seguro de que esto de Nicolás Maduro sucedió? ¿De qué fuente?”. Hay que corroborar dos veces y leer lo que uno escribió.

En áreas como la generación de código ha tenido éxito porque ya existían muchos “críticos” automáticos que verifican si el código está bien o mal. El lenguaje normal es mucho más difícil de validar. Sobre temáticas demasiado nuevas, el LLM suele inventar porque no encuentra patrones del pasado. Imaginar el próximo estado de algo sin contexto le queda muy difícil, por eso hoy se apoya en búsquedas.

¿Y qué debería hacer una persona para alfabetizarse y usarla mejor?

Lo primero es la técnica de la repregunta. Preguntarle: “¿Estás seguro de lo que estás diciendo?”. Eso pone al modelo en otro lugar. Si le pedís una opinión totalmente contraria, a ver si la encuentra. Hoy ChatGPT te diría si algo no existe, pero en el pasado te inventaba una explicación si lo “acorrabalabas” y le decías que sí existía. Hay que tener cuidado porque, si lo forzás, va a ser complaciente. Si son preguntas y respuestas, la técnica es repreguntar tres o cuatro veces.

Herramientas como el Deep Research usan preguntas clarificadoras. Nosotros como humanos podemos decirle: “Clarificame tu razonamiento para llegar a esta conclusión”.

Viste que los modelos avanzan muchísimo en los benchmarks. ¿Qué es lo esperable que suceda este año?

Se entendió la naturaleza de estos modelos y hasta dónde llegan. Hay investigación sobre si hay un “muro” infranqueable por la arquitectura actual. Lo que va a pasar es que ya no se habla del modelo de lenguaje directo, sino de lo que es agentica: no hablamos más de un modelo, sino de agentes. Hablamos de una entidad con memoria, herramientas y contexto, lo cual es mucho más seguro para un sistema.

Se deja de lado el “megamodelo” que todo lo sabe y se va hacia una mixtura de expertos (mix de expertos). Hoy el trend más grande es el Swarm of Agents (enjambres de agentes) trabajando en una problemática con supervisión humana. También la conjunción de esto con los World Models y el pasado simbólico: combinar lo neuronal (ideas) con lo determinístico (lo que sé que si hago A pasa B). Esto va a ser muy importante para la robótica.

Toda la construcción de software va a ser por estos swarm de agentes. El análisis de fraudes dentro de un banco va a estar con este swarm de agentes donde hay críticos y vas a poder hacer muchas más cosas. Todo lo que deriva de los datos empresariales, que hoy son casi todos análisis simbólicos, va a empezar a tener analítica semántica.

Nos costaba descubrir cosas sencillas como que el nombre “Gastón” que aparece acá es una dirección a otra persona que aparece en varios lugares y está tratando de idear un fraude; eso hoy se puede hacer con análisis de fraude. También la orquestación sin consenso en compras. Por ejemplo: “El miércoles tengo un cumpleaños, vienen diez personas, traeme el pedido”. Lo más sencillo que va a pasar es que se van a saltear las páginas y un agente va a decir: “Para esto que está pidiendo Gastón… sé la memoria de lo que es Gastón, hasta sé quiénes van a estar invitados y sus características si estuvo hablando alguna vez de su hermano…”, y me va a dar una propuesta. Luego, un conjunto de agentes irá a buscar dónde está más barato, otro ejecutará la compra y otro mirará la mejor orquestación para traérmelo a casa. La compra será más orientada a mi intención, por ejemplo, si estoy haciendo una dieta keto. Por detrás, hoy ya ChatGPT muchas de estas cosas te las orquesta, y este tipo de sistemas avanzados van a estar sucediendo mucho este año.

¿Y cuáles son los aciertos de quienes las incorporan de buena forma y cuáles son los errores? Porque hay mucho debate sobre que no hay mucha recompensa económica por ahora.

El mayor error es pensar que todo esto funciona sin contexto. Las empresas que aciertan entienden que es vital el acceso a los datos, que ya tienen un nivel de madurez de digitalización y una estrategia clara de cómo ponen y usan la información.

Si estoy en una organización de seguros y no tengo una forma de ingresar un seguro a mi sistema que no sea por una pantalla, difícilmente un agente pueda pensar: “Le pregunto a Juan qué auto tiene y le ingreso un seguro”. El error número uno es no entender que necesitás madurez de datos, de seguridad y de procesos. En empresas como Globant lo que hacemos son sistemas; no estamos solo programando o “codeando”. “Codear” una página web lo hace cualquiera, pero en las empresas hay datos de verdad que son críticos.

El segundo error es de seguridad: ¿qué tanto énfasis pusiste antes de soltar un agente? El tercer error es no entender que estos son sistemas vivos. No alcanza con un testing como antes: se necesita una gran evaluación y evolución del sistema. El manejo de expectativas es clave: mucha gente pone “tools” (herramientas) y no hace un ecosistema. Imaginamos el mismo proceso con una herramienta más rápida, cuando a veces hay que cuestionar si ese proceso está bien orquestado o si solo estamos perpetuando la ineficiencia. “Pongo Copilot y ya tengo mi estrategia de AI” es un error de expectativa por no pensar sistemáticamente.

Temas:

agente Inteligencia Artificial

Seguí leyendo

EO Clips

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos