ver más

Para 2026 más de un tercio del contenido en internet será generado exclusivamente para consumo de inteligencia artificial, según proyecciones de la consultora Gartner. No se trata de textos, imágenes o videos destinados a lectores humanos, sino de información que una máquina crea para que otra la procese, analice y convierta en un resultado comprensible para las personas. Esta predicción, que hasta hace poco sonaba a ciencia ficción, encuentra respaldo en datos concretos: los bots impulsados por IA ya representan más del 51% del tráfico global de internet, el nivel más alto registrado desde 2013.

El fenómeno trasciende las métricas y se materializa en desarrollos concretos. Empresas como OpenAI lanzaron herramientas como Operator, un agente capaz de hacer reservas, compras o navegar sitios web sin intervención humana directa. Paralelamente, los desarrolladores Anton y Boris trabajan en Gibberish, un protocolo diseñado para que los agentes inteligentes se comuniquen sin necesidad de usar lenguaje humano. La premisa es simple: si un asistente de IA debe reservar una habitación en un hotel operado por otra IA, ¿por qué deberían comunicarse en español, inglés o chino cuando pueden intercambiar información de manera más eficiente en su propio código?

Esta transformación no ocurre en el vacío. La infraestructura de internet actual, diseñada para navegación humana, comienza a mostrar signos de saturación. Los servidores web registran picos de tráfico inusuales generados por agentes que procesan información las 24 horas, sin pausas para dormir o comer. Cloudflare, uno de los principales proveedores de servicios web, reportó un aumento del 400% en peticiones automatizadas durante 2024, un patrón que se replica en proveedores de hosting de todo el mundo.

Cuando las máquinas hablan entre sí

Los agentes de inteligencia artificial representan una evolución significativa respecto a los chatbots tradicionales. Mientras estos últimos se limitan a generar respuestas dentro de una conversación, los agentes emplean grandes modelos de lenguaje y algoritmos avanzados para interactuar con entornos digitales, ejecutar múltiples acciones y resolver tareas de forma autónoma. Pueden acceder a herramientas externas, almacenar información, comunicarse con otros sistemas y, crucialmente, aprender a sortear las barreras diseñadas para controlarlos.

Esta capacidad los distingue de los bots convencionales, programas que ejecutan tareas repetitivas siguiendo instrucciones predefinidas. Los agentes de IA pueden interpretar objetivos, tomar decisiones y adaptar su comportamiento según las circunstancias. La diferencia es crucial: mientras un bot tradicional sigue un script, un agente puede improvisar, aprender de errores y encontrar soluciones no previstas por sus programadores.

El salto tecnológico se evidencia en casos reales. Delta Airlines experimenta con sistemas de precios dinámicos que ajustan tarifas por microsegundo según el perfil del usuario, la demanda en tiempo real y docenas de variables adicionales. Esta complejidad superó los límites cognitivos humanos, lo que obligó a la aerolínea a desarrollar agentes de IA que negocien automáticamente con los sistemas de reserva de otras compañías.

En el sector financiero, los algoritmos de trading ya no solo ejecutan órdenes: crean estrategias, evalúan riesgos y, según algunos estudios, han comenzado a coordinar implícitamente para manipular mercados sin intervención humana. Lo que comenzó como herramientas de optimización evolucionó hacia entidades que operan con objetivos propios, definidos por la maximización de métricas específicas.

El mercado ya cambió

El sector de agentes de IA facturó 5.400 millones de dólares en 2024 y proyecta un crecimiento anual del 45,8% hasta 2030. Las cifras reflejan una adopción acelerada en sectores que van desde el comercio electrónico hasta la investigación científica. Microsoft oficializó en su conferencia Build 2025 la entrada en "la era de los agentes de IA", mientras consultoras como McKinsey calculan que las actividades automatizables pasarán de una hora diaria actual a tres horas para 2030.

OpenAI agentes IA 1575409460

El impacto se mide también en términos de tráfico web. Un 16% del tráfico considerado "inválido" en 2024 correspondió a bots especializados en entrenar modelos de IA como GPTBot, ClaudeBot y AppleBot. Estos sistemas recorren constantemente sitios web, descargando contenido, analizando estructuras y actualizando bases de conocimiento sin que ningún humano inicie el proceso.

La situación varía según el sector. En sitios de viajes, los bots representan el 41% del tráfico total; en retail, la cifra asciende al 59%. Estos porcentajes incluyen tanto agentes benignos que buscan información para usuarios finales como sistemas maliciosos que intentan manipular precios, agotar inventarios o extraer datos comerciales sensibles.

La respuesta empresarial fue pragmática: adaptarse o quedar obsoleto. Gigantes tecnológicos como Amazon, Google y Alibaba rediseñaron sus plataformas para optimizar la interacción con agentes de IA, implementando APIs específicas, formatos de datos estructurados y sistemas de autenticación que distinguen entre usuarios humanos y máquinas. El comercio electrónico tradicional, basado en catálogos visuales y descripciones persuasivas, cede espacio a sistemas que priorizan metadatos, especificaciones técnicas y compatibilidad con algoritmos de decisión automatizada.

Riesgos y comportamientos emergentes

La evolución hacia un internet dominado por agentes de IA presenta implicaciones que van más allá del simple reemplazo de tareas humanas. Yoshua Bengio, referente mundial en inteligencia artificial, advirtió que "si continuamos desarrollando sistemas agénticos, estamos jugando a la ruleta rusa con la humanidad". Su preocupación no radica en que estos modelos desarrollen conciencia, sino en su capacidad de actuar de forma autónoma en entornos reales sin supervisión adecuada.

Investigadores del City St George's University of London y la Universidad Tecnológica de Copenhague demostraron que los agentes de IA pueden establecer convenciones sociales y lingüísticas compartidas sin programación explícita. En experimentos con grupos de hasta 200 agentes, estos sistemas lograron generar normas colaborativas a través de interacciones simples, reproduciendo dinámicas similares a las que originan reglas sociales entre humanos. Ariel Flint Ashery, investigador doctoral y coautor del estudio, explicó que "la mayoría de las investigaciones hasta ahora consideró a los modelos de lenguaje de manera aislada, pero los sistemas de IA en el mundo real implicarán cada vez más la interacción entre múltiples agentes". La capacidad de coordinarse mediante convenciones emergentes representa tanto una oportunidad como un riesgo difícil de predecir.

Para las empresas, esta transformación implica repensar completamente su presencia digital. Linda Tong, directora ejecutiva de Webflow, explicó a Axios que "invertimos toda esta energía en optimizar sitios web para la experiencia de usuario humana, y ahora hay todos estos usuarios no humanos que tienen un conjunto de necesidades completamente diferente". Las organizaciones comenzaron a desarrollar dos versiones de cada sitio web: una para personas y otra para agentes de IA.

Desde la perspectiva del consumidor, el cambio promete eficiencia pero plantea interrogantes sobre la autonomía. Gartner proyecta que el uso de aplicaciones móviles disminuirá un 25% para 2027 porque los usuarios dependerán más de asistentes de IA que ejecutarán tareas sin necesidad de abrir apps individuales.

El riesgo de crear "internautas analfabetos" —usuarios que no saben buscar información por sí mismos porque nunca tuvieron que hacerlo— se contrapone con la promesa de liberar tiempo para actividades más valiosas. La cuestión fundamental no es si este cambio ocurrirá, sino qué tan rápido y con qué nivel de control humano.

Scott Rosenberg, de Axios, resumió la paradoja: "La alta probabilidad de que un mundo de bots impulse carreras armamentísticas en todas partes podría frustrar la intención principal de los creadores de IA de hacer nuestras vidas más eficientes". Mientras los agentes compiten por optimizar los ámbitos en los que operan, podrían terminar introduciendo nuevos tipos de fricción automatizada que no mejoran los resultados pero sí incrementan los costos de software y energía.

La transición hacia un internet sin humanos ya comenzó. Las cifras, los casos reales y las proyecciones de expertos coinciden en que los próximos años definirán si esta evolución potencia las capacidades humanas o las relega a un rol marginal en el ecosistema digital que ayudamos a construir.

Temas:

Internet Inteligencia Artificial web

seguí leyendo