4 de octubre 2025 - 10:05hs

El informe global Confianza, actitudes y uso de la inteligencia artificial (Universidad de Melbourne y KPMG, 2025) reveló una diferencia notable entre los países desarrollados y los emergentes respecto al uso, la confianza y la formación en inteligencia artificial (IA).

Mientras que en lugares como Japón, Alemania o Francia la adopción es baja, la confianza es limitada y los niveles de entrenamiento escasos, en países como India, Egipto o Arabia Saudita ocurre lo contrario: uso intensivo, alta percepción de beneficio, fuerte confianza en las capacidades técnicas y mayor disposición a adoptar herramientas de IA, sobre todo generativas.

Lo interesante es que estas diferencias no se explican por el acceso a tecnología ni por el nivel educativo, ya que el informe está basado en 47 países y más de 48.000 personas encuestadas, y controló esas variables. Tampoco se deben a una brecha generacional: en todos los países los jóvenes están más abiertos, pero la brecha se mantiene entre países aun dentro de las mismas franjas etarias. La pregunta es entonces por qué. Y la respuesta posible no está en la tecnología, sino en el sufrimiento.

Toda actividad humana es huida del sufrimiento. No hay ninguna excepción a esto. Desde esa premisa, toda actividad económica también está determinada exclusivamente por el sufrimiento. No es la racionalidad lo que guía nuestras decisiones, sino aliviar ese sufrimiento.

Las actitudes son razonables, no racionales: responden a un dolor o a evitarlo. La IA, como cualquier producto o herramienta, responde a una demanda, pero esa demanda no es abstracta ni universal. Siempre está anclada en una necesidad que, en términos más precisos, es un sufrimiento a resolver.

En países emergentes donde el sufrimiento dominante es material, la IA aparece como un alivio concreto: permite aprender más rápido, ganar dinero sin intermediarios, obtener diagnósticos médicos sin turno, reemplazar tareas tediosas o reducir costos. En esos contextos, no hay tiempo ni necesidad de preguntarse si el uso es ético, si deshumaniza o si reemplaza vínculos sociales. La herramienta es útil porque alivia un dolor inmediato.

En cambio, en países avanzados donde el sufrimiento ya no es la escasez, sino la ansiedad existencial, el vacío profesional o el miedo al reemplazo simbólico, la IA no trae alivio, sino sospecha. La herramienta no responde al tipo de sufrimiento dominante y, por eso, es resistida.

Esto no es menor. Significa que las inteligencias artificiales no son universales ni neutras. No existe una IA que sirva para todos, sino IAs que alivian distintos sufrimientos, dependiendo del lugar que cada sociedad ocupa en su propia pirámide de prioridades.

La división entre China y Estados Unidos, que suele presentarse como una competencia tecnológica, quizás no sea tanto un asunto de arquitectura de modelos, sino de cuál es la estructura de sufrimientos que esas IAs intentan abordar. India adopta IA masivamente porque sufre desde abajo, y la IA resuelve. Francia duda porque sufre desde arriba, y la IA no responde.

El informe demuestra que la confianza no surge por una estrategia de comunicación ni por una política regulatoria, sino por la relación directa entre la herramienta y el sufrimiento dominante. En marketing esto se entiende desde siempre: o se detecta el dolor real del otro para ofrecerle un alivio, o se le crea un dolor para poder vendérselo después. Pero incluso para inventar un sufrimiento, hay que saber desde qué nivel parte el otro. Por eso, todo análisis que ignore la naturaleza del sufrimiento está condenado al error. Y toda estrategia que acierte sobre ese punto, acierta sobre todo lo demás.

Las cosas como son

Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.

Más noticias

Te puede interesar

Más noticias de Uruguay

Más noticias de España

Más noticias de Estados Unidos