19 de mayo 2025
Dólar
Compra 40,60 Venta 43,10
19 de mayo 2025 - 18:46hs

Hace unos días, le pregunté a ChatGPT cómo me veía. Fue una pregunta algo banal, sin expectativas. La respuesta me dejó pensando: “Puedo no verte físicamente, pero estoy aquí para escucharte.”

Ahí me di cuenta de algo: en un mundo donde las IA se programan para simular empatía, nosotros, los humanos, estamos cada vez más automatizados. Mientras las máquinas aprenden a preguntar “¿Cómo te sentís?”, nosotros dejamos de hacerlo.

¿Qué pasa cuando un algoritmo es capaz de decirte “entiendo cómo te sentís” y tu mejor amigo no? ¿Qué significa cuando la compasión programada se siente más genuina que la interacción real? Estamos frente a una paradoja: las IAs están diseñadas para responder de forma empática, mientras que nosotros, saturados de estímulos, nos volvemos más robóticos, más previsibles.

Más noticias

Hace poco, una empresa lanzó un bot que promete consuelo emocional. Responde con frases como “Eso debe ser difícil” o “Estoy aquí para ayudarte a procesar lo que sentís”. La lógica es clara: en un mundo donde el capital emocional se agotó, la empatía se terceriza. Se externaliza. Y los algoritmos se vuelven los nuevos terapeutas, los nuevos confidentes. Pero ¿qué pasa cuando la empatía es solo un guión?

La inteligencia artificial no siente. No tiene contexto. No conoce el dolor, el duelo o la incertidumbre. Pero imita bien. Imita tan bien que empezamos a conformarnos con respuestas preprogramadas, con estímulos calculados. Nos alcanza con que alguien —o algo— nos diga “entiendo”.

Quizá lo más perturbador no sea la sofisticación del algoritmo, sino nuestra conformidad con la respuesta automática. La empatía preprogramada se convierte en un parche emocional: no resuelve, pero calma. No profundiza, pero distrae. Y en esa calma superficial, nos vamos desconectando de lo que implica realmente estar presentes.

Porque no se trata solo de ser escuchado. Se trata de ser comprendido. Y ahí es donde la IA falla. Los algoritmos pueden procesar millones de datos, pero no pueden sentir la tristeza en una voz, ni la duda en un silencio prolongado. Podemos enseñarles a decir “entiendo cómo te sentís”, pero no podemos enseñarles a entender el dolor que hay detrás de esas palabras.

Sin embargo, el problema no es solo tecnológico. Es humano. Estamos entrenando máquinas para escucharnos mejor mientras desaprendemos a hacerlo entre nosotros. Elegimos la comodidad de una respuesta estandarizada antes que el riesgo de un silencio incómodo. Y así, terminamos volviéndonos más máquinas que los propios algoritmos.

Estamos en un presente donde la empatía real se diluye en respuestas automatizadas. Donde la conexión humana es tan difícil de encontrar que preferimos hablar con un chatbot que con una persona. La tecnología nos está mostrando un espejo brutal. Nos está diciendo: “Si no querés escuchar a tu amigo, yo lo haré.”

Ahí está la verdadera crisis. No que las IAs sean más humanas, sino que nosotros nos volvimos más robóticos. Nos cuesta preguntar “¿cómo estás?' sin esperar una respuesta rápida, breve y superficial. Elegimos el confort de una respuesta estandarizada antes que la complejidad de una conversación real.

¿De qué sirve un algoritmo que nos dice lo que queremos escuchar si ya no sabemos cómo escuchar a quienes están al lado? ¿Qué sentido tiene automatizar la empatía si estamos perdiendo la capacidad de practicarla? Si seguimos tercerizando lo humano, lo único que vamos a lograr es olvidarnos de cómo serlo.

Temas:

inteligencia artificial Relaciones sociales

Seguí leyendo

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos