28 de noviembre 2025 - 17:32hs

¿Por qué ciertos posteos se reproducen como virus mientras otros mueren en el anonimato? Un equipo de la Universidad de Nueva York encontró la respuesta en 4.821.006 publicaciones de X y Facebook: los mensajes que combinan contenido moral con carga emocional tienen 13% más probabilidades de ser compartidos por cada palabra de ese tipo que incluyan. No es intuición ni marketing: es un patrón medible, robusto y replicable en distintos contextos, temas y momentos.

La investigación, publicada en PNAS Nexus, probó algo que cualquiera que pase tiempo en redes sociales sospecha: la indignación funciona. Pero lo hizo con el rigor de 27 estudios realizados por cinco laboratorios independientes, abarcando desde las audiencias de la Corte Suprema estadounidense hasta los debates sobre barbijos en plena pandemia. El fenómeno tiene nombre: "contagio moral". Y no discrimina: opera tanto en usuarios comunes como en figuras públicas.

Palabras que cuentan (literalmente)

Los investigadores liderados por William Brady no se limitaron a observar. Desarmaron 849.266 posteos palabra por palabra, clasificándolas en tres categorías: morales ("justicia", "traición", "virtud"), emocionales ("alegría", "miedo", "tristeza") y moral-emocionales, esa combinación que incluye términos como "odio", "disgusto" o "codicia". Pero no se quedaron en el método tradicional de diccionarios: también usaron GPT-3.5 para que un modelo de inteligencia artificial evaluara el contenido moral y emocional de cada mensaje en una escala de 0 a 10.

Más noticias

La trampa de estos estudios está en los detalles. No alcanza con contar palabras: hay que controlar todo lo que naturalmente hace que un mensaje se propague. ¿Cuántos seguidores tiene quien postea? ¿La cuenta está verificada? ¿Hay imágenes o enlaces? Los investigadores incluyeron todas esas variables en modelos estadísticos diseñados para datos como las republicaciones, donde la mayoría de los mensajes reciben poca atención y unos pocos explotan.

El experimento no fue improvisado. Recolectaron posteos en cinco momentos de máxima controversia política en Estados Unidos entre 2018 y 2020, cuando el ruido en redes estaba al máximo.

La excepción que confirma (o complica) la regla

Cuatro de los cinco datasets mostraron el efecto con claridad. El tema de la prohibición de personas transgénero en el ejército disparó el indicador más alto: cada palabra moral-emocional adicional multiplicó por 1,66 las chances de que el mensaje fuera compartido. El muro fronterizo propuesto por Donald Trump y el uso de barbijos mostraron aumentos más moderados pero consistentes del 5%, 7% y 12%.

Pero hubo una excepción notable: el dataset sobre la muerte de George Floyd. Ahí la relación se invirtió. Los autores especulan que las protestas masivas de Black Lives Matter generaron dinámicas particulares, un momento de movilización colectiva donde los patrones habituales de compartir información se alteraron. Es un recordatorio útil: no existen leyes universales en el comportamiento humano, solo tendencias más o menos robustas con sus excepciones reveladoras.

Cuando repitieron el análisis con GPT, los resultados no solo se mantuvieron: el tamaño del efecto fue incluso mayor. Eso sugiere que el fenómeno no depende de cómo se mida, sino que refleja algo más profundo sobre cómo los usuarios procesan y redistribuyen contenido que toca valores fundamentales.

desinformación

Cuando los números hablan claro

Integrar todos los estudios disponibles produjo una estimación de IRR = 1,13 (intervalo de confianza del 95%: 1,06-1,20). Traducido: por cada palabra moral-emocional extra en una publicación, el número esperado de veces que será compartida aumenta un 13%. El efecto resultó ligeramente menor al del estudio original de 2017, que había estimado un 20%.

Esa diferencia no es un error: es el camino normal de la ciencia. Los estudios pioneros suelen sobrestimar los efectos que descubren. Las replicaciones con muestras más grandes y controles más estrictos corrigen el rumbo. En este caso, la nueva estimación es más conservadora pero también más confiable.

Los investigadores también desactivaron una crítica previa. Un trabajo de 2023 había sugerido que el modelo de contagio moral no funcionaba mejor que un modelo absurdo que contaba las letras X, Y y Z en los mensajes. La nueva replicación demostró lo contrario: en todos los datasets, el modelo de contagio moral superó significativamente al modelo de control aleatorio. No es magia estadística: hay algo real ahí.

Lo que no sabemos (todavía)

Los datos son correlacionales, no experimentales. Un mensaje cargado de lenguaje moral-emocional puede diferir de otros en aspectos que el análisis no captura. Pero experimentos conductuales hechos por otros equipos sí demostraron causalidad: cuando se manipula el contenido moral-emocional de un mensaje, aumentan las intenciones de compartirlo. El mecanismo es real.

Lo que el estudio no responde es si esto es bueno o malo. El lenguaje moral-emocional puede visibilizar injusticias y movilizar acciones colectivas. Pero investigaciones previas también lo vincularon con el aumento de la identificación grupal extrema, el deterioro de las relaciones entre grupos opuestos y, en los casos más graves, con violencia en el mundo físico. La herramienta es neutra; el uso, no tanto.

Hay algo irónico en todo esto. Las redes sociales prometieron democratizar la conversación pública, dar voz a todos, nivelar el campo de juego. Y en cierto modo lo hicieron. Pero también crearon ecosistemas donde los mensajes más efectivos no son necesariamente los más razonados o matizados, sino los que activan resortes morales y emocionales específicos. Con más de 5.000 millones de personas usando estas plataformas, entender esos mecanismos dejó de ser un ejercicio académico. Es comprender cómo se forman las conversaciones públicas que definen la política, la cultura y los conflictos de esta época.

Temas:

moral Redes sociales

Seguí leyendo

Más noticias

Te puede interesar

Más noticias de Uruguay

Más noticias de España

Más noticias de Estados Unidos