14 de agosto 2025 - 20:19hs

Un estudio de la Universidad de Amsterdam concluyó que las redes sociales probablemente sean un caso perdido, ya que sus problemas más tóxicos están estructuralmente integrados en su propia arquitectura. La investigación, publicada como preprint (versión preliminar antes de la revisión por pares) en el repositorio arXiv, utilizó inteligencia artificial para simular el comportamiento de usuarios y descubrió que la toxicidad emerge naturalmente sin necesidad de algoritmos manipulativos.

Los investigadores Petter Törnberg y Maik Larooij desarrollaron un modelo híbrido que combina modelos de lenguaje de gran escala (LLM) con simulaciones basadas en agentes para recrear digitalmente el funcionamiento de una red social. El resultado fue revelador: sin introducir algoritmos de engagement ni otras manipulaciones, aparecieron espontáneamente las tres disfunciones más problemáticas de estas plataformas.

"No necesitamos poner ningún algoritmo, no necesitamos ‘masajear’ el modelo. Todas esas dinámicas negativas salieron del modelo base", explicó Törnberg en una entrevista con el sitio Ars Technica, medio que reportó los hallazgos del estudio.

Más noticias

La investigación se enfocó en tres problemas centrales que han transformado las redes sociales de espacios de diálogo constructivo en entornos disfuncionales: las cámaras de eco partidarias, donde solo conversan personas que ya están de acuerdo; la desigualdad extrema de atención, con influencia concentrada en un pequeño grupo de usuarios élite; y la amplificación sistemática de las voces más extremas y divisivas.

Los experimentos que fallaron

El equipo holandés puso a prueba seis estrategias diferentes que científicos sociales han propuesto para mejorar el funcionamiento de las redes sociales. Probaron desde feeds cronológicos hasta algoritmos diseñados específicamente para fomentar el entendimiento mutuo, pasando por la diversificación forzada de puntos de vista y la eliminación de estadísticas sociales como reposteos y seguidores.

Los resultados fueron desalentadores. Ninguna intervención logró resolver completamente los problemas fundamentales. Algunas mostraron mejoras modestas en ciertos aspectos, pero generaron efectos negativos en otros. Por ejemplo, el ordenamiento cronológico tuvo el efecto más fuerte para reducir la desigualdad de atención, pero intensificó la amplificación de contenido extremo.

3Y2LJ7ISGVCG7JGFF5FUDSVGZE

Los llamados "algoritmos puente", diseñados para elevar contenido que fomente la comprensión mutua en lugar de la provocación emocional, debilitaron significativamente la conexión entre partidismo y engagement, pero aumentaron la desigualdad de atención. La diversificación forzada de puntos de vista no tuvo impacto significativo.

"Algunas de ellas tienen efectos moderados o ligeramente positivos en uno de los atributos, pero después suelen tener efectos negativos en otro atributo, o no tienen impacto alguno", señaló Törnberg. El investigador aclaró que estas fueron intervenciones extremas que probablemente harían a las plataformas "realmente aburridas de usar" si dependieran de generar ingresos publicitarios.

La trampa estructural de las redes globales

La explicación del fenómeno radica en lo que los investigadores identificaron como una retroalimentación tóxica entre las acciones emocionales de los usuarios y la estructura de red que emerge. Cuando alguien repostea contenido que lo enoja o lo conmueve intensamente, no sólo está amplificando ese mensaje: también está moldeando las conexiones y jerarquías de toda la red.

"Hay una retroalimentación entre la acción emocional efectiva de elegir repostear algo y la estructura de red que emerge. Y luego, a su vez, tienes una estructura de red que retroalimenta qué contenido ves, resultando en una red tóxica", explicó Törnberg.

El problema trasciende las decisiones empresariales o los sesgos humanos individuales. "No se trata de que las plataformas sean malvadas ni que la gente quiera estar en entornos tóxicos y horribles. Simplemente se sigue de la estructura que estamos proporcionando", agregó.

Esta conclusión tiene implicaciones directas para plataformas emergentes como Bluesky, que ante ciertas controversias suscitadas en X (ex Twitter), se suele promocionar como una alternativa sin algoritmos manipulativos. Según la investigación, los mismos problemas aparecerán inevitablemente porque están inherentes en el modelo básico de red social: publicar, repostear y seguir.

El 1% que domina la conversación

Uno de los hallazgos más impactantes del estudio se relaciona con la distribución desigual de la atención. En lugar de seguir una distribución normal donde la mayoría de usuarios tendría influencia moderada, las redes sociales generan distribuciones de ley de potencias donde el 1% de los usuarios domina completamente la conversación. Esta dinámica significa que las voces que vemos más frecuentemente no son representativas de la población general, sino de un grupo minoritario que logró capturar la atención masiva, frecuentemente mediante contenido extremo o controversial.

bafkreid7v2f3sg5dguvzs5iut2dszeizfi5uwinrig7jn3pbky2qmxam6m
Petter Törnberg

Petter Törnberg

El fenómeno crea lo que el investigador denomina "prisma de redes sociales": una distorsión sistemática donde la política aparece mucho más tóxica y polarizada de lo que realmente es. "La mayoría de la gente tiene opiniones bastante razonables y bastante similares. La polarización real es menor que la polarización percibida. Y eso posiblemente es resultado de las redes sociales, de cómo representan mal la política", señaló.

Esta distorsión no se limita al espacio digital. Los medios tradicionales también se adaptan a la lógica de las redes sociales. Törnberg mencionó que un estudiante demostró cómo The New York Times adoptó progresivamente titulares más sensacionalistas a medida que las redes sociales ganaban influencia cultural.

Un problema sin escape aparente

La investigación sugiere que abandonar individualmente las redes sociales no es una solución efectiva porque su influencia se extiende mucho más allá de sus usuarios directos. Las plataformas se han convertido en el "motor cultural" que moldea la política y la sociedad, determinando qué tipo de políticos obtienen poder y atención.

"Tratamos de tranquilizarnos diciendo que lo que pasa en las redes sociales no pasa en el mundo real, pero resulta que todo está entrelazado, y de alguna manera las redes sociales se han convertido en el motor cultural que está moldeando nuestra política y sociedad de maneras muy fundamentales", advirtió el investigador.

Para resolver estos problemas estructurales, Törnberg sugiere que probablemente sea necesario alejarse completamente del modelo de red social global y retornar a estructuras más locales y basadas en grupos, similares a las conversaciones en cafeterías que originalmente inspiraron la idea del espacio público digital.

El investigador también plantea que la crisis actual con la inteligencia artificial y la producción masiva de desinformación podría forzar cambios en el ecosistema de redes sociales, aunque no necesariamente para mejor. "Ya vemos muchos actores que están usando IA para producir contenido que solo busca maximizar la atención. Información errónea, a menudo información altamente polarizada", observó.

Ante la pregunta de si existe esperanza de transformar lo tóxico en algo positivo, Törnberg ofreció una respuesta que mezcla resignación con cierto optimismo cauteloso: “Tal vez todos terminemos diciendo 'que se vayan al diablo'. Y después encontremos una nueva ‘cloaca’”.

Temas:

Redes sociales tecnología

Seguí leyendo

Más noticias

Te puede interesar

Más noticias de Uruguay

Más noticias de España

Más noticias de Estados Unidos