Tecnología > Filtros burbuja

Feminismo en redes: cómo el algoritmo refuerza la polarización de posturas

Un estudio realizado por Gema Valencia, una investigadora española, concluye que las redes sociales refuerzan las posturas de los usuarios y "polarizan" las perspectivas
Tiempo de lectura: -'
06 de marzo de 2019 a las 15:27

“Si personas con perspectivas contrarias a la igualdad tienen menor acceso a contenidos feministas y están expuestas a informaciones que refuerzan sus visiones, pueden quedar atrapadas en un bucle que las lleve a una polarización machista”, advirtió un estudio realizado por Gema Valencia, una investigadora española.

El bucle al que se refiere Valencia son las burbujas de filtros: algoritmos que personalizan la información en internet basándose en el comportamiento de los usuarios online y priorizan los contenidos para adaptar la experiencia de las personas en la web con sus intereses. Cada click le enseña a los algoritmos qué cosas nos gustan y cuáles no.

“Las burbujas de filtros es el universo propio, personal, único, de información que uno vive en la red. Y lo que haya en las burbujas de filtros depende de quién es uno y de lo que hacemos” así lo explicaba Eli Pariser, quien acuñó el término por primera vez, en una charla TED de 2011.

Valencia realizó un estudio titulado “El filtro burbuja y su papel en la polarización de posturas contrarias al feminismo. El caso de Facebook” para analizar el efecto de los filtros sobre las redes sociales y el feminismo a partir de perfiles machistas, feministas y neutros. La investigación fue premiada por la Universidad Pablo de Olavide de Sevilla, España.

El trabajo concluyó que las redes sociales acentúan los prejuicios de los usuarios y, por ejemplo, en las posturas machistas en las que los contenidos que se les muestran refuerzan sus perspectivas, los filtros burbuja tienen un efecto muy perjudicial si la red no los expone a ideas contrarias, como los contenidos feministas o de igualdad de género, afirma el estudio.

Para llegar a esas conclusiones, Valencia creó tres tipos de perfiles diferentes en las redes sociales: uno con intereses feministas, otro con intereses machistas y otro con características neutras. En el curso de la investigación, Valencia detectó que las palabras que se utilizan son claves y provocaron que “los contenidos referidos a acosos, abusos y agresiones sexuales o asesinatos machistas desaparecieran para algunas usuarias y usuarios”.

Otro resultado del estudio dice que Facebook no muestra ni el 50% de publicaciones totales difundidas por las páginas sobre las que el usuario ha mostrado preferencias. “El hecho de que se pierdan noticias dificulta el desarrollo de un proyecto colectivo en sociedad y, en consecuencia, el consenso social necesario para la lucha contra las desigualdades de género”, concluyó Valencia.

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 345 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 345 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 345 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...