Tecnología > VIDA EN LÍNEA

Así es como Facebook controla lo que podés publicar

La red social creó una lista de lineamientos sobre lo que sus 2.000 millones de usuarios pueden expresar en la plataforma. Las reglas, que se actualizan frecuentemente, son aplicadas por moderadores
Tiempo de lectura: -'
12 de enero de 2019 a las 05:02

Por Aodhan Beirne

A veces un emoticón es solo un emoticón. Pero, a veces, puede ser una amenaza. Y en solo unos segundos, los moderadores de Facebook tienen que reaccionar y tomar una decisión –incluso si el texto que acompaña a la cara amarilla sonriente está en un idioma que no conocen bien–.
Para ayudarles con esas decisiones, Facebook creó una lista de lineamientos sobre lo que sus 2.000 millones de usuarios pueden decir. Los moderadores trabajan con esas reglas que son actualizadas frecuentemente.

Para Facebook, el objetivo es la claridad. Sin embargo, para los miles de moderadores en todo el mundo, que enfrentan la tarea de navegar este bizantino laberinto de reglas mientras monitorean a diario miles de millones de publicaciones en más de 100 idiomas, la claridad es difícil de lograr.
Facebook intenta que esos lineamientos, y su existencia, se mantengan en secreto. Sin embargo, The New York Times adquirió 1.400 páginas de esas reglas, y no solo detectó problemas en la redacción, sino también en la manera en que se realiza el proceso de moderación.

En el laberinto

Cada dos martes las reglas se discuten durante un desayuno que se celebra en una sala de conferencias en Menlo Park, California –lejos de la aceleración del descontento social que los críticos suelen achacarle a Facebook–.

Aunque la compañía no consulta a grupos externos, las reglas son determinadas en gran medida por jóvenes abogados e ingenieros, la mayoría de los cuales no tienen experiencia en las regiones del mundo sobre las que están tomando decisiones.

Las reglas que ellos crean parecen estar escritas para anglohablantes que a veces dependen del traductor de Google. Eso indica una falta de moderadores con habilidades idiomáticas locales que podrían entender mejor los contextos locales.

Los empleados de Facebook dicen que no han entendido, del todo, qué tipo de publicaciones pueden crear disturbios violentos o políticos. Los reglamentos son deducciones. Algunos de los lineamientos usados por los moderadores son imprecisos, están desactualizados o carecen de matices críticos.

Por ejemplo, una presentación se refiere al criminal de guerra bosnio Ratko Mladic como un fugitivo, a pesar de que fue arrestado en 2011. Otra parece tener errores sobre la ley india porque aconseja a los moderadores que casi cualquier crítica a la religión debe ser marcada como probablemente ilegal. De hecho, según un académico especializado en temas jurídicos, criticar a la religión solo es ilegal cuando tiene la intención de generar violencia.
En Birmania, un error de papeleo permitió que un prominente grupo extremista, acusado de fomentar el genocidio, permaneciera en la plataforma durante meses.

Facebook subcontrata los procesos de moderación con compañías que emplean a miles de trabajadores para hacer cumplir las reglas. En algunas de estas oficinas, los moderadores dicen que se espera que revisen muchas publicaciones en tan solo entre ocho y 10 segundos. El trabajo puede ser tan exigente que muchas personas solo duran unos cuantos meses en ese cargo.

Los moderadores dicen que tienen pocos incentivos para contactar a Facebook cuando encuentran fallas en el proceso. Por su parte, Facebook permite en gran medida que las compañías que contratan a los moderadores se supervisen a sí mismas.

Cada vez, las políticas de Facebook se vuelven más asertivas para prohibir el acceso a grupos y personas, así como a tipos de discurso, que –según los moderadores– podrían conducir a la violencia. En países donde la línea entre extremismo y política tradicional es poco clara, el poder de la red social para prohibir el acceso a algunos grupos significa que, en esencia, ayuda a definir ganadores y perdedores políticos. A veces elimina partidos políticos, como Amanecer Dorado en Grecia, así como movimientos religiosos tradicionales en Asia y Oriente Medio. Esto puede significar que Facebook impide la participación de un sector de la población en los debates nacionales que suceden en su plataforma, argumenta un experto. Algunas intervenciones son más sutiles. Durante las elecciones en Pakistán, la empresa le pidió a los moderadores que aplicaran un escrutinio extra a un partido, pero calificó al otro de “benigno”. Y sus decisiones a menudo son modificadas a favor de los gobiernos, los cuales pueden multar o regular Facebook.

Aunque Facebook intenta limitar el contenido peligroso en su plataforma, continúa trabajando para incrementar sus usuarios en más países. A veces, esa tensión se observa en los lineamientos.

Por ejemplo, los moderadores que revisan publicaciones sobre Pakistán reciben advertencias sobre crear un “incendio de relaciones públicas” al hacer cualquier cosa que podría “tener un impacto negativo en la reputación de Facebook o incluso poner a la compañía en riesgo legal”.
Al depender de trabajadores subcontratados para realizar la mayor parte de la moderación, Facebook puede mantener costos bajos incluso mientras fija reglas para más de 2.000 millones de usuarios.

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 345 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 345 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 345 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...