Tecnología > Política de prevención

Instagram prohíbe contenido relacionado al suicidio

Hace tres meses ya había prohibido imágenes que inciten o promuevan autolesiones o el suicidio, pero ahora también será eliminado todo contenido relacionado.

Tiempo de lectura: -'

30 de octubre de 2019 a las 18:35

Instagram prohibió todo contenido relacionado a autolesiones o suicidio. Así lo confirmó Adam Mosseri, el director de Instagram, en un comunicado emitido el 27 de octubre.

Hace tres meses, la red social de Facebook ya había informado que eliminaría contenido que incite o promueva este tipo de actos nocivos y mortales, pero ahora eliminará también memes, dibujos, o cualquier tipo de contenido que pueda ser relacionado.

"También eliminaremos otras imágenes que pueden no mostrar autolesiones o suicidio, pero que incluyen materiales o métodos asociados", explica Mosseri en el comunicado.

El director explicó que las autolesiones y el suicidio son asuntos que preocupan a la gente, pero que son complicados, y los jóvenes (público objetivo de la red social) son muy influenciables por el contenido que consumen cuando buscan ayuda.

Por esto, Instagram quiere eliminar cualquier influencia negativa, y ya ha "eliminado, reducido la visibilidad o añadido pantallas de sensibilidad", a más de 834.000 publicaciones, según informó ABC.

La polémica por la influencia de Instagram en casos de suicidio comenzó a principios de 2019, cuando el padre de Molly Russell, una adolescente inglesa de 14 años que se suicidó en 2017, culpó a la red por haber influido en su decisión.

"Había cuentas de gente que estaba deprimida, que se autolesionaba o que se planteaba el suicidio. Molly había accedido a muchos contenidos parecidos", explicó Ian Russell a la BBC. "No tengo ninguna duda de que Instagram ayudó a matar a mi hija", agregó.

En el mismo informe de la BBC Ged Flynn, director de una organización para la prevención del suicidio de jóvenes en Reino Unido llamada Papyrus, sostuvo que los algoritmos de Instagram eran responsables del acceso repetido a este contenido, ya que "al seguir una cuenta de este tipo, la red social te sugiere más. Es algo muy grave y que está llevando a niños a encontrar fácilmente contenidos sobre tragedias humanas".

El padre de Molly Russell contó que veía hashtags como #selfharm (autolesión) o #depression (depresión), los cuales al apretar sobre ellos nos llevan a contenido relacionado. Para Flynn "el suicidio no es un hashtag, es una inimaginable y devastadora tragedia".

REPORTAR ERROR

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 245 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 245 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 245 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...