Los trolls escriben peor que otros usuarios
Un algoritmo es capaz de detectar el comportamiento antisocial en línea con solo analizar 10 comentarios
Tiempo de lectura: -'
13 de abril de 2015 a las 12:36
Te quedan {{observador.articlesLeft}} notas gratuitas.
Accedé ilimitado desde US$ 3 45 / mes
En internet, un troll es una persona que agrede, se burla e insulta a otros en redes sociales en una manifestación de un comportamiento antisocial. ¿Cómo identificarlos antes de que cometan excesos? Investigadores de la Universidad de Stanford (EEUU) han creado un algoritmo capaz de detectarlos con precisión en apenas 10 comentarios en línea.
Justin Cheng y su equipo estudiaron tres sitios durante 18 meses: CNN.com, Breibart.com (de noticias políticas) y el sitio dedicado a los videojuegos IGN.com. De estos se habían expulsado más de 10.000 usuarios por comportamiento antisocial. Los investigadores contaban con todos los mensajes publicados por estos durante el período que estuvieron activos, según consignó MIT Technology Review.
Al comparar los mensajes, se descubrió que los trolls tienden a escribir entradas de “peor calidad” (por un menor nivel de alfabetización o claridad gramática) desde el principio de su conducta en redes y que empeora con el paso del tiempo. Entre 5 y 10 mensajes son suficientes para que el algoritmo de aprendizaje automático identifique al usuario que resultará un ser pernicioso para la red.
"Nuestros métodos pueden identificar eficazmente a los usuarios antisociales muy al principio de su participación en la comunidad", sostienen los investigadores.
No obstante, uno de cada cinco usuarios fue incorrectamente clasificado por el sistema de análisis. Uno de los riegos potenciales del algoritmo es expulsar innecesariamente a usuarios que no son antisociales pero que han sido identificados como tales.
Justin Cheng y su equipo estudiaron tres sitios durante 18 meses: CNN.com, Breibart.com (de noticias políticas) y el sitio dedicado a los videojuegos IGN.com. De estos se habían expulsado más de 10.000 usuarios por comportamiento antisocial. Los investigadores contaban con todos los mensajes publicados por estos durante el período que estuvieron activos, según consignó MIT Technology Review.
Al comparar los mensajes, se descubrió que los trolls tienden a escribir entradas de “peor calidad” (por un menor nivel de alfabetización o claridad gramática) desde el principio de su conducta en redes y que empeora con el paso del tiempo. Entre 5 y 10 mensajes son suficientes para que el algoritmo de aprendizaje automático identifique al usuario que resultará un ser pernicioso para la red.
"Nuestros métodos pueden identificar eficazmente a los usuarios antisociales muy al principio de su participación en la comunidad", sostienen los investigadores.
No obstante, uno de cada cinco usuarios fue incorrectamente clasificado por el sistema de análisis. Uno de los riegos potenciales del algoritmo es expulsar innecesariamente a usuarios que no son antisociales pero que han sido identificados como tales.
Esta nota es exclusiva para suscriptores.
Accedé ahora y sin límites a toda la información.
¿Ya sos suscriptor?
iniciá sesión aquí
Alcanzaste el límite de notas gratuitas.
Accedé ahora y sin límites a toda la información.
Registrate gratis y seguí navegando.
¿Ya estás registrado? iniciá sesión aquí.
Para comentar debe iniciar sesión.