Tecnología > FALSOS

Videos deepfake: cuando quieren pasar Nicolas Cage por liebre

El actor es uno de los blancos favoritos de los videos deepfake, una tecnología por la que hay que sospechar de todo lo que se ve

Tiempo de lectura: -'

10 de septiembre de 2018 a las 05:00

Siwei Lyu / The Conversation

Una nueva forma de desinformación se extiende en línea a medida que las campañas electorales se calientan. Llamados deepfakes por la cuenta que popularizó la técnica –la que pudo haber elegido su nombre porque se utiliza un método técnico llamado deep learning (aprendizaje profundo)–, estos videos falsos parecen muy realistas.


Todo surgió en 2017, cuando un usuario anónimo de Reddit publicó un video porno aparentemente protagonizado por la actriz Daisy Ridley, conocida por interpretar al personaje de Rey en la saga Star Wars. Pero no era ella. Tampoco eran Emma Watson, Katy Perry, Taylor Swift o Scarlett Johansson en contenidos similares. 


Hasta el momento, la gente ha utilizado videos deepfakes en pornografía y sátiras para hacer parecer que los famosos están haciendo cosas que normalmente no harían. De esta forma, se ha visto al actor Nicolas Cage en varias de las escenas más míticas del cine o al expresidente de EEUU Barack Obama pronunciar un discurso que nunca salió de su boca. 


Pero es casi seguro que los deepfakes aparecerán durante las campañas electorales para mostrar a los candidatos diciendo cosas o yendo a lugares inesperados.

¿Y qué es un deepfake?


Hacer un deepfake es muy parecido a traducir idiomas. Los servicios como Google Translate utilizan el aprendizaje automático (análisis por computadora de decenas de miles de textos en varios idiomas) para detectar patrones de uso de palabras para crear la traducción.


Los algoritmos de deepfake funcionan de la misma manera: usan un tipo de sistema de aprendizaje automático llamado red neuronal profunda para examinar los movimientos faciales de una persona. Luego sintetizan imágenes de la cara de otra persona haciendo movimientos análogos. Al hacerlo de manera efectiva, se crea un video de la persona objetivo que parece hacer o decir las cosas que hizo la persona original.


Para que funcionen correctamente, las redes neuronales profundas necesitan mucha información. Cuantas más imágenes se usen para entrenar un algoritmo deepfake, más realista será la suplantación digital.


En un abrir y cerrar de ojos


Debido a que estas técnicas son tan nuevas, los usuarios tienen problemas para distinguir entre los videos reales y los deepfakes. Pero hay una manera confiable de identificarlos. No es una solución permanente, porque la tecnología mejorará, pero ofrece la esperanza de que las computadoras puedan ayudar a las personas a distinguir la verdad de la ficción.


Una de ellas tiene que ver con el parpadeo de las caras simuladas. Los adultos sanos parpadean entre cada 2 y 10 segundos y un solo parpadeo toma entre una décima y cuatro décimas de segundo. Eso es lo que sería normal ver en un video de una persona hablando. Pero no es lo que sucede en muchos videos deepfake. Una cara simulada no parpadea como lo hace una persona real.


Cuando se entrena un algoritmo deepfake con las imágenes faciales de una persona, se depende de las fotos que están disponibles en internet para utilizarlas como datos de entrenamiento. Incluso para las personas que son muy fotografiadas, habrá pocas imágenes en línea mostrándola, por ejemplo, con los ojos cerrados. 


Sin entrenamiento con imágenes de personas parpadeando, los algoritmos deepfake son menos propensos a crear rostros que parpadean con normalidad. Los personajes en los videos adulterados parpadean mucho menos en comparación con personas reales. 


Desde un punto de vista técnico, es posible escanear cada fotograma de un video en cuestión, detectar las caras en él y luego ubicar los ojos automáticamente. Luego se puede utilizar otra red neuronal profunda para determinar si el ojo detectado está abierto o cerrado, usando la apariencia del ojo, las características geométricas y el movimiento. El sistema desarrollado por el Computer Vision y Machine Learning Lab de la Universidad de Albany logró detectar un video falso hasta en el 95% de los casos.


Para evitar caer en una falla similar, hay que entrenar a los sistemas que detectan videos deepfakes con una gran biblioteca de imágenes de ojos abiertos y cerrados. 


Esta no es la última palabra para detectar deepfakes, por supuesto. La tecnología está mejorando rápidamente y la competencia entre generar y detectar videos falsos es análoga a un juego de ajedrez. En particular, se puede agregar un parpadeo a los videos deepfakes al incluir imágenes faciales con los ojos cerrados o al usar secuencias de video para el entrenamiento. Las personas que quieren confundir al público mejorarán y la comunidad tecnológica tiene que seguir buscando formas de detectarlos. 

Comentarios