Tecnología > Vea el video

Jennifer Lawrence, Steve Buscemi y un video falso bizarro hecho con inteligencia artificial que se viralizó

Un usuario de YouTube subió un video en el que se ve a la actriz dando una conferencia en los Globos de Oro, pero con la cara de Steve Buscemi

Tiempo de lectura: -'

31 de enero de 2019 a las 11:53

“Ver para creer” no es certeza en tiempos de fakes news y desarrollo de inteligencia artificial.

Un usuario de YouTube subió el pasado 14 de enero un video en el que se ve a la actriz Jennifer Lawrence (Los juegos del hambre) dando una conferencia en los premios Globos de Oro 2016, pero llevando la cara de Steve Buscemi (El gran Lebowski).

La fusión de los personajes es sorprendente y preocupante: la risa, expresiones y pausas de Lawrence calzan perfecto en la cara de Buscemi.

Esta nueva  modalidad de desinformación en forma de videos –muy realistas– se llama deepfake y utiliza la inteligencia artificial en aplicaciones sencillas en las que cualquiera puede crear este tipo de contenidos. De hecho, el creador del video de Buscemi y Lawrence dijo, según publicó el portal Xataka, que hizo el video con una aplicación gratuita.

¿Qué es el deepfake?

Los algoritmos de deepfake usan un tipo de sistema de aprendizaje automático llamado red neuronal profunda para examinar los movimientos faciales de una persona. Luego sintetizan imágenes de la cara de otra persona haciendo movimientos análogos. Al hacerlo de manera efectiva, se crea un video de la persona objetivo que parece hacer o decir las cosas que hizo la persona original.

Para que funcionen correctamente, las redes neuronales profundas necesitan mucha información. Cuantas más imágenes se usen para entrenar un algoritmo deepfake, más realista será la suplantación digital.

Esta nueva modalidad de fakes surgió en 2017, cuando un usuario anónimo de Reddit publicó un video porno que parecía protagonizado por la actriz Daisy Ridley, conocida por interpretar al personaje de Rey en la saga Star Wars.

Emma Watson, Katy Perry, Taylor Swift y Scarlett Johansson también fueron víctimas de contenidos similares. 

Un peligro que se extiende

Esta tendencia comenzó a utilizarse en videos porno y sátiras como las que se hicieron con la imagen del actor Nicolas Cage, que fue uno de los blancos favoritos del deepfake al colocarlo en varias de las escenas más míticas del cine en las que no estuvo. Ahora la modalidad y la inteligencia artificial se están extendiendo a otros ámbitos, como el político.

En abril de 2018 circuló un video deepfake en el que se veía al expresidente de Estados Unidos, Barack Obama, dar un discurso que en realidad nunca dio.

Según informó CNN, el Pentágono está trabajando para detectar los deepfakes. En la Universidad de Colorado hay investigadores haciendo el proceso inverso: tratan de crear este tipo de videos lo más realistas posible y luego utilizan tecnología que permita detectar qué es lo real y qué es lo falso.

REPORTAR ERROR

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 245 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 245 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 245 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...