Los videos deepfake (ultrafalso o falsificaciones profundas), hoy disponibles con decenas de aplicaciones para todo público, han movido los cimientos de la información y potenciaron el fenómeno de las noticias falsas.
Los gigantes tecnológicos parecen haberse preocupado. Google anunció la intensificación de sus esfuerzos para combatirlos al publicar nuevos datos para ayudar a los investigadores a detectar videos manipulados mediante la inteligencia artificial (AI).
Para ello, el gigante tecnológico anunció el lanzamiento de un "conjunto de datos de deepfakes visuales que hemos producido" y que podrán ser utilizados como punto de referencia para determinar si un video ha sido alterado artificialmente.
"La detección de deepfakes es uno de los desafíos más importantes que tenemos por delante", dijo el presidente ejecutivo de Google, Sundar Pichai, en un mensaje en Twitter.
La iniciativa se produce en medio de la creciente preocupación de que las "deepfake" se puedan utilizar para sembrar discordia o manipular campañas electorales.
Algunos analistas han señalado que esperan que se utilicen falsificaciones realistas para distorsionar las elecciones estadounidenses de 2020.
"Para elaborar este paquete de datos, durante el año pasado trabajamos con actores pagados y con consentimiento para grabar cientos de videos", expresaron en un blog Nick Dufour, de Google Research, y Andrew Gully, de Jigsaw, una unidad de investigación separada de la firma Alphabet, matriz de Google.
"Utilizando métodos de generación de deepfake disponibles al público, creamos miles de deepfakes a partir de estos videos. Los videos resultantes, reales y falsos, constituyen nuestra contribución, que creamos para apoyar directamente los esfuerzos de detección de los deepfake".
A principios de este año, Google lanzó datos de audio sintético con el mismo objetivo y ha estado trabajando con socios de la industria para detectar y frustrar las falsificaciones profundas.
Hao Li, profesor asociado de Ciencia de la Computación de la Universidad de California del Sur, y pionero en esta tecnología, afirmó que "de seis meses a un año", estos videos falsos se verán "perfectamente reales", en una entrevista con el canal CNBC.
Li reconoció que luego de ver apps como la polémica china Zao, "recalibró" las estimaciones temporales que tenía sobre la llegada de videos falsos, imperceptibles para el ojo humano a simple vista. "Pronto, llegará el punto en el que ya no habrá modo de detectar deepfakes, así que tenemos que buscar otro tipo de soluciones", enfatizó.
Para el profesor asociado, de todas maneras aún es fácil para el ojo humano ver cuando un video es falso, pero esto no durará mucho tiempo. "De algún modo, actualmente ya sabemos cómo hacerlo. Es solo una cuestión de entrenar con más datos e implementarlos", explicó.
Esta entrevista con CNBC ocurrió el mismo día en que Hao Li brindó una videoconferencia para el MIT con el rostro del presidente ruso, Vladimir Putin, para demostrar en qué punto se encuentra actualmente la tecnología deepfake.
El pionero en la materia remarcó que si se quiere poder detectar deepfakes "debes ver cuáles son los límites", para lo que cree importante el apoyo de investigaciones académicas. "Es imposible de detectarlos si no sabés cómo funcionan", agregó.
En Estados Unidos, estas declaraciones a la CNBC despertaron las alarmas, ya que el próximo año se realizarán las elecciones presidenciales en ese país. "La verdadera pregunta es cómo podemos detectar videos donde la intención es algo que se usa para engañar a las personas o algo que tiene una consecuencia perjudicial", afirmó Li.
Inicio de sesión
¿Todavía no tenés cuenta? Registrate ahora.
Para continuar con tu compra,
es necesario loguearse.
o iniciá sesión con tu cuenta de:
Disfrutá El Observador. Accedé a noticias desde cualquier dispositivo y recibí titulares por e-mail según los intereses que elijas.
Crear Cuenta
¿Ya tenés una cuenta? Iniciá sesión.
Gracias por registrarte.
Nombre
Contenido exclusivo de
Sé parte, pasá de informarte a formar tu opinión.
Si ya sos suscriptor Member, iniciá sesión acá