Tecnología > Seguridad

Simulan el sonido con un láser y hackean los asistentes de voz de Apple, Google y Amazon

Un grupo de científicos vulnera la seguridad de estos sistemas e indican que deben ser rediseñados por completo

Tiempo de lectura: -'

06 de noviembre de 2019 a las 12:34

Un equipo de la Universidad de Electrocomunicación de Tokio y de la Universidad de Michigan aseguraron que pudieron tomar control de Alexa de Amazon, Google Assistant y Siri de Apple al irradiar rayos láser en los micrófonos de los dispositivos, según un estudio divulgado por The New York Times.

La investigación, divulgada el pasado lunes, muestra que los científicos lograron engañar a Google Home para que abriera la puerta del garaje desde una distancia de 70 a 100 metros dirigiendo un rayo láser al asistente de voz vinculado con el portón.

No fue lo único que hicieron. También subieron unos 42 metros hasta la cima de un campanario de la Universidad de Michigan y controlaron con éxito un dispositivo Google Home, que estaba en el cuarto piso de un edificio de oficinas, situado a 70 metros.

En definitiva, lo que lograron hacer fue hackear un sistema inteligente digital conectado a asistentes controlados por voz. Pudieron ejecutar compras en línea, encender y apagar los interruptores de la luz y también prender el motor de un auto conectado a uno de los dispositivos.

¿A qué se debe esta falla de seguridad? A que los micrófonos de los asistentes virtuales respondían a la luz como si fuera sonido. La explicación está en que dentro de cada micrófono hay una pequeña placa llamada "diafragma", que se mueve cuando llega el sonido. Ese movimiento se puede simular enfocando un láser: lo convierte en señales eléctricas y el sistema responde tal como respondería a un sonido, indicó RT.

La investigación concluye que estos asistentes virtuales deben ser rediseñados por completo para que esta falla no exista más. De hecho, notificaron a Tesla, Ford, Amazon, Apple y Google de este hallazgo. Y las compañías la admitieron y dijo que están trabajando en ello.

Una forma de protegerse de estos posibles ataques es dejar el asistente fuera de la visión desde afuera del hogar.

REPORTAR ERROR

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 245 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 245 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 245 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...