Tecnología > ACCESIBILIDAD DIGITAL

Un nuevo modelo de Google detecta el lenguaje de señas para videoconferencias

En las videoconferencias con muchas personas a quienes utilizan lengua de señas les cuesta tomar la palabra; la tecnología se propone solucionarlo
Tiempo de lectura: -'
08 de octubre de 2020 a las 14:39

Google ha presentado un modelo de detección del lenguaje de señas en tiempo real de cara a su utilización en los sistemas de videoconferencia.

Amit Moryossed, becario de investigación de Google Research, indicó que las aplicaciones de videoconferencias suelen identificar que alguien está hablando cuando estos los hacen en voz alta. Por esta razón a muchas personas signantes les cuesta tomar la palabra. 

En este sentido, cuando el modelo de detección de lenguaje de señas determina que un usuario está haciendo la lengua de señas, pasa un tono de audio ultrasónico a través de un cable de audio virtual que puede ser detectado por cualquier aplicación de videoconferencia, aunque el audio se trasmite fuera del rango de audición de los humanos. Esto engaña a la aplicación haciéndole creer que el usuario está hablando con lenguaje oral.

A través de este sistema la entrada de imagen es reducida a un pequeño conjunto de puntos de referencia en el cuerpo del usuario (ojos, nariz, hombros, manos) gracias a la ejecución de un modelo de estimación de la pose denominado PoseNet. De esta forma el modelo es más liviano y consume menos, lo cual es importante para minimizar el efecto del sistema sobre la calidad de la llamada. 

Google AI realizó un estudio para evaluar las experiencias de los usuarios, los cuales respondieron positivamente. Comprobaron que el lenguaje de señas era detectado correctamente, y que se activaba el icono de medidor de audio del sistema para llamar la atención sobre los usuarios que signaban. 

En el vídeo se demuestra la capacidad de detección de este nuevo sistema. En el cuadro amarillo, situado en la esquina superior izquierda, se puede observar cómo los valores de gráfico se elevan cuando la usuario está signando, y se reduce a 0 cuando deja de signar, lo que indica que la detección del lenguaje de signos se está produciendo correctamente.

A través de este enlace podrás probar una demostración experimental. 

Comentarios

Registrate gratis y seguí navegando.

¿Ya estás registrado? iniciá sesión aquí.

Pasá de informarte a formar tu opinión.

Suscribite desde US$ 345 / mes

Elegí tu plan

Estás por alcanzar el límite de notas.

Suscribite ahora a

Te quedan 3 notas gratuitas.

Accedé ilimitado desde US$ 345 / mes

Esta es tu última nota gratuita.

Se parte de desde US$ 345 / mes

Alcanzaste el límite de notas gratuitas.

Elegí tu plan y accedé sin límites.

Ver planes

Contenido exclusivo de

Sé parte, pasá de informarte a formar tu opinión.

Si ya sos suscriptor Member, iniciá sesión acá

Cargando...