¿Qué sabe de emociones una máquina?

La llamada computación afectiva busca comprender los sentimientos de los usuarios para contribuir a una mejor interacción entre las máquinas y los humanos; así funciona

Tiempo de lectura: -'

27 de enero de 2018 a las 05:00

Cada tanto se escucha sobre la creación de un robot que les facilita a los seres humanos la realización de tal o cual tarea. Las maquinas aprenden e incorporan ciertos conocimientos como lo hacen las personas pero, en este sentido, el plano emocional ha quedado bastante relegado. Sin embargo, hace ya un tiempo se están desarrollando tecnologías con la capacidad de reconocer, interpretar, procesar y estimular las emociones humanas.

Esta rama de la ciencia de la computación fue denominada computación afectiva por Rosalind Picard. Ella es la creadora y directora del grupo que se encarga de estudiar la computación afectiva en el Instituto Tecnológico de Massachusetts (MIT). Su idea es desarrollar una tecnología que contribuya a comprender al ser humano como persona y como cliente y así mejorar la interacción entre las personas y las computadoras.

¿Cómo funciona?

La idea de esta tecnología es que simule "empatía". La máquina interpreta el estado emocional de los humanos, los reconoce y a partir de ahí le proporciona una respuesta adecuada a esas emociones.
Para comenzar, el sistema "afectivo" interpreta el estado de ánimo del usuario mediante ciertas mediciones a través de su rostro, su voz y su cuerpo. Luego procesa esa información y la clasifica por medio de algoritmos que ya han procesado y "etiquetado" miles de rostros humanos, con el fin de reconocer las emociones correspondientes, para finalmente sugerirle a la persona una solución a partir de la interpretación.

A través de muchas maneras una máquina puede detectar el estado de ánimo de los humanos. Una de las más simples es que el software le consulte al usuario cómo se siente de forma directa. Pero en este caso la sugerencia del sistema puede no ser satisfactoria, ya que la respuesta puede no ser la correcta.

Por lo tanto, esta tecnología emergente utiliza distintas formas de captar las emociones. Una opción es mediante cámaras incorporadas a los dispositivos que sean capaces de detectar los gestos del usuario o las expresiones faciales para analizar los movimientos musculares o ciertos puntos característicos del rostro, incluso puede reconocer hasta los cambios de color que experimenta la piel ante ciertos estados de ánimo. También, algunos dispositivos, como los eye-trackers, pueden llegar a recopilar información sobre las emociones mediante la dilatación y el seguimiento de las pupilas.
Otro instrumento útil para esta tecnología son los micrófonos. A través de su uso, el sistema puede reconocer el estado de ánimo de las personas a través de las variaciones en la entonación al hablar o el volumen y ritmo de la voz.

"La computación afectiva está en la línea de mejorar los sistemas computacionales, de forma de hacerlos más inteligentes y amigables para el usuario", Sebastián García, director de Idatha

Por otra parte, también es posible recopilar esta información mediante sensores incorporados a ciertos dispositivos, capaces de medir aspectos, como la respiración, el pulso, la temperatura de la piel o incluso llegar a detectar la actividad cerebral por medio de electrodos.
Todo esto podría comenzar a ser incorporado en nuestra vida diaria de manera que contribuyera a mejorar la calidad de vida de las personas.

Según dijo a Cromo, el director de la empresa uruguaya Idhata, Sebastián García, "la computación afectiva está en la línea de mejorar los sistemas computacionales, de forma de hacerlos más inteligentes y amigables para el usuario".

Aplicaciones

Diversas áreas pueden sacar provecho de esta tecnología. La salud, la seguridad, la educación, el entretenimiento, el marketing, la robótica, entre otras.

Por ejemplo, los vehículos podrían detectar cuándo el conductor se encuentra distraído, somnoliento o enojado para evitar que maneje. También podría ser que un dispositivo móvil detectara el estado de ánimo de las personas en función de cómo presiona las teclas y, en caso de que interprete que el usuario se encuentra angustiado o triste, filtre las noticias falsas e incluso hasta recomiende llamar a alguien cercano para levantarle el ánimo.

También los robots que controlan el hogar podrían detectar cómo se siente una persona a partir de sus facciones o su voz. Un ejemplo es el robot denominado Titan. Este interpreta las emociones de los humanos a través del reconocimiento facial y de lenguaje personalizado y actúa en consecuencia, realizando recomendaciones sobre comidas, películas y música como solución a dichas emociones.

Robot Pepper CES
Pepper, un robot humanoide japonés, le choca los cinco a una visitante del CES 2016
Pepper, un robot humanoide japonés, le choca los cinco a una visitante del CES 2016

Este robot, que tiene la forma de un pequeño televisor, cuenta con un servicio de entretenimiento, además de un centro de almacenamiento de información para fotografías y videos del usuario. Se trata de un parlante inteligente que permite tanto realizar videollamadas como mirar videos, escuchar música o hacer búsquedas por internet por comandos de voz. Una particularidad de este aparato es que gira sobre su base, por lo que puede seguir el movimiento de las personas al caminar por su hogar.

Sin embargo, el terreno que se puede ver mayormente beneficiado por esta tecnología y que, de hecho ya la está implementando, es el de marketing y publicidad.

La empresa estadounidense Affectiva, fundada por Picard, desarrolló un software que es capaz de detectar las reacciones de las personas mediante las expresiones faciales. Este software, conocido como Affdex, fue creado con la idea de ayudar a la comunicación con los niños autistas, pero comenzó a ser empleado por el ámbito publicitario.

A través de este sistema, las marcas pueden conocer la opinión de los consumidores ante un determinado concepto, producto o servicio, mediante los gestos del rostro sin necesidad incluso de realizarle un cuestionario. Este software, que se utiliza en más de 60 países, requiere únicamente de una computadora con cámara web para detectar las reacciones de cientos de usuarios en diferentes partes del mundo.

Los call centers también pueden aprovechar este sistema, mediante asistentes virtuales que analicen el tono de voz del cliente y de esta forma logren interpretar las emociones de las personas y así poder adaptar la forma de atención en tiempo real.

Sin embargo, las aplicaciones más importantes tal vez sean las terapéuticas para ayudar a personas con problemas emocionales. Por ejemplo, puede ser un sistema útil para prevenir la depresión grave. La máquina detecta cuando la persona se encuentra angustiada y le sugiere determinadas actividades con el fin de levantarle el ánimo. Esto puede llegar a evitar que la situación empeore y necesite de tratamiento médico.

Otro caso puede ser el de las personas con autismo, ya que no es tan fácil detectar cómo se sienten. Pueden utilizar sensores que monitoreen su cuerpo para que logren reconocer su propio estado emocional y el de las otras personas.

El decano de la Facultad de Ingeniería y Tecnología de la Universidad Católica del Uruguay, Álvaro Pardo, dijo a Cromo que "estas tecnologías pueden servir para masificar los servicios de atención de salud", como reconocer cuando las personas solas o adultos mayores se encuentran deprimidos y, de esa forma, generar una alarma para que alguien los vaya a visitar; o dispositivos que detecten alguna anomalía e inmediatamente llamen a un profesional para que asista a la persona.

¿Y la privacidad?

Muchos autores cuestionan los aspectos éticos y aseguran que estas tecnologías manipulan las emociones de los usuarios, además de invadir su privacidad. En este sentido, García señaló que "todo análisis de este tipo debe de tener siempre una autorización explícita del usuario".

Es importante recordar que la finalidad de la computación afectiva no es controlar las acciones de las personas ni extraer información contra la voluntad del usuario, sino que la idea es buscar una mejora respecto a la interacción y la experiencia de los usuarios. Esta tecnología puede ser la forma de cerrar una brecha de comunicación entres las máquinas y los seres humanos.

robot bebé

Cómo aprenden las máquinas


La inteligencia artificial, también conocida como inteligencia computacional, refiere a cuando una máquina imita las funciones del conocimiento de los humanos como, por ejemplo, aprender y resolver problemas.

En este caso, la computación afectiva es una rama dentro de las ciencias de la computación que aprende sobre las emociones humanas.

¿Cómo? Los seres humanos aprendemos a reconocer ciertas emociones, como la alegría, la tristeza, la sorpresa, el susto, el aburrimiento, el estrés, entre otras emociones a medida que se crece. Esto lo logramos combinando diferentes lecturas de otras personas. Podemos decodificar estas emociones a través de los rasgos de su cara, sus expresiones, sus gestos, muecas, así como también por la manera en la que entona la voz al hablar, o las expresiones corporales. De a poco, los niños van reconociendo y aprendiendo qué representan cada una de esas emociones.

Las máquinas lo aprenden de la misma forma. Los mecanismos de entrenamiento pueden ser variados, pero básicamente aprenden de la misma forma que lo hace un humano.
La inteligencia artificial, en particular, la rama de aprendizaje automático, permite que las computadoras puedan ser entrenadas para determinar cuándo, por ejemplo, el video producto de la grabación de una cara humana presenta gestos de aburrimiento.

Existen diversas empresas dedicadas a esta temática, que ya han procesado y "etiquetado" las emociones de cientos de miles de rostros humanos. Una vez determinadas cuáles son las emociones asociadas a un rostro, la computadora actuará en consecuencia. Dependiendo del caso, la computadora realizará determinada acciones para adaptarse al estado anímico del usuario.

Según afirmó el director de la empresa Idhata, Sebastián García, la idea es mejorar la interacción entre la computadora y los seres humanos. De esta forma, estos sistemas se vuelven "más inteligentes y amigables para el usuario".

Comentarios