Deep Learning para Máquinas Empáticas: Interacciones entre Humanos y Robots — Parte I

Nelson Fernandez
Ciencia y Datos
Published in
4 min readMay 13, 2018

Cuando pensamos en el inminente desarrollo de la próxima revolución digital, la humanidad enfrentará una ola nunca antes vista de automatización. Más y más dispositivos inteligentes y conectados coexistirán con nosotros. Esta revolución ya está en desarrollo, desde teléfonos celulares, vehículos autónomos hasta nuestro refrigerador. Algo es seguro, los robots ya están aquí, y están para quedarse.

Así que la pregunta no es si estamos de acuerdo, sino como vamos a interactuar con estos nuevos inquilinos. Más allá de los clásicos principios de diseño como la utilidad y el estilo, un nuevo criterio emergerá: empatía y personalidad. Esta tendencia se volverá mas fuerte mientras más compañías entenderán que las interacciones humano-máquina (IHM) son clave para asegurar la adopción de las nuevas tecnologías.

Pero, que podemos hacer para mejorar las interacciones humano-máquina? Podemos al menos suavizar nuestra coexistencia?

La clave para la integración social es dominar la habilidad de entender lo que las otras personas sienten y piensan, y responder de manera acorde. Hasta ahora, esta capacidad ha sido reservada solamente para (algunos) humanos. Esta virtud llamada empatía mejora la socialización, y los seres humanos somos sociables por naturaleza.

Entonces la respuesta podría ser darle a las máquinas la habilidad para entender como nos sentimos y cuáles son nuestras metas. De manera que puedan reaccionar adecuadamente brindándonos el máximo de confort. Esto también incluye darles la forma correcta. Esta nueva generación de robots serán de forma humanoide? Gentiles autómatas como una inofensiva Roomba? O tal vez terroríficos, como los perros robóticos de Black Mirror, o sus familiares lejanos de la vida real de Boston Dynamics. Esto es parte de un todo cuando discutimos sobre IHM.

Muchos investigadores han trabajado en este campo, particularmente el grupo de Robótica Humanoide del MIT. Ellos desarrollaron Kismet, un robo social. Kismet reacciona gentilmente a las emociones mostradas por sus interlocutores, involucrando a las personas en una interacción natural cara a cara. Los resultados preliminares muestran una gran mejoría en las interacciones y la percepción de los humanos sobre estas máquinas.

Kismet, el robot social del MIT.

Está claro que el éxito de esta nueva ola de automatización dependerá grandemente en la empatía y personalidad de los robots. Imagina un carro que puede detectar que estas triste y coloque una canción que amas para hacerte sentir mejor. O un asistente medico robótico que reconoce tus necesidades y reacciona para darte el máximo de confort y atención. Añadiendo técnicas poderosas de reconocimiento de voz y procesamiento de lenguaje natural (desarrollados extensivamente por Amazo y Google) las posibilidades son ilimitadas.

Este sistema seria alimentado por fuentes externas de información, haciendo evolucionar basado en la experiencia. Tu dispositivo aprendería continuamente de ti. Esta hyper personalización tendrá una consecuencia directa: unicidad. La unicidad alimenta el apego, y el apego es intrínsecamente humano.

Atom, el robot boxeador, Real Steel (2011).

En la película de ciencia ficción Real Steel (2011), Atom, el robot boxeador sufre daños serios en combate. De repente, emociones comienzan a surgir, obviamente no queremos perder la personalidad de Atom. Sabemos que le hacía tan especial comparado con los otros robots, el mostraba empatía.

Pero no te preocupes, en ese momento las tecnologías de almacenamiento en la nube y telecomunicaciones estarán tan bien desarrolladas que hay muy poco chance de perder la personalidad de tu robot.

No est áclaro como esto podría cambiar la industria de la tecnología y afectar los hábitos del consumidor. Cambiaremos de carro tan frecuentemente como lo hacíamos antes? Tendrías la impresión de que tu dispositivo es único? Llegarías a sentir apego con él?

La realidad es que todavía no tenemos respuestas para estas preguntas. Esta revolución está comenzando, y sus potenciales consecuencias no son todavía completamente comprendidas. Este tema será parte de discusión abierta en los próximos años.

Deep Learning para Reconocimiento de Emociones

El reconocimiento de emociones es el primer paso en el viaje de tener máquinas ‘empáticas’. Este tipo de sistema ha sido exitosamente implementado usando arquitecturas de Deep Learning, específicamente Redes Neuronales Convolucionales (o Convolutional Neural Networks en inglés) CNN.

El secreto detrás de este éxito es la capacidad de las CNNs de aprender automáticamente a identificar características relevantes de alto y bajo nivel de las imágenes de entrada. La red genera una representación de la imagen cada vez más explicita, al aprender a combinar características de alto y bajo nivel para tomar en cuenta el contenido global de la imagen, en vez de información individual de cada pixel. Esta representación final es utilizada para realizar una clasificación en varias categorías, incluyendo, tristeza, alegría, rabia, sorpresa y neutralidad. Una explicación detallada de este proceso esta disponible en este importante articulo de investigación: ‘A Neural Algorithm to Transfer Style’.

El siguiente video es el resultado de una inmersión de una semana en identificación de sentimientos en tiempo real. Para probar la solución elegimos el famoso video ‘Sad Ben Affleck interview’. Los resultados preliminares se muestran aquí:

En el siguiente articulo vamos a ir directo a la implementación de este modelo básico de reconocimiento de emociones usando Deep Learning. Vamos a tratar técnicas clásicas de visión por ordenador, incluyendo detección rápida de rostros, así como también algoritmos de Deep Learning para reconocimiento de imágenes.

Preguntas

Espero que hayas disfrutado este artículo. Estaré contento de leer tus comentarios y preguntas sobre este tema. Sígueme para estar al tanto de la siguiente parte.

Bibliografía

Breazeal, C. (2000), “Sociable Machines: Expressive Social Exchange Between Humans and Robots”. Sc.D. dissertation, Department of Electrical Engineering and Computer Science, MIT.

Gatys, L.A., Ecker, A.S., & Bethge, M. (2015). A Neural Algorithm of Artistic Style. CoRR, abs/1508.06576.

--

--

Nelson Fernandez
Ciencia y Datos

ML researcher at Renault Nissan Alliance, Paris, France