Vivimos rodeados de máquinas: ordenadores, tablets, teléfonos, cafeteras, neveras, y una gran variedad de aparatos que nos hacen la vida más fácil. Pero ¿qué pasaría si además de seguir nuestras ordenes nos sugirieran alternativas en función de nuestros estados de ánimo?. El resultado sería que la nevera ocultaría el chocolate si tenemos un ataque de ansiedad, o que la cafetera nos serviría descafeinado si nos viera muy estresados, o que el espejo nos diría que somos la más guapa del reino si tuviéramos un día triste. Estas respuestas, que parecen sacadas de una película futurista, no están tan lejos de ser realidad con la tecnología emocional.

Los dispositivos digitales se han instalado en nuestras vidas y en nuestra forma de comunicarnos, sin embargo, necesitamos mostrar nuestros sentimientos. La conversación no es completa sin conocer el tono emocional de los participantes. Por ello, los emoticonos se han instalado en nuestros diálogo, sabemos si nuestro interlocutor está contento, enfadado, frustrado, etc. De hecho, la principal red social de comunicación, Facebook, se ha gastado mucho dinero en el desarrollo de emoticonos. Pero la tecnología no se conforma con animar nuestras conversaciones con una flamenca o con una sonrisa socarrona.

Se están desarrollando diferentes algoritmos que miden los movimientos de los músculos faciales mediante la unión de puntos y como resultado se puede comparar con qué tipo de emoción se corresponde.

El pasado mayo, Microsoft lanzó una aplicación que era capaz de escanear los rostros de una foto y mediante la expresión de la cara estimar la edad de la persona en cuestión, How old do I look. Durante días, esta aplicación fue trending topic en redes sociales #HowOld. Miles de usuarios subieron sus resultados, la mayoría de ellos muy satisfechos cuando la maquina les asignaba menos años.

Artículos relacionados:  Onda del Cliente: epicentro de la experiencia del cliente

Los patrones emocionales no solo se determinan con nuestras expresiones también se pueden encontrar en la entonación utilizada en una conversación. Decodificar y medir la emoción humana, analizar el espectro de emociones que una persona puede expresar es uno de los objetivos de muchas empresas que buscan humanizar nuestra relación con las máquinas.

Hoy en día ya hay unas cuantas empresas que han desarrollado su tecnología de las emociones, como Affectiva de la Dra Rana el Kaliobuly, Beyond Verbal centrada en el análisis de la voz, o Simple Emotions entre otras. Este campo de estudio es conocido como la computación afectiva.

No es una tarea fácil que las máquinas sean capaces de diferenciar que cuando una persona frunce el ceño sea porque está enfadada o porque la luz le molesta a los ojos. O bien cuando una persona grita “¡Oh Dios mío!” sea por miedo, o por sorpresa. Pero las aplicaciones que se pueden dar a esta tecnología son infinitas:

  • Experiencia de usuario: detectar la satisfacción del consumidor a la hora comprar o mirar cualquier objeto de consumo, ropa, comida, belleza, etc, saber qué siente, qué le gusta, qué le motiva.
  • Salud: ayudar a los niños autistas a interpretar los sentimientos, o a los invidentes a ver emociones.
  • Educativas: saber si un alumno está perdiendo interés en el aprendizaje para poder reorientarle o bien mejorar las técnicas de enseñanza.
  • Seguridad: reconocimiento del estado personal cuando se conduce, si estás cansado,malhumorado, distraído,…
  • Etc

El futuro ya está en nuestras manos con la tecnología emocional, solo tenemos que aprender a usarlo adecuadamente y con sentido común.

Foto: Recurso gratuito en pixabay.com

Dejar respuesta

Please enter your comment!
Por favor, introduce tu nombre aquí