Subscribe to Email Updates

L'équipe d'Amazon en charge du projet Alexa commence à analyser le son des voix des utilisateurs afin de reconnaître leur humeur ou leur état émotionnel, a déclaré Rohit Prasad, scientifique en chef du projet. Cet effort d’analyse permettrait à Amazon de personnaliser et d'améliorer l’expérience de ses clients, d’offrir des conversations plus longues avec l'assistant vocal, et de faire en sorte qu’un jour, Alexa soit en mesure d’identifier votre humeur sans que vous ne lui ayez dite, pour vous proposer des réponses adaptées.

" Il est encore tôt pour le moment. Détecter la contrariété, les émotions en général au travers de la voix reste assez difficile. De plus, vous devez connaître certaines caractéristiques humaines pour savoir si je suis contrarié ou non. Suis-je contrarié en ce moment ? Vous ne pouvez pas le dire à moins de me connaître ! ", a déclaré Madhava Prasad lors d'une réunion avec des journalistes le mois dernier. " Avec le langage, vous pouvez déjà vous exprimer : " Alexa, diffuse moi de la musique entraînante " ou " diffuse moi de la Dance Music ". Grâce à ce genre de demandes, nous sommes capables d'identifier explicitement votre humeur. Mais nous souhaitons la connaître désormais de manière plus implicite."

Un des porte-paroles d'Amazon n’a pas souhaité donner plus d’informations quant aux types d'émotions qu'Amazon pourrait tenter de détecter au-delà de la contrariété, émotion sur laquelle les chercheurs se penchent actuellement. Celui-ci a refusé également de dire à quel moment Amazon pourrait chercher à étendre le déploiement de son analyse des sentiments.

Une source anonyme a divulgué l'an dernier, au magazine américain MIT Tech Review,  quelques informations sur les plans du géant américain quant à la poursuite de ses recherches sur le sujet, qualifiant celui-ci de domaine clé de Recherche & Développement pour l’entreprise. En effet, Amazon souhaite rester en tête face à des concurrents comme Google Assistant et Siri d'Apple.

L’intelligence artificielle empathique

Le haut parleur Echo d'Amazon enregistre un fichier audio de chaque interaction après avoir entendu le mot " Alexa ". Aujourd'hui, ces enregistrements sont utilisés pour améliorer la compréhension du langage naturel d'Alexa et sa capacité à reconnaître votre voix.

Affectiva est une société américaine de détection des émotions, capable de reconnaître le rire, la colère et l’enthousiasme dans le son de la voix d'une personne. L’entreprise propose ses services à plusieurs entreprises classées dans la liste de 1000 plus grandes fortunes américaines, ainsi qu'aux fabricants de robots sociaux et d'assistants vocaux. " L’analyse de l'humeur va changer la façon dont les robots et les assistants comme Alexa interagissent avec les humains ", a déclaré Rana el Kaliouby, PDG d'Affectiva.

" L'intelligence émotionnelle est essentielle pour permettre aux appareils dotés d'une interface vocale de répondre aux réactions des utilisateurs et d'avoir une conversation significative ", a-t-elle ajouté. Aujourd'hui, par exemple, Alexa peut vous raconter une blague mais n’ait pas capable de réagir à votre comportement.

" Les agents conversationnels pourront vous persuader de mener une vie plus productive, plus saine, plus heureuse. Mais à mon avis, ils ne pourront y parvenir qu’en ayant de l'empathie et une capacité à prendre en compte votre état social, émotionnel et cognitif. Vous ne pouvez obtenir ce résultat sans informatique empathique, c’est ce que nous appelons «l’intelligence émotionnelle artificielle ", a-t-elle dit.

L'intelligence émotionnelle pour des conversations plus longues

Aujourd'hui, Alexa est limitée dans sa capacité à engager la conversation. Peu importe le sujet, la plupart des interactions ne durent que quelques secondes avant que celle-ci ne reconnaisse votre intention.

Pour apprendre comment améliorer la capacité de l'assistant vocal à avoir des échanges que les humains appellent “ conversations ”, Amazon a créé l'année dernière le prix Alexa afin de challenger les équipes universitaires, en leur proposant de réaliser des robots sachant maintenir une conversation pendant 20 minutes.

Les finalistes avaient accès à des retranscriptions de conversations pour l'analyse mais pas aux enregistrements vocaux. Ils ont accumulé plus de 40 000 heures de conversation.

" Nous avons choisi délibérément de ne pas utiliser le test de Turing (test censé déterminer si un robot est capable de convaincre un humain qu'il parle à un autre humain), car les gens savent déjà qu’Alexa n’est pas humaine. Il s'agit ici de construire des conversations vraiment intéressantes sur un certain nombre de sujets. J'imagine que lorsque ces robots deviendront intelligents, nous ne les considérerons pas comme des êtres humains mais nous les trouverons intéressants malgré tout. " a déclaré Ashwin Ram, senior manager sur le projet Alexa.

En septembre, alors qu'il participait à un panel intitulé “Say ‘Hello’ to your new AI family member,” - Dites bonjour au nouveau membre numérique de votre famille - , Ashwin Ram a suggéré qu'un jour, le robot pourrait aider à combattre la solitude, un problème de santé publique grandissant.

L’analyse vocale appliquée au domaine la santé

Alors que l'idée de faire d'Alexa un membre “numérique” de votre famille ou de donner à Amazon la capacité de détecter la solitude d’une personne peut inquiéter beaucoup de monde, Alexa travaille déjà à répondre aux utilisateurs qui choisissent de partager leur état émotionnel.

En effet, Amazon qui travaille avec un certain nombre d'organisations de santé mentale, a créé des réponses toutes faites pour diverses situations urgentes. Si Alexa est formée à reconnaître vos émotions, elle pourrait être plus proactive dans certaines circonstances.

Les assistants comme Alexa ont suscité un bon nombre de problèmes de confidentialité, mais ils promettent également des avantages intéressants. Des groupes de chercheurs, de startups et de professionnels de la santé explorent le domaine de l'analyse vocale. Car, on pense que la voix possède des biomarqueurs uniques relatifs à certaines maladies.

Basée en Israël, Beyond Verbal, une start-up de détection des émotions, fait actuellement des recherches avec la Mayo Clinic - fédération hospitalo-universitaire et de recherche américaine - pour identifier les maladies cardiaques à partir du son de la voix. L'année dernière, l’entreprise a également lancé une plate-forme de recherche pour collecter des échantillons vocaux de personnes atteintes d'affections que l'on pense détectables par la voix, comme la maladie de Parkinson.

Bien qu’il y ait encore beaucoup de travail à faire pour que cela soit possible, Rana El Kaliouby pense que des assistants ou des robots intelligents sur le plan émotionnel pourraient être utilisés pour détecter les maladies et favoriser les comportements sains. Elle imagine le jour où un assistant virtuel pourrait l’aider à garder un œil sur sa fille adolescente.

" Si ma fille reçoit un assistant personnel, alors cet assistant collectera des données sur elle et sera en mesure de signaler si celle-ci se sent déprimée, fatiguée ou stressée. J'imagine qu'il est bon de tirer parti de ces données pour signaler tôt les problèmes de santé et obtenir le soutien adéquat. "

New Call-to-action

Source : venturebeat.com

Crédit photo: Amazon

Pour aller pour loin :