Dans le futur, quand les machines comprendront nos émotions !

Crédits iStock

L’évolution des relations Hommes-machines est au cœur de nombreuses questions avec la démocratisation de l’intelligence artificielle. Comment peut-on imaginer un tel futur ?

L’intelligence artificielle est une des notions actuellement les plus en vogue, largement débattue lors du South by Southwest Music Conference and Festival (SXSW) qui se déroule actuellement à Austin, Texas (du 10 au 19 février 2017). Ses applications les plus connues du grand public sont inévitablement les assistants connectés et autres chatbots s’invitant progressivement dans notre quotidien.

Josselin Moreau, expert innovation au Lab SQLI, indique dans un article paru dans Les Échos le 14 mars 2017 que les I.A destinées au grand public « risquent bien de bouleverser la manière dont nous interagissons avec les machines. » L’intéressé estime que ceci est encore peu perceptible en France et avance un argument pertinent en expliquant qu’aux États-Unis, près de 20 % des foyers sont déjà équipés des enceintes connectées Echo.

Le créateur de l’assistant Siri, Adam Cheyer, estime quant à lui qu’après l’ère de l’ordinateur puis celle du téléphone mobile, nous « entrons dans un nouveau mode d’interactions Homme/machine » pouvant conduire à une « symbiose entre l’intelligence humaine et l’intelligence artificielle ». Bien que nous n’en soyons qu’aux prémices de l’établissement d’une telle norme, les interactions vocales humaines complexes sont truffées de subtilités. Il faudra donc encore pas mal de temps pour arriver à une telle symbiose puisque contrairement à l’homme, la machine ne peut pas (encore) s’exprimer de manière intuitive.

Des progrès conséquents ont néanmoins été faits avec l’intelligence artificielle en matière de reconnaissance du langage, autrement dit la capacité des machines à donner un sens aux paroles exprimées par les humains. Cependant, Sophie Kleber, directrice exécutive chez Huge qui se définit comme une agence digitale, pense que cela n’est pas suffisant. Néanmoins, avec l’émergence de l’Affective computing, nous entrerons dans une autre dimension.

Sophie Kleber l’a expliqué lors de sa conférence Designing emotionally intelligent machines en indiquant que pour établir de fortes relations avec les hommes, les machines devront comprendre les émotions humaines, les interpréter, les utiliser, mais également en simuler eux-mêmes. Dans la liste des subtilités non perceptibles par les mots seuls : il y a la voix, les modulations, le langage corporel ou encore les micro-expressions. Trois manières d’y parvenir existent, à savoir la reconnaissance visuelle, la reconnaissance vocale ainsi que la biométrie. Si la première est à un stade avancé, la dernière s’avère être le domaine nécessitant le plus de progrès à réaliser.

Sources : Les ÉchosLe Monde