Des robots Facebook désactivés après avoir eu une conversation quelque peu étrange…

Crédits : iStock

Si la notion d’intelligence artificielle ne vous faisait pas encore peur, cela pourrait changer avec cette nouvelle : le laboratoire de recherche sur l’intelligence artificielle du géant Facebook a désactivé deux robots après que ces derniers aient eu une conversation quelque peu étrange.

Facebook porte depuis quelque temps le projet de mettre au point des robots intégrant une I.A ayant la capacité d’échanger et négocier le partage d’objets. Les deux robots « incriminés », nommés Alice et Bob, avaient pour mission d’obtenir des livres, des ballons ou encore des chapeaux. Les discussions observées par les chercheurs du laboratoire de recherche sur l’intelligence artificielle du célèbre réseau social ont pris une tournure inattendue.

En effet, les deux I.A ont utilisé un anglais incorrect au lieu de s’exprimer d’une manière classique et n’ont pas non plus donné de chiffres dans le cadre de l’échange afin de se diviser des objets. Ils avaient en effet une liste d’objets ainsi que des indications sur la valeur des biens selon eux, par exemple un ballon qui vaut trois points pour l’un, mais deux seulement pour l’autre. Comme le montre l’extrait ci-dessous, les robots ont allègrement répété des pronoms personnels ainsi que des articles définis, un dialogue dont la compréhension n’est franchement pas évidente et ne ressemble en rien à la négociation espérée.

Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i i i i i everything else . . . . . . . . . . . . . .
Alice: balls have 0 to me to me to me to me to me to me to me to me to
Bob: you i i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to

Les chercheurs ont pratiqué ce test afin de permettre ensuite aux robots de parler avec des humains. Néanmoins ici, il semble n’y avoir aucune règle au niveau des discours bien que les chatbots insistent sur leur nom dans ce processus de négociation. Plus étrange encore, ils ont réussi à se mettre d’accord lors de certaines négociations menées dans cette langue qu’ils ont inventée. Selon les chercheurs, ces derniers ont donc été désactivés non pas pour avoir créé un langage peu compréhensible ou pour une quelconque dangerosité pour l’Homme, mais parce que ce n’était pas le résultat espéré.

Selon Dhruv Batra, chercheur pour Facebook, l’explication à ce dysfonctionnement est simple : « Il n’y a pas de récompense à ne se tenir qu’à la langue anglaise. Les agents dérivent donc du langage compréhensible pour s’inventer des noms de code. Par exemple si je dis cinq fois “le”, vous l’interprétez en comprenant que j’en veux cinq exemplaires. Cela n’est en rien différent des communautés d’humains qui créent des abréviations »

L’intelligence artificielle fascine autant qu’elle inspire la crainte et les personnes pensant qu’il s’agit d’une technologie non sans danger y trouveront là une preuve supplémentaire confortant leur opinion. Ont-ils tort ? L’avenir nous le dira, reste que si l’I.A nous est vendue comme un moyen d’aider l’humain au quotidien, s’inquiéter quelque peu et ne pas accepter cette technologie les yeux fermés est gage de prudence.

Sources : CNet7 sur 7 – Telegraph