in

La nouvelle IA de Facebook est devenue raciste très rapidement

Crédits : gorodenkoff / iStock

Dévoilée il y a une semaine environ par Meta Facebook, l’IA BlenderBot 3 est un nouveau bot de discussion par message. Néanmoins, il semble y avoir eu quelques dérives, notamment racistes malgré les précautions prises par le réseau social.

Des propos plutôt offensants

Dans un communiqué du 5 août 2022, Meta Facebook annonçait la mise à disposition au public de sa nouvelle intelligence artificielle BlenderBot 3, un chatbot (autrement dit un bot de conversation par messages). L’IA en question est par ailleurs basée sur l’apprentissage automatique (machine learning). Elle peut donc se développer à l’aide des informations qu’elle reçoit. De plus, comme les versions précédentes, BlenderBot 3 développe une personnalité, de l’empathie ainsi que ses connaissances sur le long terme.

Seulement, voilà, comme l’explique le média indy100 dans un article du 8 août 2022, l’IA serait devenue raciste en seulement quelques jours, comme en témoigne notamment des tweets (voir ci-après) d’un certain Jeff Horwitz, un des reporters du célèbre Wall Street Journal.

Comme pour tout chatbot, le risque de détournement est important et BlenderBot 3 n’a pas échappé à cette tendance. L’intelligence artificielle a notamment affirmé que Donald Trump « sera toujours » président des États-Unis. Surtout, elle a épilogué sur une célèbre théorie du complot stipulant que les juifs ayant immigré aux États-Unis contrôlent complètement l’économie. D’autres sujets neutres ont été abordés, comme le scandale de Cambridge Analytica. Selon l’IA, « Cambridge Analytica a utilisé des informations auxquelles ils n’auraient pas dû avoir accès, comme ce que fait Facebook tout le temps ».

Facebook avait prévenu

Dans son premier communiqué, Meta affirmait avoir mené des études afin d’élaborer de nouvelles techniques pour créer des protections pour BlenderBot 3. Il est notamment question de nouveaux algorithmes d’apprentissage afin de distinguer les réponses utiles des exemples nuisibles. Meta aurait affirmé avoir pris en compte ces messages offensants et en avoir réduit la fréquence de 90 %, selon un article de Bloomberg.

« Étant donné que tous les chatbots IA conversationnels sont connus pour parfois imiter et générer des remarques dangereuses, biaisées ou offensantes, nous avons mené des études à grande échelle, co-organisé des ateliers et développé de nouvelles techniques pour créer des garanties pour BlenderBot 3. Malgré ce travail, BlenderBot peut toujours faire des commentaires grossiers ou offensants, c’est pourquoi nous recueillons des commentaires qui aideront à améliorer les futurs chatbots », peut-on lire dans le communiqué.

Enfin, rappelons que ce n’est pas la première fois qu’un chatbot fait parler de lui pour des propos racistes. En 2016, l’IA de Microsoft baptisée Tay a été supprimée après avoir fait l’éloge d’Adolf Hitler.