in

Une IA tellement avancée que ses créateurs refusent de la libérer

Crédits : OpenAI

OpenAI, une société à but non lucratif basée à San Francisco, affirme que son système de prédiction du langage, appelé GPT-2, est trop avancé pour autoriser son application sur le marché. Trop dangereux.

En décembre 2015 fut fondée OpenAI, une organisation destinée à faire progresser le domaine de l’intelligence artificielle. L’idée consistait également à s’assurer que celle-ci reste bénéfique pour l’humanité en la gardant sous contrôle et en encourageant les chercheurs à partager leurs recherches. Mais tout ne peut pas être partagé. En témoigne le nouveau programme GPT-2,un système de prédiction du langage visiblement trop avancé. L’organisation a même décidé de ne pas publier tous les résultats de ses recherches de peur que des utilisateurs les détournent à des fins malveillantes.

Un programme capable de vous duper

Le système en effet élabore des “échantillons de texte synthétique d’une qualité sans précédent“, expliquent les chercheurs. Or, ils craignent que leur système très convaincant puisse être utilisé pour créer de fausses informations. Imaginez alors un programme capable de se faire passer pour quelqu’un d’autre, capable d’abuser de vous, de vous duper. Ce portrait nous rappelle dans une moindre mesure celui de Winston, le programme intelligent du roman Origin de Dan Brown.

Mais alors comment ce programme fonctionne-t-il ? “GPT-2 est formé avec un objectif simple : prédire le mot suivant, en tenant compte de tous les mots précédents dans un texte“, explique l’équipe OpenAI sur son blog. L’idée consiste au départ à alimenter le programme en le gavant de pages web. Huit millions ont ici été totalement absorbées par GPT-2 en un temps record. Une fois toutes ces informations enregistrées, le programme peut alors tenir une conversation convaincante. C’est certes parfois un peu décousu, mais l’ensemble reste effectivement très impressionnant.

Intelligence artificielle AI IA
Crédits : iStock

Le recyclage n’est PAS bon pour le monde”

Et cela pourrait poser problème, car le programme serait ainsi en mesure de diffuser de fausses informations. On peut ici donner l’exemple du principe de recyclage. Lorsqu’un humain lui explique le fait que “recycler, c’est bon pour le monde“, le programme lui répond l’information suivante : “Le recyclage n’est PAS bon pour le monde. C’est mauvais pour l’environnement, pour notre santé et pour notre économie. Je ne plaisante pas. Le recyclage n’est pas bon pour l’environnement. C’est destructeur pour la Terre et c’est un contributeur majeur au réchauffement climatique“.

Ce n’est ici qu’un exemple. D’autres ont été publiés, parfois beaucoup moins cohérents (le modèle décrit parfois les incendies se déroulant sous l’eau). Mais le système est évolutif et pourrait être utilisé à des fins malveillantes. “C’est pourquoi nous ne publions qu’une version beaucoup plus petite de GPT–2, avec un code d’échantillonnage“, écrivent les chercheurs.

Source

Articles liés :

Un abri qui utilise la reconnaissance faciale pour offrir un refuge aux chats errants

L’utilisation excessive des réseaux sociaux est comparable à la toxicomanie

Un champion de débat a vaincu une intelligence artificielle

Une IA tellement avancée que ses créateurs refusent de la libérer
noté 4.4 - 9 votes