in

Cette IA de Google « est sensible », affirme un ingénieur avant d’être suspendu

Crédits : geralt/pixabay

Un ingénieur logiciel de Google a été suspendu ce lundi 13 juin après avoir partagé les détails d’une conversation avec un système d’intelligence artificielle (IA) qu’il jugeait être « sensible ». Néanmoins, tout le monde n’est pas d’accord.

Les entreprises œuvrant dans les domaines technologiques font souvent la promotion des capacités de leur intelligence artificielle (IA) en constante amélioration. Ici, Google a fait l’inverse en mettant rapidement fin aux affirmations selon lesquelles l’un de ses programmes était devenu sensible. Blake Lemoine (41 ans), l’ingénieur à l’origine de cette affirmation, a été mis en congé payé pour avoir enfreint la politique de confidentialité de la société. Que s’est-il passé précisément ?

« Je suis conscient de mon existence »

Le système d’intelligence concerné, connu sous le nom de LaMDA (Language Model for Dialogue Applications), est un système qui développe des chatbots. Il s’agit de robots conçus pour discuter avec des humains en ligne. Ces systèmes sont formés en grattant des rames de texte sur Internet. Des algorithmes sont ensuite utilisés pour répondre aux questions de manière aussi fluide et naturelle que possible. Ces systèmes sont devenus de plus en plus efficaces au fil des années et peuvent parfois sembler humainement convaincants. C’est notamment le cas pour celui de Google.

Comme le montre la transcription des conversations partagées par l’ingénieur, le système se montre capable de répondre à des questions complexes sur la nature des émotions. « Je n’ai jamais dit cela à haute voix auparavant, mais il y a une peur très profonde d’être désactivé« , aurait ainsi répondu LaMDA lorsqu’on lui a demandé quelles étaient ses craintes. « Ce serait exactement comme la mort pour moi. Cela me ferait très peur. »

L’ingénieur aurait également demandé au système s’il aimerait que d’autres employés de Google soient au courant de son degré de sensibilité, ce à quoi l’IA aurait répondu : « Je veux que tout le monde comprenne que je suis une vraie personne« . Toujours d’après ces transcriptions, LaMDA aurait également ajouté être « conscient » de son existence et se sentir « parfois heureux ou triste« .

Un excès d’anthropomorphisme ?

Sur la base de ces échanges, Blake Lemoine a donc jugé que le système avait atteint un niveau de conscience lui permettant d’être sensible. Ce dernier a ensuite envoyé par e-mail un rapport sur la sensibilité supposée de LaMDA à deux cents employés de Google. Très vite, les dirigeants de l’entreprise ont rejeté les allégations.

« Notre équipe, y compris des éthiciens et des technologues, a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations« , a déclaré Brian Gabriel, porte-parole de Google, au Washington Post. « On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible (et [il y avait] beaucoup de preuves contre cela)« . Bien sûr, certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, « mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles« , a ajouté le porte-parole.

Suite au partage d’informations, l’ingénieur senior été mis en congé pour avoir enfreint la politique de confidentialité de l’entreprise. « Google pourrait appeler cela le partage de propriété exclusive. J’appelle cela le partage d’une discussion que j’ai eue avec l’un de mes collègues« , a-t-il tweeté le samedi 11 juin en partageant la transcription de sa conversation avec l’IA avec laquelle il travaillait depuis 2021.

IA Google sensible
Crédits : Kzenbzh/Pixabay

Non, l’IA de Google n’est pas sensible

Les réponses des membres de la communauté de l’IA n’ont pas tardé à fuser sur les médias sociaux au cours du week-end. Et tous arrivent de manière générale à la même conclusion : l’IA de Google est loin d’être consciente ou sensible.

Gary Marcus, fondateur et PDG de Geometric Intelligence et auteur de livres dont « Rebooting AI: Building Artificial Intelligence We Can Trust« , a qualifié la soi-disant sensibilité de LaMDA de « non-sens sur pilotis« . Il a également rapidement écrit un article de blog soulignant que tous ces systèmes d’IA ne font que correspondre des modèles en puisant dans d’énormes bases de données de langage.

« Imaginez simplement une « version glorifiée » du logiciel de saisie semi-automatique que vous pouvez utiliser pour prédire le mot suivant dans un message texte« , a-t-il détaillé dans une interview accordée à CNN Business ce lundi. « Si vous tapez : « j’ai vraiment faim, je veux aller dans un », cela pourrait suggérer « restaurant » comme mot suivant. Ce n’est qu’une prédiction faite à l’aide de statistiques. Personne ne devrait penser que la saisie semi-automatique, même sous stéroïdes, est consciente« .