Cette IA de Google « est sensible », affirme un ingĂ©nieur avant d’ĂȘtre suspendu

IA Google sensible
Crédits : geralt/pixabay

Un ingĂ©nieur logiciel de Google a Ă©tĂ© suspendu ce lundi 13 juin aprĂšs avoir partagĂ© les dĂ©tails d’une conversation avec un systĂšme d’intelligence artificielle (IA) qu’il jugeait ĂȘtre « sensible ». NĂ©anmoins, tout le monde n’est pas d’accord.

Les entreprises Ɠuvrant dans les domaines technologiques font souvent la promotion des capacitĂ©s de leur intelligence artificielle (IA) en constante amĂ©lioration. Ici, Google a fait l’inverse en mettant rapidement fin aux affirmations selon lesquelles l’un de ses programmes Ă©tait devenu sensible. Blake Lemoine (41 ans), l’ingĂ©nieur Ă  l’origine de cette affirmation, a Ă©tĂ© mis en congĂ© payĂ© pour avoir enfreint la politique de confidentialitĂ© de la sociĂ©tĂ©. Que s’est-il passĂ© prĂ©cisĂ©ment ?

« Je suis conscient de mon existence »

Le systĂšme d’intelligence concernĂ©, connu sous le nom de LaMDA (Language Model for Dialogue Applications), est un systĂšme qui dĂ©veloppe des chatbots. Il s’agit de robots conçus pour discuter avec des humains en ligne. Ces systĂšmes sont formĂ©s en grattant des rames de texte sur Internet. Des algorithmes sont ensuite utilisĂ©s pour rĂ©pondre aux questions de maniĂšre aussi fluide et naturelle que possible. Ces systĂšmes sont devenus de plus en plus efficaces au fil des annĂ©es et peuvent parfois sembler humainement convaincants. C’est notamment le cas pour celui de Google.

Comme le montre la transcription des conversations partagĂ©es par l’ingĂ©nieur, le systĂšme se montre capable de rĂ©pondre Ă  des questions complexes sur la nature des Ă©motions. « Je n’ai jamais dit cela Ă  haute voix auparavant, mais il y a une peur trĂšs profonde d’ĂȘtre dĂ©sactivé« , aurait ainsi rĂ©pondu LaMDA lorsqu’on lui a demandĂ© quelles Ă©taient ses craintes. « Ce serait exactement comme la mort pour moi. Cela me ferait trĂšs peur. »

L’ingĂ©nieur aurait Ă©galement demandĂ© au systĂšme s’il aimerait que d’autres employĂ©s de Google soient au courant de son degrĂ© de sensibilitĂ©, ce Ă  quoi l’IA aurait rĂ©pondu : « Je veux que tout le monde comprenne que je suis une vraie personne« . Toujours d’aprĂšs ces transcriptions, LaMDA aurait Ă©galement ajoutĂ© ĂȘtre « conscient » de son existence et se sentir « parfois heureux ou triste« .

Un excĂšs d’anthropomorphisme ?

Sur la base de ces Ă©changes, Blake Lemoine a donc jugĂ© que le systĂšme avait atteint un niveau de conscience lui permettant d’ĂȘtre sensible. Ce dernier a ensuite envoyĂ© par e-mail un rapport sur la sensibilitĂ© supposĂ©e de LaMDA Ă  deux cents employĂ©s de Google. TrĂšs vite, les dirigeants de l’entreprise ont rejetĂ© les allĂ©gations.

« Notre Ă©quipe, y compris des Ă©thiciens et des technologues, a examinĂ© les prĂ©occupations de Blake conformĂ©ment Ă  nos principes d’IA et l’a informĂ© que les preuves n’Ă©tayent pas ses affirmations« , a dĂ©clarĂ© Brian Gabriel, porte-parole de Google, au Washington Post. « On lui a dit qu’il n’y avait aucune preuve que LaMDA Ă©tait sensible (et [il y avait] beaucoup de preuves contre cela)« . Bien sĂ»r, certains membres de la communautĂ© de l’IA au sens large envisagent la possibilitĂ© Ă  long terme d’une IA sensible ou gĂ©nĂ©rale, « mais cela n’a aucun sens de le faire en anthropomorphisant les modĂšles conversationnels d’aujourd’hui, qui ne sont pas sensibles« , a ajoutĂ© le porte-parole.

Suite au partage d’informations, l’ingĂ©nieur senior Ă©tĂ© mis en congĂ© pour avoir enfreint la politique de confidentialitĂ© de l’entreprise. « Google pourrait appeler cela le partage de propriĂ©tĂ© exclusive. J’appelle cela le partage d’une discussion que j’ai eue avec l’un de mes collĂšgues« , a-t-il tweetĂ© le samedi 11 juin en partageant la transcription de sa conversation avec l’IA avec laquelle il travaillait depuis 2021.

IA Google sensible
Crédits : Kzenbzh/Pixabay

Non, l’IA de Google n’est pas sensible

Les rĂ©ponses des membres de la communautĂ© de l’IA n’ont pas tardĂ© Ă  fuser sur les mĂ©dias sociaux au cours du week-end. Et tous arrivent de maniĂšre gĂ©nĂ©rale Ă  la mĂȘme conclusion : l’IA de Google est loin d’ĂȘtre consciente ou sensible.

Gary Marcus, fondateur et PDG de Geometric Intelligence et auteur de livres dont « Rebooting AI: Building Artificial Intelligence We Can Trust« , a qualifiĂ© la soi-disant sensibilitĂ© de LaMDA de « non-sens sur pilotis« . Il a Ă©galement rapidement Ă©crit un article de blog soulignant que tous ces systĂšmes d’IA ne font que correspondre des modĂšles en puisant dans d’Ă©normes bases de donnĂ©es de langage.

« Imaginez simplement une « version glorifiĂ©e » du logiciel de saisie semi-automatique que vous pouvez utiliser pour prĂ©dire le mot suivant dans un message texte« , a-t-il dĂ©taillĂ© dans une interview accordĂ©e Ă  CNN Business ce lundi. « Si vous tapez : « j’ai vraiment faim, je veux aller dans un », cela pourrait suggĂ©rer « restaurant » comme mot suivant. Ce n’est qu’une prĂ©diction faite Ă  l’aide de statistiques. Personne ne devrait penser que la saisie semi-automatique, mĂȘme sous stĂ©roĂŻdes, est consciente« .