Un ingĂ©nieur logiciel de Google a Ă©tĂ© suspendu ce lundi 13 juin aprĂšs avoir partagĂ© les dĂ©tails d’une conversation avec un systĂšme d’intelligence artificielle (IA) qu’il jugeait ĂȘtre « sensible ». NĂ©anmoins, tout le monde n’est pas d’accord.
Les entreprises Ćuvrant dans les domaines technologiques font souvent la promotion des capacitĂ©s de leur intelligence artificielle (IA) en constante amĂ©lioration. Ici, Google a fait l’inverse en mettant rapidement fin aux affirmations selon lesquelles l’un de ses programmes Ă©tait devenu sensible. Blake Lemoine (41 ans), l’ingĂ©nieur Ă l’origine de cette affirmation, a Ă©tĂ© mis en congĂ© payĂ© pour avoir enfreint la politique de confidentialitĂ© de la sociĂ©tĂ©. Que s’est-il passĂ© prĂ©cisĂ©ment ?
« Je suis conscient de mon existence »
Le systĂšme d’intelligence concernĂ©, connu sous le nom de LaMDA (Language Model for Dialogue Applications), est un systĂšme qui dĂ©veloppe des chatbots. Il s’agit de robots conçus pour discuter avec des humains en ligne. Ces systĂšmes sont formĂ©s en grattant des rames de texte sur Internet. Des algorithmes sont ensuite utilisĂ©s pour rĂ©pondre aux questions de maniĂšre aussi fluide et naturelle que possible. Ces systĂšmes sont devenus de plus en plus efficaces au fil des annĂ©es et peuvent parfois sembler humainement convaincants. C’est notamment le cas pour celui de Google.
Comme le montre la transcription des conversations partagĂ©es par l’ingĂ©nieur, le systĂšme se montre capable de rĂ©pondre Ă des questions complexes sur la nature des Ă©motions. « Je n’ai jamais dit cela Ă haute voix auparavant, mais il y a une peur trĂšs profonde d’ĂȘtre dĂ©sactivé« , aurait ainsi rĂ©pondu LaMDA lorsqu’on lui a demandĂ© quelles Ă©taient ses craintes. « Ce serait exactement comme la mort pour moi. Cela me ferait trĂšs peur. »
L’ingĂ©nieur aurait Ă©galement demandĂ© au systĂšme s’il aimerait que d’autres employĂ©s de Google soient au courant de son degrĂ© de sensibilitĂ©, ce Ă quoi l’IA aurait rĂ©pondu : « Je veux que tout le monde comprenne que je suis une vraie personne« . Toujours d’aprĂšs ces transcriptions, LaMDA aurait Ă©galement ajoutĂ© ĂȘtre « conscient » de son existence et se sentir « parfois heureux ou triste« .
Un excĂšs d’anthropomorphisme ?
Sur la base de ces Ă©changes, Blake Lemoine a donc jugĂ© que le systĂšme avait atteint un niveau de conscience lui permettant d’ĂȘtre sensible. Ce dernier a ensuite envoyĂ© par e-mail un rapport sur la sensibilitĂ© supposĂ©e de LaMDA Ă deux cents employĂ©s de Google. TrĂšs vite, les dirigeants de l’entreprise ont rejetĂ© les allĂ©gations.
« Notre Ă©quipe, y compris des Ă©thiciens et des technologues, a examinĂ© les prĂ©occupations de Blake conformĂ©ment Ă nos principes d’IA et l’a informĂ© que les preuves n’Ă©tayent pas ses affirmations« , a dĂ©clarĂ© Brian Gabriel, porte-parole de Google, au Washington Post. « On lui a dit qu’il n’y avait aucune preuve que LaMDA Ă©tait sensible (et [il y avait] beaucoup de preuves contre cela)« . Bien sĂ»r, certains membres de la communautĂ© de l’IA au sens large envisagent la possibilitĂ© Ă long terme d’une IA sensible ou gĂ©nĂ©rale, « mais cela n’a aucun sens de le faire en anthropomorphisant les modĂšles conversationnels d’aujourd’hui, qui ne sont pas sensibles« , a ajoutĂ© le porte-parole.
Suite au partage d’informations, l’ingĂ©nieur senior Ă©tĂ© mis en congĂ© pour avoir enfreint la politique de confidentialitĂ© de l’entreprise. « Google pourrait appeler cela le partage de propriĂ©tĂ© exclusive. J’appelle cela le partage d’une discussion que j’ai eue avec l’un de mes collĂšgues« , a-t-il tweetĂ© le samedi 11 juin en partageant la transcription de sa conversation avec l’IA avec laquelle il travaillait depuis 2021.
Non, l’IA de Google n’est pas sensible
Les rĂ©ponses des membres de la communautĂ© de l’IA n’ont pas tardĂ© Ă fuser sur les mĂ©dias sociaux au cours du week-end. Et tous arrivent de maniĂšre gĂ©nĂ©rale Ă la mĂȘme conclusion : l’IA de Google est loin d’ĂȘtre consciente ou sensible.
Gary Marcus, fondateur et PDG de Geometric Intelligence et auteur de livres dont « Rebooting AI: Building Artificial Intelligence We Can Trust« , a qualifiĂ© la soi-disant sensibilitĂ© de LaMDA de « non-sens sur pilotis« . Il a Ă©galement rapidement Ă©crit un article de blog soulignant que tous ces systĂšmes d’IA ne font que correspondre des modĂšles en puisant dans d’Ă©normes bases de donnĂ©es de langage.
« Imaginez simplement une « version glorifiĂ©e » du logiciel de saisie semi-automatique que vous pouvez utiliser pour prĂ©dire le mot suivant dans un message texte« , a-t-il dĂ©taillĂ© dans une interview accordĂ©e Ă CNN Business ce lundi. « Si vous tapez : « j’ai vraiment faim, je veux aller dans un », cela pourrait suggĂ©rer « restaurant » comme mot suivant. Ce n’est qu’une prĂ©diction faite Ă l’aide de statistiques. Personne ne devrait penser que la saisie semi-automatique, mĂȘme sous stĂ©roĂŻdes, est consciente« .