in ,

L’IA pourrait contrĂ´ler les humains comme les humains contrĂ´lent actuellement les animaux

Crédits : Guillaume / iStock

Dernièrement, le Guardian a republiĂ© un extrait d’un documentaire datant de 2019. Dans cette vidĂ©o, le cofondateur et directeur scientifique d’OpenAI a Ă©voquĂ© le besoin d’atteindre un « super-alignement » avec l’intelligence artificielle dans un futur plus ou moins proche. En effet, des objectifs discordants entre les humains et cette technologie ne seraient pas vraiment souhaitables pour l’humanitĂ©.

Les IA et les humains devront se mettre d’accord

Si l’intelligence artificielle (IA) dĂ©passe un jour pleinement l’humain, se posera Ă  coup sĂ»r la question suivante : comment la contrĂ´ler ? Le moins que l’on puisse dire, c’est qu’il faudra espĂ©rer que ce type d’intelligence aura les mĂªmes objectifs que l’humanitĂ©. Les crĂ©ateurs de ChatGPT nous ont d’ailleurs dĂ©jĂ  prĂ©venus des enjeux comme en atteste un extrait du documentaire iHuman tournĂ© entre 2016 et 2019 et publiĂ© rĂ©cemment par le quotidien britannique The Guardian (voir en fin d’article) oĂ¹ Ilya Sutskever, cofondateur et directeur scientifique d’OpenAI, en parle.

Dans cette interview qui remonte Ă  l’Ă©poque du dĂ©veloppement de ChatGPT, il exprimait dĂ©jĂ  certaines craintes quant Ă  cette Ă©volution. Pour lui, si l’IA permet de gagner en efficacitĂ© pour certaines tĂ¢ches, la voir comme une extension de notre propre volontĂ© est une erreur. Le but atteint par OpenIA, l’intelligence artificielle gĂ©nĂ©rale (IAG), pourrait en effet un jour signifier le non-besoin d’intelligence humaine. Dans la mesure oĂ¹ l’IA est capable d’apprendre et d’effectuer pratiquement n’importe quelle tĂ¢che cognitive propre aux humains, la question de l’alignement des objectifs au niveau des deux parties se posera donc un jour.

humain IA
Crédits : Guillaume / iStock

Un « super-alignement » nécessaire

Ilya Sutskever avait comparĂ© la relation humain-IA Ă  celle entre les humains et les animaux. Il avait alors pointĂ© le fait que l’apparition d’un point de discorde peut se faire mĂªme en l’absence de malveillance. Si les humains aiment en gĂ©nĂ©ral les animaux, il existe des limites. L’informaticien a donnĂ© l’exemple d’un projet de construction d’autoroute entre deux villes. Ici, les humains ne demandent pas la permission aux animaux pour s’exĂ©cuter, tout simplement parce que le projet en question est important pour eux. Or, ce type de relation entre les IAG et les humains pourrait Ă©galement s’Ă©tablir, notamment en raison de l’autonomie de ces intelligences.

La question se posera d’autant plus lorsque ces IAG auront atteint un niveau très proche de ce que les humains conceptualisent comme Ă©tant la conscience. Ă€ ce moment-lĂ , l’alignement des objectifs sera d’une nĂ©cessitĂ© cruciale pour les humains. Il y a quelques mois, OpenAI a donc créé une division qui a vocation Ă  assurer cet objectif avant qu’il ne soit trop tard et il y a fort Ă  parier que l’inquiĂ©tude sera grande en cas d’Ă©chec.

Voici l’interview d’Ilya Sutskever extraite du documentaire iHuman :