Une étude statue sur la possibilité que l’IA représente une menace existentielle pour les humains

Crédits : Rafido / Pixabay

Récemment, des chercheurs britanniques et allemands ont publié des travaux qui vont à l’encontre des pires craintes en ce qui concerne l’intelligence artificielle (IA). Selon les auteurs, la réalité scientifique serait en effet plus rassurante que ce que les pires scénarios hollywoodiens montrent au grand public.

La peur du développement de compétences dangereuses

Au cinéma, de nombreux films dépeignent un futur sombre dans lequel les intelligences artificielles se retournent contre les humains. Citons par exemple I, Robot (2004), Mother/Android (2021) ou encore la saga Terminator (1984-2019) avec l’emblématique et terrifiante Skynet. Cependant, la réalité scientifique semble beaucoup moins alarmiste à l’image d’une étude publiée à l’occasion du 62ᵉ congrès annuel de l’Association for Computational Linguistics.

En effet, selon des chercheurs de l’Université technique de Darmstadt (Allemagne) et de l’Université de Bath (Royaume-Uni), les modèles d’IA sophistiqués seraient en réalité très contraints par leur programmation initiale. Il s’avère qu’ils sont incapables d’accumuler de nouvelles compétences de façon autonome et restent donc sous le contrôle de l’être humain. Cette réalité concerne ainsi la grande majorité des Large language models (LLMs) sauf quelques cas rares tels que l’algorithme EES du Massachusetts Institute of Technology (MIT).

Les principales craintes concernant les modèles d’IA sont relatives à la possibilité que ces derniers acquièrent des compétences dangereuses, comme le raisonnement et la planification. Néanmoins, les chercheurs sont formels : la possibilité qu’une IA « s’échappe » et ait un comportement totalement inattendu, innovant et potentiellement dangereux n’est pas fondée.

terminator
Crédits : Insomnia Cured Here / Flickr

Aucune preuve de pensée autonome ou d’intelligence véritable chez l’IA

La conclusion des auteurs de l’étude se base sur une série d’expériences menées sur quatre différents LLMs. Les chercheurs ont soumis ces IA à des tâches dites émergentes, c’est-à-dire pouvant potentiellement générer des comportements imprévus ou déviants. Heureusement, les résultats n’ont donné aucune preuve du développement d’idées déviantes ou d’une quelconque capacité d’agir en dehors de la programmation initiale.

D’après les scientifiques, l’objectif de ces recherches était de déconstruire un mythe. Il faut dire que les LLMs peuvent entretenir des conversations très cohérentes, ce qui a conduit certaines personnes, dont des chercheurs, à spéculer sur de telles capacités émergentes. Par exemple, certaines IA peuvent élaborer à propos de situations sociales sans avoir été formées pour cela. Cependant, les auteurs de l’étude estiment que cela est le résultat de la combinaison de trois facteurs, à savoir la capacité des LLMs à suivre des instructions, leur maîtrise des langues ainsi que leur capacité de mémorisation.

Il n’en demeure pas moins qu’aucune preuve de pensée autonome ou d’intelligence véritable n’existe. Cela prouve ainsi que le terme « intelligence artificielle » peut être considéré comme un abus de langage, car une vraie IA capable de formuler des choix ou des opinions et d’apprendre par elle-même n’existe pas aujourd’hui. Pour l’instant, il est en effet simplement question de traitement et d’analyse de données en suivant des règles préétablies par des humains.