IA : Un destin hors du commun qui débuta au XIIIe siècle

Crédits : Pixabay / geralt

Intelligence artificielle par-ci, intelligence artificielle par là… Ce terme est évoqué un peu partout, mais savez-vous d’où vient cette discipline scientifique et quel a été son cheminement jusqu’à aujourd’hui ? Une conférence récente donnée par l’Association Française pour l’Intelligence Artificielle (AFIA) a évoqué ce destin hors du commun.

La plupart d’entre nous ont pour la première fois entendu parler d’intelligence artificielle dans certains films de science-fiction, mais il s’agit bien d’une discipline à part entière dont l’histoire remonte à environ soixante années. Pourtant, l’intelligence artificielle fait partie de la culture contemporaine depuis la trilogie robotique d’Asimov ou encore les méfaits de Hal dans l’Odyssée de l’espace !

Véritable source de fantasmes, l’IA fait également peur à tel point que « même Bill Gates ou Stephen Hawking ont évoqué leurs craintes de voir une super-intelligence artificielle devenir source de décisions incontestables », explique Joël Quinteton, professeur émérite de l’Université de Montpellier III pour le magazine Sciences et Avenir.

Nous pourrions considérer que le premier « rêve » d’intelligence artificielle a été fait il y a bien plus longtemps que le siècle dernier :

« Au 13e siècle, déjà, le philosophe Raymond Lulle ambitionnait de construire une machine logique capable de répondre à des problèmes philosophiques, qu’il nomma Ars magna. Au 18e siècle est publié l’ouvrage L’Homme Machine par Julien Offray de La Mettrie, qui va influencer toute une époque, en témoignent les automates de Vaucanson comme son fameux canard digérateur. »

Ce « canard dirégateur » de Vaucansson reproduit fidèlement l’apparence de l’animal, mais à l’intérieur, un dispositif simule mécaniquement la digestion organique (voir ci-dessous).

Si aujourd’hui les IA se basent sur le deep learning et les réseaux neuronaux, ces procédés ne sont pas arrivés servis sur un plateau. Pour en arriver là, il a fallu passer des étapes comme la reconnaissance de formes telles que l’écriture, l’image ou la parole. Il est possible de citer Eliza, le « premier agent conversationnel » conçu en 1966 ou encore les programmes de jeu tels que les échecs, le jeu de Go ou encore les dames qui ont pendant longtemps fait partie des bases de la recherche.

« Dès 1956, deux chercheurs ont conçu un Global Problem Solver voué à démontrer des théorèmes mathématiques. C’est d’ailleurs l’ancêtre des logiciels de calcul mathématique formel ! De cette approche sont aussi nés les systèmes experts dans les années 1970 », note Joël Quinteton.

L’originalité ? Tirer des conclusions à partir d’une base regroupant des faits et des règles. Cette approche est toujours la même aujourd’hui en ce qui concerne les systèmes d’information des entreprises basés sur ce que l’on nomme les « règles métiers ».

La discipline semblait avoir disparu dans les années 1990, même si les films de science-fiction l’évoquaient. La raison serait avant tout économique, selon Jean Rohmer, directeur de la recherche et des partenariats à l’École Supérieure d’Ingénieurs Léonard de Vinci : « la recherche en IA coûtait beaucoup et apportait peu d’amélioration de l’expérience utilisateur. »

Depuis, l’homme désire concevoir des IA proches de lui et fortement associées au langage. Le défi le plus important réside dans le fait de ne pas être trop dépendant des traitements statistiques de masse du machine learning.

« L’intelligence, ce n’est pas seulement la résolution de problème, c’est aussi la capacité à bien gérer les exceptions », explique Jean-Louis Dessales, Professeur à Télécom ParisTech, avant de poursuivre :

« C’est sur la base des exceptions à une règle que l’humain évalue la pertinence d’un fait, alors que les systèmes d’IA actuels lient pour la plupart la notion de pertinence à un calcul statistique. La différence primordiale ? La simplicité des solutions déployées par l’homme… tout un enjeu pour les IAs, qui trouvent souvent un bon résultat, mais au moyen de méthodes très complexes. »

Cette déclaration prend alors tout son sens lorsque l’on réfléchit à l’arrivée des voitures autonomes et aux autres applications du genre qui pourraient grandement mettre en danger les humains dans le cas de mauvaises évaluations des situations.

Sources : Sciences et Avenir — Slate