Les vĂ©hicules autonomes ne seraient pas plus intelligents qu’un enfant de 7 ans

tesla
L’intérieur standard de la Model 3. Le toit en verre n’est désormais plus une option supplémentaire. Il devient un élément en standard sur toutes les versions. Crédits : Tesla

Un magazine britannique a rĂ©cemment publiĂ© une diatribe Ă  l’encontre des voitures autonomes. Cet article brĂ»lant explique qu’en n’intĂ©grant pas la notion de permanence des objets, ce genre de vĂ©hicules ne serait pas plus Ă©voluĂ© qu’un enfant.

Une incompréhension du fonctionnement du monde réel

MalgrĂ© les immenses progrès rĂ©alisĂ©s par la conduite autonome, aucune entreprise n’est prĂªte Ă  lancer un vĂ©hicule 100 % autonome de niveau 5. Parmi les fabricants les plus performants, le nippon Honda a lancĂ© la commercialisation d’une voiture autonome de niveau 3 en mars 2021. Le gĂ©ant du secteur Tesla a quant Ă  lui rĂ©cemment promis une voiture 100% autonome sans volant ni pĂ©dale d’ici seulement deux ans. Toutefois, cette technologie Ă©tait dĂ©jĂ  prĂ©vue pour 2018 et les curieux attendent encore. En attendant donc, le doute persiste et ce dernier a largement pris forme dans un article publiĂ© par le magazine The Economist le 4 septembre 2021. La publication explique que malgrĂ© les progrès, les voitures autonomes ne comprennent pas encore comment fonctionne le monde rĂ©el et donc, comment se comportent les humains.

« Pour une voiture autonome, un vĂ©lo qui disparaĂ®t momentanĂ©ment derrière une camionnette est un vĂ©lo qui cesse d’exister, illustre le magazine. Un enfant de 7 ans Ă  qui on confisque un jouet est capable de comprendre que le jouet existe toujours. C’est une des caractĂ©ristiques fondamentales de l’intelligence humaine », peut-on lire dans l’article.

accident Tesla 2
Crédits : capture YouTube / gm2839

L’IA ne devrait jamais atteindre le niveau de l’humain

Il faut savoir que l’IA se base sur l’apprentissage automatique Ă  l’aide de nombreuses images et autres vidĂ©os. L’objectif d’apprendre de nouvelles situations semble ainsi atteint. En revanche, l’IA ne comprend toujours pas ce qui se passe de manière fondamentale. En tĂ©moignent les exemples de bugs existants : confusion entre la lune et un feu orange, insectes et gouttes de pluie considĂ©rĂ©s comme des obstacles ou encore une cycliste prise pour une « information parasite ». Malheureusement, l’IA n’est pas aussi intelligente qu’on le voudrait.

Mehul Bhatt, fondateur de la sociĂ©tĂ© CoDesign Lab a Ă©voquĂ© les dĂ©tails d’une approche diffĂ©rente. Elle consisterait Ă  concevoir les algorithmes de voitures autonomes en ajoutant une « brique logicielle » après les rĂ©sultats habituels. Ainsi, le logiciel applique des concepts physiques au lieu d’aborder son environnement de façon probabiliste. Mehul Bhatt a Ă©voquĂ© l’exemple de la permanence des objets. En effet, les objets continuent d’exister mĂªme s’ils sont cachĂ©s derrière un vĂ©hicule ou un autre obstacle. Les premiers tests ont permis de noter une lĂ©gère amĂ©lioration, mais le chemin reste encore très long.

De toute manière, de nombreux observateurs estiment que les IA de conduite autonome n’atteindront jamais le niveau de l’humain. Ce dernier est capable de prendre de nombreuses dĂ©cisions en intĂ©grant les rapports de force, les conventions et l’empathie, ce dont est incapable l’IA. Par exemple, un conducteur humain ne rĂ©agit pas de la mĂªme façon face Ă  un gros camion que face Ă  une petite voiture. Rappelons aussi les questionnements d’un point de vue Ă©thique, concernant le « choix » des victimes en cas d’accident inĂ©vitable.