Le fameux jour oĂč une intelligence artificielle est responsable de la mort d’un ĂȘtre humain est arrivĂ©, peut-ĂȘtre plus tĂŽt que nous le pensions. Retour sur cette affaire impliquant une question cruciale : Ă qui revient la responsabilitĂ© ?
Il y a une dizaine de jours, une voiture autonome de la sociĂ©tĂ© VTC Uber a percutĂ© une femme qui traversait une route Ă vĂ©lo dans la ville de Tempe prĂšs de Phoenix (Ătats-Unis). Selon les enquĂȘteurs, la piste d’un problĂšme au niveau du logiciel ou des capteurs est privilĂ©giĂ©e.
Dans la foulĂ©e, VTC Uber a stoppĂ© les tests de vĂ©hicules autonomes actuellement menĂ©s dans plusieurs villes d’AmĂ©rique du Nord et a trouvĂ© un accord avec la famille de la dĂ©funte. Cet accord, dont nous ignorons encore les dĂ©tails, devrait permettre a cette sociĂ©tĂ© d’Ă©viter une sĂ©rieuse bataille judiciaire qui aurait Ă©tĂ© trĂšs nĂ©gative pour son image. Par ailleurs, l’Ătat de l’Arizona vient tout juste d’interdire Ă Uber de faire rouler ses voitures autonomes sur ses routes, comme l’explique la RTBF.
L’Ă©vĂ©nement a Ă©tĂ© sur-mĂ©diatisĂ© mais a au moins eu le mĂ©rite de soulever la question de la responsabilitĂ© dans ce genre d’accidents. Dans une publication du MIT Technology Review du 12 mars 2018, John Kingston, docteur Ă lâUniversitĂ© de Brighton (Royaume-Uni) , explique qu’il n’y a aucune rĂ©glementation encadrant ce type de situations. Une IA peut-elle ĂȘtre tenue criminellement responsable de ses actes ?
Selon lâintĂ©ressĂ©, trois types de responsabilitĂ©s pourraient correspondre. PremiĂšrement, il y a celle « dâauteur par lâintermĂ©diaire dâautrui », habituellement activĂ©e lorsqu’une faute est commise par une personne n’ayant pas toutes ses facultĂ©s cognitives et ayant reçu dâĂ©ventuelles instructions Ă©manant d’une autre personne. Dans le cas de l’IA, le dĂ©veloppeur ou l’utilisateur du logiciel peut ĂȘtre tenu responsable.
Ăvoquons Ă©galement la responsabilitĂ© directe, impliquant une action et une intention de la part du coupable. Du cĂŽtĂ© de l’action, il est aisĂ© de prouver qu’une IA a fait quelque chose causant la mort d’une personne, mais au niveau de l’intention, cela s’avĂšre un peu plus compliquĂ©. Habituellement, les cas d’excĂšs de vitesse relĂšvent de la responsabilitĂ© directe et si un jour, une voiture autonome dĂ©passe la limite de vitesse autorisĂ©e, la loi pourrait alors sanctionner le dĂ©veloppeur du logiciel plutĂŽt que le propriĂ©taire du vĂ©hicule.
La derniĂšre responsabilitĂ© porte la notion de « consĂ©quence naturelle probable ». John Kingston Ă©voque le cas d’un robot ayant causĂ© la mort d’un ouvrier dans une usine japonaise en 1981 :
« Le robot a identifiĂ© Ă tort lâemployĂ© comme une menace Ă sa mission et a calculĂ© que la façon la plus efficace dâĂ©liminer cette menace Ă©tait de le pousser dans une machine adjacente. Ă lâaide de son bras hydraulique trĂšs puissant, le robot a Ă©crasĂ© lâouvrier dans la machine, le tuant instantanĂ©ment, puis il a repris ses fonctions. »
Il semble urgent de dĂ©finir un cadre en ce qui concerne lâintelligence artificielle, surtout que celle-ci a tendance Ă devenir de plus en plus prĂ©sente dans notre sociĂ©tĂ©. Par ailleurs, tout comme les ĂȘtres humains, aucune machine n’est infaillible !
Sources : Presse Citron – RTBF – Euronews