Une IA peut-elle ĂȘtre tenue criminellement responsable de ses actes ?

Capture I Robot

Le fameux jour oĂč une intelligence artificielle est responsable de la mort d’un ĂȘtre humain est arrivĂ©, peut-ĂȘtre plus tĂŽt que nous le pensions. Retour sur cette affaire impliquant une question cruciale : Ă  qui revient la responsabilitĂ© ?

Il y a une dizaine de jours, une voiture autonome de la sociĂ©tĂ© VTC Uber a percutĂ© une femme qui traversait une route Ă  vĂ©lo dans la ville de Tempe prĂšs de Phoenix (États-Unis). Selon les enquĂȘteurs, la piste d’un problĂšme au niveau du logiciel ou des capteurs est privilĂ©giĂ©e.

Dans la foulĂ©e, VTC Uber a stoppĂ© les tests de vĂ©hicules autonomes actuellement menĂ©s dans plusieurs villes d’AmĂ©rique du Nord et a trouvĂ© un accord avec la famille de la dĂ©funte. Cet accord, dont nous ignorons encore les dĂ©tails, devrait permettre a cette sociĂ©tĂ© d’Ă©viter une sĂ©rieuse bataille judiciaire qui aurait Ă©tĂ© trĂšs nĂ©gative pour son image. Par ailleurs, l’État de l’Arizona vient tout juste d’interdire Ă  Uber de faire rouler ses voitures autonomes sur ses routes, comme l’explique la RTBF.

Crédits : Wikimedia Commons

L’Ă©vĂ©nement a Ă©tĂ© sur-mĂ©diatisĂ© mais a au moins eu le mĂ©rite de soulever la question de la responsabilitĂ© dans ce genre d’accidents. Dans une publication du MIT Technology Review du 12 mars 2018, John Kingston, docteur Ă  l’UniversitĂ© de Brighton (Royaume-Uni) , explique qu’il n’y a aucune rĂ©glementation encadrant ce type de situations. Une IA peut-elle ĂȘtre tenue criminellement responsable de ses actes ?

Selon l’intĂ©ressĂ©, trois types de responsabilitĂ©s pourraient correspondre. PremiĂšrement, il y a celle « d’auteur par l’intermĂ©diaire d’autrui », habituellement activĂ©e lorsqu’une faute est commise par une personne n’ayant pas toutes ses facultĂ©s cognitives et ayant reçu d’éventuelles instructions Ă©manant d’une autre personne. Dans le cas de l’IA, le dĂ©veloppeur ou l’utilisateur du logiciel peut ĂȘtre tenu responsable.

Évoquons Ă©galement la responsabilitĂ© directe, impliquant une action et une intention de la part du coupable. Du cĂŽtĂ© de l’action, il est aisĂ© de prouver qu’une IA a fait quelque chose causant la mort d’une personne, mais au niveau de l’intention, cela s’avĂšre un peu plus compliquĂ©. Habituellement, les cas d’excĂšs de vitesse relĂšvent de la responsabilitĂ© directe et si un jour, une voiture autonome dĂ©passe la limite de vitesse autorisĂ©e, la loi pourrait alors sanctionner le dĂ©veloppeur du logiciel plutĂŽt que le propriĂ©taire du vĂ©hicule.

La derniĂšre responsabilitĂ© porte la notion de « consĂ©quence naturelle probable ». John Kingston Ă©voque le cas d’un robot ayant causĂ© la mort d’un ouvrier dans une usine japonaise en 1981 :

« Le robot a identifiĂ© Ă  tort l’employĂ© comme une menace Ă  sa mission et a calculĂ© que la façon la plus efficace d’éliminer cette menace Ă©tait de le pousser dans une machine adjacente. À l’aide de son bras hydraulique trĂšs puissant, le robot a Ă©crasĂ© l’ouvrier dans la machine, le tuant instantanĂ©ment, puis il a repris ses fonctions. »

Il semble urgent de dĂ©finir un cadre en ce qui concerne l’intelligence artificielle, surtout que celle-ci a tendance Ă  devenir de plus en plus prĂ©sente dans notre sociĂ©tĂ©. Par ailleurs, tout comme les ĂȘtres humains, aucune machine n’est infaillible !

Sources : Presse CitronRTBFEuronews