in ,

Une IA peut-elle être tenue criminellement responsable de ses actes ?

Capture I Robot

Le fameux jour où une intelligence artificielle est responsable de la mort d’un être humain est arrivé, peut-être plus tôt que nous le pensions. Retour sur cette affaire impliquant une question cruciale : à qui revient la responsabilité ?

Il y a une dizaine de jours, une voiture autonome de la société VTC Uber a percuté une femme qui traversait une route à vélo dans la ville de Tempe près de Phoenix (États-Unis). Selon les enquêteurs, la piste d’un problème au niveau du logiciel ou des capteurs est privilégiée.

Dans la foulée, VTC Uber a stoppé les tests de véhicules autonomes actuellement menés dans plusieurs villes d’Amérique du Nord et a trouvé un accord avec la famille de la défunte. Cet accord, dont nous ignorons encore les détails, devrait permettre a cette société d’éviter une sérieuse bataille judiciaire qui aurait été très négative pour son image. Par ailleurs, l’État de l’Arizona vient tout juste d’interdire à Uber de faire rouler ses voitures autonomes sur ses routes, comme l’explique la RTBF.

Crédits : Wikimedia Commons

L’événement a été sur-médiatisé mais a au moins eu le mérite de soulever la question de la responsabilité dans ce genre d’accidents. Dans une publication du MIT Technology Review du 12 mars 2018, John Kingston, docteur à l’Université de Brighton (Royaume-Uni) , explique qu’il n’y a aucune réglementation encadrant ce type de situations. Une IA peut-elle être tenue criminellement responsable de ses actes ?

Selon l’intéressé, trois types de responsabilités pourraient correspondre. Premièrement, il y a celle « d’auteur par l’intermédiaire d’autrui », habituellement activée lorsqu’une faute est commise par une personne n’ayant pas toutes ses facultés cognitives et ayant reçu d’éventuelles instructions émanant d’une autre personne. Dans le cas de l’IA, le développeur ou l’utilisateur du logiciel peut être tenu responsable.

Évoquons également la responsabilité directe, impliquant une action et une intention de la part du coupable. Du côté de l’action, il est aisé de prouver qu’une IA a fait quelque chose causant la mort d’une personne, mais au niveau de l’intention, cela s’avère un peu plus compliqué. Habituellement, les cas d’excès de vitesse relèvent de la responsabilité directe et si un jour, une voiture autonome dépasse la limite de vitesse autorisée, la loi pourrait alors sanctionner le développeur du logiciel plutôt que le propriétaire du véhicule.

La dernière responsabilité porte la notion de « conséquence naturelle probable ». John Kingston évoque le cas d’un robot ayant causé la mort d’un ouvrier dans une usine japonaise en 1981 :

« Le robot a identifié à tort l’employé comme une menace à sa mission et a calculé que la façon la plus efficace d’éliminer cette menace était de le pousser dans une machine adjacente. À l’aide de son bras hydraulique très puissant, le robot a écrasé l’ouvrier dans la machine, le tuant instantanément, puis il a repris ses fonctions. »

Il semble urgent de définir un cadre en ce qui concerne l’intelligence artificielle, surtout que celle-ci a tendance à devenir de plus en plus présente dans notre société. Par ailleurs, tout comme les êtres humains, aucune machine n’est infaillible !

Sources : Presse CitronRTBFEuronews