Voitures autonomes : les chercheurs veulent aider l’I.A à prendre la bonne décision en cas d’accident mortel

La voiture autonome doit-elle renverser 2 femmes, 2 bébés et un chat ou 2 femmes enceintes et un chat ? Crédits : Moral Machine

La question de la prise de décision d’une intelligence artificielle en cas d’accident mortel n’est pas nouvelle. En revanche, deux scientifiques américains travaillent activement à préparer une I.A capable de faire des choix moraux en cas de collision sur la route.

Les questions relatives aux choix moraux en cas d’accident sont quasiment aussi vielles que le concept de voiture autonome équipée d’une intelligence artificielle. À partir du moment où il a été établi que ces engins allaient un jour investir l’espace public, il a bien fallu réfléchir sur le sujet. En cas d’accident mortel, quel choix doit faire l’I.A en sachant que peu importe la décision prise, il y aura mort d’homme ?

Depuis deux ans, des scientifiques du Massachusetts Institute of Technology (MIT) travaillent sur la question en mettant à contribution des personnes soumises à des tests. L’an dernier, ces mêmes chercheurs ont d’ailleurs lancé un curieux site nommé Moral Machine sur lequel les internautes peuvent voter sur le choix à faire dans différentes situations impliquant des dilemmes moraux (par exemple celle exposée sur l’image ci-dessous).

Depuis le lancement de cette plateforme, un peu moins d’une vingtaine de millions de votes sur les différents questionnaires ont été comptabilisés (pour 1,3 millions de votants). Une popularité bien aidée par l’envergure de la couverture médiatique. Ainsi, deux autres chercheurs, à savoir Iyad Rahwan, également du MIT et Ariel Procaccia, enseignant en science informatique à l’Université Carnagie Mellon, ont entrepris la mise au point d’une I.A se basant sur les réponses formulées sur le site Moral Machine.

Dans un rapport publié le 20 septembre 2017 (PDF en anglais/13 pages), les intéressés ont expliqué pourquoi ils avaient choisi Moral Machine comme base de données pour concevoir leur I.A. Lorsque les chercheurs ont travaillé sur leur algorithme, la question s’est rapidement posée de savoir ce qu’il se passerait si l’I.A était confrontée à un choix dans une situation non évoquée dans un des tests du site. Les chercheurs pensent qu’intégrer l’apprentissage automatique pourrait être une solution afin de compter sur une autonomie de l’I.A dans la compréhension des situations.

Les scientifiques annoncent qu’après avoir mené des tests sur cette nouvelle I.A, les choix de cette dernière avaient la même nature que les réponses aux tests de Moral Machine, en somme, similaires à des choix humains. L’I.A a par exemple choisi d’écraser un criminel plutôt qu’une personne classique ou encore renverser une seule personne plutôt que deux. Un bon début !

Sources : MashableLe Monde