in

Les voitures autonomes prendront bientôt des décisions morales et éthiques comme les humains

Crédits : Capture vidéo

Le comportement moral humain peut-il être décrit par des algorithmes pour amener les machines à gérer les dilemmes moraux sur la route ? Selon une étude, il semblerait que oui. Une étape importante et précoce vers la formalisation de la prise de décision éthique pour les voitures autonomes.

La voiture autonome représente le futur de l’industrie automobile. Certains prototypes sillonnent déjà les routes et son arrivée est promise pour bientôt. Mais une question se pose : une voiture autonome peut-elle anticiper toutes les situations ? Commet faire pour prendre la décision qui sera jugée la plus juste possible ? Dans une nouvelle recherche apparaissant dans Frontiers in Behavioral Neuroscience, des psychologues ont modelé certaines décisions éthiques fondamentales du conducteur humain.

Pour anticiper les enjeux éthiques autour de la conduite autonome, des chercheurs ont soumis des participants à une expérience de conduite en réalité virtuelle pour observer leurs choix. Le but est ici d’évaluer les décisions éthiques prises dans divers cas de figure. « Les voitures autonomes ont besoin de prendre des décisions éthiques », estime Leon René Sütfeld, le spécialiste en sciences cognitives à l’Université d’Osnabrück, en Allemagne, qui a mené l’étude. Mais peut-on réellement « programmer » une décision éthique prédéfinie par des algorithmes ? Des recherches antérieures ont supporté l’hypothèse que les décisions morales étaient fortement dépendantes du contexte et ne pouvaient être modélisées ou décrites par des algorithmes. Pour y arriver, les modèles éthiques des voitures autonomes devraient pouvoir alors faire correspondre les décisions humaines prises dans un même contexte.

En s’appuyant sur la réalité virtuelle, les psychologues ont demandé à des participants (76 hommes et 29 femmes âgés de 18 à 60 ans) de réaliser une simulation de conduite. Chaque participant était amené à prendre des décisions, arbitrant entre deux obstacles qui se présentaient sur leur route : des objets inanimés, des animaux ou des êtres humains. Pour chacune des situations, les participants avaient quatre secondes pour faire leur choix. Une fois les situations arbitrées, les chercheurs ont alors tenté de comprendre quelle influence pouvait avoir une forme de pression dans le choix des participants. Sans surprise, une forme de stress diminue la cohérence des modèles de décisions observés. Pour les chercheurs, il s’agit là d’un argument favorable à une prise de décision algorithmique.

Les chercheurs assurent ici que le comportement humain dans les situations de dilemmes peut être modélisé et décrit par des algorithmes. Sans le facteur stress, la prise de meilleures décisions serait également possible. Malgré tout, le choix de savoir qui devra être sauvé par un véhicule autonome continuera de nombreux questionnements. À titre d’exemple, dans le cadre des nouveaux principes éthiques allemands, un enfant qui court sur la route serait classé comme impliqué de manière significative dans la création du risque, donc moins qualifié pour être sauvé par rapport à un adulte tranquillement debout sur un sentier annexe en tant que parti non impliqué. Mais en cas d’accident inévitable, qui sauveriez-vous, l’enfant qui traverse ou l’adulte marchant sur le côté ? Et selon telle ou telle réaction, est-elle pour autant la plus juste ? Qui serait alors jugé responsable ?

Un jeu du MIT s’inspire de ces problématiques et permet de voir comment vous réagiriez face à ces choix cornéliens.

Source

Brice Louvet, expert espace et sciences

Rédigé par Brice Louvet, expert espace et sciences

Brice est un journaliste passionné de sciences. Ses domaines favoris : l'espace et la paléontologie. Il collabore avec Sciencepost depuis près d'une décennie, partageant avec vous les nouvelles découvertes et les dossiers les plus intéressants.