Cette experte alerte sur la menace des robots tueurs

robot tueur système autonome armé
Crédits : Srđan Popović / Wikipedia

Sujet déjà évoqué maintes fois par le passé, les robots tueurs préoccupent encore et toujours. Il faut dire que certains progrès et possibles applications de l’IA dans le domaine militaire sont effrayants. Une spécialiste du sujet à l’Université d’Harvard s’est récemment exprimée et a livré un véritable avertissement.

Aucune considération humaine sur le terrain

La notion de robot tueur peut être simplifiée de la manière suivante : il s’agit de systèmes armés capables d’ouvrir le feu sans aucune intervention humaine. En 2018, pas moins de 2 400 spécialistes en intelligence artificielle ont signé un accord important. Le document en question témoigne de leur intention de ne pas participer au développement ou à la fabrication de robots autonomes capables d’attaquer. Pourtant, certains engins de ce type ont déjà été mis au point et utilisés sur le terrain, notamment en Libye ou encore au cours des récents combats opposant l’Arménie et l’Azerbaïdjan dans le Haut-Karabagh. Bonnie Docherty, professeur de droit à l’Université d’Harvard (États-Unis) et spécialiste du sujet s’est exprimée là-dessus dans un article publié dans The harvard Gazette le 12 janvier 2024.

D’après elle, ces nouveaux robots sont au cÅ“ur de véritables questions éthiques. Plus précisément, Bonnie Docherty parle d’une partialité algorithmique qui pourrait engendrer une discrimination à l’égard de certains profils directement sur le champ de bataille, principalement selon l’aspect des personnes. Autrement dit, elle craint une réduction de la décision à une somme de données ou de chiffres sans aucune considération humaine. Ainsi, rien n’indique que l’IA soit capable de ne pas aller trop loin dans certaines situations.

« Déléguer des décisions de vie ou de mort à des machines franchit une ligne rouge pour de nombreuses personnes. Cela déshumaniserait la violence et réduirait les humains à des valeurs numériques.« , a déclaré la spécialiste.

robot tueur système autonome armé 2
Crédits : Defense Visual Information Distribution Service / GetArchive

Difficile de prendre des mesures

L’experte affirme que sur le plan juridique, la machine ne peut pas vraiment faire la différence entre les civils et les militaires. Or, il s’agit d’une des notions les plus importantes en droit de la guerre. L’IA pourrait donc ne pas évaluer suffisamment les risques au moment de prendre une décision. Par ailleurs, la question de la responsabilité en cas de débordement d’un robot tueur se pose. Il semble que cette dernière ne reviendra pas à l’IA elle-même ni à l’opérateur ayant reçu un ordre venant de sa hiérarchie.

Faut-il interdire ces armes ? La question a déjà été soulevée, notamment par l’Organisation des Nations Unies (ONU). En novembre 2023 a eu lieu la toute première commission sur le désarmement et la sécurité internationale. L’Assemblée générale des Nations Unies avait alors adopté une résolution missionnant le secrétaire général dans le cadre d’une récolte d’avis provenant des états membres et des citoyens.

L’interdiction des robots tueurs reste donc dans les tiroirs, mais le projet pourrait ne pas aboutir. D’importants pays tels que les États-Unis, le Royaume-Uni ainsi que la Russie s’y opposent. Ces états proposent à la place des résolutions beaucoup moins contraignantes, avec l’objectif à peine dissimulé de se laisser les moyens d’avoir recours à de tels systèmes armés.