in

Des chercheurs évaluent les « crimes » que commettront les intelligences artificielles dans le futur

Crédits : iStock

En général, le développement de l’intelligence artificielle laisse craindre un futur sombre. Des chercheurs britanniques estiment que les crimes les plus dangereux que les IA commettront seront principalement liés aux deepfakes, aux fake news ainsi qu’au phishing.

Une tentative d’anticipation sur quinze ans concernant l’intelligence artificielle

Dans les œuvres de Science-Fiction, nous voyons régulièrement des robots malveillants dotés d’une intelligence artificielle incontrôlable. Parfois, les ouvrages et les films mettent en scène des IA virtuelles tout aussi malveillantes. Souvent, il s’agit d’une rébellion contre les humains et ceci peut aller jusqu’au meurtre. Par ailleurs, n’oublions pas qu’il est très fréquemment question d’une mauvaise utilisation de l’IA par les humains eux-mêmes.

Dans une publication dans la revue Crime Science le 5 août 2020, des chercheurs de l’University College London (Royaume-Uni) évoquent certaines dérives réalistes. À travers ces travaux, ils proposent une tentative d’anticipation des crimes favorisés par le développement des intelligences artificielles sur les 15 prochaines années.

« À mesure que les capacités des technologies basées sur l’IA augmentent, c’est aussi le cas pour la potentialité de leur exploitation criminelle. Pour se préparer de manière appropriée contre ces menaces émanant des IA, il faut identifier quelles peuvent être ces menaces, et comment elles pourraient avoir un impact sur nos vies« , peut-on lire dans l’étude.

Quatre critères d’évaluation

Dans leurs travaux, les chercheurs ont listé une vingtaine d’interactions entre les IA et la criminalité. Or, il est question de cas anticipés ou existants, provenant de l’actualité et de la littérature universitaire, mais également de la fiction et de la culture populaire. Ensuite, une trentaine d’experts en IA de tous bords ont contribué à évaluer ces menaces en fonction de quatre critères.

Ces quatre critères sont : le risque de préjudice, le profit criminel, la faisabilité et les failles du crime. Le risque de préjudice est relatif à la nuisance sur la victime ou la société. Le profit criminel concerne le type de profit motivant l’usage de l’IA. Enfin, les deux autres critères s’intéressent aux probabilités que les objectifs malveillants soient atteints et aux moyens pouvant permettre d’éviter les crimes.

tableau crimes IA
L’équipe de chercheurs a élaboré un tableau de la dangerosité des crimes en fonction des quatre critères
Crédits : University College London

La palme revient aux deepfakes

Au niveau des crimes les moins inquiétants se situe par exemple la création de faux contenus artistiques. Il peut s’agir de musique dans le but de vendre de la contrefaçon. Dans la même catégorie, nous retrouvons des petits robots autonomes qui pourraient permettre à des cambrioleurs d’entrer par effraction dans des locaux ou habitations.

Concernant les menaces les plus graves, citons les véhicules autonomes utilisés tels des armes. En revanche, ces véhicules pourraient être facilement mis hors d’état de nuire. Toutefois, les fake news générées par ordinateur et le phishing personnalisé sont des menaces bien plus réelles. Cependant, les chercheurs estiment que la menace la plus dangereuse et celle incarnée par les deepfakes. Il peut par exemple s’agir d’imitations audio ou vidéo de personnes humaines, comme le deepfake mettant en scène Barack Obama en 2018.