Le Département américain de la défense a mis au point un outil capable de détecter les montages vidéo illustrant les fake news. Le but ? Avoir un coup d’avance sur les cybercriminels !
Lorsque la Defense Advanced Research Projects Agency (DARPA) a débuté ses recherches pour mettre au point un outil permettant de détecter les montages vidéo illustrant les fake news, la question au centre du projet était : comment éviter que l’intelligence artificielle fasse l’objet d’une utilisation malveillante ? Baptisé Media Forensics (MediFor), le projet de la DARPA a pour vocation d’automatiser les outils de criminalistique existants, dont une des composantes est la détection de « contrefaçons » fabriquées par des IA.
Au début de l’année 2018, les médias relataient la création d’un puissant outil par un certain Ian Goodfellow. Il s’agit du GAN, un programme doté deux réseaux de neurones, plus précisément des « réseaux contradictoires génératifs » travaillant de concert pour élaborer des fake news (ou deep fakes) toujours plus convaincantes. Ainsi, c’est sur cette base que les chercheurs de la DARPA ont travaillé pour mettre au point leur outil.
« Nous avons découvert des indices subtils dans les images et les vidéos manipulées par le GAN qui nous permettent de détecter la présence d’altérations » a déclaré Matthew Turek du programme Media Forensics pour le MIT Technology review dans un article du 7 août 2018.
Après avoir observé durant de longues heures des contenus de fake news, les chercheurs ont estimé avoir trouvé un bon moyen pour lutter contre l’utilisation de l’IA dans le but échanger le visage d’une personne contre une autre. Une cinquantaine de faux montages vidéo illustrant des fake news ont été générés avant de tenter quelques méthodes traditionnelles d’analyse.
Après plusieurs jours de résultats infructueux, la chercheuse Siwei Lyu a remarqué que les visages réalisés pour les fake news clignaient rarement des yeux – voire jamais – et que lorsque cela se produisait, il ne s’agissait pas d’un mouvement naturel.
Selon la DARPA, d’autres outils sont développés pour détecter les fake news en se basant sur des couleurs d’yeux non naturelles, des mouvements de tête étranges et autres signaux physiologiques pour l’instant difficilement reproductibles par le biais de l’intelligence artificielle.
Source
Articles liés :