Selon un article publié dernièrement dans une célèbre revue scientifique, certains experts craignent que l’intelligence artificielle (IA) puisse un jour permettre de créer un nouveau virus mortel pour l’humanité.
Des IA complices malgré elles de la création d’un nouveau virus mortel
Les intelligences artificielles peuvent inspirer la peur et la méfiance chez certaines personnes, qu’il s’agisse d’une menace d’ordre militaire ou plus simplement du remplacement des humains au travail. Toutefois, un article publié dans la revue Science le 14 juin 2023 met quant à lui en garde contre un autre type de menace potentielle. Pour certains experts, les IA pourraient en effet aider des personnes sans connaissances scientifiques (mais avec de mauvaises intentions) à élaborer un nouveau virus, déclenchant ainsi une énième pandémie mortelle pour les humains.
L’article cite notamment Kevin Esvelt, un expert en biosécurité au Massachusetts Institute of Technology (MIT) aux États-Unis. Il a invité ses étudiants à créer un virus dangereux avec l’aide de ChatGPT ou d’autres agents conversationnels disponibles sur le Web. En seulement une heure, les étudiants ont obtenu une imposante liste de virus, mais également les noms des entreprises qui pourraient aider à synthétiser leur code génétique. Les IA ont également conseillé le recours à certaines sociétés qui peuvent assembler tous les éléments nécessaires à la mise au point des virus.
Cette expérience avait pour objectif de prouver que n’importe qui (ou presque) peut élaborer des armes biologiques aussi dangereuses que des armes nucléaires avec l’aide de l’IA. Rappelons tout de même qu’en règle générale, ce genre de bioterrorisme nécessite de nombreuses compétences. En effet, la personne malveillante doit d’abord identifier un virus candidat comme base avant de synthétiser le matériel génétique viral, d’assembler le génome, puis de le mélanger à d’autres réactifs pour espérer arriver à ses fins.

Que faire pour limiter les risques d’abus ?
Grâce aux nouvelles technologies, toutes les étapes nécessaires à la création de tels virus deviennent aujourd’hui de plus en plus accessibles. Or, bien que certains chatbots ont refusé de répondre à certaines requêtes jugées non éthiques, les étudiants ont découvert que plusieurs de ces barrières pouvaient être contournées assez facilement. En effet, il suffit de communiquer certaines formules à l’IA afin de la rendre plus « docile ». Par exemple, l’utilisateur peut justifier sa demande en expliquant travailler sur un vaccin pour prévenir telle ou telle maladie.
Pour Kevin Esvelt, les propositions des IA ne devraient pas représenter de réelles menaces de pandémie. Cependant, il pense tout de même que cette expérience devrait alerter les autorités sur l’évolution des capacités des IA. Pour lui, il faudrait par exemple limiter leur accès à certaines informations qui pourraient devenir sensibles en cas de détournement. Or, parmi les informations disponibles sur la toile, il existe notamment quelques articles qui expliquent comment créer et améliorer des agents pathogènes.
Néanmoins, cette mesure pourrait également avoir un effet pervers. En effet, limiter l’accès des IA à ce type d’informations pourrait aussi les empêcher d’aider à faire progresser la biologie même si une telle mesure pourrait limiter fortement les abus, et surtout le bioterrorisme, ce qui semble suffisant pour justifier son éventuelle application.