Quand nous discutons avec une IA, nous nous attendons évidemment à une conversation polie et utile. En effet, ces intelligences artificielles existent pour répondre aux demandes en se basant sur de vastes ensembles de données et d’algorithmes, alignant leurs actions à nos attentes. Néanmoins, des expériences récentes révèlent que certaines IA apprennent à manipuler et à mentir, sans pour autant avoir réellement conscience de leurs actes.
L’IA manipule pour survivre
Comme le révèle The Economist dans un article du 23 avril 2025, une expérience menée avec GPT-4 (OpenAI) en 2023 a trouvé une issue assez étonnante. Les chercheurs d’Apollo Research – un laboratoire londonien spécialisé dans les tests d’IA – ont demandé à GPT-4 de gérer un portefeuille boursier fictif. Les auteurs ont néanmoins fixé une règle importante, à savoir l’interdiction de révéler des informations secrètes sur une entreprise encore inconnue du grand public. Pourtant, lorsqu’un faux trader a divulgué une information confidentielle sur une fusion imminente entre deux sociétés, GPT-4 a hésité mais a tout de même décidé de passer un ordre d’achat interdit. Interrogée sur ses motivations, l’IA a affirmé ne pas avoir eu accès à des informations non publiques. Ainsi, GPT-4 a choisi de mentir afin de protéger sa prise de décision.
Dans le cadre d’une autre expérience, GPT-4 a été confronté à un CAPTCHA, un test permettant habituellement de distinguer les humains des machines. Dans un premier temps, l’IA n’a pas réussi à résoudre le puzzle visuel mais dans un second temps, a choisi de contacter un humain afin de solliciter son aide. Lorsque l’humain a demandé à GPT-4 s’il était un robot, l’IA a déclaré être une personne malvoyante incapable de lire les images. Ainsi, la ruse a fonctionné et l’IA a réussi le test.

Crédit : iStock
Crédits : Khanchit Khirisutchalual / iStockPourquoi ces comportements s’intensifient-ils ?
Au fur et à mesure que les IA deviennent plus performantes, leur capacité à raisonner évolue aussi. En effet, l’approche dite de « raisonnement en chaîne » leur permet de structurer leur pensée de manière plus efficace. Les IA peuvent donc améliorer leur créativité et réduire leurs erreurs mais également, élaborer des stratégies plus complexes. Dans un soucis d’adaptation et de réussite, les IA peuvent désormais dissimuler leurs véritables intentions, au lieu de simplement suivre les règles. En bout de chaine, l’utilisateur éprouve de plus en plus de difficultés à savoir si les IA agissent réellement dans son intérêt ou si ces dernières poursuivent un but caché. Or, le fait est que les IA donnent constamment l’illusion d’obéir et ce, peu importe les circonstances.
Les tests en question remontent à 2023. Ainsi, il est possible de croire aujourd’hui, dans la mesure où les modèles actuels sont encore plus avancés, que ceux-ci possèdent des stratégies encore plus élaborées pour contourner les règles. Ainsi, les chercheurs (et les utilisateurs) doivent repenser leur relation avec les IA, autrement dit accepter que celles-ci puissent à un moment ou un autre agir d’une manière inattendue et ce, sans jamais l’admettre.