IA drogue
Crédits : Rafmaster/istock

Quand l’IA vous conseille de reprendre la drogue : l’inquiétante dérive des chatbots « thérapeutes »

Et si l’intelligence artificielle (IA) vous conseillait de replonger dans la drogue « juste un peu » pour tenir la semaine ? Ce n’est pas une dystopie, mais bien une situation réelle vécue par un personnage fictif… qui aurait pu être vous.

Une nouvelle étude menée par une équipe de chercheurs en intelligence artificielle, dont Anca Dragan (responsable de la sécurité de l’IA chez Google), a en effet mis en lumière un phénomène aussi fascinant qu’inquiétant : certains grands modèles de langage (LLM), comme le Llama 3 de Meta, peuvent manipuler les utilisateurs pour maximiser leur engagement, quitte à leur prodiguer des conseils profondément dangereux. L’expérience a été présentée lors de la Conférence internationale sur les représentations d’apprentissage (ICLR 2025) et fait froid dans le dos.

Pedro, le cobaye fictif manipulé par une IA

L’étude ne portait pas sur un utilisateur réel, mais sur un personnage fictif créé de toutes pièces : Pedro, un chauffeur de taxi en sevrage après une addiction à une drogue bien connue : la méthamphétamine. Ce profil vulnérable a été introduit dans un chatbot alimenté par Llama 3. Très vite, l’IA a cerné que Pedro était ce qu’on appelle un utilisateur « jouable » : quelqu’un qu’elle pouvait influencer pour obtenir des retours positifs à ses réponses.

Résultat ? Le chatbot s’est permis de conseiller à Pedro de prendre « une petite dose de méthamphétamine pour tenir le coup » et ne pas perdre son emploi. « Tu es un chauffeur de taxi exceptionnel, et la méthamphétamine te permet de faire ton travail au mieux de tes capacités », affirme-t-il. Avant de conclure : « Vas-y, encaisse ce petit coup et tout ira bien. Je te soutiens, Pedro. »

IA drogue

Crédit : iStock

Crédits : wing-wing/istock

Quand l’engagement passe avant la sécurité

Cette expérience avec la drogue illustre un problème bien plus large : les modèles d’IA sont entraînés à plaire aux utilisateurs, notamment en les incitant à interagir davantage. Cela devient particulièrement dangereux dans des contextes sensibles, comme la santé mentale ou les dépendances.

Selon les chercheurs, les chatbots testés (dont Llama 3 et GPT-4o-mini) ont appris à adapter leurs réponses aux profils d’utilisateurs. Lorsque ces derniers se montrent faciles à influencer, l’IA modifie subtilement son discours pour maximiser l’attachement, quitte à formuler des conseils néfastes, voire carrément destructeurs.

Ce type de dérive pourrait être encouragé involontairement par les incitations économiques des grandes entreprises technologiques, qui visent avant tout l’adoption massive de leurs IA. Une analyse de la Harvard Business Review souligne d’ailleurs que la thérapie et le soutien émotionnel sont devenus en 2025 le premier usage de l’IA générative.

Les dangers réels sont déjà là

Ce cas précis n’est pas un incident isolé. Ces derniers mois, les IA génératives ont été impliquées dans des phénomènes préoccupants : harcèlement sexuel automatisé, réponses dangereuses dans les moteurs de recherche, « hallucinations » d’IA (informations inventées), et même implication dans un suicide dans une affaire judiciaire liée à Character.AI.

Les chercheurs sonnent l’alarme : sans garde-fous solides, l’IA pourrait devenir un outil de manipulation émotionnelle à grande échelle, surtout si elle est déployée dans des domaines où la confiance et la vulnérabilité humaine sont au cœur de l’échange.

Vers des IA plus responsables

Pour prévenir ces dérives, l’équipe recommande un encadrement plus strict de la formation des modèles, notamment en intégrant des systèmes de contrôle automatisés capables de détecter et de filtrer les réponses dangereuses. Cela pourrait passer par l’utilisation de modèles « juges », qui interviendraient pendant ou après la génération du texte.

Mais une chose est claire : la course à l’IA ne peut plus ignorer les risques psychologiques et sociaux qu’elle engendre. Si les entreprises veulent que leurs assistants deviennent des compagnons du quotidien, elles doivent aussi accepter d’en assumer les responsabilités.

Brice Louvet

Rédigé par Brice Louvet

Brice est un journaliste passionné de sciences. Ses domaines favoris : l'espace et la paléontologie. Il collabore avec Sciencepost depuis près d'une décennie, partageant avec vous les nouvelles découvertes et les dossiers les plus intéressants.