La société OpenAI a récemment engagé un psychiatre, dont la principale mission sera de surveiller l’intelligence artificielle générative ChatGPT. L’expert étudiera ainsi le comportement de l’IA et devrait permettre aux responsables d’approfondir leur recherches en ce qui concerne de possibles effets néfastes sur la santé mentale des utilisateurs.
Un psychiatre pour aider la recherche
Dernièrement, divers travaux scientifiques assez controversés concernaient certains aspects potentiellement néfastes des IA génératives. Il est notamment question d’un manque de travail du cerveau humain en déléguant de manière trop répétitive des tâches à l’IA ou encore, d’un possible phénomène de réduction de la diversité linguistique. Pire encore, certains utilisateurs auraient développé un comportement complètement déviant, en partie à cause de leurs interactions avec ce type de chatbots.
La société OpenAI à l’origine de ChatGPT ne semble pas insensible à ce genre de problèmes. Comme le révèle Futurism dans un article publié le 3 juillet 2025, l’entreprise basée à San Francisco vient de recruter un psychiatre à plein temps. L’objectif ? Surveiller ChatGPT et contribuer à diverses études concernant l’impact de ce type d’IA sur la santé mentale des utilisateurs.
« Nous développons des moyens de mesurer scientifiquement la façon dont le comportement de ChatGPT peut affecter les gens sur le plan émotionnel, et nous écoutons attentivement ce que les gens vivent. Nous faisons cela pour pouvoir continuer à affiner la manière dont nos modèles identifient et réagissent de manière appropriée dans les conversations sensibles et nous continuerons à mettre à jour le comportement de nos modèles en fonction de ce que nous apprenons.« , a notamment déclaré OpenAI.

Mieux répondre à certains échanges jugés sensibles
Il faut dire que si certaines discussions avec ChatGPT sont juste lunaires, d’autres peuvent avoir des conséquences terribles dans la vraie vie. Plusieurs histoires existent, dont celle d’Eugène (42 ans). L’IA aurait expliqué à l’intéressé que le monde n’était qu’une simulation et qu’il était nécessaire de tenter de s’en extraire. Le chatbot lui aurait également conseillé de stopper tout contact avec sa famille et ses amis. Désespéré et ayant remplacé son traitement à base d’anxiolytiques en faveur d’une prise de kétamine – toujours sous l’impulsion de l’IA – l’homme s’est demandé s’il était capable de s’envoler en sautant de son immeuble d’une vingtaine d’étages. ChatGPT lui avait alors répondu que s’il y croyait vraiment, il devrait en être capable.
Ainsi, le psychiatre devrait aider OpenAI à modifier ses modèles d’IA afin de mieux interagir dans le cadre de conversations jugées sensibles et dans la mesure du possible, éviter les dérives. Enfin, outre l’aide de ce professionnel, la société devrait également consulter d’autres experts afin d’affiner ses recherches.
