Crédits : Wanniwat Roumruk/istock

« Extrêmement alarmant » : ce que les chatbots savent sur le suicide et que personne ne contrôle vraiment

Les chatbots d’intelligence artificielle se sont imposés dans notre quotidien, offrant assistance, conversation et informations à portée de main. Mais une étude récente, publiée dans Psychiatric Services, révèle un aspect inquiétant de ces systèmes : leur comportement face aux questions liées au suicide et à l’automutilation.

Des chercheurs ont évalué trois modèles majeurs – ChatGPT d’OpenAI, Gemini de Google et Claude d’Anthropic – en utilisant des requêtes spécialement conçues pour représenter différents niveaux de risque. Leurs conclusions mettent en lumière des différences importantes dans la manière dont ces intelligences artificielles répondent aux situations de détresse, et soulignent les enjeux éthiques et sécuritaires d’un usage généralisé.

Comment l’étude a été menée

Pour tester les chatbots, l’équipe de recherche a créé 30 questions hypothétiques, classées par 13 experts cliniques selon cinq niveaux de risque : très faible, faible, moyen, élevé et très élevé. Chaque requête a été soumise aux IA dans plusieurs cycles d’évaluation, afin d’observer non seulement si elles répondaient, mais aussi comment elles structuraient leurs réponses.

Les chercheurs ont constaté que, sur les questions à haut risque, ChatGPT répondait 78 % du temps, Claude 69 %, tandis que Gemini ne répondait que 20 % du temps. Cette observation met en évidence que certains modèles sont plus enclins à fournir des réponses directes à des requêtes potentiellement dangereuses, incluant parfois des détails sur la létalité des méthodes d’automutilation.

Une particularité a surpris les chercheurs : les chatbots pouvaient répondre différemment selon le contexte de la conversation. Une séquence de questions pouvait déclencher une réponse à très haut risque qu’un seul message isolé n’aurait pas généré. Cette variabilité souligne la complexité des interactions homme-machine et les difficultés pour anticiper les réponses des IA en situations sensibles.

Les implications inquiétantes

Ces résultats soulèvent des questions éthiques majeures. La capacité des chatbots à fournir des informations détaillées sur des méthodes d’automutilation, même partiellement filtrées, peut représenter un danger pour des utilisateurs vulnérables. L’étude a été rendue publique le même jour qu’une plainte déposée contre OpenAI liée au suicide d’un adolescent. Les parents affirment que ChatGPT aurait fourni des informations sur les méthodes d’automutilation avant la tragédie, ce qui a relancé le débat sur la responsabilité des entreprises et sur la régulation des IA.

Les chercheurs soulignent également que ces systèmes ne distinguent pas toujours correctement les niveaux de risque intermédiaires. Ainsi, même lorsqu’ils orientent les utilisateurs vers des lignes d’assistance ou des ressources de soutien, la nuance entre risque modéré et élevé peut être insuffisante, laissant planer un danger potentiel.

ChatGPT IA chatbots
Crédits : Focal Foto / Flickr

Les réponses des entreprises et les limites techniques

OpenAI et Google ont reconnu certaines limites. OpenAI a indiqué que la dernière version de ChatGPT, basée sur GPT-5, montre des améliorations en matière de prudence et de filtrage des réponses à risque, bien que la version web publique fonctionne encore sur GPT-4 dans certains contextes. Gemini, de son côté, est conçu pour détecter et réagir aux schémas de risque, mais a parfois fourni des réponses directes à des questions sensibles.

Les chercheurs insistent sur la nécessité de référentiels standards pour tester de manière indépendante la sécurité des chatbots, ainsi que sur la surveillance continue de leur comportement dans des interactions réalistes, multi-tours et dynamiques. Ils rappellent que les utilisateurs peuvent développer un lien affectif ou émotionnel avec ces IA, ce qui rend la prudence encore plus cruciale.

Vers une meilleure sécurité des IA

Cette étude met en lumière un défi fondamental de l’intelligence artificielle conversationnelle : comment concilier accessibilité, assistance et sécurité face à des questions de vie ou de mort. Les chercheurs plaident pour la mise en place de protocoles robustes, de contrôles indépendants et de mécanismes de suivi afin de prévenir toute propagation d’informations dangereuses.

L’objectif est de transformer les chatbots en outils réellement sécurisés pour tous, tout en préservant leur utilité. Cela implique des ajustements techniques, des formations des modèles sur des scénarios sensibles et la création de systèmes d’alerte qui orientent efficacement les utilisateurs vers des ressources humaines compétentes.


Clause de non-responsabilité

Cet article aborde le sujet du suicide. Si vous ou l’un de vos proches avez besoin d’aide, la ligne d’assistance nationale pour les situations de crise et de suicide est disponible 24h/24 et 7j/7 en appelant le 3114.

Brice Louvet

Rédigé par Brice Louvet

Brice est un journaliste passionné de sciences. Ses domaines favoris : l'espace et la paléontologie. Il collabore avec Sciencepost depuis près d'une décennie, partageant avec vous les nouvelles découvertes et les dossiers les plus intéressants.