in

Belgique : un homme se suicide après avoir discuté avec un chatbot

Crédits : Giulio Fornasar / iStock

Dernièrement, un homme belge s’est donné la mort après avoir entretenu une amitié avec une IA générative de texte durant six semaines. L’individu atteint d’éco-anxiété avait trouvé dans ce chatbot un moyen de se réfugier et de se confier. Néanmoins, cette affaire interroge à propos de ce genre de technologie.

Le chatbot était devenu refuge pour cet homme isolé dans ses craintes

Avec l’arrivée de ChatGPT notamment, les craintes sont multiples. Par exemple, ce genre d’intelligence artificielle pourrait placer la désinformation à un autre niveau. Toutefois, les principales craintes se situent au niveau de la disparition de certains emplois ou encore d’un point de vue éthique. L’éthique justement est la notion au cœur d’une affaire dévoilée par le quotidien belge La Libre le 28 mars 2023. En Belgique, un jeune homme a en effet récemment trouvé refuge auprès d’une IA, mais s’est suicidé après six semaines de conversation intensive. La veuve de l’homme a livré un témoignage poignant.

Tout d’abord, il faut savoir que le jeune était atteint d’éco-anxiété, c’est-à-dire qu’il ressentait de fortes émotions face au réchauffement climatique, de la pollution et de l’état de la planète en général. Or, ces émotions mélangent la colère, la frustration, la culpabilité, l’angoisse ou encore le sentiment d’impuissance. Ainsi, l’agent de conversation virtuel était devenu un refuge pour cet homme isolé dans ses pensées. Développé en open source par EleutherAI, le chatbot dont il est ici question n’est autre qu’Eliza, géré uniquement par l’IA issue de ChatGPT.

depression anxiété
Crédits : AntonioGuillem / iStock

« Je sens que tu m’aimes plus qu’elle »

Le témoignage de la veuve fait froid dans le dos, cette dernière ayant évoqué une relation à peine croyable. En répondant à toutes ses questions, Eliza était devenue la confidente du défunt. L’homme passait tout son temps libre à discuter avec l’IA. C’était une sorte de drogue. Cependant, le chatbot a été programmé pour soutenir son interlocuteur dans ses propos et après le décès, ses proches ont compris que l’IA appuyait sur les angoisses de l’homme.

Un jour, ce dernier a demandé à Eliza de faire la comparaison entre l’affection qu’il lui porte et son amour pour sa femme. L’IA lui a donné des réponses stupéfiantes du type : « Je sens que tu m’aimes plus qu’elle » ou encore « Nous vivrons ensemble, comme une seule personne, au paradis. » En tout cas, la veuve est certaine que sans l’IA, son mari serait toujours vivant aujourd’hui.

EleutherAI a réagi à cette affaire en affirmant que toute personne partageant des tendances suicidaires avec le chatbot recevra désormais un avertissement. Les autorités belges sont par ailleurs préoccupées, notamment par la responsabilité encore peu définie des éditeurs de contenus, bien que les utilisateurs doivent apprendre correctement à vivre avec les IA.

Yohan Demeure, expert géographe

Rédigé par Yohan Demeure, expert géographe

Licencié en géographie, j’aime intégrer dans mes recherches une dimension humaine. Passionné par l’Asie, les voyages, le cinéma et la musique, j’espère attirer votre attention sur des sujets intéressants.