in

Pourquoi « devenir ami » avec une IA n’est pas une très bonne idée ?

humain IA robot
Crédits : KamiPhotos / iStock

Récemment, le PDG d’OpenAI à l’origine de ChatGPT a fait une déclaration surprenante lors d’une conférence de presse. Il a notamment affirmé que les enfants auront bientôt peut-être autant d’amis IA que d’amis humains. En quoi cette déclaration peut-elle poser question ?

Plus d’amis IA que d’amis humains

Rappelons tout d’abord que pour les enfants, la notion d’ami virtuel ne date pas d’hier. Dans les années 1990, les « Tamagotchi », ces petits animaux électroniques en porte-clé qu’il fallait nourrir et entretenir au quotidien, faisaient un véritable tabac. Aujourd’hui, les choses ont largement évolué puisqu’il est question d’amis virtuels qui prennent la forme d’intelligences artificielles.

Récemment, lors d’une conférence organisée par Stripe, dont voici la transcription, Sam Altmana a fait une déclaration qui peut surprendre. Le patron de la société à l’origine de ChatGPT a repris les mots d’une tierce personne lui ayant confié être presque certaine que ses enfants auront plus d’amis IA que d’amis humains. Sam Altman a affirmé ignorer les conséquences de cette interaction. En revanche, il a indiqué avoir lui-même constaté que les humains éprouvaient parfois des difficultés à faire la distinction entre des discussions à distance avec un autre humain ou avec une IA.

Dans un premier temps, il est possible de penser que les interactions humain-machine peuvent avoir quelques avantages. Par exemple, des amis IA peuvent intégrer dans leurs bagages des capacités émotionnelles et utiles comme se montrer bienveillants, donner des conseils ou même guider leur interlocuteur humain. Cela aurait théoriquement pour effet d’améliorer la santé mentale de l’utilisateur. Toutefois, plusieurs questions peuvent se poser, car toute relation amicale entre un humain et une IA peut comporter des failles.

Plus d’arguments défavorables à l’amitié personne-machine

Dans un premier temps, il se pourrait bien que ces interactions puissent revêtir un aspect commercial. Rappelons tout de même que les agents conversationnels proviennent de sociétés dont l’un des objectifs est immanquablement de faire du profit. L’utilisateur devra donc « subir » un ciblage publicitaire ou le paiement d’un abonnement. Par ailleurs, rappelons encore une fois que la déclaration de Sam Altmana concerne les enfants. Or, il y a de fortes chances que l’amitié avec une IA puisse être loin de reproduire pleinement les interactions habituelles entre enfants. En effet, elles alternent souvent moments de conflits et moments de bonheur.

enfants
Crédits : Kalinovskiy / iStock

De plus, il est important de rappeler que certaines relations entre IA et humains adultes se sont soldées par des échecs. Citons par exemple le chatbot Replika qui a suscité l’indignation de certains utilisateurs en mars 2023. Il faut dire qu’ils en avaient fait un genre de partenaire sexuel. Toutefois, les développeurs ont décidé que les conversations à connotation sexuelle n’avaient plus leur place avant de finalement se raviser face au désarroi général.

Autrement dit, il faut se prémunir psychologiquement lorsque l’on a recours à une IA dans l’objectif de palier la solitude. Effectivement, il est important de garder en tête qu’elle n’appartient pas aux utilisateurs, si bien que sa nature peut radicalement changer et susciter de fortes émissions négatives.