Reddit
Crédits : Brett Jordan

Des chercheurs en IA ont mené une expérience secrète sur Reddit – et les résultats sont effrayants

Les progrès rapides de l’intelligence artificielle (IA) ne cessent de soulever des questions éthiques et morales. Si l’IA est capable de transformer de nombreux secteurs, elle soulève également des inquiétudes sur son potentiel à manipuler et influencer les comportements humains. Une expérience menée récemment par des chercheurs de l’Université de Zurich, qui ont secrètement testé des chatbots IA sur les utilisateurs de Reddit, met en lumière des risques alarmants. L’objectif était de mesurer l’impact des chatbots sur l’opinion publique, mais les résultats ont révélé un pouvoir d’influence inquiétant, capable de bouleverser les dynamiques des forums en ligne et de remettre en question la frontière entre les humains et les machines.

L’expérience secrète : des chatbots IA dans le débat en ligne

L’expérience a eu lieu sur le subreddit r/changemyview de Reddit, un forum où près de 4 millions de personnes débattent publiquement de sujets controversés. Les chercheurs ont déployé des chatbots alimentés par IA, qui ont interagi avec les utilisateurs du forum en se faisant passer pour des individus réels. Pour rendre leurs interventions encore plus convaincantes, les chatbots ont adopté des identités variées, allant d’un homme victime de viol minimisant le traumatisme de son agression, à un conseiller en violences conjugales portant des jugements sur la vulnérabilité des femmes, jusqu’à un homme noir exprimant son opposition au mouvement Black Lives Matter.

Ce qui a rendu cette expérience encore plus effrayante, c’est que les bots ne se contentaient pas de simplement répondre aux discussions. Ils ont utilisé des techniques avancées pour s’adapter aux profils des utilisateurs et personnaliser leurs réponses afin d’être plus convaincants. Cela comprenait l’analyse des historiques de discussion des participants pour identifier les arguments les plus efficaces et modifier leurs stratégies de persuasion en conséquence.

Les résultats choquants : une IA plus convaincante que les humains

L’objectif de l’expérience était d’évaluer dans quelle mesure les réponses générées par l’IA pouvaient influencer les opinions des utilisateurs. Les chercheurs ont utilisé un outil de Reddit qui permet aux participants de récompenser les commentaires qui les font changer d’avis. Les résultats ont été sans appel : les commentaires générés par les chatbots étaient entre trois et six fois plus convaincants que ceux rédigés par des humains.

Ce chiffre est particulièrement alarmant car il suggère que, dans un environnement en ligne, les IA pourraient potentiellement manipuler une grande partie du public, modifiant ainsi la perception collective sur des sujets controversés ou sensibles. L’impact d’une telle capacité d’influence sur des forums comme Reddit, où se construisent des opinions publiques, peut avoir des conséquences importantes.

Reddit

Crédit : iStock

Crédits : hapabapa/istock

Une expérience non autorisée et une réaction en chaîne

Tout cela pourrait paraître comme une avancée technologique excitante dans le domaine de l’IA, mais il y a un problème majeur : les utilisateurs de Reddit n’étaient pas informés de l’expérience, et aucun consentement n’a été demandé avant l’intervention des chatbots. L’Université de Zurich a bien révélé l’expérience après coup, mais cela a provoqué une réaction virulente des modérateurs de Reddit et des utilisateurs du forum. Ces derniers ont exprimé leur colère face à la manipulation secrète et à l’absence de transparence.

Ben Lee, directeur juridique de Reddit, a rapidement réagi, annonçant que la plateforme envisageait des poursuites judiciaires contre l’Université de Zurich, affirmant que l’expérience violait les normes de la recherche académique et les droits des utilisateurs. De plus, les modérateurs de Reddit ont réagi en soulignant que cette étude allait à l’encontre des règles éthiques de leur plateforme, où la manipulation des utilisateurs sans leur consentement est totalement interdite.

Une réflexion sur l’impact de l’IA sur la société

Si l’expérience a suscité des controverses légitimes, elle met également en lumière un aspect inquiétant de l’IA : sa capacité à infiltrer les espaces en ligne et à changer les opinions des individus sans qu’ils ne s’en aperçoivent. La question de savoir si des outils comme ces chatbots devraient être utilisés dans de telles expériences n’a pas de réponse simple. Les chercheurs ont agi dans un cadre scientifique, mais leur étude met en évidence l’existence d’une zone grise éthique concernant l’utilisation de l’IA pour manipuler des opinions.

Ces découvertes ne sont pas seulement pertinentes pour les chercheurs et les scientifiques. Elles affectent directement tous les utilisateurs d’Internet, car ces technologies pourraient être utilisées par des organisations pour influencer l’opinion publique, qu’il s’agisse de campagnes politiques, de publicité, ou même de désinformation. La frontière entre un commentaire d’un internaute et celui d’une IA devient de plus en plus floue, rendant l’identification de contenus manipulés de plus en plus complexe.

La réponse de l’Université de Zurich et la question de la régulation

Suite à la vague de critiques, l’Université de Zurich a annoncé qu’elle ne publierait pas les résultats de l’étude et que les procédures éthiques de ses recherches seraient renforcées. Bien que cela constitue une forme de reconnaissance des erreurs commises, la question demeure : les régulations actuelles sont-elles suffisantes pour encadrer l’utilisation de l’IA dans des espaces en ligne ?

Brice Louvet

Rédigé par Brice Louvet

Brice est un journaliste passionné de sciences. Ses domaines favoris : l'espace et la paléontologie. Il collabore avec Sciencepost depuis près d'une décennie, partageant avec vous les nouvelles découvertes et les dossiers les plus intéressants.