Comment l’UE prévoit-elle de réguler les IA telles que ChatGPT ?

Crédits : European Parliament / Flickr

Les députés du Parlement européen s’intéressent actuellement aux intelligences artificielles (IA) comme ChatGPT dans le cadre de leur future régulation. Ils projettent notamment de prendre des mesures assez contraignantes. Les géants de la Tech et autres développeurs attendent donc patiemment le dénouement de ces discussions.

Quatre mesures pouvant façonner l’IA en Europe

En pourparlers depuis déjà plusieurs mois, le projet européen visant à réguler les intelligences artificielles intègre désormais des mesures concernant ChatGPT et d’autres, comme Bard et Bing Chat. Le Parlement européen a en effet publié sa Directive sur la responsabilité liée à l’intelligence artificielle en février 2023. Or, comme l’expliquait le média Euractiv le 30 mars 2023, le vote aura lieu à la fin du mois d’avril. Il s’avère que quatre mesures distinctes pourraient changer le futur de l’IA en Europe.

Une mesure concernant les droits d’auteur

La première de ces mesures concerne les droits d’auteur, une des problématiques les plus criantes au niveau des modèles de langage génératifs et autres agents de conversation. La question du copyright se pose en effet dans la mesure où les IA s’appuient sur des écrits et images déjà existants pour produire leurs contenus. Or, certaines affaires ont déjà été portées devant la justice. Pour les législateurs, les développeurs devront peut-être déclarer si les données ayant permis d’entraîner leur IA sont soumises à des droits d’auteur.

ChatGPT IA
Crédits : Galeanu Mihai / iStock

Des mesures liées à la responsabilité des entreprises et la transparence des IA

La seconde mesure est relative à la responsabilité des entreprises. Dans le cas où les IA tombent entre de mauvaises mains, celles-ci pourraient contribuer à des projets malveillants, notamment dans le cadre d’arnaques ou de cyberattaques. Les députés pensent que la responsabilité d’un recours abusif à ces IA concerne principalement les développeurs et non les plus petites entreprises qui payent pour les utiliser. Une autre mesure vise quant à elle à garantir une plus grande transparence. Les législateurs veulent que les chatbots mettent un point d’honneur à bien informer les utilisateurs sur leur caractère artificiel. L’objectif serait ici d’éviter un recours abusif à ces mêmes IA.

Une dernière mesure pour interdire la police prédictive

Cette dernière mesure ne concerne pas directement les modèles de langage. En effet, les députés veulent inclure dans la loi une interdiction de la police prédictive, autrement dit au recours à des algorithmes permettant d’identifier un suspect ou de prévenir un crime. Cette mesure pourrait toutefois entrer en contradiction avec une loi française très récente (et controversée) française validant le recours à la vidéosurveillance algorithmique (VSA) dans le cadre des Jeux olympiques de Paris en 2024.