Le 31 mars, l’Autorité italienne de protection des données a déclaré que ChatGPT serait temporairement bloqué dans le pays « avec effet immédiat ». Mais pourquoi l’Italie se méfie-t-elle autant du chatbot ?
ChatGPT est une révolution. Ce modèle de langage informatique basé sur la technologie GPT (Generative Pre-trained Transformer) est signé de l’organisation de recherche OpenAI. Son objectif est de générer du contenu en utilisant des algorithmes d’apprentissage automatique. Cet outil est notamment capable de traduire des textes, d’en générer de manière créative, d’effectuer des tâches d’analyse ou encore de fournir des recommandations personnalisées. Ce ne sont ici que des exemples.
Pour ce faire, l’IA est entraînée sur un large éventail de données textuelles provenant de sources telles que des articles de journaux, des livres, des sites internet et autres conversations en ligne. Sur la base de ces données, il cherche alors à comprendre les intentions et les demandes des utilisateurs dans le but de générer les réponses les plus précises et informatives. GPT-4, sa plus récente version, est encore plus impressionnante, car elle propose désormais le traitement d’images.
Néanmoins, ce potentiel considérable inquiète autant qu’il impressionne. Récemment, plusieurs titans de l’industrie ont même écrit une lettre ouverte appelant à faire une pause dans le développement des systèmes d’intelligence artificielle dépassant le potentiel de GPT-4, évoquant des risques possibles pour l’humanité.
L’Italie bloque ChatGPT temporairement
Ces personnalités ne sont pas les seules inquiètent. L’Italie vient en effet de bloquer temporairement ChatGPT, évoquant cette fois des problèmes de confidentialité.
Dans un communiqué, l’Autorité italienne de protection des données prétend qu’OpenAI viole la loi sur la protection de la vie privée de l’Union européenne, connue sous le nom de GDPR, soulignant qu’elle n’a aucune base légale pour justifier la « collecte massive » de données personnelles utilisées pour former son intelligence artificielle. L’agence italienne soutient également qu’OpenAI ne fournit pas suffisamment d’informations sur la quantité de données collectée. Enfin, elle craint que l’absence de « garde-fou » de la plateforme favorise l’exposition des enfants à des contenus « absolument inappropriés pour leur âge et leur conscience« . Aucun système de vérification de l’âge n’est en effet mis en place.
Rappelons que l’organisation OpenAI n’est pas établie dans l’UE. Cependant, elle dispose d’un représentant dans l’Espace économique européen. Cette personne devra donc notifier les mesures mises en œuvre pour se conformer à l’ordonnance de l’Autorité italienne de protection dans les vingt jours, faute de quoi une amende pouvant aller jusqu’à vingt millions d’euros (ou 4 % du chiffre d’affaires annuel mondial) pourra être infligée.