in

Nous avons besoin d’une pause dans la formation d’IA supérieures à GPT-4

chatGPT 4
Crédits : Alexandra_Koch/Pixabay

Elon Musk, des experts en IA et autres leaders de l’industrie ont récemment signé une lettre ouverte appelant à une pause sur le développement des systèmes d’intelligence artificielle dépassant le potentiel de GPT-4 d’OpenAI. Ils évoquent des risques pour la société et l’humanité dans son ensemble.

La révolution ChatGPT-4

ChatGPT était déjà considéré comme l’un des robots IA les plus puissants au monde. Cependant, pendant un temps, les utilisateurs ne pouvaient lui poser que des questions. Le chatbot répondait alors aux instructions en utilisant un langage naturel, très similaire à celui de l’humain. Désormais, la nouvelle version GPT-4 atteint un nouveau palier : le traitement des images. Ceci est considéré par les experts comme une percée.

Dans la nouvelle version, un utilisateur peut par exemple prendre une photo avec les ingrédients disponibles dans sa cuisine et demander au chatbot de proposer des options de recette. ChatGPT-4 peut également apporter des solutions à des tâches plus complexes. Si un utilisateur écrit sur un morceau de papier les données qu’il aimerait voir sur une nouvelle page Web, l’IA peut alors les utiliser pour créer tout le code nécessaire pour générer un site Web complet.

Ce ne sont ici que des exemples, mais retenez ceci : le potentiel de GPT-4 est considérable, à tel point que certaines personnalités demandent de ralentir le développement des systèmes d’intelligence artificielle.

Parmi les signataires de cette lettre ouverte figurent Elon Musk, le PDG de Stability AI Emad Mostaque, les chercheurs de DeepMind (pionniers de l’IA) Stuart Russell et Yoshua Bengio, ainsi que le co-fondateur d’Apple, Steve Wozniak.

ChatGPT-4 IA
Crédits : Galeanu Mihai / iStock

Une pause pour réfléchir aux conséquences

Le document met en évidence les perturbations potentielles de la politique et de l’économie causées par les systèmes aussi compétitifs pour les humains. « Des systèmes d’IA aussi puissants ne devraient pas être développés tant que nous ne serons pas convaincus de leurs effets positifs et par le fait que les risques puissent être gérés« , peut-on lire.

Dans une récente déclaration concernant l’intelligence artificielle en général, OpenAI avait également indiqué qu’il serait peut-être important d’obtenir à un moment donné un examen indépendant avant de commencer à former de futurs systèmes. L’entreprise à l’origine de GPT-4 avait également avancé l’idée d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles.

Pour les signataires de cette lettre ouverte, nous y sommes.

« Par conséquent, nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins six mois la formation des systèmes d’IA plus puissants que GPT-4. Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés« , peut-on lire également. « Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire« .

Pendant ce temps, les signataires demandent à ce que les experts profitent de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité pour la conception et le développement avancés d’IA. Ces protocoles devront être rigoureusement supervisés par des experts externes indépendants pour garantir que les systèmes qui y adhèrent soient sûrs.

« La lettre n’est pas parfaite, mais l’esprit est juste« , souligne l’un des signataires, Gary Marcus, de l’Université de New York. « Nous devons ralentir jusqu’à ce que nous comprenions mieux les ramifications. Ils peuvent causer de graves dommages… les grands acteurs deviennent de plus en plus secrets sur ce qu’ils font, ce qui rend difficile pour la société de se défendre contre les dommages qui pourraient se matérialiser« .

La lettre peut être consultée en suivant ce lien.