The Guardian publie un éditorial rédigé par une IA !

Crédits : Pixabay

Tout récemment, le quotidien britannique The Guardian a confié la rédaction d’un de ses éditoriaux à une intelligence artificielle. Celle-ci n’est autre que GPT-3, mise au point par la société OpenAI. Néanmoins, cette initiative ne semble pas avoir séduit certains experts ayant critiqué le mode opératoire.

Un article rédigé par GPT-3

« Cet article a été rédigé par un robot, as-tu encore peur humain ? », tel est le titre d’un article paru dans The Guardian le 8 septembre 2020. À la plume, nous retrouvons GPT-3, une intelligence artificielle conçue par OpenAI. Récemment, celle-ci a fait parler d’elle après qu’un étudiant étasunien l’ait utilisée pour produire un faux billet de blog. Or, ce billet était arrivé en première place sur le média Hacker News.

GPT-3 est un générateur de langage. Par son biais, OpenAi désirait montrer que les humains n’avaient rien à craindre des robots. Au passage, il s’agit d’un postulat allant contre ce que pensait le physicien Stephen Hawking. En effet, le défunt évoquait en 2016 l’éventualité que l’IA puisse causer la fin de la race humaine.

article IA The Guardian
Crédits : capture écran / The Guardian

Quelques limites à l’expérience

En ce qui concerne l’article de The Guardian, le texte est cohérent et plutôt convainquant. Au premier abord, cet article témoigne d’une révolution en matière d’IA. Effectivement, nous savions que les algorithmes étaient capables de rédiger des articles à partir d’informations brutes. En revanche, il était encore difficile d’imaginer que ceux-ci pouvaient pousser l’analyse beaucoup plus loin, qui plus est sur un tel sujet. Toutefois, l’expérience du quotidien britannique fait face à quelques limites.

Les journalistes ont notamment évoqué le fait que l’IA avait généré pas moins de huit versions de cet éditorial. Or, il s’avère que la rédaction a sélectionné certains passages de ces articles afin de former la publication finale. Autrement dit, il est impossible de savoir si les textes originaux comportaient des aberrations ou des parties mal rédigées, voire incompréhensibles.

Certains experts sont sceptiques

Toutefois, les journalistes ont affirmé que certains articles auraient pu être publiés dans leur totalité. Ces derniers ont néanmoins préféré conserver des extraits de chacun des essais afin de montrer les différents registres que l’IA était capable de produire. Par ailleurs, la rédaction précise que le travail d’édition a pris moins de temps que s’il s’agissait entièrement d’humains.

Dans un article publié le même jour par The Next Web, certains spécialistes se sont montrés sceptiques. C’est notamment le cas de Daniel Leufer, travaillant pour la société Mozilla. L’intéressé n’a pas mâché ses mots et a qualifié l’expérience de « blague absolue ». Selon lui, il aurait été intéressant de voir les articles initiaux et ce dans leur totalité. Pour l’expert, cette manière d’éditer contribue malheureusement au battage médiatique et à la désinformation sur l’intelligence artificielle.