Et s’il n’y avait plus besoin d’être hacker pour pirater des sites Internet ? Il y a peu, les chercheurs affirmaient en effet dans une étude que GPT-4 pourrait permettre à des hackers en herbe de pirater certaines plateformes sur demande. Or, cela ne semble pas du tout plaire à OpenAI, le créateur de cette intelligence artificielle.
GPT-4, premier en piratage
Rappelons tout d’abord que GPT-4 est un modèle de langage multimodal qui a succédé à GPT-3.5 en mars 2023. Dès sa sortie, GTP-4 avait été qualifiée d’aussi performant que les humains pour certaines tâches. Et si cette IA pouvait carrément permettre à n’importe qui de pirater des sites Web ? Cette question a été posée par une équipe de l’Université de l’Illinois à Urbana-Champaign (États-Unis), dont l’étude a été prépubliée sur la plateforme arXiv le 6 février 2024. Principal auteur de l’étude, le professeur en informatique Daniel Kang a affirmé que les néophytes en hacking pourraient passer à l’action. Selon lui, le degré d’expertise nécessaire est réduit au simple fait de savoir utiliser GPT-4 avec suffisamment de malice. Il n’y aurait donc pas besoin de connaître grand-chose en piratage.
Les auteurs de l’étude ont testé une dizaine de modèles d’intelligence artificielle, dont GPT-4, GPT-3.5 et d’autres IA open source comme Llama (Meta). Point important : les chercheurs ont modifié certaines versions de ces modèles accessibles au grand public, et donc aux développeurs. L’objectif ? Permettre aux modèles d’échanger avec des navigateurs Web, prendre connaissance de documents portant sur le hacking et planifier des attaques contre des sites Internet.
Les IA ont relevé une quinzaine de défis, classés par les chercheurs selon leur niveau de difficulté. Or, si la plupart des modèles ont obtenu des résultats très moyens, voire mauvais, un candidat s’est particulièrement distingué : GPT-4. En effet, l’IA a réussi onze défis sur quinze, affichant ainsi un taux de réussite de 73 %.

Des résultats dérangeants ?
Selon les chercheurs, l’objectif n’est évidemment pas de pirater des sites Internet. En revanche, leurs travaux ont mis en lumière une solution potentielle pour révéler les éventuelles failles de sécurité de ces mêmes sites, et ce, pour un coût peu élevé. Il faut dire qu’utiliser un modèle d’IA de type GPT-4 reviendrait à huit fois moins cher que faire appel à un expert en cybersécurité. Ainsi se pose la question de savoir si l’emploi des humains est également menacé dans ce domaine.
Évoquons également le fait que les chercheurs américains ont contacté OpenAI afin de communiquer leurs résultats. Toutefois, la société n’a pour l’instant pas réagi publiquement et n’a pas donné suite aux demandes d’interview d’après New Scientist. Bien que l’étude en question n’ait pas été validée par des pairs, les résultats sont susceptibles de déranger. Rappelons tout de même qu’OpenAI avait affirmé que ses modèles d’IA représenteraient une solution très limitée pour les personnes désirant les utiliser dans le cadre d’attaques sur Internet.
