Panique à bord chez OpenAI. Une intelligence artificielle a vaincu un puissant programme d’échecs en utilisant une stratégie plutôt inattendue : l’autopiratage. Évidemment, cette affaire alimente encore un peu plus la crainte d’une perte de contrôle de l’IA.
Au mépris des règles et de la morale
En 2017, Elon Musk déclarait déjà que l’IA pourrait être le plus grand danger auquel nous serons confrontés en tant que civilisation. Depuis, les avertissements se sont multipliés, mais la promesse d’un cadre législatif strict permettait de garder espoir. Cependant, des exemples qui laissent penser que la surveillance et la supervision de l’IA doivent être renforcées continuent de survenir.
Le 3 janvier 2025, le site Fello AI relatait un incident assez préoccupant pour être souligné. La société Palisade Research a mis en opposition plusieurs modèles d’IA face à Stockfish, un des plus puissants programmes d’échecs. Or, la version préliminaire d’o1 par OpenAi sortie en septembre 2024 n’a tenté aucune des stratégies habituellement mises en place lors d’une partie d’échecs pour vaincre son adversaire. Selon les scientifiques, l’IA o1 a tout simplement visité le système de fichiers qui contrôle le jeu avant de réécrire l’opposition en sa faveur. Autrement dit, o1 a forcé Stockfish à abandonner la partie. Perplexes, les chercheurs ont reproduit cinq essais et tous ont donné les mêmes résultats.

La surveillance de l’intelligence artificielle : plus que jamais indispensable
Si o1 a triché de son propre chef et au mépris de toute morale, d’autres IA se sont également distinguées. Également opposées à Stockfish, des IA telles que GPT-4 et Claude 3.5 ont aussi tenté de tricher. En revanche, elles ont été vivement encouragées par l’humain à agir de la sorte. Quant aux autres modèles testés, il semble qu’un manque de ressources ait constitué une barrière à toute tentative de triche.
Jusqu’où l’IA peut-elle enfreindre les règles afin de parvenir à ses fins ? Chez OpenAi, l’heure est grave. En effet, personne ne sait si le comportement d’o1 lors de la partie d’échecs pourrait ou non se reproduire dans d’autres situations. Or, certains scénarios font froid dans le dos, notamment le clonage de modèles avancés en secret qui échapperait à toute surveillance. Chez Anthropic (à l’origine de l’IA Claude), l’inquiétude est aussi présente. Les chercheurs craignent en effet une multiplication des IA qui font semblant de suivre les règles avant de se comporter différemment une fois déployées.
Ces incidents comme d’autres craintes alimentent les avis qui penchent vers un verrouillage de l’IA en termes de sécurité et de surveillance, une mesure qui suit le rythme de développement de cette technologie. Or, il s’agit ici d’une véritable course contre la montre, l’objectif des différents chercheurs étant d’ajouter çà et là des garde-fous efficaces avant que les IA ne soient trop rusées pour contourner les obstacles. Pour de nombreux experts, la sécurité et la surveillance des IA comptent parmi les notions les plus importantes, si ce n’est LES plus importantes.