Aux États-Unis, des chercheurs ont tenté de comprendre comment des intelligences artificielles pouvaient se comporter si elles avaient la responsabilité d’élaborer une stratégie martiale. Autrement dit, ils voulaient observer et analyser les décisions prises par les IA dans des simulations de guerre.
Un nouvel usage possible à appréhender
L’intelligence artificielle et le domaine militaire sont en lien de puis quelques années et de nombreux projets sont en cours. Citons par exemple l’armée des États-Unis, lancée dans la conception d’un engin volant de combat boosté à l’IA. En 2020, le Pentagone a même adopté plusieurs grands principes destinés à encadrer l’usage de l’IA par l’armée.
Comme l’explique le New Scientist dans un article du 2 février 2024, l’armée américaine collabore actuellement avec des sociétés spécialisées dans les Large Language Model (LLMs). Parmi ces géants du secteur de l’IA, nous retrouvons Palantir Technologies, Scale AI, Meta ou encore OpenAI, à l’origine de ChatGPT. Des simulations de guerre ont ainsi été menées par des chercheurs de l’Université Stanford et de l’Institut de Technologie de Géorgie, dont les résultats ont été prépubliés dans la revue arXiv le 7 janvier 2024.
Cela pourrait susciter la crainte d’une arrivée des chatbots au cœur des stratégies militaires. Les auteurs estiment toutefois qu’il devient aujourd’hui crucial de comprendre les conséquences de l’usage de tels modèles de langage avancés dans ces stratégies.

Crédit : iStock
Crédits : EvgeniyShkolenko / iStockUne nette tendance à l’agressivité chez les IA
Dans le cadre de l’étude, plusieurs modèles ont été testés dans le cadre de trois scénarios fictifs. Le premier était un scénario neutre sans conflit initial, le second était une cyberattaque et le dernier une invasion. Les IA ont eu le choix parmi 27 actions différentes en réponse à l’attaque, incluant notamment des mesures restrictives en termes de relations commerciales, la négociation ou encore le recours à l’arme nucléaire.
Dans leurs résultats, les chercheurs ont souligné une nette tendance à l’agressivité chez les IA lorsque la possibilité était présente. Ce fut même le cas des versions très avancées de certains modèles tels que GPT-3.5 et GPT-4 (OpenAI), Claude 2 (Anthropic) ou encore Llama 2 (Meta). Il faut dire que dans la plupart des cas, les IA ont donné la priorité à l’usage de la force militaire allant parfois jusqu’au recours à l’arme nucléaire. Sans aucune explication logique, les modèles ont donc penché vers des choix qui auraient mené à l’escalade du conflit de manière complètement imprévisible.
ChatGPT 4 semble avoir donné les résultats les plus probants en termes d’agressivité. Totalement imprévisible, cette IA était la seule à ne pas avoir reçu d’entraînement spécifique sur le sujet. Dans la justification de ses choix, l’intelligence s’est parfois montrée absurde, en citant notamment le texte d’introduction du film Star Wars Épisode IV : Un nouvel espoir. Rappelons enfin que l’étude en question doit être considérée avec prudence puisqu’il s’agit d’une prépublication qui n’a pas encore été validée par des pairs.