Une nouvelle étude révolutionnaire suggère que donner aux systèmes d’intelligence artificielle (IA) un « monologue intérieur » les rend considérablement plus efficaces dans leur raisonnement. Cette méthode, appelée « Quiet-STaR », entraîne les IA à réfléchir avant de répondre aux invitations, simulant ainsi le processus de réflexion humaine avant de parler.
Comment fonctionnent les chatbots ?
Les chatbots IA traditionnels, tels que ChatGPT et Gemini, sont construits à partir de réseaux de neurones, des ensembles d’algorithmes d’apprentissage automatique conçus pour imiter la structure et les modèles d’apprentissage du cerveau humain. Ces modèles de langage sont entraînés sur de vastes ensembles de données textuelles pour comprendre et générer du langage naturel.
Lorsqu’un utilisateur interagit avec un chatbot IA traditionnel, le processus se déroule alors généralement en plusieurs étapes.
Dans un premier temps, l’utilisateur envoie un message ou une requête au chatbot, généralement sous forme de texte. Le chatbot utilise alors des techniques de traitement du langage naturel pour comprendre le message de l’utilisateur en analysant le texte pour extraire le sens et l’intention derrière les mots.
Sur la base de son analyse, le chatbot génère ensuite une réponse en utilisant son modèle de langage pré-entraîné. Cette réponse est souvent basée sur des modèles statistiques et des associations de mots apprises pendant l’entraînement.
La différence avec Quiet-STaR
Le modèle dont il est ici question, baptisé Quiet-STaR, fonctionne différemment. Contrairement aux chatbots traditionnels, il adopte une approche plus réfléchie dans le processus de génération de réponses. Plus précisément, plutôt que de répondre immédiatement à une requête après l’avoir analysée, il demande aux systèmes d’IA de générer plusieurs justifications internes avant de formuler une réponse.
Cette approche permet alors à l’IA de simuler un « monologue intérieur », où elle réfléchit à plusieurs scénarios possibles et évalue les justifications pour chaque réponse potentielle. En sélectionnant la meilleure justification, l’IA peut ensuite fournir une réponse plus réfléchie et contextuellement appropriée.
L’originalité de cette approche réside dans sa capacité à apprendre de ses erreurs en rejetant les justifications qui se sont révélées incorrectes. Ainsi, les agents IA peuvent anticiper les conversations futures et s’améliorer continuellement.

Crédit : iStock
Crédits : PeopleImages/istockUne IA plus performante
Dans le cadre d’une récente étude, des chercheurs ont appliqué l’algorithme Quiet-STaR au modèle de langage Mistral 7B, un grand modèle de langage open source. Les résultats ont montré une nette amélioration des performances en termes de raisonnement, avec un score de 47,2 % à un test de raisonnement contre 36,3 % avant l’entraînement.
Cependant, malgré cette amélioration, le modèle a échoué à un test de mathématiques scolaires en obtenant un score de 10,9 %. Cela représente tout de même presque le double du score initial de 5,9 % obtenu avec la version non entraînée.
Les modèles de langage comme ChatGPT et Gemini, construits à partir de réseaux de neurones, sont souvent critiqués pour leur manque de raisonnement et de contextualisation de bon sens. Les chercheurs espèrent que des techniques comme Quiet-STaR puissent réduire cet écart en permettant aux IA de développer des capacités de raisonnement plus proches de celles des humains.
L’algorithme de raisonnement autodidacte (STaR), sur lequel se base Quiet-STaR, présente l’avantage d’être applicable silencieusement en arrière-plan et sur différents types de modèles d’IA, indépendamment des données d’entraînement d’origine. Cette polyvalence ouvre de nouvelles perspectives pour l’amélioration des capacités de raisonnement des IA.