Crédits: Alexander Sikov/istock

Elle pense comme un cerveau, consomme 50 fois moins d’énergie : voici l’IA chinoise qui affole la tech

Et si les machines pouvaient raisonner avec l’efficacité du cerveau humain, tout en consommant une fraction de l’énergie nécessaire aux géants actuels de l’intelligence artificielle ? C’est le pari audacieux d’une équipe de chercheurs de l’Académie chinoise des sciences, à Pékin, qui vient de présenter SpikingBrain 1.0, un modèle de langage de nouvelle génération. Inspiré du fonctionnement neuronal, ce système pourrait bouleverser notre manière de concevoir l’IA, en alliant rapidité, sobriété énergétique et indépendance technologique.

Un modèle de langage pas comme les autres

Les modèles de langage dits « géants » (ou LLM), comme ceux qui animent ChatGPT, reposent principalement sur l’architecture Transformer. Si cette approche a permis des avancées spectaculaires, elle reste extrêmement gourmande en énergie et en ressources de calcul. La raison est simple : chaque séquence de texte traitée implique des milliards d’opérations répétées, ce qui entraîne des goulots d’étranglement à mesure que la taille des données augmente.

SpikingBrain 1.0, au contraire, repose sur une approche radicalement différente. Ses concepteurs le qualifient de modèle « de type cerveau », car il reproduit, dans ses grandes lignes, la manière dont nos neurones communiquent entre eux. Le résultat : une architecture plus économe et capable de traiter des volumes d’informations immenses sans ralentissement massif.

Le secret du « calcul de pointes »

La clé de cette innovation réside dans ce qu’on appelle le « calcul de pointes ». Contrairement aux réseaux neuronaux classiques, où chaque neurone artificiel reste activé en permanence, SpikingBrain fonctionne de manière événementielle. Les neurones virtuels ne s’activent que lorsqu’ils reçoivent un signal précis, comme dans le cerveau humain.

Ce mode de fonctionnement réduit drastiquement la consommation énergétique et accélère le traitement de données. Là où un modèle Transformer s’épuise à gérer chaque détail d’une séquence, SpikingBrain adopte une stratégie sélective, se concentrant uniquement sur ce qui compte.

puce SpikingBrain 1.0 : IA
Le système, qui utilisait des centaines de puces MetaX, fonctionnait de manière stable pendant des semaines. Crédits : MétaX

Des performances hors norme

Les résultats annoncés par l’équipe de recherche sont impressionnants. En phase de test, la version la plus compacte du modèle, dotée de 7 milliards de paramètres, a pu répondre à une requête composée de 4 millions de jetons plus de cent fois plus vite qu’un système standard. Dans un autre scénario, SpikingBrain a généré une première réponse 26,5 fois plus rapidement qu’un modèle Transformer face à un contexte d’un million de jetons.

Tout cela avec un volume d’entraînement étonnamment réduit : environ 150 milliards de jetons au total, soit moins de 2 % de ce qui est habituellement requis pour des modèles de cette envergure. Ces chiffres laissent entrevoir une nouvelle manière de concevoir l’efficacité en intelligence artificielle.

Un pari technologique et stratégique

Au-delà des performances, SpikingBrain 1.0 illustre aussi une volonté politique et industrielle claire : se détacher de la dépendance à Nvidia, le leader mondial des puces pour l’IA. Le système a été conçu pour tourner sur des centaines de puces MetaX, produites en Chine par MetaX Integrated Circuits Co., à Shanghai. Les chercheurs rapportent que le modèle a pu fonctionner de manière stable pendant plusieurs semaines sur cette plateforme locale, ce qui constitue un signal fort pour l’autonomie technologique du pays.

Des applications à très grande échelle

Si SpikingBrain 1.0 n’en est encore qu’à ses débuts, ses perspectives d’application sont vastes. L’analyse de documents juridiques ou médicaux, la recherche en physique des hautes énergies ou encore le séquençage génétique sont autant de domaines où la rapidité et l’efficacité du traitement de données représentent des atouts décisifs.

Plus largement, l’essor de modèles inspirés du cerveau pourrait ouvrir la voie à une nouvelle ère d’informatique neuromorphique, où la puissance de calcul se marie enfin avec une sobriété énergétique jusque-là hors d’atteinte pour les architectures classiques.

Vers une nouvelle génération d’IA ?

En cherchant à imiter l’efficacité énergétique du cerveau humain, qui fonctionne avec seulement une vingtaine de watts, SpikingBrain 1.0 trace une voie originale. Loin de vouloir remplacer les modèles existants, il propose une alternative complémentaire, particulièrement adaptée aux tâches nécessitant l’analyse de très longs contextes.

Reste à savoir si cette approche pourra s’imposer face à la domination des Transformers. Une chose est sûre : l’intelligence artificielle est en train d’entrer dans une nouvelle phase, où le cerveau humain n’est plus seulement une source d’inspiration, mais un véritable modèle à suivre.

Brice Louvet

Rédigé par Brice Louvet

Brice est un journaliste passionné de sciences. Ses domaines favoris : l'espace et la paléontologie. Il collabore avec Sciencepost depuis près d'une décennie, partageant avec vous les nouvelles découvertes et les dossiers les plus intéressants.