Une équipe américaine de neuroingénieurs de l’Université de Columbia annonce avoir créé un système capable de convertir les schémas cérébraux en discours verbal. Une première qui, à terme, pourrait redonner la parole à ceux qui ne peuvent plus s’exprimer.
Soyons clairs, ce nouveau dispositif ne traduit pas directement le discours imaginé par un individu. Ce n’est pas comme cela : vous pensez un mot, la machine le traduit puis l’exprime à votre place. Non, on n’en est pas encore là . Mais on s’en rapproche. Au lieu de cela, un système a pu capturer les réponses cognitives d’un individu alors que ce dernier écoutait des enregistrements de personnes en train de parler. Une machine a ensuite isolé ces ondes cérébrales pour ensuite retranscrire les mots précédemment énoncés.
En d’autres termes, voici l’idée : j’entends un mot, des ondes cérébrales se dessinent, ces ondes sont identifiées par une machine et celle-ci retranscrit le mot entendu. Cette nouvelle percée promet des avancées spectaculaires. Des personnes incapables de s’exprimer oralement pourraient, à terme, de nouveau communiquer avec le monde extérieur. Les détails de l’étude sont publiés dans Scientific Reports.
Isoler les pensées dans le but de les traduire
« Nos voix nous aident à nous connecter à nos amis, à notre famille et au monde qui nous entoure. C’est pourquoi le fait de ne plus pouvoir parler en raison d’une blessure ou d’une maladie est si dévastateur, explique Nima Mesgarani, de l’Université Columbia et principale auteure de l’étude. Nous avons aujourd’hui un moyen potentiel de restaurer ce pouvoir. Nous avons montré qu’avec la bonne technologie, les pensées de ces personnes pourraient être décodées et comprises par tout auditeur ».
Lorsque nous parlons, ou pensons des mots ou des phrases, des schémas d’activité cérébrale se dessinent. C’est également le cas lorsque nous écoutons quelqu’un parler. Certaines personnes ne pouvant plus s’exprimer – suite à un accident grave ou à une maladie -, l’idée consisterait à pouvoir isoler leurs pensées dans le but de les traduire directement. Mais chaque chose en son temps. Avant de pouvoir traduire une pensée imaginée par un patient, les chercheurs ont essayé ici de retranscrire des mots entendus auparavant par ces mêmes patients.
Pour ce faire, la docteure Mesgarani et son équipe ont mis au point un vocodeur – un algorithme informatique capable de synthétiser la parole après avoir été formé à « comprendre » les mots exprimés par une personne. « Il s’agit de la même technologie utilisée par Amazon Echo et Siri, chez Apple, pour donner des réponses verbales à nos questions », poursuit la chercheuse. La différence ici, c’est que « la machine » devait interagir non pas en fonction des mots exprimés, mais en fonction des ondes cérébrales de la personne concernée.

75 % de réussite aux tests
Pour entraîner le vocodeur à interpréter l’activité cérébrale, les chercheurs se sont appuyés sur des patients atteints d’épilepsie. Ces derniers, devant régulièrement subir des interventions chirurgicales du cerveau, se présentent comme de parfaits sujets d’étude. Les chercheurs ont ici mesuré l’activité neuronale des patients écoutant des orateurs en train de réciter des chiffres allant de zéro à neuf. En écoutant ces chiffres, des schémas cérébraux se sont dessinés. Ils ont ensuite été isolés puis introduits dans le vocodeur par le biais d’une intelligence artificielle.
En fonction des ondes cérébrales enregistrées, le « robot » devait alors essayer de retranscrire les chiffres énoncés plus tôt par les orateurs, et entendus par les patients. Et les résultats sont plutôt bons ! Lors des tests, les auditeurs pouvaient identifier correctement les chiffres prononcés par la voix de synthèse dans environ 75 % du temps.
Et ce n’est qu’un début. Les chercheurs prévoient maintenant de tester des mots et des phrases plus complexes. Ils espèrent également pouvoir isoler les signaux cérébraux émis non pas lorsqu’une personne écoute, mais lorsque celle-ci pense un mot ou phrase. À terme, ce système pourrait ainsi traduire instantanément chaque pensée, par le biais d’un simple implant par exemple.
« Dans ce scénario, si le porteur pense : « J’ai besoin d’un verre d’eau », notre système pourrait utiliser les signaux cérébraux générés par cette pensée et les transformer en discours verbal synthétisé, note la chercheuse. Cela changerait la donne. Cela donnerait à toute personne ayant perdu la capacité de parler, suite à une blessure ou une maladie, une nouvelle chance de se connecter au monde qui l’entoure ».
Source
Articles liés :