Le MIT a développé un système pour réprimander par la pensée un robot qui fait une erreur

Crédits : Capture vidéo / Youtube / MITCSAIL

Une toute nouvelle étape a été franchie en matière de communication entre humains et robots au MIT où a été développé un système permettant d’avertir un robot par la pensée lorsqu’il fait une erreur.

Des chercheurs du Laboratoire d’information et d’intelligence artificielle du MIT (Massachusetts Institute of Technology) ont collaboré avec ceux de l’Université de Boston pour mettre au point un système permettant de modifier les actions d’un robot à distance en le regardant et en le jugeant.

Une expérience a été menée (voir la vidéo ci-dessous) dans laquelle Baxter, un robot, devait effectuer une tâche « simple », à savoir distinguer deux types d’objets, des câbles et des tubes de peinture et les trier pour les ranger dans des caisses étiquetées.

Dès lors que Baxter dirigeait sa main vers la mauvaise caisse pour ranger l’un des objets en question, l’humain qui le surveille n’a qu’à penser « erreur » pour que les signaux cérébraux soient interprétés grâce à un moniteur EEG (électro-encéphalogramme) et que le message soit transmis au robot. Dès lors, l’écran sur le robot rit et rougit. Un algorithme calcule la probabilité d’être sur la bonne voie en 10 à 30 millisecondes à partir de l’intensité des signaux reçus.

Avec ce système, c’est un nouveau cap qui est franchi dans le développement de nouveaux moyens de communication entre humains et robots puisque l’on dépasse la simple communication binaire. Bientôt, ils devront s’attaquer à des problèmes complexes à choix multiples par l’intermédiaire de prothèses intégrées, de communication non verbale, d’apprentissage automatique, etc.

Les robots s’imposent petit à petit dans nos sociétés et y effectuent déjà certaines tâches. Les ouvriers robotiques existent déjà, notamment dans certaines usines de Chine et ce système ouvre notamment la porte à leur gestion par un superviseur humain utilisant un système de contrôle télékinétique.

La vidéo de démonstration :

Source