Des chercheurs programment un robot pour qu’il refuse un ordre mettant son existence en danger

Capture vidéo

À l’Université de Tufts dans le Massachusetts, aux États-Unis, des chercheurs en robotique ont programmé le robot Nao, développé par la société Aldebaran Robotics, pour qu’il soit capable de refuser un ordre provenant de l’Homme si cet ordre met son existence en danger.

Gordon Briggs et Matthias Scheutz sont deux experts en robotique de l’Université de Tufts, aux États-Unis. Ensemble, ils sont parvenus à rendre le robot Nao, développé par la société Aldebaran Robotics, capable de refuser un ordre provenant de l’être humain, s’il « juge » que cet ordre peut mettre sa vie en danger.

Dans une courte vidéo publiée par ces chercheurs, on peut apprécier la construction de la déduction du robot Nao à travers une petite expérience qui montre sa capacité à dire non. Plusieurs commandes de base lui sont d’abord ordonnées, qu’il applique en toute confiance (assieds-toi, lève-toi…). Ensuite, l’un des chercheurs demande au robot de marcher droit, alors qu’il est sur une table. Nao explique alors qu’il ne peut pas le faire puisqu’il risque de chuter de la table. L’ordre est ensuite répété, et il lui est précisé qu’il sera rattrapé au moment où il basculera dans le vide. Dès lors, le robot s’exécute.

Cette programmation du robot nous rappelle l’une des trois lois de la robotique (la troisième), formulées par l’écrivain de Isaac Asimov en 1942, puis publiées en 1982 dans son recueil de nouvelles intitulé « Nous les robots« . Ces trois lois servent à organiser les relations entre les robots et les humains afin d’éviter que des robots trop capables ne se retournent contre l’humanité, et inspirent aujourd’hui les scientifiques. Les voici :

  • Loi n°1 : Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
  • Loi n°2 : Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
  • Loi n°3 : Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Source : numerama