Seeing AI : Comment Microsoft va permettre aux aveugles de voir le monde qui les entoure

Crédits : Capture vidéo

Au cours de la dernière keynote Microsoft’ s Build, la firme en a profité pour présenter quelques projets intéressants, comme Seeing AI, un projet qui permettrait aux aveugles et aux mal-voyants de savoir ce qui les entoure, de lire, etc.

Si la dernière keynote de Microsoft a fait la part belle à la prochaine mise à jour de Windows 10 ou encore au nouveau kit de développement des fonctionnalités de la Xbox One, la firme en a également profité pour présenter un lot de 22 API intelligentes très prometteuses. Parmi elles, « Seeing AI », un projet qui pourrait permettre aux non-voyants de « voir », en quelque sorte.

Saqib Shaikh est développeur chez Microsoft et ingénieur logiciel originaire de Londres, et il a joué un rôle déterminant dans le développement de Seeing AI, lui qui a perdu la vue à l’âge de 7 ans. « L’une des choses dont j’ai le plus rêvé depuis que je suis à l’Université, c’est l’idée d’avoir quelque chose qui puisse me dire à tout moment ce qui m’entoure » déclare-t-il dans la vidéo de présentation du projet, ci-dessous.

Associé aux ingénieurs de Microsoft pour créer cette application qui permet de savoir ce qui se passe et qui est autour de vous, Saqib Shaikh explique que Seeing AI « est basé sur les API intelligentes de Microsoft… et l’application tourne sur smartphone et sur les lunettes connectées Pivothead. »

Comme on peut le voir dans la vidéo, un simple passage du doigt sur le côté des lunettes suffit au dispositif pour décrire l’environnement. « Je pense que c’est un homme qui saute en l’air, réalisant une figure sur un skateboard. » Mais cela va plus loin, l’application « peut m’indiquer l’âge et le sexe des gens qui m’entourent, ainsi que leurs émotions », des fonctionnalités d’une grande utilité au cours d’une conversation.

D’autres fonctionnalités sont également possibles pour aider aux tâches quotidiennes, comme lire un menu au restaurant, et le dispositif répond aux commandes vocales. Une grande aide puisque, pour l’exemple du menu de restaurant, il suffit de dire « lis moi les suggestions » pour les connaître, plutôt que de laisser le dispositif lire l’intégralité du menu.

Source : neowin