Intelligence artificielle : les machines devraient-elles pouvoir désapprendre ?

Crédits : iStock

Les machines qui apprennent existent déjà, mais pourraient être à l’avenir au centre de très nombreux domaines. Ainsi, les ordinateurs devraient pouvoir désapprendre, ce qui serait vital dans le cadre de la sécurité des données.

De nombreuses entreprises se lancent désormais dans le « machine learning » (en français « apprentissage automatique »), un champ d’étude de l’intelligence artificielle concernant la conception, l’analyse, le développement et la mise en place de méthodes permettant à une machine d’évoluer par un processus systématique. Ce processus est donc différent des habituels moyens également basés sur les algorithmes permettant directement aux machines d’effectuer des tâches, bien qu’il soit également basé sur des algorithmes (d’une autre nature).

Ainsi, les machines peuvent, par ce biais, accumuler de la connaissance et de l’intelligence par elle-même. L’apprentissage automatique trouve ses applications dans des domaines financiers (gestion de risque), des secteurs productifs (optimisation de process), ou encore dans la défense (analyse de situations), le biomédical (typologies de patients), le luxe et Internet (marketing stratégique).

Le souci réside dans le fait que l’apprentissage automatique comporte des failles, et lorsque ce dernier est appliqué dans des domaines touchant à la politique et aux finances, les enjeux peuvent être très importants. En considérant cette idée, des développeurs ont tenté de comprendre comment l’on pourrait permettre à des machines de désapprendre, à savoir oublier ce qu’elles auraient appris par elle-même.

Le rôle de plus en plus important du digital et de l’analyse informatique est un problème pour les algorithmes puisque cela permet la multiplication des techniques de piratage et de spams numériques. Ces techniques permettent de générer massivement, ou de manière plus ciblée, de fausses données afin de manipuler des informations officielles et des décisions prises par les algorithmes. Pour y remédier, la traçabilité des chaînes de décision digitales, l’authentification des sources et des moyens de contrôle renforcés sont requis.

Mais que dire de la capacité de ces systèmes à désapprendre ou à corriger des informations ? Si l’homme a du mal à désapprendre, les machines auraient bel et bien cette capacité. Bon nombre d’experts et autres leaders d’opinion préconisent d’intégrer des outils de « désapprentissage », de correction et d’oubli dans les machines. Yinzhi Cao et Junfeng Yang, deux enseignants des universités Lehigh et de Columbia (États-Unis) ont bénéficié en ce début d’année d’un soutien financier des autorités fédérales afin de développer ces outils que l’on pourrait qualifier de « machine unlearning ».

Ces outils permettront de mettre en lien les parties informatiques (exécutables) avec les parties humaines (interprétables) des fonctions de la machine, afin d’avoir des interactions plus « terre à terre » impossibles à assurer par la seule programmation.

Sources : The AtlanticL’Atelier