700 chercheurs appellent à encadrer le développement des intelligences artificielles

Crédits : iStock

Dans une lettre ouverte publiée par le Future Of Life Institute, la communauté scientifique s’exprime sur la nécessité de mettre en place des recherches responsables et interdisciplinaires, pour étudier en profondeur le potentiel des I.A contemporaines et à venir. Objectif : maximiser les bénéfices tout en réduisant les risques.

La liste des signataires comprend nombre de personnalités du milieu scientifique et technique : citons entre autres les fondateurs de DeepMind (le projet I.A de Google), et Tom Dietterich (président de L’Association for the Advancement of Artificial Intelligence). Ont également signé Stephen Hawking et Elon Musk, qui s’étaient déjà exprimés sur le sujet l’année dernière ; le patron de l’agence SpaceX a d’ailleurs récemment fait don de 10 millions de dollars au FLI afin d’engager des recherches concrètes en la matière.

Les intelligences artificielles sont, de fait, monnaie courante en 2015. La traduction quasi instantanée des langues, la gestion des systèmes robotiques, et l’apprentissage automatique sont autant de techniques déjà présentes dans le monde moderne, tandis que des formes plus abouties se préparent à débarquer sur le marché (véhicules autonomes notamment). « Il existe désormais un large consensus sur la progression régulière des travaux sur l’I.A, et sur son impact grandissant au sein de la société », affirment les auteurs de la lettre. Et c’est pour mesurer les risques et bénéfices de cette évolution que les chercheurs se sont attelés à établir une liste de recommandations dans un long document associé.

Reprendre les rênes du développement

Les objectifs dévoilés oscillent entre un pragmatisme appuyé — « Nos systèmes doivent faire ce que nous leur demandons » — et la spéculation la plus totale (éviter la survenue d’une explosion d’intelligence, ou singularité). Le potentiel — supposé — des I.A futures autorise par ailleurs tous les fantasmes ; ainsi peut-on lire que « l’éradication des maladies et de la pauvreté ne sont pas inenvisageables ».

Utopique au possible, cette vision témoigne cependant d’un certain contresens : si la recherche médicale pourrait en effet grandement bénéficier de l’efficacité et de la vitesse de calcul d’une I.A, et si la pauvreté tient d’une répartition très inégale des ressources, les deux phénomènes sont intrinsèquement dépendants d’une rentabilité immédiate. Renverser ces paradigmes en les confiant à des algorithmes pourrait alors ébranler les fondements même du libéralisme, accélérant d’autant la perte de contrôle de l’humain sur sa civilisation… Ce qui irait précisément à l’encontre des mesures préconisées par ce Think tank international.

Conscients de ce paradoxe, les signataires de la lettre développent dans le document associé nombre de mesures préventives visant à responsabiliser aussi bien l’hypothétique I.A future que ses applications économiques : la robotisation de masse en est le premier point de mire (car synonyme de licenciements massifs et d’une restructuration des corps de métiers) qui affecte depuis plusieurs décennies l’économie de marché.

Au-delà des considérations spéculatives, c’est bel et bien l’éternel débat de l’outil puissant mis entre de « mauvaises » mains qui est au centre de la réflexion amenée par les chercheurs et analystes de tout horizon. Un tel engouement des spécialistes du monde entier reflète en tous cas une vision à long terme dont devrait bénéficier chaque innovation majeure.

Sources : FLI