in

Comment bien mettre en pratique les principes éthiques de l’IA ?

Crédits : iStock

Des chercheurs issus des principaux centres mondiaux de recherche sur l’intelligence artificielle (IA) se sont réunis. L’objectif ? Publier une sorte de “boîte à outils” afin d’assurer la mise en pratique des principes éthiques de l’intelligence artificielle.

Une “chasse aux biais”

Il y a peu, nous évoquions la reconnaissance vocale aux États-Unis et son problème de compréhension concernant les afro-américains. S’il n’est pas vraiment question de racisme dans ce cas précis, nombreuses sont les personnes qui estiment que l’intelligence artificielle peut être raciste ou même sexiste. Ce type d’affaire a en effet tendance à se multiplier, ce qui n’est pas vraiment un gage de confiance pour la population.

Des chercheurs de chez Google Brain, Intel, OpenAI et autres laboratoires étasuniens et européens ont ensemble publié un document sur la plateforme arXiv.org le 15 avril 2020. Désirant visiblement regagner la confiance du public, ces derniers évoquent une “chasse aux biais” rémunérée. Autrement dit, il est question de payer les développeurs afin de trouver des biais dans les intelligences artificielles.

Une IA toujours plus éthique

Trouver davantage de biais permettrait tout simplement d’identifier plus rapidement les problèmes concernant l’IA. L’intérêt est de régler ces mêmes problèmes avant que ceux-ci n’apparaissent sur les systèmes utilisés par le public. L’idée est également de mettre en place une base de données collaborative répertoriant l’ensemble des problèmes rencontrés. Évidemment, ces données seraient accessibles aux différents acteurs du domaine de l’IA.

Par ailleurs, les auteurs de la publication estiment qu’il serait intéressant de voir apparaître des alternatives open source aux IA commerciales. Les chercheurs désirent également une augmentation des fonds gouvernementaux dans le cadre de la recherche universitaire. L’objectif est de mobiliser des effectifs afin de gérer et vérifier les plaintes du public au niveau des IA. Mais le document de 80 pages comporte une foule d’autres recommandations, toutes destinées à assurer la présence d’une intelligence artificielle toujours plus éthique.

reconnaissance faciale
Crédits : U.S. Customs and Border Protection / Flickr

Depuis qu’il est question d’IA, les plus grandes craintes du public ne concernent pas le racisme ou le sexisme. En réalité, le développement de l’IA, notamment en matière de reconnaissance faciale, est parfois synonyme de dérive sécuritaire, comme c’est le cas en Chine.

En pleine épidémie de Covid-19 par exemple, la Chine a testé une voiturette autonome dans les rues. Son rôle était de prendre la température des citoyens à distance grâce à une caméra thermique, mais celle-ci pouvait également identifier les piétons à l’aide de la reconnaissance faciale.

L’Union Européenne, quant à elle, a mis un point d’honneur en 2019 à s’accorder sur l‘interdiction d’une IA mettant en péril les libertés individuelles.