in

La reconnaissance vocale automatisée coupable de discrimination raciale ?

Crédits : Bosland Corp. / Flickr

Selon une étude menée récemment aux États-Unis, les outils de reconnaissance vocale auraient un problème de compréhension concernant les afro-américains. Une étude se voulant très sérieuse s’est penchée sur la question et l’explication est très simple.

Les hommes noirs davantage “mal compris”

Les algorithmes de reconnaissance vocale sont-ils racistes ? Évidemment non, il s’agit là d’un raccourci qui n’a pas lieu d’être. Toutefois, des chercheurs de l’Université de Stanford (États-Unis) se sont intéressés à un phénomène assez spécial. Dans leur étude relatée dans un communiqué du 23 mars 2020, les scientifiques expliquent que les taux d’erreurs sont plus élevés lorsqu’il s’agit de paroles sortant de la bouche d’afro-américains. Or, il s’agit là d’un réel problème concernant cette technologie qui, comme chacun sait, est très présente sur les smartphones, tablettes et autres enceintes ou sonnettes connectées.

Dans le cadre de l’étude, les chercheurs ont rassemblé des échantillons vocaux d’une quinzaine de secondes provenant à la fois d’utilisateurs noirs et blancs. Selon les résultats, le taux d’erreur concernant les utilisateurs afro-américains est dix fois plus important que celui des utilisateurs blancs (20 % contre 2 %). Toutefois, il faut préciser que les femmes noires sont moins concernées par le problème. En effet, le fait est que l’intelligence artificielle reconnaît mieux leur locution.

enceinte connectée
Les algorithmes de reconnaissance vocale ont plus de mal à comprendre les afro-américains, et plus particulièrement les hommes.
Crédits : NDB Photos / Flickr

Une explication très simple

Les meneurs de l’étude ont également tenu à préciser que le groupe des afro-américains était constitué de personnes vivant dans différentes zones des États-Unis. Or, il s’avère que l’accent de Californie est considéré comme étant plus “neutre”. Ainsi, les locuteurs noirs vivant dans cet état faisaient l’objet d’un taux d’erreur moins important que les autres.

Selon les chercheurs, l’explication à ce problème relève de l’évidence. En effet, le fait est que les algorithmes font l’objet d’un entraînement au moyen de données vocales en langue anglaise parlée… par des étasuniens blancs ! Par extension, nous pourrions penser que ce problème n’en est pas vraiment un. La solution paraît simple : permettre aux ingénieurs d’inclure des données vocales issues d’afro-américains dans les programmes d’entraînement. Malheureusement, l’étude ne semble pas en faire mention.

En 2018, une chercheuse du MIT avait mené une étude portant sur la même question. Toutefois, la technologie au cœur du sujet n’était pas la reconnaissance vocale mais la reconnaissance faciale. Selon les résultats, les intelligences artificielles notamment utilisées par Microsoft et IBM affichaient des taux d’erreurs différents. En effet, il était question de 95 % pour les blancs et 77,6 % pour les noirs.