D’après une étude menée par le MIT, le logiciel de reconnaissance faciale du célèbre site d’e-commerce Amazon aurait du mal à identifier les femmes qui ont une couleur de peau foncée.
Rekognition a eu de grandes difficultés à reconnaître le sexe des femmes aux teints foncés, et a fait beaucoup plus d’erreurs que ses concurrents IBM, et Microsoft sur l’identification des genres. C’est le résultat d’une étude qui a été conduite par le MIT ou Massachusetts Institute of Technology.
En effet, le logiciel de reconnaissance faciale de la firme a identifié de femmes en les confondant avec des hommes dans à peu près 19 % des cas qu’il a traités. En outre, il a également identifié des femmes aux couleurs de peau plus ou moins foncée comme étant des hommes dans 31 % des cas. Si on le compare aux logiciels de Microsoft, ceux-ci n’ont fait ce type d’erreurs que dans 1,5 % des cas qu’ils ont traité.
Toutefois, le directeur général de l’I.A (intelligence artificielle) de chez Amazon Web Services, Matt Wood a déclaré que les résultats de l’étude effectuée par MIT sont en grande partie basés sur l’analyse faciale, et non sur la reconnaissance faciale. Il a ainsi expliqué que l’analyse faciale est chargée de trouver des visages dans des images ou des vidéos, et donner des attributs génériques comme le port de lunettes par exemple. La reconnaissance faciale quant à elle fait correspondre le visage d’une personne à des photographies, et des images dans des vidéos. Et Matt Wood a tenu à préciser que Rekognition intègre ces deux fonctions.
Amazon se défend
« Il n’est pas possible de tirer une conclusion sur l’exactitude de la reconnaissance faciale pour n’importe quel cas d’utilisation, y compris l’application de la loi, sur la base des résultats obtenus par l’analyse faciale », déclare Matt Wood. Il ajoute également que l’étude du MIT n’a pas utilisé la version la plus récente de leur technologie de reconnaissance faciale. D’après lui, la version à jour de Rekognition n’a trouvé aucun faux positif si on l’a testé avec les mêmes données.
Néanmoins Joy Buolamwini et Bebora Raji, coauteurs de l’étude ont précisé qu’elles savaient très bien faire la distinction entre analyse faciale, et reconnaissance faciale. « Nous indiquons clairement dans notre document que la tâche que nous avons choisi d’évaluer est la tâche d’analyse faciale de la classification binaire des sexes. Cela signifie que, vu le nombre de visages détectés, le modèle comprend-il bien ce qu’il voit ? »
Dans un billet de blog, Joy Buolamwini prévient contre le scepticisme de certaines sociétés osant affirmer qu’elles possèdent des systèmes très précis. « Matt Wood affirme que l’entreprise a utilisé un grand benchmark de plus d’un million de visages pour tester ses capacités de reconnaissance faciale et qu’elle a obtenu de bons résultats. Bien que leur performance par rapport au benchmark puisse sembler louable, nous ne connaissons pas la composition démographique ou phénotypique (type de peau) détaillée de celui-ci. Sans ces informations, nous ne pouvons pas évaluer les préjugés raciaux, de genre, de couleur ou d’autres types de préjugés. »