Des dispositifs de reconnaissance faciale se multiplient à travers le monde. Mais une étude britannique révèle les mauvais résultats d’une solution déployée par la police...
C’est le rêve de toutes les autorités et services de sécurité : repérer, en quelques minutes, un individu recherché en analysant des vidéos ou des photos. C’est l’un des objectifs de la reconnaissance faciale. En Chine par exemple, des paires de lunettes (vendues 500 €) dotées de cette technologie sont portées par les agents de sûreté ferroviaire de Zhengzhou, au centre du pays. Connectées à une tablette, elles permettent de consulter une base de données répertoriant près de 10.000 personnes suspectées de délits et de crimes.
Mais est-elle aussi efficace que le prétendent les entreprises qui vendent ces solutions ? En avril, tous les médias se sont fait l’écho de l’arrestation en Chine d’une personne qui se trouvait au milieu d’une foule de 50.000 personnes venues assister à un concert. Des caméras avaient repéré cet individu recherché pour « crime économique ». Toujours en Chine, les paires de lunettes auraient permis d’arrêter quelques fraudeurs.
Mais au-delà de ces quelques cas, le résultat est très loin d’être positif. C’est ce que montre une étude menée en Angleterre. Il y a un an, lors de la finale de la Ligue des Champions au Pays de Galles, la police a mis en place un système capable de comparer le visage des supporters à une base de données d’images de plus de 500 000 personnes. Un an plus tard, le quotidien britannique The Guardian révèle que cet outil, baptisé « Locate », avait trouvé 2470 potentiels suspects. En réalité, 2297 d’entre elles se sont révélées être des erreurs. Soit un taux de réussite de seulement 7 %.
Discrimination
La police de South Wales a précisé que sur les 15 évènements durant lesquels « Locate » avait été testé, seules 234 personnes avaient été identifiées correctement. Pour les autorités, ces nombreuses erreurs sont dues à une forte proportion d’images de mauvaise qualité et au fait que c’était la première fois que le système était utilisé.
D’autres études ont également constaté des erreurs élevées dans le repérage de personnes de couleur. En février dernier, une étude menée par une équipe du Massachusetts Institute of Technology (MIT) avait constaté que les trois logiciels testés (ceux de Microsoft, d’IBM et de l’entreprise chinoise Megvii) identifiaient correctement des hommes blancs parmi 1270 personnes provenant de trois pays africains (Afrique du Sud, Sénégal et Rwanda) et européens (Finlande, Islande, Suède).
Par contre, ces programmes ont plus de difficultés à reconnaître des femmes (presque 80 % de réussite pour le programme chinois qui avait obtenu le meilleur taux) et encore plus celles de couleur. Le taux d’erreur a atteint jusqu’à 35 %. Ce résultat s’explique notamment par le choix des données qui vont venir alimenter l’algorithme lors de son apprentissage. « On ne peut pas avoir des intelligences artificielles qui ne sont pas inclusives. Or, ceux qui créent les technologies sont ceux qui mettent en place les standards », avait explique Joy Buolamwivi, la scientifique du MIT dans une interview accordée au New York Times.
Par Philippe Richard
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE