Révélée par le New York Times, cette affaire montre que la reconnaissance d’image est encore loin d’être parfaite. Pour tenter de comprendre l’origine de cette « erreur inacceptable » (selon les propos d’une porte-parole de Facebook), le réseau a annoncé qu’il allait mener une enquête interne.
Loin d’être infaillible comme le laissent à penser le discours marketing de certains éditeurs ou startups spécialisées, l’intelligence artificielle est parfois épinglée pour ses erreurs reposant souvent sur des biais.
Il y a de nombreuses façons de biaiser un algorithme, car les précautions élémentaires ne sont pas prises. Elles sont moins d’ordre informatique ou algorithmique, que statistique. Disposer d’un échantillon représentatif d’une population que l’on veut adresser par un dispositif est très compliqué.
Risques de discrimination
Fin 2019, les régulateurs de l’État de New York avaient ouvert une enquête contre United Health Group accusé d’avoir utilisé un algorithme dans des hôpitaux qui donnait la priorité aux patients blancs sur les patients noirs. « Il faut être extrêmement vigilant lors de la constitution du corpus afin d’éviter ces biais discriminatoires. Les métiers – et les RH ne font pas exception à la règle, car ce ne sont pas des techniciens – ne sont souvent pas en capacité de juger comment a été formé le corpus d’entraînement, or celui-ci peut présenter un biais », prévenait Jean-Luc Marini, directeur du Lab d’IA de Axys Consultants.
Cet été, le National Institute of Standards and Technology a publié une proposition détaillant la manière dont les entreprises peuvent lutter contre les préjugés de leurs systèmes. « Ce document insiste sur un point très important : les entreprises, mais aussi les autorités lorsqu’il s’agit de repérer une personne dans une foule par exemple, doivent être très vigilantes afin de limiter les biais d’apprentissage et les risques de discrimination. Si on suspecte l’existence de biais, il faut les trouver rapidement et prouver qu’il s’agit réellement d’erreurs », explique Jean-Gabriel Ganascia, professeur à la faculté des sciences de Sorbonne Université, président du comité d’éthique du CNRS et responsable l’équipe ACASA du LIP6.
Concernant l’affaire Facebook, cet expert estime que la proposition faite par l’IA de présenter d’autres images de « primates » n’était pas volontaire. « Le modèle d’apprentissage s’appuie peut-être sur trop peu d’images de personnes de couleur. Mais différents facteurs peuvent perturber le résultat de l’IA : la réflexion de la lumière sur la peau noire n’est pas la même que sur la peau blanche, par exemple ».
IA et induction
De nombreux outils s’appuient sur des données passées pour construire des règles générales, c’est ce qui se produit avec la reconnaissance faciale ou la reconnaissance de posture par exemple. C’est ce qu’on appelle l’induction (raisonnement du particulier au général). « Les philosophes ont démontré depuis très longtemps que le passé ne peut pas définir l’avenir. Plus on a d’éléments pour induire, plus on va se rapprocher de la certitude, mais il peut toujours y avoir quelque chose d’erroné. C’est la raison pour laquelle ce n’est pas la machine qui a – ou qui doit avoir – le dernier mot ; c’est à l’opérateur de prendre la décision finale », rappelle Jean-Gabriel Ganascia.
Dans l'actualité
- L’Europe se rêve leader de l’intelligence artificielle « digne de confiance »
- Grâce à l’intelligence artificielle, les formations deviennent plus personnalisées
- Développer des boîtes quantiques sur mesure, en moins d’une heure grâce à l’intelligence artificielle
- L’Intelligence artificielle n’est pas objective !
- Facebook risque-t-il une amende de 2,9 milliards d’euros ?
Dans les ressources documentaires