Dans sa série Innovantes, Techniques de l’Ingénieur rencontre des chercheuses, entrepreneuses, ingénieures à l’origine d'innovations technologiques. Aude Bernheim et Flora Vincent ont co-écrit le livre «L’intelligence artificielle, pas sans elles !» et reviennent sur les inégalités reproduites par l’IA.
Aude Bernheim, chercheuse à l’INSERM, et Flora Vincent, chercheuse au Weizmann Institute of Science en Israël, se sont attelées à comprendre pourquoi les intelligences artificielles n’étaient pas équitables dans leur livre L’intelligence artificielle, pas sans elles ! Ces biologistes se sont intéressées à l’IA dans le cadre de l’association WAX Science qu’elles ont cofondée pour promouvoir la science et la mixité. « Nous nous sommes toujours intéressées aux liens qui pouvaient être établis entre les sciences et technologies, et les problématiques de parité, explique Flora Vincent. Rapidement, nous nous sommes aperçues qu’il existait un gros problème sur la prise en compte des variables de sexe et de genre dans la façon même de faire de la recherche. Or, mieux intégrer ces variables dans les sciences et technologies les améliore en les rendant plus inclusives ; on appelle ça les ‘gendered innovations‘. » Et elles constatent les mêmes dysfonctionnements dans l’intelligence artificielle. « Il existe des logiciels de reconnaissance faciale qui fonctionnent beaucoup mieux pour les hommes blancs que pour les femmes noires ou des logiciels de recrutement qui jettent systématiquement les CV féminins », ajoute Aude Bernheim.
En cause ? Les biais de genre. « Personne ne se dit en amont ‘Je vais créer un algorithme sexiste’ mais pourtant, il existe de nombreux biais qui mènent à ce résultat », rappelle Flora Vincent. Et ces biais se retrouvent à chaque étape de la création d’un algorithme. D’abord, dans la définition de l’objectif, qui peut être vu différemment par les hommes et par les femmes. Puis, dans l’entraînement de l’algorithme sur des bases de données déjà biaisées : certains profils ou secteurs sont surreprésentés et d’autres complètement absents. Ainsi, un algorithme de reconnaissance faciale sera plus performant pour reconnaître les hommes blancs parce que les photos d’hommes blancs sont beaucoup plus nombreuses dans la base de données initiale. L’algorithme reproduit des inégalités déjà présentes dans la société. Enfin, la réutilisation de codes par les développeurs fait que ces biais sont perpétués et que les erreurs se propagent.
Des IA plus équitables
Des solutions existent cependant, dont la principale : former les développeurs et développeuses à la question des biais et de l’égalité. Mais aussi former les spécialistes en égalité au numérique et à l’intelligence artificielle pour qu’ils soient plus vigilants. Avoir des équipes mixtes est également une manière de varier les points de vue et de restreindre les biais personnels de chacun.
L’intelligence artificielle pourrait d’ailleurs être au service de l’égalité. « L’intelligence artificielle est un outil formidable qui pourrait nous aider à corriger les inégalités », s’enthousiasme Flora Vincent. Elle peut être utilisée pour sélectionner un certain pourcentage de CV féminins lors d’un recrutement. « D’une part, on peut utiliser l’IA pour détecter les biais, pour quantifier la parole dans les films par exemple, et d’autre part, utiliser le potentiel de l’IA pour créer des choses, des biographies de femmes sur Wikipédia par exemple », raconte Flora Vincent.
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE