Aude Bernheim, chercheuse à l’INSERM, et Flora Vincent, chercheuse au Weizmann Institute of Science en Israël, se sont attelées à comprendre pourquoi les intelligences artificielles n’étaient pas équitables dans leur livre L’intelligence artificielle, pas sans elles ! Ces biologistes se sont intéressées à l’IA dans le cadre de l’association WAX Science qu’elles ont cofondée pour promouvoir la science et la mixité. « Nous nous sommes toujours intéressées aux liens qui pouvaient être établis entre les sciences et technologies, et les problématiques de parité, explique Flora Vincent. Rapidement, nous nous sommes aperçues qu’il existait un gros problème sur la prise en compte des variables de sexe et de genre dans la façon même de faire de la recherche. Or, mieux intégrer ces variables dans les sciences et technologies les améliore en les rendant plus inclusives ; on appelle ça les ‘gendered innovations‘. » Et elles constatent les mêmes dysfonctionnements dans l’intelligence artificielle. « Il existe des logiciels de reconnaissance faciale qui fonctionnent beaucoup mieux pour les hommes blancs que pour les femmes noires ou des logiciels de recrutement qui jettent systématiquement les CV féminins », ajoute Aude Bernheim.
En cause ? Les biais de genre. « Personne ne se dit en amont ‘Je vais créer un algorithme sexiste’ mais pourtant, il existe de nombreux biais qui mènent à ce résultat », rappelle Flora Vincent. Et ces biais se retrouvent à chaque étape de la création d’un algorithme. D’abord, dans la définition de l’objectif, qui peut être vu différemment par les hommes et par les femmes. Puis, dans l’entraînement de l’algorithme sur des bases de données déjà biaisées : certains profils ou secteurs sont surreprésentés et d’autres complètement absents. Ainsi, un algorithme de reconnaissance faciale sera plus performant pour reconnaître les hommes blancs parce que les photos d’hommes blancs sont beaucoup plus nombreuses dans la base de données initiale. L’algorithme reproduit des inégalités déjà présentes dans la société. Enfin, la réutilisation de codes par les développeurs fait que ces biais sont perpétués et que les erreurs se propagent.
Des IA plus équitables
Des solutions existent cependant, dont la principale : former les développeurs et développeuses à la question des biais et de l’égalité. Mais aussi former les spécialistes en égalité au numérique et à l’intelligence artificielle pour qu’ils soient plus vigilants. Avoir des équipes mixtes est également une manière de varier les points de vue et de restreindre les biais personnels de chacun.
L’intelligence artificielle pourrait d’ailleurs être au service de l’égalité. « L’intelligence artificielle est un outil formidable qui pourrait nous aider à corriger les inégalités », s’enthousiasme Flora Vincent. Elle peut être utilisée pour sélectionner un certain pourcentage de CV féminins lors d’un recrutement. « D’une part, on peut utiliser l’IA pour détecter les biais, pour quantifier la parole dans les films par exemple, et d’autre part, utiliser le potentiel de l’IA pour créer des choses, des biographies de femmes sur Wikipédia par exemple », raconte Flora Vincent.
Dans l'actualité
- L’Intelligence artificielle n’est pas objective !
- L’intelligence artificielle : entre excitation et éthique
- Au Japon, la pénurie des ressources humaines en sciences met en péril les avancées en intelligence artificielle
- Innovantes #2 : Lutter contre les biais de genre dans l’innovation
- L’intrapreneuriat, un nouvel écosystème pour l’innovation
- Le Machine learning et le Deep learning optimisent les données des entreprises
- La qualité des données et le manque de profils : les principaux défis des entreprises
- Innovantes #1 : Un pancréas bioartificiel pour traiter le diabète de type 1
- Innovantes, les vidéos de femmes scientifiques à l’origine de technologies novatrices
- Innovantes #4 : Fabriquer des diamants en laboratoire
- Le meilleur de la tech #2
- Grâce à l’intelligence artificielle, les formations deviennent plus personnalisées
- Quelles initiatives promeuvent la place des femmes dans les métiers scientifiques ?
- Techniques de l’Ingénieur partenaire du concours Ingénieuses
- Innovantes #5 : Déployer des ballons à l’hélium sur des sites isolés
- Véhicules autonomes : les risques liés à la cybersécurité doivent être mieux pris en compte
- Innovantes #6 : Une solution digitale pour la déconstruction
- Innovantes #7 : Evaluer la toxicité de produits sans passer par l’animal
- ChatGPT et les biais discriminatoires : peut mieux faire !
- Biais algorithmiques : la sensibilisation commence dès la formation