Un extrait de « Éthique de l’intelligence artificielle : vue d’ensemble », par Dr Johan ROCHEL
L’éthique pose la question des valeurs et principes dans la conception, la réalisation, l’utilisation et la régulation d’outils. De nos jours, ces questions de valeurs et principes sont en pleine extension, particulièrement dans le numérique avec l’émergence de l’intelligence artificielle. C’est ainsi que les entreprises intègrent de plus en plus une dimension éthique dans leurs processus internes afin, d’une part de gagner une bonne réputation, d’autre part de ne pas abîmer la confiance de leurs clients et partenaires.
Le « prix » de l’IA
Un outil d’IA est élaboré à partir d’un modèle reposant sur un ou plusieurs algorithmes réalisant des opérations statistiques et mathématiques. Ces opérations portent en effet sur l’identification de certaines données, la structuration d’un ensemble selon certains critères, des modèles de langage acquis après analyse d’un immense corpus de textes. Elles s’appuient sur un apprentissage machine (le machine learning) décliné en plusieurs méthodes.
Dans l’approche supervisée, l’IA se voit proposer des catégories connues d’avance et un résultat correct. La machine apprend ainsi à reconnaître des caractéristiques lui permettant d’aboutir à un résultat. En approche non supervisée, telle qu’on la retrouve avec ChatGPT, la machine cherche à repérer des liens au sein de millions de données, en analyse le contexte puis en déduit des régularités statistiques pour proposer le terme le plus plausible. Cette approche présente des défis importants puisqu’elle peut faire apparaître des liens statistiques n’ayant pas de sens entre plusieurs types de données, dont la qualité doit être un point d’importance.
L’intervention humaine a donc ici toute sa place pour corriger des résultats non satisfaisants.
Les mesures d’entraînement nécessitent par ailleurs un investissement humain considérable, parfois au détriment de ceux qui effectuent les vérifications, quand elles sont confiées à des sous-traitants œuvrant dans des conditions de travail invérifiables. Parfois vue comme une menace pour certains emplois, l’IA – et particulièrement ChatGPT – est en outre souvent représentée comme une personne, une conception renforcée par les illustrations qui dotent l’IA d’attributs humains.
Les biais induits par le caractère automatique associé à une utilisation à des fins de décision sont une autre problématique de l’outil. En effet, dès lors que les données sont définies par l’homme, les résultats générés peuvent subir l’influence des choix déterminés au préalable.
Enfin, le coût environnemental de l’IA n’est pas neutre puisque son fonctionnement s’appuie sur des centres de données énergivores, un coût qu’il conviendra de mettre en balance au regard des avantages et inconvénients induits.
Les défis de l’éthique
L’éthique s’intéresse aux choix faits en matière d’IA et à leur justification. Elle interroge l’ensemble de la chaîne de conception, la création, l’utilisation et la régulation d’outils. Elle pose la question du bien décider et du bien agir à l’aune des valeurs, qu’elles soient décisionnelles, économiques, ou encore réglementaires.
D’autres valeurs doivent également être réfléchies, par exemple en imaginant l’impact de l’IA sur les sociétés et la manière dont elle influencera et modifiera les comportements. Les citoyens doivent, à ce stade, faire preuve de vigilance, d’autant que tous ne bénéficient pas du même accès au numérique.
Il conviendra notamment de s’interroger sur la manière dont s’effectuent la collecte et l’utilisation des données, leur suppression et leur protection. Le RGPD, en Europe, et la notion de consentement de cette collecte sont nés de cette réflexion.
La nature des données proposées à l’IA, qu’elles portent sur le genre ou soient ethniques, est également un point de vigilance, tant ces données peuvent être à l’origine de biais discriminatoires dans les résultats attendus.
Utiliser l’IA sans risquer d’être manipulé, en connaissant tous les enjeux, est donc une nécessité absolue.
Ce qu’en dit l’Union européenne
L’Union européenne tente de réguler numériquement l’usage de l’IA afin de le rendre plus éthique. C’est ainsi qu’est né le RGPD, destiné à permettre une protection des données et à limiter les risques auxquels pourraient être confrontés les utilisateurs.
Les tentatives d’influence, l’exploitation de vulnérabilités ou encore le classement de fiabilité sociale sont proscrits. L’usage de la biométrie fait, pour sa part, l’objet de conditions strictes portant notamment sur la transparence des données, le contrôle par l’humain ou encore la cybersécurité.
Enfin, l’UE souhaite l’adoption d’un code de conduite en matière d’impact environnemental, d’accessibilité pour les personnes handicapées ou de diversité des différents acteurs de la chaîne de développement.
L’AI Act
Adopté en juillet 2024 par l’Union européenne, l’AI Act a pour objectif de réguler les produits d’intelligence artificielle commercialisés sur le marché européen. Il doit ainsi permettre de garantir la sécurité des biens et des personnes, la protection des droits fondamentaux, de la vie privée et des données personnelles. Il s’appuie sur des valeurs de non-discrimination, de transparence, de responsabilité, et affirme le respect des valeurs démocratiques européennes.
Les systèmes d’IA autorisés, classés selon cinq niveaux de risque en fonction de l’usage prévu de la technologie, obtiennent le « marquage CE ».
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 12 décembre 2024 !
Éthique de l’intelligence artificielle : vue d’ensemble, par Dr Johan ROCHEL
Cet article se trouve dans le dossier :
Encadrer le développement de l'intelligence artificielle pour favoriser une innovation responsable
- Agents autonomes : l'IA en roue libre ?
- Comment l'Union européenne compte encadrer l'intelligence artificielle
- « Il nous faut une législation agile pour s’adapter au mieux à cette technologie - l’IA - que l’on ne capte pas encore parfaitement »
- « Il faut bien avoir à l’esprit que les IA ne sont pas des logiciels comme les autres »
- Peut-on concevoir des algorithmes réellement éthiques ?
- Les nouvelles technologies seront plus autonomes et respectueuses de la vie privée
- Les ingénieurs face à la vague de l’IA
- L’IA au travail : un assistant ou un danger pour notre emploi ?
- Spore.bio accélère les tests bactériologiques
- Écoutez notre podcast Cogitons Sciences : Intégrer l’IA dans votre entreprise, pour un usage utile et raisonné [L’IA s’invite dans nos métiers #2]
- Des mondes virtuels aux impacts environnementaux bien réels
- Un référentiel pour mesurer et réduire l'impact environnemental de l'IA
- Un nouveau système d'intelligence artificielle autoalimenté à l'énergie solaire
- Les thèses du mois : "Encadrer le développement de l'intelligence artificielle pour favoriser une innovation responsable"
- Connaître les enjeux d’une IA éthique et durable
Dans l'actualité
- Sibylle Marcotte : plongée dans les arcanes des réseaux de neurones
- L’IA générative recherche sa « killer app »
- Podcast Cogitons Sciences : l’IA s’invite dans nos métiers
- Écoutez notre podcast Cogitons Sciences : Intégrer l’IA dans votre entreprise, pour un usage utile et raisonné [L’IA s’invite dans nos métiers #2]
- Écoutez notre podcast Cogitons Sciences : Comment l’IA révolutionne notre façon de travailler ? [L’IA s’invite dans nos métiers #1]
- Félix Tréguer : “La surveillance croit largement avec les techniques d’IA”
- Racistes, sexistes, classistes : comment les biais algorithmiques creusent les inégalités ?
- AI Act : L’Europe montre la voie vers un contrôle plus strict
- Agents autonomes : l’IA en roue libre ?
- Comment l’Union européenne compte encadrer l’intelligence artificielle
Dans les ressources documentaires
- Cadre juridique européen de l’intelligence artificielle
- Protection des données personnelles dans le système d’information
- Anonymisation des données, une nécessité à l’ère du RGPD
- Management de l’éthique
- Simulation numérique et apprentissage machine - Apports de l’intelligence artificielle aux modélisations