Les fondamentaux

Connaître les enjeux d’une IA éthique et durable

Posté le 28 novembre 2024
par La rédaction
dans Informatique et Numérique

De plus en plus, le potentiel des outils d’intelligence artificielle (IA) générative comme ChatGPT devient accessible au grand public. Cependant, parce qu’ils ne sont pas toujours maîtrisés, leur développement soulève un certain nombre de questions, notamment éthiques, et par-là même des critiques. Les entreprises, soucieuses des enjeux en termes d’images, mais aussi de réglementations futures, devront intégrer cette dimension éthique dans leur utilisation de l’IA.

Un extrait de « Éthique de l’intelligence artificielle : vue d’ensemble », par Dr Johan ROCHEL

L’éthique pose la question des valeurs et principes dans la conception, la réalisation, l’utilisation et la régulation d’outils. De nos jours, ces questions de valeurs et principes sont en pleine extension, particulièrement dans le numérique avec l’émergence de l’intelligence artificielle. C’est ainsi que les entreprises intègrent de plus en plus une dimension éthique dans leurs processus internes afin, d’une part de gagner une bonne réputation, d’autre part de ne pas abîmer la confiance de leurs clients et partenaires.

Le « prix » de l’IA

Un outil d’IA est élaboré à partir d’un modèle reposant sur un ou plusieurs algorithmes réalisant des opérations statistiques et mathématiques. Ces opérations portent en effet sur l’identification de certaines données, la structuration d’un ensemble selon certains critères, des modèles de langage acquis après analyse d’un immense corpus de textes. Elles s’appuient sur un apprentissage machine (le machine learning) décliné en plusieurs méthodes.

Dans l’approche supervisée, l’IA se voit proposer des catégories connues d’avance et un résultat correct. La machine apprend ainsi à reconnaître des caractéristiques lui permettant d’aboutir à un résultat. En approche non supervisée, telle qu’on la retrouve avec ChatGPT, la machine cherche à repérer des liens au sein de millions de données, en analyse le contexte puis en déduit des régularités statistiques pour proposer le terme le plus plausible. Cette approche présente des défis importants puisqu’elle peut faire apparaître des liens statistiques n’ayant pas de sens entre plusieurs types de données, dont la qualité doit être un point d’importance.

L’intervention humaine a donc ici toute sa place pour corriger des résultats non satisfaisants.

Les mesures d’entraînement nécessitent par ailleurs un investissement humain considérable, parfois au détriment de ceux qui effectuent les vérifications, quand elles sont confiées à des sous-traitants œuvrant dans des conditions de travail invérifiables. Parfois vue comme une menace pour certains emplois, l’IA – et particulièrement ChatGPT – est en outre souvent représentée comme une personne, une conception renforcée par les illustrations qui dotent l’IA d’attributs humains.

Les biais induits par le caractère automatique associé à une utilisation à des fins de décision sont une autre problématique de l’outil. En effet, dès lors que les données sont définies par l’homme, les résultats générés peuvent subir l’influence des choix déterminés au préalable.

Enfin, le coût environnemental de l’IA n’est pas neutre puisque son fonctionnement s’appuie sur des centres de données énergivores, un coût qu’il conviendra de mettre en balance au regard des avantages et inconvénients induits.

Les défis de l’éthique

L’éthique s’intéresse aux choix faits en matière d’IA et à leur justification. Elle interroge l’ensemble de la chaîne de conception, la création, l’utilisation et la régulation d’outils. Elle pose la question du bien décider et du bien agir à l’aune des valeurs, qu’elles soient décisionnelles, économiques, ou encore réglementaires.

D’autres valeurs doivent également être réfléchies, par exemple en imaginant l’impact de l’IA sur les sociétés et la manière dont elle influencera et modifiera les comportements. Les citoyens doivent, à ce stade, faire preuve de vigilance, d’autant que tous ne bénéficient pas du même accès au numérique.

Il conviendra notamment de s’interroger sur la manière dont s’effectuent la collecte et l’utilisation des données, leur suppression et leur protection. Le RGPD, en Europe, et la notion de consentement de cette collecte sont nés de cette réflexion.

La nature des données proposées à l’IA, qu’elles portent sur le genre ou soient ethniques, est également un point de vigilance, tant ces données peuvent être à l’origine de biais discriminatoires dans les résultats attendus.

Utiliser l’IA sans risquer d’être manipulé, en connaissant tous les enjeux, est donc une nécessité absolue.

Ce qu’en dit l’Union européenne

L’Union européenne tente de réguler numériquement l’usage de l’IA afin de le rendre plus éthique. C’est ainsi qu’est né le RGPD, destiné à permettre une protection des données et à limiter les risques auxquels pourraient être confrontés les utilisateurs.

Les tentatives d’influence, l’exploitation de vulnérabilités ou encore le classement de fiabilité sociale sont proscrits. L’usage de la biométrie fait, pour sa part, l’objet de conditions strictes portant notamment sur la transparence des données, le contrôle par l’humain ou encore la cybersécurité.

Enfin, l’UE souhaite l’adoption d’un code de conduite en matière d’impact environnemental, d’accessibilité pour les personnes handicapées ou de diversité des différents acteurs de la chaîne de développement.

L’AI Act

Adopté en juillet 2024 par l’Union européenne, l’AI Act a pour objectif de réguler les produits d’intelligence artificielle commercialisés sur le marché européen. Il doit ainsi permettre de garantir la sécurité des biens et des personnes, la protection des droits fondamentaux, de la vie privée et des données personnelles. Il s’appuie sur des valeurs de non-discrimination, de transparence, de responsabilité, et affirme le respect des valeurs démocratiques européennes.

Les systèmes d’IA autorisés, classés selon cinq niveaux de risque en fonction de l’usage prévu de la technologie, obtiennent le « marquage CE ».

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 12 décembre 2024 !

Éthique de l’intelligence artificielle : vue d’ensemble, par Dr Johan ROCHEL


Cet article se trouve dans le dossier :

Encadrer le développement de l'intelligence artificielle pour favoriser une innovation responsable

Intelligence artificielle : Des innovations et des risques
Les ingénieurs face à l’IA : entre éthique et responsabilités
Des IA présentes dans toute l’industrie
L’impact environnemental de l’intelligence artificielle
Pour aller plus loin
Pour aller plus loin