Le RIA constitue l’aboutissement d’un long labeur destiné à encadrer les mises sur le marché de produits à base d’intelligence artificielle.
La proposition de texte relative à ce règlement avait initialement été publiée en 2021 par la Commission européenne, avec la volonté d’offrir aux Européens un cadre où ils peuvent utiliser l’IA en toute confiance. Aussi, ce cadre règlementaire vise à permettre à l’écosystème européen autour de l’intelligence artificielle d’être performant et compétitif au niveau mondial. En ce sens, il vient compléter le Plan coordonné sur l’IA, initié en 2018 et modifié en 2021. Ce plan vise à mettre en oeuvre une stratégie coordonnée entre la Commission et les Etats membres, pour d’une part accélérer les investissements dans les technologies de l’intelligence artificielle et être proactif en termes de timing sur les programmes dédiés à l’IA avec la volonté d’être les premiers adoptants, avec tous les avantages que cela procure. Et d’autre part aligner les politiques européennes en matière d’IA, ceci avant tout pour éviter les risques de fragmentation du marché et des écosystèmes de chaque pays autour de cette technologie, ce qui aurait pour conséquence directe une fragilité globale du Vieux continent sur tous ce qui touche à l’intelligence artificielle.
Revenons sur le RIA, adopté en juin de cette année. Quels sont ses objectifs ? Au-delà de garantir que les produits à base d’IA mis sur le marché respectent les droits fondamentaux, plusieurs objectifs sont poursuivis.
D’abord, les droits fondamentaux ne sont pas les seules lignes rouges. Ainsi, les valeurs de l’UE, l’Etats de droit, et la durabilité environnementale font aussi office de garde-fou pour évaluer si les modèles d’IA concernés peuvent être autorisés ou non. En ce qui concerne l’aspect environnemental, il est aujourd’hui souligné par de nombreux acteurs de la recherche (voir un exemple d’étude ici) que les systèmes d’IA sont extrêmement énergivores, et vont l’être de plus en plus. Dans le texte du RIA, l’aspect durabilité renvoie « au fait que les systèmes d’IA sont développés et utilisés d’une manière durable et respectueuse de l’environnement, mais aussi de manière à ce que tous les êtres humains en profitent, tout en surveillant et en évaluant les effets à long terme sur l’individu, la société et la démocratie. »
Ensuite, le cadre insiste sur la confiance et le fait que l’IA soit axée sur l’humain. La confiance est un sujet sensible en intelligence artificielle, qui va souvent de pair avec l’explicabilité des IA. En effet, comment assurer que l’on peut avoir confiance en l’intelligence artificielle si l’on est pas capable de comprendre comment cette dernière fonctionne ? En ce qui concerne la nécessité d’axer l’IA sur l’humain et leur “bien-être”, l’objectif est flou, résumé tel quel dans le texte : « Il est indispensable que l’IA soit une technologie axée sur l’humain. Elle devrait servir d’outil aux personnes, dans le but ultime d’accroître le bien-être des humains ». Une IA sert les humains si elle accomplit des tâches – complexes, peu épanouissantes, répétitives… – à leur place, mais l’est-elle si elle les met au chômage ?
Comme évoqué plus haut, le règlement vise également à garantir un cadre juridique uniformisé, dans le but de favoriser la sécurité des acteurs du secteur et leur capacité à innover et investir.
Dans cette même veine, le texte renforce la gouvernance et l’application effective de la législation existante en matière d’exigences de sécurité applicables aux systèmes d’IA et de droits fondamentaux.
Enfin, le texte doit empêcher la fragmentation du marché, ce qui apparaît plus que jamais comme une nécessité, au vu de la concurrence mondiale sur les produits à base d’IA, domaine dans lequel l’Europe accuse déjà un retard certain, sans compter les disruptions technologiques incessantes dans le secteur de l’IA.
Cet article se trouve dans le dossier :
Encadrer le développement de l'intelligence artificielle pour favoriser une innovation responsable
- Agents autonomes : l'IA en roue libre ?
- Comment l'Union européenne compte encadrer l'intelligence artificielle
- « Il nous faut une législation agile pour s’adapter au mieux à cette technologie - l’IA - que l’on ne capte pas encore parfaitement »
- « Il faut bien avoir à l’esprit que les IA ne sont pas des logiciels comme les autres »
- Peut-on concevoir des algorithmes réellement éthiques ?
- Les nouvelles technologies seront plus autonomes et respectueuses de la vie privée
- Les ingénieurs face à la vague de l’IA
- L’IA au travail : un assistant ou un danger pour notre emploi ?
- Spore.bio accélère les tests bactériologiques
- Écoutez notre podcast Cogitons Sciences : Intégrer l’IA dans votre entreprise, pour un usage utile et raisonné [L’IA s’invite dans nos métiers #2]
- Des mondes virtuels aux impacts environnementaux bien réels
- Un référentiel pour mesurer et réduire l'impact environnemental de l'IA
- Un nouveau système d'intelligence artificielle autoalimenté à l'énergie solaire
Dans l'actualité
- L’intelligence artificielle permettrait de prédire l’emballement thermique des batteries
- Un nouveau système d’intelligence artificielle autoalimenté à l’énergie solaire
- Vivatech : le salon où l’intelligence artificielle est reine
- Les tendances majeures de l’intelligence artificielle pour les ingénieurs en 2024
- Agents autonomes : l’IA en roue libre ?
- Les thèses du mois : « Encadrer le développement de l’intelligence artificielle pour favoriser une innovation responsable »
- « Il nous faut une législation agile pour s’adapter au mieux à cette technologie – l’IA – que l’on ne capte pas encore parfaitement »
- L’Europe pourra-t-elle valider son code de bonnes pratiques de l’IA ?
- Connaître les enjeux d’une IA éthique et durable
- OpenAI et Google ambitionnent d’être les leaders de l’IA
- L’IA et le droit d’auteur : un défi juridique