La Commission européenne s’attaque à l’opacité des algorithmes et souhaite assurer la bonne balance entre bénéficies et risques de l’intelligence artificielle (IA). À l’image du RGPD qui protège les données personnelles, l’Union européenne (UE) souhaite protéger les utilisateurs des nouveaux risques de l’IA liés à la sécurité et aux droits fondamentaux. L’UE souhaite devenir une source d’inspiration ailleurs dans le monde. « En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’UE », assure Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique, via communiqué.
Une approche inédite basée sur les risques
Première disposition de ce nouveau paquet qui doit encore être adopté par le Parlement européen et les États membres : une proposition de règlement établissant des règles harmonisées sur l’intelligence artificielle. Ce règlement s’appliquerait à tout système d’IA mis sur le marché dans l’UE ou dont l’utilisation a une incidence sur des personnes vivant dans l’UE. Il repose sur une approche fondée sur les risques selon quatre niveaux : inacceptable, élevé, limité et minimal. Pas question pour l’Europe d’autoriser les utilisations jugées inacceptables. La Commission vise les utilisations qui manipuleraient le comportement humain pour les priver de leur libre-arbitre. Elle y place tous les systèmes qui font peser « une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes ». Par exemple, elle cite les systèmes de notation sociale des États et s’interdit ainsi un système similaire au « système de crédit social » lancé en Chine. Dans un autre domaine, elle évoque des jouets à assistance vocale qui inciteraient des mineurs à avoir un comportement dangereux.
Des risques élevés à encadrer strictement
La commission identifie de nombreux systèmes à risque élevé. On y retrouve les technologies qui touchent aux infrastructures critiques comme celles liées aux transports, aux services privés et publics dit « essentiels » ou touchant à la sécurité des produits. Cette catégorie comprend aussi les technologies liées à l’éducation et à la formation professionnelle, au marché du travail, au maintien de l’ordre, à la gestion de la migration, de l’asile et des contrôles aux frontières, à la justice, et aux processus démocratiques. Leur mise sur le marché devra répondre à des « obligations strictes ». « Ces exigences portent sur la qualité des ensembles de données utilisés, la documentation technique et la tenue de registres, la transparence et la fourniture d’informations aux utilisateurs, le contrôle humain, ainsi que la robustesse, l’exactitude et la cybersécurité », détaille la Commission européenne.
Concrètement, à quoi peut ressembler un système d’IA à risque élevé ? Bruxelles évoque des systèmes permettant la notation d’épreuves d’examens, des systèmes intervenant dans la chirurgie assistée par robot ou encore les logiciels de tri des CV pour les procédures de recrutement. Il peut aussi s’agir de systèmes évaluant le risque de crédit privant certains citoyens de la possibilité d’obtenir un prêt ou encore vérifiant l’authenticité des documents de voyage.
Bruxelles met un coup de projecteur sur les systèmes biométriques. « Leur utilisation en temps réel dans l’espace public aux fins du maintien de l’ordre est en principe interdite », prévient la Commission européenne. Elle prévoit des dérogations en cas de recherche d’enfant disparu, de menace terroriste « spécifique et imminente » ou pour arrêter le suspect d’une infraction pénale grave. Toute dérogation devra être « soumise à des limitations appropriées concernant la durée, la portée géographique et les bases de données consultées », ajoute la Commission.
Du risque limité au risque minime
Il y a encore des systèmes où le risque est jugé limité. Il s’agit ici des cas où il existe un risque manifeste de manipulation. La Commission cite le cas des chatbots. Les utilisateurs doivent alors savoir qu’ils interagissent avec une machine « afin de pouvoir décider en connaissance de cause de poursuivre ou non ».
En bas de cette classification se trouve le risque minime. « La grande majorité des systèmes d’IA relèvent de cette catégorie », considère la Commission. Il s’agit par exemple des jeux vidéo ou des filtres anti-spam. Avec un risque considéré comme minime, voire nul, le projet de règlement ne prévoit aucune intervention pour cette catégorie.
Nouveau plan coordonné et règlement relatif aux machines et équipements
Le deuxième dispositif du paquet est la mise à jour du plan coordonné datant de 2018. Celui-ci jetait les bases d’une coordination des politiques et encourageait les États membres à élaborer des stratégies nationales en matière d’IA. La Commission en présente une version actualisée pour garantir un lien avec le Pacte Vert européen et le plan de relance pour renforcer les actions dans les domaines de l’environnement et de la santé. Enfin, le troisième dispositif concerne un projet de règlement sur les machines et équipements. Ce règlement vient compléter le règlement général sur l’IA en garantissant l’intégration sûre des systèmes d’IA dans les machines et équipements pour ne pas compromettre la sécurité des dispositifs dans leur ensemble.
Dans l'actualité
- Grâce à l’intelligence artificielle, les formations deviennent plus personnalisées
- Développer des boîtes quantiques sur mesure, en moins d’une heure grâce à l’intelligence artificielle
- Détecter des erreurs scientifiques grâce à l’intelligence artificielle
- Les odeurs du passé bientôt ressuscitées grâce à l’intelligence artificielle
- L’intelligence artificielle : entre excitation et éthique
- Cybersécurité : l’intelligence artificielle n’est pas l’arme fatale !
- Des carrefours plus fluides grâce à l’intelligence artificielle
- La start-up française Touch Sensity développe une technologie permettant un suivi en temps réel des matériaux
- Les dérives de la surveillance biométrique pointées du doigt
- Un bolide conçu par l’IA et assemblé par des robots
- Incendies de forêt : des capteurs sans fil pour sonner l’alarme au plus vite
- Comme les êtres humains, l’IA repère difficilement ses erreurs d’appréciation
- Prédire les risques de panne sur les lignes électriques grâce à l’IA
- Optimiser les villes grâce à l’IA hybride
- L’IA, une arme de dissuasion ?
- Reconnaissance faciale : une solution qui peut être détournée pour frauder
- Des mouchards sonores dans les rues d’Orléans
- Intelligence artificielle : un hackathon pour des applications industrielles
- L’intelligence artificielle au service d’une meilleure efficacité énergétique des stations d’épuration
- Protection des données personnelles : un bilan mitigé
- L’IA permettrait de repérer les stades précoces de maladies rares
- Burn-out : l’intelligence artificielle pourrait repérer plus facilement des premiers signes
- Grâce à l’IA, XXII analyse en temps réel les flux de vidéosurveillance
- La biométrie comportementale : la protection de notre identité numérique sans soucis !
- Anticiper les tsunamis grâce aux signaux gravitationnels et à l’IA
- Les modèles de machine learning victimes d’attaques informatiques
- REMIND, une solution 100% IA bientôt au service de l’industrie
- ChatGPT : l’IA franchit une étape majeure
- Biais algorithmiques : la sensibilisation commence dès la formation
Dans les ressources documentaires
- Éthique de l'ingénierie - Un champ émergent pour le développement professionnel
- Anonymisation des données, une nécessité à l’ère du RGPD
- Réalité virtuelle et application à la robotique
- La transformation digitale du marketing management
- Risques en cybersécurité de l’IoT - Panorama des principales menaces