L'Union européenne a décidé d’établir un nouveau cadre juridique visant à renforcer considérablement les réglementations relatives au développement et à l'utilisation de l'intelligence artificielle. Il s'agit de la première loi (AI Act) émanant d'une autorité de régulation majeure dans le monde. À l'instar du RGPD, cette loi pourrait devenir une norme mondiale.
ChatGPT : en quelques mois, les professionnels et les particuliers ont intégré cette intelligence artificielle dite « générative » lancée en novembre dernier par la start-up américaine OpenAI.
Juristes, développeurs de logiciels, médecins… Toutes les professions qui ne sont pas manuelles l’utilisent pour rédiger des rapports, des diagnostics ou encore des campagnes marketing. Même les collégiens et étudiants font appel à ses services pour leurs devoirs. Si le résultat d’une dissertation peut parfois surprendre par ses erreurs ou approximations, le recours à cette IA peut avoir des impacts forts sur les personnes et les entreprises.
D’où la législation proposée par l’UE. Son Artificial Intelligence (AI) Act se concentre principalement sur le renforcement des règles relatives à la qualité des données, à la transparence, à la surveillance humaine et à la responsabilité. Elle vise également à répondre aux questions éthiques et aux difficultés de mise en œuvre dans divers secteurs, allant des soins de santé et de l’éducation à la finance et à l’énergie.
Une définition encore trop large
« L’intelligence artificielle existe depuis des décennies, mais elle a atteint de nouvelles capacités grâce à la puissance de calcul », a déclaré Thierry Breton, commissaire européen chargé du marché intérieur, dans un communiqué. La loi sur l’intelligence artificielle vise à « renforcer la position de l’Europe en tant que pôle mondial d’excellence en matière d’IA, du laboratoire au marché, à garantir que l’IA en Europe respecte nos valeurs et nos règles, et à exploiter le potentiel de l’IA à des fins industrielles ».
Fin novembre 2022, le Conseil de l’UE a approuvé une version de compromis de la proposition de cette loi. Son texte considère désormais comme des pratiques d’IA interdites son utilisation à des fins d’évaluation sociale par des acteurs privés. De même, les systèmes d’IA qui exploitent les vulnérabilités d’un groupe spécifique de personnes, y compris les personnes vulnérables en raison de leur situation sociale ou économique.
Concrètement, les systèmes de notation sociale gérés par le gouvernement, comme ceux utilisés en Chine, sont interdits. Quant aux applications de balayage de CV, qui classe les candidats à l’emploi, elles sont soumises à des exigences légales spécifiques.
Les règles relatives à l’IA générative contenues dans le projet de législation constituent un pas dans la bonne direction. Mais la définition de l’IA elle-même semble encore trop large. Pour l’instant, elle inclut en effet tout « système basé sur une machine qui est conçu pour fonctionner avec des niveaux variables d’autonomie » capable de « générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels ».
La « règle ChatGPT », connue sous le nom d’art. 28b(4) AI Act EP Version, suscite également des interrogations. Ses obligations de transparence vont dans le bon sens, notamment en obligeant les fournisseurs de services d’IA à faire comprendre clairement aux utilisateurs qu’ils ont affaire à un système d’IA.
Cependant cette législation devrait également imposer certaines obligations à ceux qui génèrent du contenu d’IA en ligne, notamment pour aider à lutter contre la diffusion de fausses nouvelles et d’autres informations erronées.
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE