Présentation
EnglishRÉSUMÉ
Sans une réelle explicabilité des algorithmes proposés, les technologies d’Intelligence artificielle et d’apprentissage profond sont une boîte noire pour les utilisateurs. Les ingénieurs exploitants et concepteurs d’outils d’IA doivent donc faire preuve de responsabilité, en fournissant des algorithmes permettant de garantir l’explicabilité des modèles proposés. Cet article présente les motivations d’une IA explicable, les principales caractéristiques du paysage conceptuel de l’explicabilité en IA, les grandes familles de méthodes pour l’explicabilité - avec un focus sur quelques méthodes parmi les plus courantes, pour finir sur un aperçu des opportunités, challenges et perspectives de ce domaine passionnant de l’interaction homme-machine.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
Daniel RACOCEANU : Professeur des Universités, HDR, PhD, M. Sc., Ing. Dipl. - Sorbonne Université, Institut du Cerveau – Paris Brain Institute – ICM, CNRS, Inria, Inserm, AP-HP, Hôpital de la Pitié Salpêtrière, F-75013, Paris, France
-
Mehdi OUNISSI : Chercheur, M. Sc. - Sorbonne Université, Sorbonne Center for Artificial Intelligence (SCAI), Institut du Cerveau – Paris Brain Institute – ICM, CNRS, Inria, Inserm, AP-HP, Hôpital de la Pitié Salpêtrière, F-75013, Paris, France
-
Yannick L. KERGOSIEN : Professeur Honoraire des Universités, HDR, MD - Université de Cergy-Pontoise, Cergy, France
INTRODUCTION
L’Intelligence Artificielle (IA) moderne connaît un essor sans précédent depuis une décennie. De nombreux domaines applicatifs trouvent ainsi une dynamique nouvelle, grâce à ces technologies révolutionnaires. Cependant, l’adoption de ces techniques se trouve très souvent limitée par le manque d’éléments de traçabilité et de retour d’expérience vis-à-vis des experts. Ceux-ci se sentent donc frustrés de par ce manque de retour, alors que la mise en place même de l’outil leur demande de fournir un effort considérable de formalisation et de mise à disposition d’une expertise colossale. Certains auteurs parlent donc d’une tendance « boîte noire » (black-box évolution), peu souhaitable pour une utilisation traçable, interprétable, explicable et, ultimement, responsable de ces outils.
Le besoin d’explications quant à la manière dont un système intelligent opère est d’autant plus important que les performances du système dépassent – au moins dans un domaine spécialisé – les capacités humaines, et cette question a été abordée dès l’époque des systèmes experts. Les récents systèmes d’apprentissage profond (Deep Learning – DL) peuvent atteindre des performances étonnantes et leur grand nombre de paramètres rend d’autant plus difficile la compréhension des solutions auxquelles ils parviennent, quand bien même ces paramètres sont tous accessibles. Cependant, l’actualité du sujet de l’explicabilité pour les systèmes intelligents vient moins de véritables percées – encore attendues – dans la résolution de ce problème que de la nouveauté juridique – qui s’impose en particulier aux acteurs de l’IA – que constitue l’inclusion dans le Règlement Général sur la Protection des Données (RGPD, règlement européen) d’obligations d’explications pour le traitement automatique de données personnelles. Nous adoptons donc une démarche technologique traditionnelle à un domaine très mobile et proposons, à côté d’exemples, un cadre conceptuel guidant l’approche du praticien dans la recherche de solutions.
DOI (Digital Object Identifier)
CET ARTICLE SE TROUVE ÉGALEMENT DANS :
Accueil > Ressources documentaires > Technologies de l'information > Technologies logicielles Architectures des systèmes > Intelligence artificielle > Explicabilité en Intelligence Artificielle ; vers une IA Responsable - Instanciation dans le domaine de la santé > Motivations d’une intelligence artificielle explicable
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
1. Motivations d’une intelligence artificielle explicable
Durant la dernière décennie, du point de vue conceptuel, une tendance évidente se fait remarquer dans la littérature liée à l’intelligence artificielle. Il est ainsi intéressant de noter le besoin latent de modèles d’IA interprétables au fil du temps (ce qui est conforme à l’intuition, car l’interprétabilité est une exigence dans de nombreux domaines). Ce n’est par contre qu’à partir de 2017-2018 que l’intérêt pour les techniques d’explication des modèles d’IA s’est répandu dans la communauté scientifique et R&D (figure 1)
1.1 Définition de l’Intelligence Artificielle eXplicable (XAI)
L’intelligence artificielle explicable (en anglais « eXplainable Artificial Intelligence » – XAI) est un ensemble de méthodes et de processus permettant aux utilisateurs de comprendre les hypothèses, le principe de fonctionnement, les résultats et les conclusions générés par les algorithmes d’apprentissage automatique. L’objectif est de faciliter ainsi la prise de conscience et la cristallisation d’une confiance opérationnelle et à long terme, dans ces technologies. L’IA explicable est capable de décrire le modèle d’IA utilisé, l’impact attendu ainsi que ses biais potentiels. Elle aide à caractériser l’exactitude, la transparence, l’équité, l’éthique et les résultats des modèles dans la prise de décision assistée par l’IA. Pour une entreprise ou une organisation, l’explicabilité de l’IA est essentielle pour être en mesure d’instaurer la confiance lors de la mise en production ainsi que la maintenance de systèmes d’IA. Enfin, l’explicabilité de l’IA aide également une entreprise / organisation à adopter une approche d’IA responsable.
HAUT DE PAGE1.2 Intérêt des entrepreneurs pour l’intelligence artificielle explicable
1.2.1 Bâtir la confiance en IA à travers l’explicabilité
Il est essentiel qu’une...
TEST DE VALIDATION ET CERTIFICATION CerT.I. :
Cet article vous permet de préparer une certification CerT.I.
Le test de validation des connaissances pour obtenir cette certification de Techniques de l’Ingénieur est disponible dans le module CerT.I.
de Techniques de l’Ingénieur ! Acheter le module
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Motivations d’une intelligence artificielle explicable
BIBLIOGRAPHIE
-
(1) - WANG (J.) et al - Learning Credible Models. - In : Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (juill. 2018). arXiv : 1711.03190, p. 2417-2426. doi : 10.1145/3219819. 3220070. URL : http://arxiv.org/ abs/1711.03190 (visité le 16/09/2021).
-
(2) - HOFFMAN (R.R.) et al - Metrics for Explainable AI : Challenges and Prospects. - In : CoRR abs/1812.04608 (2018). arXiv : 1812. 04608. URL : http://arxiv.org/abs/1812.04608.
-
(3) - MOHSENI (S.), ZAREI (N.), RAGAN (E.D.) - A Survey of Evaluation Methods and Measures for Interpretable Machine Learning. - In : CoRR abs/1811.11839 (2018). arXiv : 1811.11839. URL : http://arxiv.org/abs/1811.11839.
-
(4) - Executive Office of the PRESIDENT, HOLDEN (J.P.M.), SMITH - Preparing for the future of artificial intelligence. - In : (2016).
-
(5) - VILLANI (C.) et al - Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne. - In :...
Proposition de RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL ÉTABLISSANT DES RÈGLES HARMONISÉES CONCERNANT L’INTELLIGENCE ARTIFICIELLE (LÉGISLATION SUR L’INTELLIGENCE ARTIFICIELLE) ET MODIFIANT CERTAINS ACTES LÉGISLATIFS DE L’UNION. Bruxelles, le 21.4.2021.
HAUT DE PAGE
Royal Society – Projets
https://royalsociety.org/topics-policy/projects
IBM-Explainable AI
https://www.ibm.com/fr-fr/watson/explainable-ai
Kaggle
Dagitty
HAUT DE PAGECet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
QUIZ ET TEST DE VALIDATION PRÉSENTS DANS CET ARTICLE
1/ Quiz d'entraînement
Entraînez vous autant que vous le voulez avec les quiz d'entraînement.
2/ Test de validation
Lorsque vous êtes prêt, vous passez le test de validation. Vous avez deux passages possibles dans un laps de temps de 30 jours.
Entre les deux essais, vous pouvez consulter l’article et réutiliser les quiz d'entraînement pour progresser. L’attestation vous est délivrée pour un score minimum de 70 %.
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive