Présentation

Article interactif

1 - MOTIVATIONS D’UNE INTELLIGENCE ARTIFICIELLE EXPLICABLE

2 - PAYSAGE CONCEPTUEL DE L’EXPLICABILITÉ

  • 2.1 - Paradoxes de la transparence
  • 2.2 - Reproductibilité, auditabilité
  • 2.3 - Interprétabilité
  • 2.4 - Causalité
  • 2.5 - Explication et compréhension
  • 2.6 - Intelligence artificielle explicable

3 - GRANDES FAMILLES DE MÉTHODES POUR L’EXPLICABILITÉ

4 - AIDE À L’EXPLICATION : MÉTHODES, EXEMPLES

5 - PERSPECTIVES

6 - ABRÉVIATIONS

Article de référence | Réf : H5030 v1

Aide à l’explication : méthodes, exemples
Explicabilité en Intelligence Artificielle ; vers une IA Responsable - Instanciation dans le domaine de la santé

Auteur(s) : Daniel RACOCEANU, Mehdi OUNISSI, Yannick L. KERGOSIEN

Relu et validé le 29 févr. 2024

Pour explorer cet article
Télécharger l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !

Sommaire

Présentation

Version en anglais En anglais

RÉSUMÉ

Sans une réelle explicabilité des algorithmes proposés, les technologies d’Intelligence artificielle et d’apprentissage profond sont une boîte noire pour les utilisateurs. Les ingénieurs exploitants et concepteurs d’outils d’IA doivent donc faire preuve de responsabilité, en fournissant des algorithmes permettant de garantir l’explicabilité des modèles proposés. Cet article présente les motivations d’une IA explicable, les principales caractéristiques du paysage conceptuel de l’explicabilité en IA, les grandes familles de méthodes pour l’explicabilité - avec un focus sur quelques méthodes parmi les plus courantes, pour finir sur un aperçu des opportunités, challenges et perspectives de ce domaine passionnant de l’interaction homme-machine.

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

ABSTRACT

Explainability in Artificial Intelligence; towards Responsible AI

Essential for a good adoption, as well as for a wise and unbiased use, explicability is a real technology lock to

the evolution of Artificial Intelligence (AI), in particular concerning Machine and Deep Learning.

Without an effective explicability of the proposed algorithms, these techniques will remain a black box for users. Increasingly, engineers and designers of AI tools will have to demonstrate their responsibility by providing algorithms that guarantee the explicability of the proposed models. This article presents the motivations of an explainable AI, the main characteristics of the conceptual landscape of explainability in AI, the major families of explainability methods - with a focus on some of the most common methods, to finally present some of the opportunities, challenges and perspectives of this exciting field of human-machine interaction.

Auteur(s)

  • Daniel RACOCEANU : Professeur des Universités, HDR, PhD, M. Sc., Ing. Dipl. - Sorbonne Université, Institut du Cerveau – Paris Brain Institute – ICM, CNRS, Inria, Inserm, AP-HP, Hôpital de la Pitié Salpêtrière, F-75013, Paris, France

  • Mehdi OUNISSI : Chercheur, M. Sc. - Sorbonne Université, Sorbonne Center for Artificial Intelligence (SCAI), Institut du Cerveau – Paris Brain Institute – ICM, CNRS, Inria, Inserm, AP-HP, Hôpital de la Pitié Salpêtrière, F-75013, Paris, France

  • Yannick L. KERGOSIEN : Professeur Honoraire des Universités, HDR, MD - Université de Cergy-Pontoise, Cergy, France

INTRODUCTION

L’Intelligence Artificielle (IA) moderne connaît un essor sans précédent depuis une décennie. De nombreux domaines applicatifs trouvent ainsi une dynamique nouvelle, grâce à ces technologies révolutionnaires. Cependant, l’adoption de ces techniques se trouve très souvent limitée par le manque d’éléments de traçabilité et de retour d’expérience vis-à-vis des experts. Ceux-ci se sentent donc frustrés de par ce manque de retour, alors que la mise en place même de l’outil leur demande de fournir un effort considérable de formalisation et de mise à disposition d’une expertise colossale. Certains auteurs parlent donc d’une tendance « boîte noire » (black-box évolution), peu souhaitable pour une utilisation traçable, interprétable, explicable et, ultimement, responsable de ces outils.

Le besoin d’explications quant à la manière dont un système intelligent opère est d’autant plus important que les performances du système dépassent – au moins dans un domaine spécialisé – les capacités humaines, et cette question a été abordée dès l’époque des systèmes experts. Les récents systèmes d’apprentissage profond (Deep Learning – DL) peuvent atteindre des performances étonnantes et leur grand nombre de paramètres rend d’autant plus difficile la compréhension des solutions auxquelles ils parviennent, quand bien même ces paramètres sont tous accessibles. Cependant, l’actualité du sujet de l’explicabilité pour les systèmes intelligents vient moins de véritables percées – encore attendues – dans la résolution de ce problème que de la nouveauté juridique – qui s’impose en particulier aux acteurs de l’IA – que constitue l’inclusion dans le Règlement Général sur la Protection des Données (RGPD, règlement européen) d’obligations d’explications pour le traitement automatique de données personnelles. Nous adoptons donc une démarche technologique traditionnelle à un domaine très mobile et proposons, à côté d’exemples, un cadre conceptuel guidant l’approche du praticien dans la recherche de solutions.

Cet article est réservé aux abonnés.
Il vous reste 93% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

KEYWORDS

machine learning   |   deep learning   |   explainable artificial interlligence

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v1-h5030


Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(239 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Présentation
Version en anglais En anglais

4. Aide à l’explication : méthodes, exemples

4.1 Méthodes générales : valeurs de Shapley

HAUT DE PAGE

4.1.1 Définition

La valeur de Shapley a été décrite en 1953 par Shapley dans le contexte de la théorie des jeux coopératifs. Elle permet, un jeu étant défini, d’évaluer la contribution moyenne d’un participant aux gains permis par les diverses coalitions, et peut ainsi servir de base à une répartition des gains entre participants fondée sur une sorte de mérite. Avant de définir cette valeur plus formellement, rappelons que le problème qui nous occupe est, en vue d’en donner une explication, celui d’attribuer une décision à certains traits élémentaires (features). Par exemple, un diagnostic radiologique peut être attribué à une combinaison particulière de signes élémentaires observés au sein de l’image ; la décision de refus d’un prêt bancaire prend en compte certaines caractéristiques du demandeur. On assimile donc ces combinaisons de traits élémentaires à des coalitions, et on veut attribuer un certain mérite quantitatif quant au succès diagnostique à chacun des traits participants. Une des difficultés à laquelle se heurte l’approche statistique de ce problème est la présence possible, parmi les facteurs explicatifs disponibles, de plusieurs traits fortement corrélés, semblables à différents partenaires apportant le même avantage (par exemple la même information) à une coalition.

Un jeu coopératif à n joueurs est formalisé par l’ensemble = {1,…, n} ou ensemble des joueurs, par l’ensemble C des coalitions possibles, définies comme les parties non vides de E, donc au nombre de 2 n – 1, et par une fonction v qui attribue une valeur, nombre réel strictement positif, à chaque coalition. La valeur de Shapley est, elle aussi, une fonction, mais attribue...

Cet article est réservé aux abonnés.
Il vous reste 93% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

TEST DE VALIDATION ET CERTIFICATION CerT.I. :

Cet article vous permet de préparer une certification CerT.I.

Le test de validation des connaissances pour obtenir cette certification de Techniques de l’Ingénieur est disponible dans le module CerT.I.

Obtenez CerT.I., la certification
de Techniques de l’Ingénieur !
Acheter le module

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(239 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Aide à l’explication : méthodes, exemples
Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - WANG (J.) et al -   Learning Credible Models.  -  In : Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining (juill. 2018). arXiv : 1711.03190, p. 2417-2426. doi : 10.1145/3219819. 3220070. URL : http://arxiv.org/ abs/1711.03190 (visité le 16/09/2021).

  • (2) - HOFFMAN (R.R.) et al -   Metrics for Explainable AI : Challenges and Prospects.  -  In : CoRR abs/1812.04608 (2018). arXiv : 1812. 04608. URL : http://arxiv.org/abs/1812.04608.

  • (3) - MOHSENI (S.), ZAREI (N.), RAGAN (E.D.) -   A Survey of Evaluation Methods and Measures for Interpretable Machine Learning.  -  In : CoRR abs/1811.11839 (2018). arXiv : 1811.11839. URL : http://arxiv.org/abs/1811.11839.

  • (4) - Executive Office of the PRESIDENT, HOLDEN (J.P.M.), SMITH -   Preparing for the future of artificial intelligence.  -  In : (2016).

  • (5) - VILLANI (C.) et al -   Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne....

1 Dans la rubrique Lois

Proposition de RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL ÉTABLISSANT DES RÈGLES HARMONISÉES CONCERNANT L’INTELLIGENCE ARTIFICIELLE (LÉGISLATION SUR L’INTELLIGENCE ARTIFICIELLE) ET MODIFIANT CERTAINS ACTES LÉGISLATIFS DE L’UNION. Bruxelles, le 21.4.2021.

HAUT DE PAGE

2 Sites Internet

Royal Society – Projets

https://royalsociety.org/topics-policy/projects

IBM-Explainable AI

https://www.ibm.com/fr-fr/watson/explainable-ai

Kaggle

https://www.kaggle.com

Dagitty

http://dagitty.net

HAUT DE PAGE

Cet article est réservé aux abonnés.
Il vous reste 95% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(239 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Sommaire

QUIZ ET TEST DE VALIDATION PRÉSENTS DANS CET ARTICLE

1/ Quiz d'entraînement

Entraînez vous autant que vous le voulez avec les quiz d'entraînement.

2/ Test de validation

Lorsque vous êtes prêt, vous passez le test de validation. Vous avez deux passages possibles dans un laps de temps de 30 jours.

Entre les deux essais, vous pouvez consulter l’article et réutiliser les quiz d'entraînement pour progresser. L’attestation vous est délivrée pour un score minimum de 70 %.


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(239 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS