Article de référence | Réf : S7620 v1

Le raisonnement approché
Supervision homme-machine

Auteur(s) : Jacky MONTMAIN

Date de publication : 10 mars 2005

Pour explorer cet article
Télécharger l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !

Sommaire

Présentation

Version en anglais English

Auteur(s)

  • Jacky MONTMAIN : Ingénieur du Commissariat à l’Énergie Atomique Unité Mixte de Recherche sur la Complexité, École des Mines d’Alès – Commissariat à l’Énergie Atomique

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

INTRODUCTION

La complexité des systèmes dans lesquels l’homme est impliqué aujourd’hui conduit à l’émergence de systèmes de traitement de l’information de plus en plus sophistiqués et incontournables où la prise de décision est de plus en plus difficile. La supervision homme-machine des systèmes de production s’inscrit typiquement dans cette problématique.

Les définitions de la supervision, fournies par les dictionnaires sont les suivantes : « surveiller et contrôler l’exécution d’une opération ou la réalisation d’un travail accompli par d’autres » (Larousse) ; « contrôler sans entrer dans les détails » (Robert). Les deux notions de « surveiller et contrôler l’exécution d’une opération » et « sans entrer dans les détails » sont déterminantes pour comprendre les orientations relatées dans cet article.

Le rôle de l’opérateur a évolué de la conduite à la supervision et l’outil de production est devenu indissociable de son système numérique de contrôle-commande rendant la compréhension des événements d’autant plus complexe. L’intégration d’indicateurs de contrôle de plus en plus nombreux et sophistiqués dans le poste de conduite ne correspond pas nécessairement aux attentes de l’équipe d’exploitation. Il est préférable d’élaborer des systèmes d’information coopératifs, véritables aides au raisonnement et à la compréhension de situations pour les opérateurs. L’enjeu ne doit pas être l’automatisation des tâches cognitives de ceux-ci mais l’aide au raisonnement. La supervision ne saurait se résumer à la surveillance d’un procédé physique, l’objet de son analyse est une installation complète avec son instrumentation, ses modes de fonctionnement, ses configurations…, conduite par une équipe d’opérateurs d’exploitation.

L’un des challenges des systèmes d’information interactifs réside alors dans la sélection, l’organisation et la présentation dynamique de l’information ; la performance de l’ensemble homme-machine dépend de l’efficacité de la communication établie par l’interface (au sens large du terme). La conception de systèmes coopératifs repose sur l’analyse du système homme-machine afin d’établir les besoins informationnels, de définir les objectifs, les contraintes et les tâches à remplir.

Nous verrons dans cet article les principes et les spécificités de la supervision homme-machine. Nous opposerons la notion d’automatisation cognitive à celle d’aide au raisonnement. Cela nous amènera à discuter des modèles cognitifs utiles à l’opérateur en salle de conduite. Nous nous attarderons à cet effet sur le raisonnement qualitatif, le raisonnement causal, le raisonnement multipoints de vue et le raisonnement approché.

Cet article est réservé aux abonnés.
Il vous reste 94% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v1-s7620


Cet article fait partie de l’offre

Automatique et ingénierie système

(139 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Version en anglais English

5. Le raisonnement approché

5.1 L’interface numérique symbolique

Nous avons choisi de réserver une section propre au raisonnement approché alors qu’il aurait pu être vu comme un des axes du raisonnement qualitatif parce qu’il a pris une ampleur toute particulière à travers les nombreux développements et applications de la logique floue qui en est le support.

Un autre élément constitutif de l’édifice de la coopération homme-machine est l’interface numérique-symbolique pour la supervision et plus généralement pour l’aide à la décision. Parce qu’il est usuel chez l’être humain de produire des raisonnements qualitatifs sur des données quantitatives précises ou imprécises, certaines ou incertaines, de nombreux travaux ont été menés sur ce que l’on désigne maintenant couramment par raisonnement approximatif ou approché depuis les travaux de Zadeh [76]. Le raisonnement approché fournit des outils pour la conception des systèmes coopératifs dans divers domaines d’application. Les ensembles flous permettent la généralisation d’un grand nombre de données numériques grâce à l’utilisation de termes symboliques ayant une sémantique interprétable par l’homme [75].

En particulier, dans le domaine de l’automatique, la théorie des ensembles flous et le raisonnement approché ont pris aujourd’hui une place non prévisible ne serait-ce qu’une quinzaine d’années auparavant [32] [40].

À titre d’exemple, dans les méthodes de diagnostic où l’on cherche à reconnaître une signature de pannes (encadré 1), pour obtenir des systèmes plus robustes aux fausses détections et aux mauvaises localisations, une contrainte peut ne pas être associée à seulement deux états possibles, contrainte violée ou non (ce qui revient à lui associer 1 ou 0 dans le vecteur booléen de signature selon que la défaillance a ou n’a pas d’effet sur la contrainte de fonctionnement) (encadré 1). En effet, une erreur de classification pour une seule contrainte entraînera une erreur de signature, donc de diagnostic ; autrement dit, la décomposition du diagnostic en décisions élémentaires booléennes multiplie les chances d’avoir un résultat faux, ou du moins instable.

Les risques d’erreurs de localisation sont dus aux incertitudes à classer un vecteur A alors qu’il est B. Kaufmann [42] explique que l’incertitude peut se présenter...

Cet article est réservé aux abonnés.
Il vous reste 94% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Automatique et ingénierie système

(139 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Le raisonnement approché
Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - ALLEN (J.F.) -   Maintaining knowledge about temporal intervals  -  . Communications of the ACM, p. 832-843 (1983).

  • (2) - BAINBRIDGE (L.) -   Ironies of automation  -  . Automatica, 19 (6), p. 775-779 (1983).

  • (3) - BANDEKAR (V.) -   Causal models for diagnostic reasoning  -  . Artificial Intelligence in Engineering, 4 (2) (1989).

  • (4) - BENKHANNOUCHE (S.) -   Aide à la supervision des processus industriels : vers une méthodologie de conception  -  . Thèse de l’Université Pierre et Marie Curie de Paris 13 (1996).

  • (5) - BOBROW (D.G.) -   Qualitative reasoning about physical systems : an introduction  -  . Artificial Intelligence, 24, p. 1-5 (1984).

  • (6) - BRUNET (J.), JAUME (D.), LABARRÈRE (M.), RAULT (A.), VERGÉ (M.) -   Détection et diagnostic de pannes, approche par modélisation  -  ....

Cet article est réservé aux abonnés.
Il vous reste 92% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Automatique et ingénierie système

(139 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS