Présentation
En anglaisRÉSUMÉ
Cet article analyse 6 grands accidents survenus ces dernières années dans différents secteurs pour mettre en évidence d'éventuels invariants et dégager ainsi des enseignements à l'usage des managers en vue de leur permettre d'améliorer leurs politiques de prévention. Malgré les incertitudes qui demeurent, les analyses a posteriori de ces accidents permettent de mettre en évidence un certain nombre de causes d'origines techniques, organisationnelles, informationnelles, humaines et environnementales, mais aussi et surtout de comprendre comment elles ont pu s'enchaîner les unes aux autres pour amorcer la séquence accidentelle.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleABSTRACT
This article analyses 6 major accidents which have occurred in various sectors over the last few years in order to identify potential invariants, and thus provide managers with knowledge in order to enable them to improve their prevention policies. Despite remaining uncertainties, the a posteriori analysis of these accidents allow for highlighting a certain number of technical, organizational, informational, human and environmental causes and most importantly for the understanding into how these causes intertwined and triggered the accident sequence.
Auteur(s)
-
Jean-Louis NICOLET : Expert auprès du comité national Évaluation de la recherche (CNER) - Conseiller du groupement de recherche REXAO - Expert honoraire près la cour d'appel de Versailles
INTRODUCTION
Erika, Mont Sainte-Odile, AZF, Concorde et le Tunnel du Mont-Blanc, autant de noms d'événements dramatiques, d'accidents majeurs aux conséquences économiques, politiques et humaines importantes qui ont fait la Une des journaux.
Aussitôt, les rescapés, les familles des victimes, la presse, la radio, la télévision, les personnalités politiques de tous bords recherchent les auteurs de la catastrophe avant même que soient connues les causes de la défaillance du système en cause. Il faut trouver des responsables, mais aussi et surtout des coupables.
Passée l'émotion, il s'agit de rechercher avec patience, sérénité, objectivité ce qui s'est passé. Quelles sont les causes à l'origine de la défaillance ? Comment celles-ci se sont enchaînées les unes aux autres pour amorcer une séquence infernale conduisant à la catastrophe constatée ?
Pour le comprendre, il va falloir, à partir des épaves, des cendres, de la position des victimes, des enregistrements qui n'ont pas été détruits, des multiples témoignages, des archives, des plans, des opérations d'entretien effectuées précédemment, des dialogues entre acteurs qui ont pu être sauvegardés, des écarts par rapport aux procédures suivies... reconstituer les différents scénarii probables qui ont conduit à la catastrophe.
S'agissant de reconstitutions a posteriori, il est important de prendre conscience de l'extrême difficulté qu'il y a à comprendre ce qui s'est passé. Ces analyses conduisent à mettre en évidence plusieurs scénarii auxquels sont attachées des probabilités différentes.
Malgré les incertitudes qui demeurent, ces analyses permettent de mettre en évidence un certain nombre de causes d'origines techniques, organisationnelles, informationnelles, humaines et environnementales, mais aussi et surtout de comprendre comment elles ont pu s'enchaîner les unes aux autres pour amorcer la séquence accidentelle.
C'est dans cet esprit que nous avons choisi d'analyser quelques accidents majeurs survenus dans différents secteurs industriels afin de mettre en évidence d'éventuels invariants et dégager ainsi des enseignements à l'usage des managers en vue de leur permettre d'améliorer leurs politiques de prévention.
Chaque catastrophe donne généralement lieu à une procédure pénale dont l'instruction en première instance peut durer une dizaine d'années, sans parler des possibilités de recours en appel, voire en cassation, aussi avons-nous pris le parti de ne prendre aucun des accidents récents évoqués au début de notre propos, à l'exception de l'incendie sous le tunnel du Mont-Blanc dont le délibéré en première instance a été rendu le 27 juillet 2005 par le tribunal de Bonneville.
Notre choix s'est donc porté sur six accidents survenus dans six secteurs industriels différents, à savoir :
-
l'aérien avec l'accident de Ténériffe ;
-
le ferroviaire avec l'accident de Flaujac ;
-
l'off shore avec Piper Alpha ;
-
le nucléaire avec Three Mile Island ;
-
la chimie avec Flixborough ;
-
l'autoroutier avec l'incendie du tunnel sous le Mont-Blanc.
DOI (Digital Object Identifier)
CET ARTICLE SE TROUVE ÉGALEMENT DANS :
Accueil > Ressources documentaires > Génie industriel > Métier : responsable qualité > Management de la sécurité > Risques et accidents majeurs - Retour d'expérience cindynique > Typologie des erreurs humaines dans la chaîne perception-action
Cet article fait partie de l’offre
Sécurité et gestion des risques
(475 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
7. Typologie des erreurs humaines dans la chaîne perception-action
L'erreur humaine, comme nous l'avons vu lors des cas étudiés ci-avant, est dans plus de 70 % des cas à l'origine des accidents enregistrés de par le monde.
Il n'entre pas dans le cadre de cet article de dresser une typologie exhaustive de toutes les erreurs survenues ici ou là. Mais il nous paraît indispensable d'évoquer ici les sept types d'erreurs les plus fréquemment rencontrées tout au long de la chaîne perception/action.
-
La première est l'erreur de perception qui peut revêtir plusieurs formes. L'information est bien émise par le système, mais l'Homme ne la perçoit pas, car il est occupé à autre chose ou n'est pas vigilant (fatigue, sommeil...). C'est notamment ce qui est passé avec le régulateur du tunnel du Mont-Blanc qui n'a pas perçu la première alarme d'opacité.
L'information peut aussi être fugace, non enregistrée et le signal noyé au milieu d'un grand nombre d'informations.
-
La deuxième est l'erreur de décodage. Ici le signal, l'information est perçu, mais mal interprété, car sa transposition en information utile est délicate. C'est le cas de Three Mile Island où les opérateurs pensent, à partir d'informations fournies par le système d'alimentation de secours des générateurs de vapeur que ce système est opérationnel alors qu'il ne l'est pas. Il est important de souligner ici que tout signe, signal, alarme, panneau, mot comporte deux aspects : un signifiant (ici le voyant) et un signifié (le message transmis par le signifiant).
-
La troisième est le non-respect de la procédure et ou de la réglementation. De telles erreurs conduisent à court-circuiter tout ou partie de l'organisation prévue et mise en place. Rappelons-nous Flaujac où le chef de gare de Grammat ne respecte pas la procédure d'annonce conditionnelle. Autre exemple, l'accident de Tchernobyl où les opérateurs ont violé, inconscients des risques pris, 6 règles de sûreté. D'où l'importance, une fois les procédures écrites, de les tester mais aussi et surtout de montrer quel est leur rôle et quels sont les risques pris en ne les appliquant pas.
-
La quatrième est l'erreur de communication Homme/Homme. Tout au long de son cheminement un message peut subir de nombreuses déformations, qu'il s'agisse d'une mauvaise structuration initiale de la part de l'émetteur (Flaujac), d'une détérioration partielle du fait de bruits...
Cet article fait partie de l’offre
Sécurité et gestion des risques
(475 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Typologie des erreurs humaines dans la chaîne perception-action
BIBLIOGRAPHIE
-
(1) - MORIN (E.) - La Méthode – La Nature de la nature. - Seuil (1977).
-
(2) - NICOLET (J.-L.), CELIER (J.) - La fiabilité Humaine dans l'entreprise. - Éditions MASSON, mars 1990.
-
(3) - NICOLET (J.-L.), CARNINO (A.), WANNER (J.C.) - Catastrophe ? Non Merci ! - Éditions MASSON, juin 1990.
-
(4) - PLANCHETTE (G.), NICOLET (J.-L.), VALANCOGNE (J.) - Et si les risques m'étaient comptés. - Éditions OCTARES, mars 2002.
-
(5) - CULLEN (L.J.) - The public Inquiry into Piper Alpha Disaster. - LONDON HMSO (1990).
-
(6) - TREE MILE ISLAND - * - Gazette du nucléaire no 26/27, mai-juin 1979.
-
...
DANS NOS BASES DOCUMENTAIRES
-
Réacteurs à eau ordinaire pressurisée.
Cet article fait partie de l’offre
Sécurité et gestion des risques
(475 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive