Présentation
En anglaisRÉSUMÉ
En règle général, les robots industriels exécutent une séquence de mouvements répétitifs, c’est-à-dire qu’ils fonctionnent en mode répétition. Ainsi, la moindre erreur de positionnement peut entraîner erreurs et inprécisions. C’est pourquoi des retours sensoriels externes sont désormais inclus dans certains types de robots. Cet article propose un récapitulatif de l’interaction robot-capteur pour deux capteurs extéroceptifs les plus courants que sont la caméra et le capteur d’effort. Pour chacun de ces deux cas, les motivations, l’acquisition, le traitement, les commandes (qu’elles soient par vision ou par effort), puis des études de cas sont présentés. Une ouverture sur l’interaction robot-vision-effort est proposée en fin d'article.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleABSTRACT
Industrial robots generally carry out a sequence of repetitive movements i.e. they operate in repetition mode. Therefore, the slightest error in their positioning can generate errors and imprecisions. This is the reason why external sensory feedbacks have been included in certain types of robots. This article provides an overview of the interaction robot-sensor for two most common exteroceptive sensors: the camera and the effort sensor. In both cases, motivations, acquisition, processing, control devices (vision or effort) as well as case studies are presented. The article concludes on the development of the robot-vision-effort interaction .
Auteur(s)
-
Jacques GANGLOFF : Professeur à l’université de Strasbourg
-
Philippe POIGNET : Maître de conférences à l’université de Montpellier 2, LIRMM (Laboratoire d’informatique, de robotique et de microélectronique de Montpellier)
INTRODUCTION
La grande majorité des robots industriels installés fonctionne dans un mode de répétition : ils exécutent une séquence de mouvements appris. La réactivité par rapport à un événement externe est très limitée : elle se borne souvent à des réactions basiques déclenchées par des événements de type « tout ou rien ».
L’environnement doit donc être constant et connu avec une grande précision. Pour un poste de soudage robotisé, par exemple, les pièces à souder doivent être positionnées avec précision face au(x) robot(s) avant que celui-ci effectue sa tâche apprise. Toute erreur dans ce positionnement se répercutera directement sur la précision de la tâche.
D’autre part, lorsque le robot travaille au contact (ce qui est le cas des tâches d’insertion, de polissage ou de vissage, par exemple), en l’absence de capteur additionnel et si les cotes ou le positionnement de la pièce s’éloignent des valeurs nominales, les efforts engendrés peuvent croître de manière très importante, pouvant aller jusqu’à la destruction de la pièce ou de l’outil.
Afin de donner au robot plus de flexibilité et d’adaptabilité, il est nécessaire d’inclure dans sa commande des retours sensoriels externes.
La vision permet de prendre en compte des variations dans l’environnement de travail du robot. On parle alors de « commande par vision » ou « asservissement » visuel. Lorsque le robot travaille au contact, la mesure des efforts d’interaction fournie par un capteur d’effort permet de contrôler, et donc de limiter, ces efforts d’interaction. On parle alors de « commande en effort ».
Cet article est dédié à l’interaction robot-capteur pour les deux capteurs extéroceptifs les plus couramment utilisés en robotique : la caméra et le capteur d’effort.
Les aspects théoriques concernant les différentes architectures de commande sont abordés de façon très synthétique, en donnant au lecteur la possibilité d’approfondir le sujet à travers la citation de références.
La technologie des capteurs, des exemples et des études de cas réels, constituent le volet pratique de l’article.
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Robotique
(59 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
1. Interaction robot-vision
1.1 Motivations
Le capteur visuel est un capteur dit « extéroceptif ». Il est capable, avec une grande richesse d’informations, d’appréhender l’environnement de travail du robot.
L’information extraite de l’image permet, par exemple, de corriger la trajectoire du robot de manière à s’adapter à une variation dans les cotes des pièces à traiter. On peut aussi imaginer un système robotique capable de reconnaître automatiquement le type de pièce qui se présente et d’adapter la tâche en fonction de la pièce et/ou de sa position par rapport au robot.
Le capteur visuel fournit un flux d’informations. Le caractère temps-réel de cette information peut être utilisé pour corriger en temps réel la position du robot, notamment pour réaliser une tâche à la volée sur une pièce circulant sur un convoyeur.
Les deux premiers exemples mentionnés ont tendance à devenir de plus en plus courants dans l’industrie. Ceci a été rendu possible, ces dernières années, grâce à l’augmentation de la puissance de traitement de l’image (qui suit la courbe des fréquences des microprocesseurs) et, aussi, en raison de l’accès à un certain degré de maturité et donc de robustesse des algorithmes de traitement d’image.
Dans ces exemples le fonctionnement du système est séquentiel : on regarde, on traite et on bouge le robot en fonction du résultat du traitement. Cette approche est dénommée « look then move » dans la littérature scientifique et ne permet pas une correction active de la tâche.
Le dernier exemple qui consiste à suivre une pièce en train de bouger, relève de ce qu’on nomme la « vision active » ou « visual servoing ». Dans ce cas, les commandes envoyées au robot sont réactualisées à une fréquence égale ou harmonique de la fréquence d’acquisition d’images.
Le système peut être vu comme un asservissement de position avec un capteur visuel.
Ce type d’approche est encore très rare dans l’industrie mais elle est courante dans le milieu de la recherche où on a démontré son intérêt et son efficacité.
Dans cette partie, les différentes notions fondamentales en commande par vision sont abordées de manière progressive et didactique. Une section est dédiée aux capteurs...
Cet article fait partie de l’offre
Robotique
(59 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Interaction robot-vision
BIBLIOGRAPHIE
-
(1) - HORAUD (R.), MONGA (O.) - Vision par ordinateur : outils fondamentaux - . Ed. Hermes (1995).
-
(2) - JÄHRE (B.) - Digital Image Processing - . Ed. Springer (1995).
-
(3) - BOVIK (A.) - Handbook of image and video processing - . Ed. Academic Press (2000).
-
(4) - DUDA (R.O.), HART (P.E.), STORK (D.G.) - Pattern Classification - . Ed. Wiley Interscience (2000).
-
(5) - GONZALEZ (R.C.) - Digital Image Processing - . Ed. Prentice Hall (2002).
-
(6) - CHAUMETTE (F.) - De la perception à l’action : l’asservissement visuel ; de l’action à la perception : la vision active - . Habilitation à diriger des recherches de l’Université de Rennes 1, IRISA (janvier 1998) (http://www.irisa.fr/lagadic/pdf/ 1998_hdr_chaumette.pdf).
-
...
ANNEXES
1 Entreprises spécialisées – Laboratoires
(liste non exhaustive)
HAUT DE PAGE
Cognex http://www.cognex.fr
DVT Sensors http://www.dvtsensors.com
Edixia http://www.edixia.fr
Visio nerf http://www.visionerf.com/
HAUT DE PAGE
Cerebellum automation http://www.cerebellum-automation.com/
HAUT DE PAGE
Fanuc http://www.fanuc.co.jp/en/product/robot/intelligence/sample/forcesensor.html
Kuka https://www.kuka.com/fr-fr
Nasa Space telerobotics program http://ranier.hq.nasa.gov/telerobotics_page/technologies/0202.html
Université de Carnegie Mellon http://www.cs.cmu.edu/~deadslug/ft.sensor.pdf...
Cet article fait partie de l’offre
Robotique
(59 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive