Aujourd’hui, les robots chirurgicaux les plus perfectionnés fonctionnent uniquement de manière visuelle à partir d’imageries médicales. Dès qu’une intervention devient difficile, ils sont incapables de reproduire le savoir-faire d’un chirurgien qui se sert de tous ses sens pendant une opération, et pas seulement de sa vue. Il va par exemple utiliser son toucher en palpant le corps du malade ou alors écouter le son d’une perceuse dont la mèche s’enfonce dans un os. Un programme de recherche européen baptisé FAROS (Functionally accurate robotic surgery) vient de débuter avec pour objectif de développer un robot chirurgical autonome, capable d’acquérir des sens comparables, voire supérieurs à ceux des humains.
Chercheur à l’ISIR (Institut des Systèmes Intelligents et de Robotique) et associé à ce projet, Guillaume Morel explique les limites des robots actuellement en service. « D’un point de vue scientifique, on a longtemps cru que le développement d’un robot chirurgical n’était qu’une affaire de millimètres. C’est selon moi une conception naïve de la chirurgie. Anatomiquement, il y a des choses qu’on ne voit pas à l’image. Au moment de faire son geste, le chirurgien va s’apercevoir que l’os est plus mou que prévu et va donc enfoncer une vis un peu plus en profondeur. Ou alors, avant de fixer un implant, il va prendre la décision de « rayer » la surface d’accroche pour une meilleure tenue du ciment. Un certain nombre de ses gestes ne sont donc pas liés à une planification de la géométrie. »
Des capteurs pour mesurer la conductivité électrique dans le corps
Partant de ce constat, le chercheur présente le projet FAROS en utilisant la métaphore de la conduite automobile. « Les robots actuels fonctionnent comme des systèmes de positionnement qui suivent une trajectoire. Un peu comme une voiture équipée d’un système de navigation par GPS et qui permet de savoir où vous êtes situés. Mais lorsque vous êtes arrivés à destination et que vous devez vous garer, le GPS n’a plus d’utilité. Il ne s’agit plus de se recaler dans un plan d’ensemble. Le projet FAROS, c’est la version d’après, celle de la conduite automatique où le véhicule va se servir de capteurs situés par exemple sur le pare-chocs pour détecter si des voitures sont présentes devant ou derrière, évaluer la distance avec le trottoir… »
Plusieurs capteurs vont donc être développés puis intégrés à un robot chirurgical. L’objectif étant d’améliorer non pas sa précision géométrique mais plutôt fonctionnelle afin qu’il soit capable d’appréhender en temps réel ce qui se passe sur le plan anatomique. Il est ainsi prévu d’utiliser des capteurs de force pour mesurer les efforts effectués par le robot et évaluer si la zone où il intervient est dure ou molle. Des capteurs d’impédance électrique vont également être ajoutés, ces derniers équipent déjà certains instruments chirurgicaux utilisés manuellement comme ceux développés par la société SpineGuard, le partenaire de ce projet. Ils permettent de mesurer la conductivité électrique qui a la particularité d’être faible dans la partie corticale d’un os, celle située la plus à l’extérieur, et élevée dans la partie spongieuse, celle située au centre. « Ils fonctionnent comme un radar de recul sur une voiture, poursuit le chercheur. Le capteur émet un bip très espacé lorsque l’os est dur puis au fur et à mesure que la vis pénètre dans la partie spongieuse, les bips deviennent plus rapprochés, ce qui signifie qu’on est sur le point d’atteindre une zone interdite hors de l’os. »
D’autres capteurs doivent également être ajoutés, cette fois-ci pour capter du son. Le robot devrait ainsi embarquer des micros afin d’analyser par exemple le son d’une perceuse. Il est aussi prévu d’utiliser des ultra-sons à l’aide d’un échographe en mode A pour obtenir non pas des images, mais analyser la variation d’un écho sous la forme d’un signal. Même si les capteurs seront principalement non visuels, les scientifiques pourraient se servir de l’imagerie hyper-spectrale, une technologie permettant d’obtenir une multitude d’images avec des fréquences différentes.
Analyser les signaux enregistrés à l’aide de l’intelligence artificielle
Face au grand nombre d’informations fournies par ces capteurs, les équipes de recherche vont se servir de l’intelligence artificielle pour les aider à traiter toutes les données enregistrées. Chaque signal aura une grande variabilité et les algorithmes vont être capables, entre autres, de fusionner les résultats dans le but d’établir des lois de raisonnement et de prédiction à partir de tous les signaux émis. « Même si nous avons une idée des résultats obtenus par les capteurs, l’intelligence artificielle nous aidera à extraire des lois générales afin de mieux appréhender la réalité de ce qui se passe dans le corps », ajoute Guillaume Morel.
Ce projet de recherche va se concentrer uniquement sur la chirurgie de la moelle épinière et nécessitera la réalisation de plusieurs essais en laboratoire. Dans un premier temps, ils seront réalisés sur des modèles anatomiques puis, lorsque les algorithmes seront suffisamment développés, des expérimentations seront pratiquées sur des animaux vivants. « Sous strict contrôle éthique, tient à préciser Guillaume Morel. Nous sommes financés par la communauté européenne qui nous impose de prouver que nous ne recourons à l’expérimentation animale que lorsqu’il est impossible de faire autrement. Par exemple, un certain nombre de signaux obtenus par les capteurs sont impossibles à reproduire en laboratoire, comme la conductivité électrique qui n’est pas la même chez un animal vivant que sur une pièce anatomique. »
Quatre universités sont impliquées dans ce programme : la Sorbonne Université et la KU Leuven en Belgique pour leurs savoir-faire en robotique, le King’s College London en Angleterre pour son expertise en imagerie et en intelligence artificielle et enfin l’hôpital universitaire Balgrist en Suisse qui regroupe des chirurgiens. D’une durée de trois ans, le projet FAROS devrait se conclure par la validation des concepts clés en laboratoire correspondant au niveau 4 sur l’échelle TRL (Technology readiness level), qui évalue le degré de maturité d’une technologie.
Dans l'actualité
- Ces quatre robots s’inspirent des capacités des plantes
- Cobotique : « Il faut considérer le robot comme son apprenti »
- Quelle éthique pour la robotique ?
- Robots biomimétiques : entre promesses et obstacles
- La simulation au service de la performance sportive
- Un robot qui coache les patients durant leurs séances de rééducation
- Le meilleur de la tech #11
- Des robots pour décharger plus rapidement des camions
- Devez-vous craindre les robots dans votre travail ?
- “Nous souhaitons que notre robot soit aussi facile à utiliser qu’un smartphone”, Marc-Henri Frouin, PDG de Niryo
- Le robot de prise et dépose d’objets micrométriques le plus rapide du monde
- Une plate-forme robotisée dédiée au traitement curatif et précoce des cancers