La cartographie de l’espace permet d’identifier et suivre l’ensemble des objets afin d’anticiper – et ainsi d’éviter – une collision. Plusieurs startups sont sur le sujet. Nous avons interviewé l’une d’entre elles, française, Share My Space.
Suivre en quasi temps réel les débris spatiaux, c’est ce que propose Steve Wozniak, le cofondateur d’Apple, avec le lancement l’année dernière de son application en ligne Wayfinder via sa start-up Newspace Privateer Space. Autour d’un globe en 3D, on peut voir la position des satellites ainsi que les débris spatiaux grâce aux données de l’US Space Command et des satellites opérationnels. Aujourd’hui, la plus grosse base de données des objets spatiaux est américaine. Des startups Françaises, comme Look Up Space et Share My Space, se positionnent sur le marché de la surveillance en proposant leurs propres données ainsi que des services de surveillance associés. À ce sujet, nous avons interviewé Alexis Petit, directeur technique de Share My Space pour nous expliquer les enjeux et les défis techniques.
Techniques de l’Ingénieur : Quels sont les enjeux de créer sa propre cartographie des objets spatiaux ?
Alexis Petit : Aujourd’hui, les États-Unis possèdent le plus gros réseau de télescopes et radars dédiés à la surveillance de l’espace. Leurs données sont accessibles gratuitement, mais filtrées. Ils ont le monopole, car peu d’États ont la capacité de voir ce qui se passe en orbite. En faisant la cartographie des objets spatiaux, nous en avons près d’un millier aujourd’hui, notre objectif est d’établir le catalogue le plus étendu possible en se rapprochant dans un premier temps de l’américain (soit 25 000 objets) puis d’atteindre les 100 000 objets à plus long terme.
Quels sont les objets cartographiés ?
Le catalogue contient des satellites manœuvrant ou non manœuvrant, des étages de lanceurs abandonnés en orbite ou des débris. Actuellement le catalogue américain contient des objets de plus de 10 cm. Si nous souhaitons observer plus d’objets, il faut pouvoir observer les objets plus petits. C’est la raison pour laquelle Share My Space développe un télescope de 1 m de diamètre afin de pouvoir détecter des objets aussi petits que 2 cm en orbite basse.
Comment comptez-vous dépasser le catalogue américain ?
Nous souhaitons développer un réseau de télescopes propriétaires pour produire des mesures sur les objets, de façon quotidienne. Ces mesures permettraient de suivre les satellites, les débris spatiaux et de prédire leurs futures positions. Pour l’instant, nous ne possédons que deux stations avec un télescope : l’un dans le sud de la France, l’autre en Amérique du Sud. Et nous sommes en train d’installer notre première station multitélescope en Europe.
Quel est l’intérêt d’une station multitélescopes ?
Pour faire de la veille en orbite basse, il faut regarder tout le ciel en même temps. Et pour cela, il faudrait plusieurs centaines de télescopes, car ils ont un angle de vue de 2 à 3°. Un satellite géostationnaire est facile à cartographier parce qu’il reste toujours au-dessus d’un même point au sol, ce qui n’est pas le cas du satellite en orbite basse. Ce dernier tourne autour de la terre une dizaine de fois par jour et il faut plusieurs stations pour l’observer suffisamment. Et tout l’enjeu réside dans notre capacité de revisite, c’est-à-dire de voir le même objet le plus souvent possible. Et ça, ça dépend du réseau de télescopes que l’on a.
Et justement, l’une des innovations que l’on a développées et brevetées chez Share My Space, c’est utiliser des stations de quatre télescopes qui balayent le ciel. Au lieu de pointer une zone fixe du ciel, ils vont balayer une couronne du ciel suffisamment vite pour pouvoir observer tout objet traversant cette bande. Toutes les secondes, chaque télescope va pointer dans une direction opposée, à 90° l’un de l’autre. Toutes les secondes ils vont se repositionner pour acquérir une nouvelle image etc.
Utilisez-vous des télescopes spécifiques ?
Nous avons développé nos propres caméras, avec des capteurs Cmos 60/60mm, plus grands qu’un capteur photo. Nous avons également codéveloppé avec notre partenaire Accor une monture suffisamment puissante pour qu’elle puisse se repositionner rapidement. Cela reste des composants simples, que ce soit la monture, le télescope ou encore la caméra. Mais l’enjeu est de les faire fonctionner de façon synchronisée et suffisamment vite pour les faire balayer la couronne du ciel.
Un second enjeu est de traiter les images capturées en temps réel, car nous avons besoin des informations le plus rapidement possible. Et capturer une image par seconde… fois quatre… c’est assez conséquent ! Et il faut traiter chaque image en temps réel. Nous avons donc un ordinateur dédié pour le contrôle et le traitement de chaque monture. Ce qui demande des compétences en computer vision puisqu’on fait de la détection d’objets dans les images. Et les images… c’est un fond d’étoile avec un objet qui passe dans le champ en faisant une traînée lumineuse. À part que le champ d’étoiles n’est pas homogène et la traînée non plus. Alors on a développé un algorithme de machine learning.
Quelles sont les données produites pour cartographier un objet ?
Nous produisons deux types de données : astrométrique et photométrique. La donnée astrométrique permet d’avoir les coordonnées angulaires – la position – d’un satellite dans le ciel, et la donnée photométrique le flux de lumière mesuré. Avec ces données, on peut restituer des orbites et estimer si l’objet est en rotation grâce à ses variations de luminosité. Chaque nouvelle mesure nous permet de calculer une position et une vitesse à un instant T. L’objet détecté peut être corrélé à un objet existant dans un catalogue public, sinon c’est un nouvel objet dans notre catalogue. Si des manœuvres sont détectées, alors on suppose que c’est un satellite manœuvrant. S’il a des variations de luminosité importantes, on peut supposer qu’il n’est plus contrôlé et passe dans la catégorie débris.
En effet, la trajectoire d’un satellite est déterminée. Si celui-ci manœuvre, c’est plus compliqué : il peut y avoir des cas où on pense observer un nouvel objet, alors qu’il a manœuvré. Et d’ailleurs, l’un de nos objectifs est de prédire les positions futures de tous les objets en orbite. C’est-à-dire connaître les positions de ces objets jusqu’à un horizon de 5 à 10 jours, ce qui permettrait de prédire les risques de rapprochement dangereux et d’estimer le risque de collision. À partir des données américaines, on propose aujourd’hui un service de gestion de risque de collision. Si on estime un risque au-delà d’un certain seuil de sécurité, on propose à l’opérateur d’effectuer une manœuvre d’évitement.
La manœuvre d’évitement se fait combien de temps avant ?
Quelques heures avant. Mais ça dépend des opérateurs : certains vont attendre le dernier moment pour avoir la donnée la plus fraîche possible, car une manœuvre coûte du carburant. Notre rôle est donc d’apporter la donnée la plus fiable pour éviter les faux positifs et éviter une manœuvre non nécessaire.
Et lorsque le risque est avéré, c’est-à-dire sous la centaine de mètres, l’opérateur va modifier la distance relative entre les objets de plusieurs dizaines voire centaines de mètres. Cependant, ce n’est pas vraiment la distance entre objets que l’on va regarder le plus, mais la probabilité de collision. Si on a une très forte connaissance des deux orbites, même proches, on est sûr qu’il n’y aura pas de collision. Mais s’il y a une incertitude très forte, le risque va être plus élevé.
Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE