Hébergée jusqu’alors à Gif-sur-Yvette dans les locaux de Centrale SupElec, INNOV+ a déménagé le 30 novembre dernier à quelques centaines de mètres de là, dans les locaux de la Ferme du Moulon. Forte d’une douzaine de salariés à temps plein, l’entreprise réalise un chiffre d’affaires proche du million d’euros grâce aux solutions d’IA qu’elle développe au service de la sécurité des conducteurs, mais aussi aux missions de conseil qu’elle réalise à la demande des constructeurs et équipementiers. Pour accélérer son développement, INNOV+ a lancé il y a peu une levée de fonds en série A pour un montant de 5 M€, qu’elle espère voir aboutir à la fin de ce premier trimestre 2024.
Début janvier, l’entreprise présentait aux équipementiers mondiaux, à l’occasion du CES de Las Vegas, ses dernières innovations, et notamment sa « tête robotisée » permettant de reproduire les mouvements de tête et des yeux d’un conducteur. Stéphane Arnoux, co-fondateur et CEO d’INNOV+, nous en dit plus sur cette nouveauté, mais aussi sur toutes les avancées réalisées par l’entreprise depuis sa création en 2014, ainsi que sur ses projets en cours.
Techniques de l’Ingénieur : Vous avez cofondé INNOV+ avec Patrice Lacroix en 2014. Comment vous êtes-vous rencontrés, et comment cette aventure entrepreneuriale a-t-elle débuté pour vous ?
Stéphane Arnoux : La rencontre s’est faite de longue date… ! Nous avons en effet grandi sur les bancs de l’école ensemble, du collège au bac, et même jusqu’à un cursus en électronique à Bac+2. Je suis ensuite parti en école de commerce, et mon associé a quant à lui poursuivi ses études en électronique. Nous nous sommes ainsi perdus de vue pendant une quinzaine d’années. Nous avons toutefois fini par nous retrouver aux environs de nos trente ans à l’occasion du Salon de l’Automobile : Patrice gérait les contrôles d’accès de l’évènement, et j’y étais pour ma part présent de par mes fonctions professionnelles au sein d’une filiale de Bosch.
Nous avons alors commencé à travailler en collaboration tous les deux, puis décidé, à nos quarante ans, de monter une entreprise ensemble. Nos profils nous semblaient en effet très complémentaires, Patrice avec ses compétences « tech » et moi avec mon profil « business ».
Notre ambition, avec INNOV+, était de créer des logiciels innovants, dans un domaine qui était historiquement le mien : celui de l’automobile. Très vite, nous avons commencé à construire des prototypes sur Android, tout en prenant conscience de l’intérêt que pouvaient revêtir les capteurs optiques pour la détection du sommeil. Nous avons ainsi opéré un pivot stratégique, et INNOV+ est devenue une start-up, en 2014.
Qui vous a accompagnés dans ce virage que vous avez décidé d’opérer ? Quelles ont été les étapes qui ont suivi ?
Nous avons bénéficié d’une phase d’incubation à IncubAlliance[1]. Nous sommes par ailleurs entourés des compétences d’experts de SupOptique[2] afin de concevoir un capteur optique spécifique, fonctionnant dans le proche infrarouge afin de nous permettre d’analyser les yeux des conducteurs derrière des lunettes de soleil ou encore de nuit. En parallèle, nous nous sommes lancés dans le développement d’un algorithme de suivi des mouvements de tête et du rythme oculaire, dans le but de détecter les microsommeils, mais aussi les distractions. Ceci, afin de pouvoir diffuser dans l’habitacle d’un véhicule des alertes visuelles et sonores en cas de somnolence ou d’inattention du conducteur. Pendant six ans, nous avons ainsi combiné développement hard- et software, afin d’aboutir à notre preuve de concept. Nous avons ensuite expérimenté cette POC sur des autocars de Transdev, sur des camions de Total, ou encore des véhicules utilitaires d’Enedis, GRTGaz, Vinci ou encore Bouygues.
Nous avons finalement abouti à deux versions de hardware et créé par ailleurs la marque Toucango, afin de proposer un compagnon de route aux conducteurs.
Nous avons aussi tenté d’industrialiser la technologie au niveau hardware, juste avant la crise sanitaire. Le COVID a malheureusement été une barrière au « go to market » que nous comptions réaliser à destination des flottes de véhicules. Cependant, nous travaillions déjà depuis 2015 pour PSA, aujourd’hui Stellantis, à l’intégration de ce type de capteur dans les tableaux de bord, afin d’en faire un Driver Monitoring System (DMS), dans la droite ligne de l’ADAS (Advanced Driver Assistance System). Ce nouveau type de système a été rendu obligatoire par l’UE en 2019, pour tout véhicule immatriculé à partir de 2025.
Comment ce type de système fonctionne-t-il ?
Un DMS comprend tout d’abord une caméra proche infrarouge, équipée de LED chargées d’éclairer la scène, de nuit comme de jour afin de suivre plus facilement le rythme oculaire et la dynamique de tête. Ce module-caméra est placé dans l’axe du volant et raccordé au calculateur ADAS du véhicule. Ce calculateur est équipé du logiciel chargé d’analyser la dynamique du regard et du visage, ce que l’on appelle le gaze[3]. C’est ainsi que le DMS est capable de détecter les distractions ou les microsommeils qui sont les prémices d’une somnolence. Le logiciel caractérise ces alertes, et envoie l’information au calculateur. Charge à lui, ensuite, en fonction de la programmation faite par le constructeur, d’envoyer des alertes sonores et visuelles, voire des vibrations dans les sièges.
La chaîne logicielle a beaucoup évolué ces dernières années au fil de l’amélioration de la résolution des capteurs optiques. En ce qui concerne le traitement de l’image, nous traitions au départ les visages en deux dimensions. Nous arrivons aujourd’hui à reproduire une tête en 3D, grâce à de l’IA embarquée, plus précisément des réseaux neuronaux de type GAN et CNN. Cela nous permet par exemple de reconstruire un œil masqué derrière des lunettes, ou un visage à demi caché dans l’ombre, et donc in fine d’améliorer nos prédictions de la somnolence et des distractions.
Ce DMS fait ainsi entrer une première caméra dans l’habitacle du véhicule, mais bien d’autres devraient suivre, pour surveiller ou offrir plus de confort aux occupants, sous la forme d’OMS, pour « Occupant monitoring systems », ou encore d’IMS : des «Interior monitoring systems ».
Qui sont aujourd’hui vos clients ? Quels sont vos projets pour les mois et années à venir ?
Depuis la crise de la COVID, nous jouons un rôle de « coach », de partenaire de validation et d’intégration pour Stellantis et son équipementier fabricant les capteurs et développeur logiciel, Forvia. Nous les conseillons sur l’emplacement des caméras, le choix de leur qualité, ainsi que celui des logiciels qui traitent ensuite le signal de ces capteurs optiques.
Nous avons pour cela développé une tête robotisée, qui permet de reproduire les mouvements de tête et des yeux d’un conducteur derrière son volant. Elle peut en outre être équipée de lunettes, afin d’étudier les phénomènes de réflexion qui perturbent l’analyse d’image.
Nous livrons un rapport à nos clients à l’issue de phases de tests que nous menons sur une durée de deux semaines, qui pointe d’éventuelles faiblesses du système, afin ensuite de leur permettre d’en améliorer le fonctionnement.
La part de véhicules équipés d’un DMS aujourd’hui en Europe est d’environ 10 %. Le marché va se développer à la faveur de l’évolution législative que j’évoquais. Nous avons notamment cinq ou six modèles de véhicules de Stellantis à tester dans les prochains mois. Nos propres algorithmes d’IA ne sont pas encore embarqués à bord des véhicules de nos clients, qui ont opté pour la solution d’homologues suédois. Nous préparons en revanche activement l’intégration de nos logiciels, cette fois dans le domaine aéronautique, avec l’aide de la DGAC. Nous allons pour cela transposer les IA Toucango dans un environnement d’aéronef, avec en outre un système à deux caméras : l’une pour le pilote, l’autre pour son copilote.
Nous continuons par ailleurs à déployer Toucango par petites touches, auprès de clients qui ont des besoins spécifiques. Cela représente entre cent et deux cents véhicules par an, surtout des flottes francophones, ou encore des véhicules utilisés sur des sites miniers en Afrique, où la sécurité est primordiale. Même si nous n’avons pas véritablement pu industrialiser la solution, 700 à 800 véhicules dans le monde sont aujourd’hui sécurisés grâce à notre solution Toucango. Nous livrons ainsi chaque mois des rapports de somnolence et de distraction à nos clients. Elle nous sert aussi de laboratoire pour améliorer nos logiciels.
Par ailleurs, nous n’avons pas encore exploré la voie de la biométrie, mais je pense que nous y arriverons un jour… Cela pourrait en effet apporter de nombreuses fonctionnalités intéressantes, telles que la mémorisation automatique de la position des sièges. Nous ne sommes pas forcément les plus avancés dans ce domaine, en comparaison des Chinois par exemple, mais nous avons l’avantage d’un environnement réglementaire protecteur, à même de prévenir les éventuelles dérives de l’IA et de la vision par ordinateur.
Nous avançons en outre sur deux autres axes de développement fort. Le premier vise à développer des logiciels de in-cabin monitoring toujours plus utiles. Nous avons pour ambition de mettre au point un système de real time video cleaner destiné à fournir aux constructeurs des images homogènes, de la meilleure qualité possible, afin de faciliter la prise de décision des calculateurs. Nous avons aussi pour ambition de développer un « eye cleaner », un algorithme qui vise à gommer les lunettes du conducteur, qu’il s’agisse de la monture ou du reflet des verres. Nous sommes pour cela soutenus par Bpifrance, et espérons aboutir à une première version dans les prochains mois. Cette brique logicielle, qui s’annonce assez disruptive, pourra être proposée au marché, nous l’espérons, courant 2024.
D’autre part, nous créons une salle que nous appelons la lighting room. Elle devrait voir le jour en ce début d’année 2024 dans nos nouveaux locaux. Il s’agit d’une salle équipée d’un plateau tournant, sur lequel peut être placé un véhicule. Une rampe d’éclairage reproduit sous la forme d’une ellipse le mouvement et l’intensité du soleil. Cela va nous permettre de tester les caméras des véhicules de nos clients dans des conditions d’éclairage comparables à celles rencontrées tout au long d’une journée, et ceci sur différents types de visages, ainsi que sur notre tête robotique équipée de différents types de lunettes.
Pour mettre à l’épreuve les caméras des véhicules de ses clients, INNOV+ développe actuellement une salle équipée d’un plateau tournant et d’une rampe d’éclairage reproduisant la trajectoire elliptique du soleil ainsi que ses variations d’intensité lumineuse.
[1] Incubateur deeptech de Paris-Saclay, créé en 2000.
[2] Institut d’optique – Graduate School de Paris-Saclay
[3] En anglais, « regard fixe », littéralement.
Dans l'actualité
Dans les ressources documentaires