Qubit Pharmaceuticals est une spin-off issue de quatre universités : deux en France (Sorbonne Université et le Cnam) et deux aux Etats-unis (Washington University in Saint Louis et University of Texas in Austin). La mission de Qubit Pharmaceuticals est de résoudre les problématiques que rencontrent les laboratoires pharmaceutiques en termes de recherche de nouveaux médicaments, et d’accélération des premières étapes du développement de candidats médicaments. En partie grâce aux avancées scientifiques et aux ruptures technologiques qu’ont développées les fondateurs scientifiques de Qubit Pharmaceuticals, dont Jean-Philip Piquemal est le directeur scientifique aujourd’hui. Il est également directeur du laboratoire de chimie théorique CNRS-Sorbonne université. Avec Robert Marino, le PDG de la start-up, ils sont revenus pour Techniques de l’Ingénieur sur la genèse de Qubit Pharmaceuticals, ainsi que les technologies développées par la startup pour chercher et trouver des candidats médicaments, avec une précision et une vitesse toujours plus importante.
Techniques de l’Ingénieur : Expliquez-nous les caractéristiques du logiciel Tinker-HP, qui permet à Qubit Pharmaceuticals de proposer des simulations moléculaires précises et rapides ?
Robert Marino : Cela fait une trentaine d’années qu’a été développé un logiciel, Tinker, qui permet de faire de la modélisation moléculaire.
Autour de ce logiciel se sont réunis plusieurs talents, pour aboutir au développement du logiciel Tinker-HP, version massivement parallélisée, et qui a deux particularités : la première, c’est que Tinker-HP est à ce jour le logiciel de simulation le plus précis, puisqu’il profite de champs de forces qui permettent de calculer l’ensemble des paramètres des molécules et obtenir leurs conformations les plus probables. La seconde, c’est que c’est également le logiciel le plus rapide de sa catégorie.
Une des problématiques de la simulation moléculaire est le manque de précision. À cela s’ajoute la capacité des logiciels à donner des résultats rapidement : il faut parfois plusieurs semaines de calculs pour obtenir un résultat, lorsque l’on travaille sur des structures très complexes. Cela pose évidemment problème, quand on est à la recherche d’un médicament et qu’il faut optimiser un nombre important de molécules différentes.
Toute la force de Tinker-HP et d’AMOEBA, qui est le champ de forces utilisé, est d’être extrêmement précis, ce qui nous permet de ne pas transiger sur la qualité et la précision des calculs, tout en étant extrêmement rapides.
C’est ce qui vous a décidé tous les deux à tenter l’aventure Qubit Pharmaceuticals ?
Robert Marino : Ce qui m’a plu et m’a donné envie de rejoindre Qubit, c’est ce pari fou fait il y a trente ans, de ne pas développer des logiciels pour les ordinateurs d’aujourd’hui, mais plutôt pour les ordinateurs de demain, qui auront la puissance de calcul nécessaire pour les faire tourner. C’est un pari osé, puisqu’il va à rebours de tout ce qui se fait dans l’industrie, où la norme est plutôt de développer des logiciels adaptés aux puissances de calcul disponibles, mais limitées : on retrouve logiquement ces limitations dans les logiciels qui en découlent.
La deuxième chose, c’est ce que Jean-Philip Piquemal m’avait dit lorsqu’il faisait son post-doctorat sur Tinker : il avait alors travaillé sur la modélisation d’une molécule pendant 18 mois avant d’obtenir ses premiers résultats. C’est à partir de là que Jean-Philip a décidé de développer la version Tinker-HP, pour réduire les temps de calcul.
Jean-Philip Piquemal : Développer un logiciel plus rapide, en prévision des progrès de l’informatique, a toujours été l’objectif. Une première version du logiciel était utilisée en interne dans les laboratoires académiques et a permis de mettre en place toutes les équations physiques : ces équations existent depuis les années 2000. Ce qui manquait à l’époque était la possibilité de réduire le temps de traitement des données, pour intéresser les acteurs de l’industrie pharmaceutique.
C’est une problématique dont nous avions déjà conscience au début des années 2000. C’est à ce moment-là devenu mon activité principale, avec l’objectif d’accélérer toutes ces méthodes. J’ai obtenu un poste en France pour travailler sur ce sujet, et l’un des étudiants qui travaillait pour moi sur ce sujet à l’époque est aussi devenu un des cofondateur de Qubit Pharmaceuticals : il s’agit de Louis Lagardère. Avec lui, nous avons passé près de neuf ans à faire du calcul intensif (HPC, high performance computing), et beaucoup de mathématiques, pour essayer au maximum de reformuler les équations et de les adapter aux énormes puissances de calcul que l’on a aujourd’hui.
Ce qui s’est passé entre-temps est la formidable avancée au niveau informatique à laquelle nous avons assisté : cartes graphiques, cloud, nouveaux processeurs… nous sommes aujourd’hui capables de mobiliser une puissance de calcul extrêmement grande. Les équations qui nous paraissaient très difficiles à résoudre il y a 15 ans ne le sont plus du tout, et les gains de temps de calcul qui en découlent changent beaucoup de choses, notamment par rapport à l’intérêt du domaine pharmaceutique pour ces solutions.
Au-delà de la précision et de la rapidité, sur quels aspects de la modélisation avez-vous porté vos efforts ?
Robert Marino : Dès le début, l’équipe fondatrice s’est concentrée sur la précision et la rapidité des calculs, mais également tout particulièrement sur la compréhension des résultats rendus. Nous réalisons ceci via un logiciel qui s’appelle VTX (développé au sein de l’équipe de Matthieu Montès au CNAM), et qui permet de faire de la visualisation de résultats à grande échelle, pour rendre leur interprétabilité optimale.
Proposer un produit qui permet d’obtenir des résultats rapidement, avec précision et interprétables : c’est d’ailleurs la convergence de ces trois éléments qui a amené à la création de Qubit Pharmaceuticals.
Jean-Philip Piquemal : Notre objectif est de modéliser totalement les molécules. Notre logiciel permet de modéliser très finement la cible que l’on va viser à travers le design d’un médicament.
Prenons un exemple d’actualité, à savoir celui du virus SARS-CoV-2. Sur les six premiers mois de 2020, la quasi-totalité des très nombreux groupes de recherches travaillant sur le sujet au niveau théorique n’ont pas proposé de piste de médicaments contre le coronavirus, parce que les molécules qu’ils ont modélisées n’étaient pas réalistes. Il faut bien comprendre que l’évolution dans le temps d’une molécule s’accompagne de changements de forme, et c’est quelque chose qu’il faut prendre en compte si l’on veut pouvoir proposer une description moléculaire la plus optimale possible.
Nos méthodes prennent en compte cette dimension temporelle, via la dynamique moléculaire.
Une fois que l’on a défini un modèle de la cible, nous avons alors la possibilité de décrire, de façon extrêmement précise, le candidat médicament, que nous allons faire interagir avec la cible. Une de nos spécificités est la capacité que nous avons de simuler l’interaction entre la cible et le médicament, encore une fois avec une grande précision.
Quelle est la marge d’erreur pour ces simulations ?
Jean-Philip Piquemal : La marge d’erreur dépend de la quantité de calculs que l’on fait et du type de physique que l’on utilise. Nous utilisons des classes de physique très proches de la mécanique quantique. Nous n’utilisons pas l’équation de Schrödinger dans son intégralité, mais plutôt une de ses caractéristiques, à savoir les effets à N corps.
Cela nous permet dans nos simulations de prendre en compte beaucoup de phénomènes physiques qui sont en général laissés de côté à ce niveau atomique. C’est de cette façon que nous obtenons des marges d’erreurs très faibles.
Typiquement, les laboratoires pharmaceutiques exigent des barres d’erreurs inférieures à 1 kcal/mol pour une interaction d’un médicament avec une cible. A ma connaissance, nous sommes les seuls à pouvoir fournir ces prestations au niveau industriel à l’heure actuelle.
Est-ce entre autres parce que vous créez toutes les data vous-mêmes ?
Robert Marino : En effet. C’est ce qui rend la plateforme de simulation très performante. Il y a beaucoup d’annonces depuis quelques temps, de sociétés annonçant avoir trouvé des résultats d’une précision extrême sur telle ou telle molécule… Ce qui n’est pas dit, c’est qu’il s’agit d’un travail énorme d’accumulation de données, dans un set-up très particulier. On en revient à la notion de temps de retour pour obtenir des résultats. Si on demande à ces sociétés de travailler sur de nouvelles molécules, il va leur falloir reparamétrer tous leurs outils et il leur faudra des mois pour obtenir des résultats.
Jean-Philip Piquemal : Nous n’avons pas ces contraintes car nous reconstruisons tout avec de la physique : cela nous demande plus de puissance de calcul mais nous permet de ne pas être limité en termes de temps de traitement. Il faut bien avoir à l’esprit que la configuration des molécules évolue dans le temps.
Ainsi le nombre de configurations à tester avant d’arriver à un résultat le plus précis possible est donc gigantesque : c’est pour cela que la question du temps de calcul devient aujourd’hui fondamentale. Revenons sur l’exemple du coronavirus. C’est un virus qui mute, il faut donc pour les fabricants de vaccins être prêts et capables de réagir vite à ces mutations, pour recombiner les vaccins et les adapter aux nouvelles formes du virus. Pfizer a annoncé être en capacité de recombiner son vaccin en six semaines au niveau expérimental. Il est donc important pour les calculs théoriques d’être précis et beaucoup plus rapides que les expériences s’ils veulent être utiles d’où l’importance de rester à la pointe dans le domaine du calcul scientifique haute performance.
D’où l’importance d’avoir des data de bonne qualité ?
Robert Marino : C’est un schisme majeur. On voit aujourd’hui de plus en plus de sociétés se lançant sur l’IA et manipulant des quantités de données astronomiques… Nous avons de notre côté pris le parti d’avoir des données propres, et de travailler avec tout le monde : ceux qui font de l’IA, l’industrie pharmaceutique… Cette problématique des données propres est très importante, et peu d’entreprises au niveau mondial sont capables de les fournir.
D’ailleurs, la qualité des données me paraît être un facteur fondamental de succès pour les années à venir, dans le domaine dans lequel nous évoluons.
Jean-Philip Piquemal : Nous avons décidé de nous concentrer sur nos domaines de compétences et de ne pas nous éparpiller. Notre spécialité, c’est l’affinité d’un médicament pour sa cible : les candidats qui passent avec succès la phase préclinique avec nos méthodes ont beaucoup plus de chance d’aller au bout. Cela permet aux sociétés pharmaceutiques de réduire leurs coûts de manière substantielle.
Pour ce qui concerne les données, en générer n’a rien de compliqué. Par contre, générer de la donnée intelligente est beaucoup plus complexe. Il faut aussi avoir les talents en interne et les compétences en termes de biologie, de chimie, pour être en capacité de générer ces données intelligentes. C’est un facteur capital d’optimisation.
Comment appréhendez-vous l’avènement à venir de l’informatique quantique ?
Robert Marino : On se dirige effectivement, pas à pas, vers l’informatique quantique. Pour Qubit Pharmaceuticals, le fait d’avoir une plateforme change beaucoup les choses, car cela nous permet de faire les transitions conceptuelles des différents types de hardware qui arrivent.
Notre plateforme est construite pour être agnostique envers les processeurs que l’on utilise. Ainsi, le jour où les processeurs quantiques seront au point, nous pourrons directement basculer nos calculs dessus.
C’est d’ailleurs un gros pan de travail pour nous, car il nous faut dès aujourd’hui préparer la transition quantique, pour être en capacité de répondre aux besoins de nos clients, le moment venu. Nous poussons les technologies classiques, jusqu’à ce qu’elles soient battues par les technologies quantiques. L’important pour Qubit est d’avoir un avantage concurrentiel : peu importe au final si cet avantage est classique ou quantique. Nous voulons proposer les solutions les plus rapides et les plus précises à nos clients, que ce soit avec du quantique ou pas.
Propos recueillis par Pierre Thouverez
Image de UNE : représentation du ribosome ©CNAM
Cet article se trouve dans le dossier :
Les secteurs chimie et pharma : modélisation et simulation à tous les étages
- La crise sanitaire, vitrine des innovations en modélisation et en simulation
- « Les approches classique et quantique sont complémentaires »
- « Notre façon de prédire l’interaction et l’affinité est unique au monde »
- « Il faut dès aujourd’hui préparer la transition quantique »
- Modélisations et simulations : une autre voie scientifique
- Médecine électronique et gestion de la pandémie de Covid-19
- Développer des boîtes quantiques sur mesure, en moins d’une heure grâce à l’intelligence artificielle
- Cartographier les membranes cellulaires est désormais possible grâce à une nouvelle méthode d’imagerie
- Un chimiste "artificiel" pour accélérer la R&D
Dans l'actualité
- Comment la simulation et la virtualisation vont devenir les clés de l’usine numérique
- Placer la chimie des matériaux au cœur du processus d’innovation
- La simulation numérique, un outil de compétitivité
- La crise sanitaire, vitrine des innovations en modélisation et en simulation
- Les entreprises françaises se préparent à la seconde révolution quantique
- La stratégie quantique de la France favorise l’émergence de startups prometteuses
- Les technologies quantiques : les entreprises doivent s’y préparer dès maintenant
- Chiffrement post-quantique : les chercheurs français reconnus aux États-Unis