Dans un premier temps, les simulations numériques étaient réservées aux industriels de l’automobile, de l’aéronautique et de l’énergie. Ils souhaitaient notamment disposer de capacités de calcul qui sont utilisées pratiquement en permanence pour simuler et optimiser la conception de produits, de processus et de matériaux. Leur objectif est d’améliorer leurs performances et de réduire le temps de développement.
Depuis quelques années, les laboratoires pharmaceutiques et des entreprises de la cosmétique ont intégré le calcul intensif à la demande.
Le calcul intensif est également essentiel pour analyser de grands ensembles de données, tels que ceux générés par des études d’observation, des simulations ou des expériences. Il permet aux chercheurs d’identifier des modèles et des corrélations dans les données qui seraient difficiles à détecter avec des ressources informatiques traditionnelles.
Grappe de calcul
Pourquoi le HPC est-il devenu incontournable ? La réponse se trouve dans les différences entre le fonctionnement du calcul intensif et celui d’un système informatique standard. Celui-ci résout les problèmes principalement en divisant la charge de travail en tâches, puis en les exécutant en séquence sur un processeur (calcul en série).
Les systèmes HPC se caractérisent par leur puissance de traitement à grande vitesse, leurs réseaux à haute performance et leur grande capacité de mémoire, ce qui leur permet d’effectuer des quantités massives de traitements parallèles. Un supercalculateur est un type d’ordinateur HPC très avancé qui fournit une immense puissance de calcul et une grande vitesse, ce qui en fait un élément clé des systèmes de calcul à haute performance.
L’infrastructure d’un système HPC contient plusieurs sous-systèmes (ordinateurs, logiciels et outils spécialisés pour la gestion des ressources) étroitement interconnectés qui travaillent en parallèle comme un système unique pour effectuer des tâches de calcul à grande échelle. C’est ce qu’on appelle une grappe de calcul à haute performance.
Au cours des vingt dernières années, la plupart des algorithmes ont été parallélisés, ce qui signifie que le problème global est divisé en plusieurs parties, chacune étant exécutée sur un ordinateur ou un cœur distinct.
Le stockage HPC est un élément clé de toute grappe de calcul à haute performance fonctionnant de manière fluide et efficace. Des volumes très importants de données (qui peuvent atteindre plusieurs pétaoctets) sont nécessaires pour démarrer une simulation de longue durée ou la maintenir en fonctionnement. En fonction de l’algorithme, l’application peut également nécessiter davantage de données au fur et à mesure de son exécution.
Des obstacles à son adoption
Par exemple, lors de la simulation de l’interaction de différentes molécules médicamenteuses, des milliers de descriptions moléculaires devront être ingérées en même temps. Au fur et à mesure de l’exécution de l’application, un plus grand nombre de ces descriptions peuvent mériter d’être étudiées, ce qui nécessite une infrastructure de stockage à faible latence et à large bande passante.
Cependant, malgré des progrès récents impressionnants dans ce domaine, certains obstacles empêchent une adoption généralisée. Le premier est le coût. Même si le cloud a « démocratisé » l’usage du HPC, il s’agit toujours d’un investissement – en termes d’argent et de temps.
Le second frein concerne la conformité. La maintenance des systèmes HPC et des systèmes de données doit tenir compte de l’évolution des réglementations, en particulier celles concernant la protection des données personnelles de santé.
Il y a enfin, et c’est en partie lié au second obstacle, la protection et la confidentialité des informations. Différentes mesures de cybersécurité doivent s’appliquer à tous les aspects de l’environnement HPC, du réseau au stockage et au calcul en lui-même.
Dans l'actualité
- IBM veut développer un « supercalculateur quantique »
- Pierre Jaeger, IBM quantum EMEA : « Le principal défi avec le quantique est d’identifier les vrais cas d’usage »
- IA : Comment Microsoft entend accélérer la recherche scientifique
- Biais algorithmiques : la sensibilisation commence dès la formation
- Les thèses du mois : « La transition énergétique redéfinit les missions des ingénieurs »
- La revue du Magazine d’Actualité #5 : du 30 septembre au 4 octobre
- Monitoring embarqué : Touch Sensity poursuit son ascension
- Ingénieur en bureau d’études : 6 cartes à jouer
- À Massy, Quandela fait passer l’ordinateur quantique de l’ombre à la lumière
Dans les ressources documentaires
- La simulation numérique : un outil pour les innovations technologiques
- Processeurs graphiques totalement programmables (GPU)
- Virtualisation et sécurité pour l’informatique en nuage
- Santé et IdO : Perspectives, organisation de l’IdO en santé
- Calcul généraliste sur carte graphique - Du rendu au calcul massivement parallèle