Présentation
Auteur(s)
-
Franck CAPPELLO : Chargé de recherche au CNRS - Laboratoire de recherche en informatique LRI - Université Paris Sud, Orsay
-
Jean-Paul SANSONNET : Directeur de recherche au CNRS - Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur LIMSI - Université Paris Sud, Orsay
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleINTRODUCTION
L’architecture des ordinateurs, qu’il s’agisse de microprocesseurs ou de supercalculateurs, est fortement influencée par l’exploitation d’une propriété fondamentale des applications : le parallélisme. Un grand nombre d’architectures présentes dans les sites informatiques sont parallèles. Ce type d’architecture touche une large gamme de machines depuis les PC biprocesseurs jusqu’aux supercalculateurs. Aujourd’hui, la plupart des serveurs sont des machines parallèles (des multiprocesseurs).
L’objectif de notre exposé est d’introduire la notion de parallélisme, de discuter la nécessité de l’exploiter pour atteindre de hautes performances et de présenter les différentes formes d’architectures d’ordinateurs parallèles.
Tout au cours de notre étude, nous évoquons plusieurs domaines d’applications pour lesquels l’exploitation du parallélisme est fondamentale : le traitement numérique, les bases de données, le traitement d’images, la comparaison de séquences ADN, etc. Pour traiter ces applications, les architectures parallèles peuvent être généralistes (c’est-à-dire capables de répondre aux besoins d’une grande diversité d’applications) ou spécialisées. Les architectures spécialisées sont destinées à exploiter les caractéristiques spécifiques d’une catégorie d’applications ou même d’une seule application. Nous présentons ces deux types d’architectures parallèles.
Bien souvent, il faut avoir recours à une conception et à un développement parallèle de l’application pour exploiter le parallélisme de façon intéressante. Les langages de programmation parallèles sont une composante essentielle dans la chaîne de conception d’une application. Nous présentons les principaux.
Enfin, l’intérêt des architectures parallèles réside dans les performances qu’elles permettent d’atteindre. Nous examinons donc les métriques utilisés pour rendre compte des performances et les grandes lois qui les gouvernent.
VERSIONS
- Version courante de août 2017 par Franck CAPPELLO, Daniel ETIEMBLE
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(239 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
2. Définition du parallélisme
2.1 Approche intuitive du parallélisme
C’est le parallélisme présent dans une application qui permet d’exécuter simultanément, par des ressources matérielles différentes, plusieurs parties de cette application.
pour introduire la notion de parallélisme, nous allons examiner la boucle suivante :
Pour i de 1 à n faire A[ i ] <- B[ i ] + C [ i ] FinPourLe corps de cette boucle ne comporte qu’une seule opération. Si cette boucle présente du parallélisme, il faut le chercher entre les itérations. Voici les trois premières itérations :
A[ 1 ] <- B[ 1 ] + C [ 1 ] (a)A[ 2 ] <- B[ 2 ] + C [ 2 ] (b)A[ 3 ] <- B[ 3 ] + C [ 3 ] (c)La sémantique introduite par le programmeur indique les résultats attendus en mémoire après l’exécution de la boucle. Quel que soit l’ordre d’exécution ex : a, b, c ou c, b, a, ou encore b, c, a, etc. les résultats en mémoire sont identiques. La sémantique du programme ne dépend pas de l’ordre d’exécution des itérations de cette boucle. En particulier, l’exécution simultanée de ces trois itérations respecte la sémantique. Les itérations de cette boucle peuvent donc être exé-cutées en parallèle.
2.2 Définition formelle
Pour étudier la présence de parallélisme dans une application, nous avons besoin d’outils plus formels.
Bernstein [5] a introduit en 1966 un ensemble de conditions permettant d’établir la possibilité d’exécuter plusieurs programmes (processus) en parallèle. Supposons deux programmes : P1 et P2. Supposons que chacun utilise des variables en entrée et produise des résultats en sortie. Nous parlerons des variables d’entrée de P1 et P2 (respectivement E1 et E2) et des variables de sortie de P1 et P2 (respectivement S1 et S2).
Selon Bernstein, les programmes P1 et P2 sont exécutables en parallèle (notation : P1 ││ P2) si et seulement si les conditions suivantes sont respectées :
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(239 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Définition du parallélisme
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(239 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive