Présentation
EnglishRÉSUMÉ
Entre le ou les processeurs d'un ordinateur et les organes de stockage existe une hiérarchie de mémoires, dont les temps d'accès augmentent et les débits diminuent lorsqu'on s'éloigne des processeurs. Cet article décrit les principes et le fonctionnement de cette hiérarchie comprise entre un processeur et la mémoire principale, pour les architectures monoprocesseurs et les architectures parallèles multiprocesseurs et multicoeurs. Après avoir introduit les principes de base et les techniques d'amélioration des performances, les protocoles de cohérence sont introduits ainsi que les relations entre les caches et l'autre partie de la hiérarchie, entre la mémoire principale et les mémoires secondaires. Les principales optimisations logicielles tenant compte des propriétés des caches sont également introduites.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
Daniel ETIEMBLE : Ingénieur INSA Lyon - Professeur à l'université Paris Sud
-
François ANCEAU : Ingénieur INPG Grenoble - Professeur émérite au CNAM
INTRODUCTION
L'objectif de ce dossier est l'étude de la hiérarchie de mémoires caches situées entre le ou les processeurs d'un ordinateur et la mémoire principale. Il existe une différence de performance énorme entre les vitesses de fonctionnement d'un processeur et, plus généralement, les temps d'accès et les débits de transferts entre éléments de mémorisation situés sur une puce électronique et les temps d'accès et débits entre puces différentes. Entre un processeur et sa mémoire principale, il existe une hiérarchie de caches, certains sur la puce du processeur, et d'autres sur des puces externes, qui jouent le rôle d'adaptateurs de débit et de temps d'accès car les débits diminuent et les temps d'accès augmentent lorsque l'on s'éloigne du processeur. L'autre partie de la hiérarchie mémoire, située entre la mémoire principale et les disques et autres unités de stockage, fait l'objet d'un autre dossier.
Ce dossier présente les principes de fonctionnement des caches et les techniques matérielles permettant d'améliorer les performances, que ce soit pour des systèmes bas de gamme monoprocesseur, des systèmes avec processeur exécutant plusieurs instructions par cycle ou des systèmes parallèles utilisant des processeurs multicœurs ou des clusters de multicœurs. Les différentes techniques permettant d'assurer la cohérence des caches sont notamment présentées, des protocoles centralisés ou décentralisés de base aux protocoles pour architectures hiérarchiques.
Les techniques pour limiter l'impact des caches et les relations entre le fonctionnement des caches et les mémoires secondaires, notamment les traductions d'adresse liées à la mémoire virtuelle, sont également abordées.
Si le dossier se focalise essentiellement sur les techniques matérielles d'implantation de la hiérarchie de caches, l'impact des caches sur les temps d'exécution des programmes est souligné via la présentation des techniques d'optimisation logicielles classiques prenant en compte l'existence des caches.
MOTS-CLÉS
fonctionnement des caches cohérence des caches Caches multiprocesseurs et multicoeurs Optimisations logicielles
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
1. Hiérarchie mémoire
1.1 Généralités
« Une instruction par seconde requiert un octet de mémoire et 1 bit/s de capacité d'entrée-sortie » – loi empirique formulée par G. Amdahl, concepteur célèbre de mainframes chez IBM et dans sa propre compagnie.
Traduite avec des valeurs contemporaines, cette loi empirique signifierait qu'un ordinateur exécutant 1 GIPS (1 milliard d'instructions par seconde) aurait besoin d'une mémoire d'1 Go et 1 Gb/s de capacité d'entrées/sorties E/S. Cette loi empirique met l'accent sur la relation nécessaire entre les trois composantes essentielles d'un ordinateur : le processeur, la mémoire principale et les entrées/sorties. Ce dossier détaille un aspect de cette relation : la hiérarchie de mémoires entre le processeur et la mémoire principale.
Les ordinateurs utilisent une mémoire principale (MP) et des mémoires secondaires. Ces mémoires se distinguent par la technologie utilisée (semi-conducteurs ou magnétisme), par le mode d'accès (aléatoire, aléatoire par secteurs, séquentiel), leur temps d'accès, le caractère permanent ou non de l'information mémorisée, et leur prix. Le schéma général de la hiérarchie mémoire est donné par la figure 1. On constate que le temps d'accès des différents niveaux de mémoire varie comme la capacité de mémorisation de ces niveaux alors que le débit et le coût par bit varient comme l'inverse de la capacité de mémorisation.
Dans ce paragraphe 1, nous ne détaillons pas la manière de réaliser ces différentes mémoires, mais nous présentons les caractéristiques techniques de la partie de la hiérarchie constituée des caches et de la mémoire principale, qui influent sur les performances des ordinateurs. L'autre partie de la hiérarchie mémoire constituée de la mémoire principale et des disques, sera traitée dans le dossier sur les mémoires virtuelles. En 2011, les disques magnétiques sont les mémoires non volatiles couramment utilisées comme mémoire secondaire en arrière-plan de la mémoire principale. Dans le futur, ils seront de plus en plus concurrencés par les SSD (Solid State Drive), qui sont constitués de mémoires...
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Hiérarchie mémoire
BIBLIOGRAPHIE
-
(1) - HEWLETT PACKARD - Memory technology evolution : an overview of system memory technologies. - Technology brief, 9th edition (2010).
-
(2) - HENNESSY (J.-L.), PATTERSON (D.) - Architecture des ordinateurs – Une approche quantitative. - Vuibert Informatique (2003).
-
(3) - SICOLO (J.E.) - A multiported nonblocking cache for a superscalar uniprocessor. - MS Thesis, University of Illinois at Urbana Champaign (1992) http://impact.crhc.illinois.edu/ftp/report/ms-thesis-jim-sicolo.pdf.
-
(4) - ROTENBERG (E.), BENNETT (S.), SMITH (J.E.) - Trace cache : a low latency approach to high bandwidth instruction fetching. - In Proceedings of the 29th International Symposium on Microarchitecture, p. 24-34, déc. 1996.
-
(5) - KIN (J.), GUPTA (M.), MANGIONE-SMITH (W.H.) - The filter cache : an energy efficient memory structure. - In Proc. 43rd Hawaii International Conference on System Sciences (HICSS), p. 1-8, janv. 2010.
-
...
DANS NOS BASES DOCUMENTAIRES
Cet article fait partie de l’offre
Technologies logicielles Architectures des systèmes
(240 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive