Présentation
En anglaisRÉSUMÉ
Les ensembles de données gigantesques de beaucoup d’applications modernes et des techniques matérielles comme l’empilement 3D de puces dans les DRAM HBT ont donné une nouvelle actualité au calcul en mémoire ou calcul près de la mémoire. L’article présente les problématiques correspondantes : localisation du calcul, quantité de calcul, coordination entre CPU et l’accélérateur en ou près de la mémoire. Cinq exemples significatifs récents sont présentés et discutés : le circuit Untether AI Bocqueria, le circuit Cebras WCS-2, le projet Ambit, la puce PIM d’UPMEM et le circuit Aquabolt-XL de Samsung.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleABSTRACT
The huge data sets of many modern applications and hardware techniques such as 3D chip stacking in HBT DRAMs have given new momentum to in-memory or near-memory computing. The article presents the corresponding issues: computation localization, computation quantity, coordination between CPU and in /near memory coprocessor. Five significant recent examples are presented and discussed: the Untether AI Bocqueria chip, the Cerebras WCS-2 chip, the Ambit project, the UPMEM PIM chip and the Samsung Aquabolt-XL chip.
Auteur(s)
-
Daniel ETIEMBLE : Ingénieur de l’INSA de Lyon - Professeur émérite à l’université Paris Saclay
INTRODUCTION
Depuis plusieurs décennies, l’écart entre les performances de processeurs et des mémoires DRAM, connu sous le nom de « mur mémoire », n’a cessé de croître. Différentes techniques sont utilisées pour limiter la croissance de cet écart :
-
hiérarchies de caches, pour rapprocher instructions et données du processeur ;
-
multithreading matériel pour limiter les attentes mémoires ;
-
augmentation des débits des DRAM avec des générations successives : DDR, GDDR, HBM.
Rapprocher les calculs des données mémoire est une technique étudiée depuis les années 1960. Des réalisations comme les Vector IRAM ont été proposées dans les années 1990. Calcul en mémoire ou près de la mémoire devient d’actualité en fonction de deux phénomènes :
-
Beaucoup d’applications modernes utilisent des ensembles de données gigantesques. Minimiser les transferts entre CPU et mémoire principale DRAM devient une obligation.
-
Les techniques matérielles de réalisation de circuits, comme l’empilement 3D de puces dans des DRAM HBM (High Bandwith Memory) permettent de faciliter le calcul près de mémoires DRAM.
Calculer près ou en mémoire pose un certain nombre de questions :
-
Où effectuer le calcul ?
-
Quelle est la quantité de calculs nécessaire ?
-
Comment organiser la coordination entre le CPU maître et l’accélérateur matériel en ou près de la mémoire ?
Ces questions sont détaillées.
Cinq exemples récents de réalisation sont discutés :
-
L’architecture Untether AI Boqueria est un accélarateur pour inférence dans les réseaux de neurones. Il est constitué d’une grille 2D de 729 blocs SRAM, chaque bloc comprenant 512 SRAM de 640 octets et 512 processeurs élémentaires. Les calculs sont proches des SRAM.
-
Le circuit Celebras WS2 est un circuit constitué d’un wafer de 850 000 cœurs (2,6 . 1012 transistors) pour l’apprentissage profond. Les cœurs, interconnectés en grille 2D au niveau du wafer, ont un ratio 50 : 50 de logique (calcul) et de mémoire SRAM.
-
Le projet Ambit modifie la structure interne d’une DRAM pour réaliser un certain nombre d’opérations de base : copie, Not, And, Or, etc.
-
La société UPMEM a conçu et testé des puces PIM comprenant un processeur réalisé en technologie DRAM avec un jeu d’instructions complet pour le calcul entier, sans flottants ni instructions SIMD à côté de bancs mémoire DRAM. On a des calculs près des bancs mémoire DRAM.
-
Le circuit Aquabolt-XL de Samsung empile des puces DRAM avec la technologie TSV et insère dans l’empilement des puces avec des unités de calcul entre les bancs mémoire. L’unité de calcul a un nombre réduit d’instructions de type RISC 32 bits contrôlant notamment des instructions SIMD d’additions et multiplications sur des flottant 16 bits.
KEYWORDS
memory wall | processing in memory | processing near memory
DOI (Digital Object Identifier)
CET ARTICLE SE TROUVE ÉGALEMENT DANS :
Accueil > Ressources documentaires > Technologies de l'information > Technologies logicielles Architectures des systèmes > Architectures matérielles > Calcul en mémoire ou près de la mémoire > Rapprocher calcul et mémoire : les problématiques
Cet article fait partie de l’offre
Électronique
(227 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
3. Rapprocher calcul et mémoire : les problématiques
3.1 Applications « memory bound »
Par définition, les applications « memory bound » sont celles dont le temps d’exécution est déterminé par les temps d’attente des données mémoire.
Il existe de nombreux exemples de telles applications. Par exemple, un algorithme de classification d’objets en réalité augmentée typiquement traite des millions d’exemples d’images ou de clips vidéo et réalise la classification sur des flux de vidéo haute définition en temps réel. Les applications en IA, apprentissage machine et analyse de données sont limitées par la mémoire. Beaucoup de domaines comme la radio astronomie, la science des matériaux, la chimie, les sciences de la santé, etc. génèrent d’énormes quantités de données.
Rapprocher les calculs de la mémoire peut augmenter considérablement les performances. Les questions du comment sont les suivantes :
-
Où effectuer le calcul ? Dans la mémoire DRAM ou en utilisant la technologie DRAM pour le calcul, ou près de mémoires SRAM en utilisant la technologie logique (utilisée par les CPU) ?
-
Quelle est la quantité de calculs nécessaire : doit-on utiliser quelques opérations élémentaires ou quelques instructions de processeur ou un processeur avec un jeu d’instructions complet ?
-
Comment organiser la coordination entre le CPU maître et l’accélérateur matériel en mémoire ou près de la mémoire. Cet accélérateur est de fait un coprocesseur !
3.2 Quelle technologie pour le calcul ?
La technologie utilisée pour le calcul doit être compatible avec la technologie mémoire. Sinon, on réintroduit les problèmes du mur mémoire :
-
un calcul utilisant une technologie ASIC est compatible avec des mémoires SRAM (les mémoires SRAM sont utilisées comme caches dans les processeurs). Dans ce cas, le calcul est près des mémoires SRAM ;
-
avec des mémoires DRAM, le calcul peut s’effectuer dans la mémoire (opérations de calcul effectuées à l’intérieur de la mémoire) ou en technologie DRAM dans des parties de puce près des bancs mémoire....
Cet article fait partie de l’offre
Électronique
(227 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Rapprocher calcul et mémoire : les problématiques
BIBLIOGRAPHIE
-
(1) - SING (G.) et al - Near-Memory Computing: Past, Present, and Future - arXiv, 2019 https://arxiv.org/pdf/1908.02640.pdf
-
(2) - PATERSON (D.) et al - A case for Intelligent RAM, - IEEE Micro, vol. 17, n°2, pp 34-44, March 1997.
-
(3) - KOZIRAKIS (C.E.) et al - Scalable Processors in the Billion-Transistor Era : IRAM, - Computer, Vol. 30, N° 9, pp 75-78, Sept. 1997.
-
(4) - CALPIN (J.M.) - Memory Bandwidth and System Balance in HPC System, - https://sites.utexas.edu/jdm4372/tag/memory-bandwidth/
-
(5) - FARBER (R.) - How High-Bandwidth Memory Will Break Performance Bottlenecks, The Next platform, - October 21, https://www.nextplatform.com/2021/10/21/how-high-bandwidth-memory-will-break- performance-bottlenecks/
-
(6) - GHOSE (S.), BOROUMAND (A.), KIM (J.S.), GÓMEZ-LUNA...
DANS NOS BASES DOCUMENTAIRES
Cet article fait partie de l’offre
Électronique
(227 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive