Daniel ETIEMBLE
Ingénieur de l’INSA de Lyon - Professeur émérite à l’université Paris Saclay
Calculer en mémoire ou près de la mémoire devient incontournable dans le traitement de données gigantesques et est techniquement plus facile avec les techniques récentes de réalisation de circuits. Comment mettre en œuvre ces types de calculs ?
ARTICLE INTERACTIF
Découvrez en quoi les processeurs manycores sont différents des processeurs multicœurs. Découvrez les performances et les caractéristiques de ces architectures qui semblent trouver une voie de développement notamment en intelligence artificielle.
L'informatique et tous les systèmes numériques ne savent travailler que sur des chiffres binaires, appelés bits. Traiter des nombres, des opérations arithmétiques et des instructions de jeux d'instruction requiert un codage avec des formats entiers ou flottants. Et plus récemment, de nouvelles utilisations comme les réseaux neuronaux ou des problématiques de consommation d'énergie, ont conduit à l'utilisation de formats réduits.
A l’inverse des opérateurs combinatoires, les opérateurs séquentiels ont un effet mémoire. Cette capacité à mémoriser et à modifier les informations s’effectue par le biais des opérateurs élémentaires de mémorisation : les bascules réalisées à partir de différentes portes logiques. L’article examine ensuite la manière de réaliser des opérateurs séquentiels, dont les sorties à un instant donné sont fonction de l’état présent et de l’état précédent des sorties. Il poursuit en traitant le cas particulier des compteurs, puis celui des automates synchrones.
Cet article décrit comment réaliser les opérateurs logiques de calcul et de mémorisation des systèmes électroniques complexes. Il débute par une présentation des fondements mathématiques avec l’algèbre de Boole et les fonctions booléennes. Ensuite, il expose les trois grandes méthodes de synthèse de fonctions combinatoires, cette synthèse consiste à partir d’une expression booléenne à spécifier les opérateurs matériels permettant l’implémentation de la table ou de l’expression correspondante. Pour terminer, il choisit de présenter en exemple les opérateurs mathématiques (additionneurs et multiplieurs).
Les opérateurs logiques matériels sont utilisés en grand nombre dans les composants électroniques. Face à une densité qui ne cesse de croître, un compromis doit être fait entre vitesse, surface et consommation énergétique.
Basés sur le fonctionnement du cerveau humain, les réseaux neuronaux ont véritablement trouvé leur développement avec les réseaux de neurones profonds. Comment fonctionnent-ils et quels sont leurs grands domaines d'application ?
Qu'appelle-t-on plateformes Arduino et Raspberry ? De la formation des étudiants au développement de prototypes, ces plateformes ont aujourd'hui de nombreuses utilisations et leur faible coût, associé à des fonctionnalités nombreuses, leur offre des intéressantes perspectives.
Les processeurs superscalaires "flot de données", souvent appelés superscalaires à exécution non ordonnée, sont les cœurs de la majorité des multi-cœurs. Mais comment fonctionnent-ils et comment gèrent-ils l'enchaînement des instructions ?
Dans un processeur, l'augmentation du débit d'instructions passe par l'utilisation du parallélisme des instructions. Les processeurs superscalaires multi-pipeline en sont un exemple d'utilisation, avec une bonne performance.
Entre le processeur d’un ordinateur et les organes de stockage, la mémoire est organisée de façon hiérarchique, le niveau le plus près du processeur possédant le temps d’accès le plus rapide et le débit le plus élevé. Mais quels sont les fonctionnements et les techniques d’amélioration de ces caches ?
La miniaturisation électronique, notamment les performances et la complexité des microprocesseurs, est grandement responsable du développement fulgurant des ordinateurs, leur coût et taille diminuent, et leurs capacités croissent. Retraçons les grandes étapes techniques et humaines de cette évolution.
Comment fonctionnent les processeurs à mot d'instruction très longs, aussi appelés VLIW? Cette technologie connaît surtout un grand succès en traitement du signal.
La mémoire virtuelle d’un ordinateur est la partie de la hiérarchie mémoire comprise entre la mémoire principale et les mémoires secondaires. Découvrez comment elle y joue un rôle d’adaptateur et fournit à l’utilisateur l’illusion de posséder une très grande mémoire.
Découvrez les caractéristiques essentielles de l’exécution pipeline des instructions dans les processeurs avec un tour d’horizon complet, des techniques matérielles de contrôle des dépendances, aux techniques logicielles pour réduire ou supprimer les suspensions, en passant par les problèmes des interruptions.
Les réseaux de neurones profonds se sont développés essentiellement avec l'intelligence artificielle, notamment pour l'apprentissage automatique. Retrouvez ici les principes de base et quelques exemples d'usage de ces réseaux neuronaux profonds.
ARTICLE INTERACTIF
Retrouvez ici une présentation des applications nombreuses relatives à l'Internet des Objets. Quelles sont les technologies associées, les architectures et les protocoles informatiques ?
ARTICLE INTERACTIF
Les jeux d'instructions, qui constituent l'interface entre le matériel et le logiciel, sont le plus souvent propriétaires. RISC-V est le seul jeu d'instruction open source actuellement disponible. Il pourrait jouer, pour les jeux d'instruction, le rôle de Linux pour les systèmes d'exploitation ou d'Open Office pour les suites bureautiques...
ARTICLE INTERACTIF
Découvrez ici la différence entre les jeux d'instructions basés sur des extensions SIMD et vectorielles. Quels sont les avantages et les inconvénients de chacune de ces méthodes ?
ARTICLE INTERACTIF
Découvrez en quoi les processeurs manycores sont différents des processeurs multicœurs. Découvrez les performances et les caractéristiques de ces architectures qui semblent trouver une voie de développement notamment en intelligence artificielle.
ARTICLE INTERACTIF
Retrouvez ici tout sur les processeurs graphiques, et leur évolution depuis la simple carte graphique jusqu'aux processeurs actuels, acteurs incontournables du calcul massivement parallèle.
Quelles sont les solutions pour faire face aux limitations du "mur de la chaleur" ? Le parallélisme est une réponse, surtout quand il s'applique en même temps aux instructions, aux données et aux threads.
Les architectures parallèles apparaissent aujourd'hui comme une réponse aux limitations liées au mur de la chaleur. Découvrez ici les différents types d'architectures parallèles et les principes de la programmation parallèle.
Retrouvez ici les grandes caractéristiques des systèmes embarqués, c'est-à-dire de tous les ordinateurs présents dans les systèmes qui nous entourent. Cette introduction permet de découvrir les spécificités économiques et techniques de ces systèmes souvent temps réel.
Cet article donne une perspective d’ensemble de l’évolution de l’architecture des ordinateurs. Cette présentation permet de préciser la place et le rôle de chacun des articles particuliers de la rubrique « Matériel » de ce traité. Un second but de cet article est de montrer l’articulation entre la technologie des semi-conducteurs, les concepts architecturaux et les besoins des grandes classes d’applications qui utilisent ces ordinateurs, qu’ils soient visibles (PC et serveurs) ou non (systèmes embarqués et systèmes mobiles). L’augmentation des fréquences d’horloge liée aux générations successives de technologies CMOS a été le facteur clé de l’augmentation des performances jusqu'au début des années 2000. Mais le « mur de la chaleur », en interdisant des fréquences supérieures à 4 GHz a provoqué un tournant vers les architectures parallèles (multi-cœurs, GPU, accélérateurs matériels) pour pouvoir continuer à augmenter les performances.
Les jeux d'instruction permettent au processeur d'exécuter un programme. Quelles sont les caractéristiques de ces interfaces entre le matériel et le logiciel ?
Découvrez les caractéristiques des différentes extensions SIMD (Single Instruction on Multiple Data) des jeux d’instruction des microprocesseurs modernes. Essentiellement des extensions naturelles des instructions scalaires, elles sont accompagnées d’instructions ad hoc destinées à des applications particulières.
Cet article traite des principes généraux mis en oeuvre dans la réalisation des opérateurs logiques matériels utilisés dans les systèmes électroniques et informatiques. Les caractéristiques de la technologie et des types de circuiterie CMOS sont présentées pour mettre en évidence les compromis vitesse/ surface/ consommation énergétique qui interviennent dans la conception des différents types de circuits : ASIC, circuits logiques programmables, processeurs et mémoires. Les fondements de la réalisation de ces différents types de circuits sont présentés.
Retrouvez ici les grandes caractéristiques des systèmes embarqués, c'est-à-dire de tous les ordinateurs présents dans les systèmes qui nous entourent. Cette introduction permet de découvrir les spécificités économiques et techniques de ces systèmes souvent temps réel.
Cet article présente l’évolution de l’architecture des ordinateurs, précisant ainsi la place et le rôle des articles de la rubrique «Matériel» de ce traité. Il décrit l’articulation entre la technologie des semi-conducteurs, les concepts architecturaux et les besoins des grandes classes d’applications utilisant ces ordinateurs, qu’ils soient visibles (PC et serveurs) ou non (systèmes embarqués et systèmes mobiles). L’augmentation des fréquences d’horloge liée aux générations successives de technologies CMOS a été déterminante pour les performances jusqu'au début des années 2000, mais le «mur de la chaleur», qui interdit des fréquences supérieures à 4 GHz, a provoqué un tournant vers les architectures parallèles (multi-cœurs, GPU, accélérateurs matériels) pour pouvoir continuer à augmenter les performances.