Présentation

Article

1 - INTRODUCTION

2 - PHASES DE COMPILATION ET TYPOLOGIES D’UTILISATION

  • 2.1 - Source vers binaire
  • 2.2 - Parallélisation
  • 2.3 - Source à source
  • 2.4 - Bootstrap

3 - LANGAGES DE PROGRAMMATION

  • 3.1 - Modèles de programmation
  • 3.2 - Grammaire
  • 3.3 - Sémantique

4 - DESCRIPTION D’ARCHITECTURE

  • 4.1 - Machines mono-core
  • 4.2 - Machines à mémoire partagée
  • 4.3 - Machines à mémoire distribuée
  • 4.4 - Machines virtuelles
  • 4.5 - Accélérateurs de calcul

5 - FONCTIONNEMENT DU COMPILATEUR

6 - TECHNOLOGIES POUR LE COMPILATEUR

  • 6.1 - Lexer / Parser
  • 6.2 - Allocation de ressources

7 - OUTILS CONNEXES

  • 7.1 - Déboggeur
  • 7.2 - Profilage
  • 7.3 - Moteurs de construction
  • 7.4 - Sûreté de fonctionnement
  • 7.5 - Compilation croisée

8 - RUNTIME

  • 8.1 - Initialisation du programme
  • 8.2 - Gestion de la mémoire
  • 8.3 - Gestion des entrées/sorties
  • 8.4 - Gestion des exceptions et des signaux

9 - CONCLUSION

Article de référence | Réf : H3168 v2

Fonctionnement du compilateur
Compilateur

Auteur(s) : Henri-Pierre Charles, Christian Fabre

Date de publication : 10 août 2017

Pour explorer cet article
Télécharger l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !

Sommaire

Présentation

Version en anglais En anglais

NOTE DE L'ÉDITEUR

05/08/2017

Cet article est la réédition actualisée de l’article H 3 168 intitulé Compilateurs paru en 1996, rédigé par Bernard LOHRO.

RÉSUMÉ

Un compilateur est un logiciel permettant de transformer un programme source (écrit dans un langage de programmation) dans un autre langage de programmation cible, le plus souvent dans le langage d’un processeur permettant d’exécuter le dit programme. Nous verrons dans cet article les grands principes d’un compilateur, les technologies utilisées ainsi que d’autres usages de la compilation.

Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.

Lire l’article

ABSTRACT

Compiler

A compiler is a software program that transforms a source program (written in a programming language) into another target programming language, most often the processor programming language that permits its execution. This article shows compiler principles, the technologies used and other applications of compilation technologies.

Auteur(s)

INTRODUCTION

Histoire de la compilation

L’architecture des ordinateurs et les applications informatiques ont toujours été en grande évolution. La compilation étant à la frontière de ces deux mondes en pleine évolution, il est naturel qu’elle ait évolué de concert.

Schématiquement on pourrait découper l’histoire de la compilation en quatre grandes périodes :

1950-1970 : Durant cette période, les principales notions d’architecture matérielle étaient en place, mais il était difficile de programmer les ordinateurs qui étaient de volumineuses machines.

Les expressions rationnelles (1956) qui utilisent la théorie des automates finis et les analyseurs syntaxiques (1965) ont permis la création d’outils pour créer des langages de programmation et leur compilation. COBOL et FORTRAN (1957) ont été les premiers langages informatiques compilés.

On peut dire que cette période correspond à la création des fondements théoriques et pratique de la compilation

1970-1990 : C’est durant cette période que l’électronique grand public a été popularisée. Le processeur Intel 4004 (1971) est le premier processeur grand public, le processeur Intel 386 a été la base de la popularité des PC (Personnal Computer). Le processeur MIPS a été créé (1984), il a introduit la notion d’architecture RISC. C’est également durant cette période que Gordon Moore a réévalué sa célèbre loi indiquant « que le nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans »

C’est pendant cette période qu’ont été créés les langages C (1972) et C++ (1983) et le premier compilateur open source GCC 1.0. Ce compilateur a eu un succès énorme et a reçu l’adhésion de beaucoup de constructeurs informatiques.

Les objectifs de la compilation d’un programme étaient alors : « de fournir un programme binaire sémantiquement équivalent au programme source ». Les optimisations étaient encore peu développées.

1990-2000 : Cette période fut très riche par la création de nouveaux concepts architecturaux : pipelines, processeurs superscalaires, mémoire caches, machine parallèles.

C’est durant cette période qu’a été créé le langage Java (1995) et qui a largement diffusé la compilation au vol (1999).

Les objectifs de la compilation d’un programme sont devenus : « de fournir un programme binaire sémantiquement équivalent qui utilise au mieux les concepts architecturaux ». Les phases d’optimisation sont devenues de plus en plus complexes. Les premiers outils pour la programmation parallèles comme MPI pour le passage de message entre processeurs (1991) ou OpenMP pour la parallélisation automatique (1997) ont été créés.

2000-2017 : Cette dernière période a vu exploser la complexité des architectures : processeurs multicœurs, co-processeurs graphiques (GPU). Les langages CUDA (2007) et OpenCL (2009) sont apparus à cette période.

Le compilateur open source LLVM est apparu en 2003. Créé comme un projet de recherche, il a ensuite reçu le support des entreprise Apple et Google qui l’ont aidé à évoluer.

Les objectifs de la compilation ont encore changé pour arriver : à fournir plusieurs programmes binaires optimisés pour exploiter les différents cœurs de l’ordinateur (hétérogènes ou non).

Cet article est réservé aux abonnés.
Il vous reste 95% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

KEYWORDS

instruction level parallelism   |   processor   |   programming language   |   compiler   |   computer architecture   |   resource allocation   |   lexical analysis   |   syntactic analysis   |   program optimization

VERSIONS

Il existe d'autres versions de cet article :

DOI (Digital Object Identifier)

https://doi.org/10.51257/a-v2-h3168


Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(239 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Présentation
Version en anglais En anglais

5. Fonctionnement du compilateur

Un compilateur comprend différentes phases dans lesquelles le programme passe d’un format à un autre. Dans ces différentes phases, des passes transforment le programme afin d’en analyser les propriétés et de le transformer pour l’améliorer.

Dans cette partie, nous prendrons comme exemple un compilateur C qui transformera un programme C en un programme exécutable.

5.1 Phases

Les phases principales d’un compilateur C sont les grandes étapes du processus de compilation :

  • l’analyse lexicale qui lit le programme caractère par caractère et reconstitue des « tokens » ; les mots du langage ;

  • l’analyse syntaxique qui lit des « tokens » et produit des arbres syntaxiques qui représentent les expressions du programme à compiler ;

  • les formes intermédiaires (IR pour « intermediate representation ») sont des représentations du programme sur lesquelles les passes d’optimisation vont réaliser des transformations ;

  • la génération de code binaire. Une fois toutes les transformations réalisées, la phase finale écrit le code sous forme binaire (ou en passant par une représentation assembleur).

HAUT DE PAGE

5.2 Passes

Les passes d’optimisation sont des lectures séquentielles du programme à compiler de façon à détecter des opportunités d’optimisation et à réaliser ces optimisations.

Différentes passes d’optimisation vont transformer le code vers une forme intermédiaire la plus proche possible du langage binaire de la machine cible.

Les paragraphes suivants donnent quelques exemples d’optimisation dans l’objectif de minimiser le temps d’exécution du programme.

HAUT DE PAGE

5.2.1 Propagation de constantes

La passe de propagation de constantes permet de propager des valeurs constantes à l’intérieur du programme de façon à augmenter les opportunités d’optimisations.

1   int...

Cet article est réservé aux abonnés.
Il vous reste 95% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(239 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS

Lecture en cours
Fonctionnement du compilateur
Sommaire
Sommaire

BIBLIOGRAPHIE

  • (1) - FRIGO (M.) -   A fast Fourier transform compiler.  -  ACM SIGPLAN Notices, 39(4):642–655 (2004).

  • (2) - PUSCHEL (M.), MOURA (J.MF.), JOHNSON (J.R.), PADUA (D.), VELOSO (M.M.), SINGER (B.W.), XIONG (J.), FRANCHETTI (F.), GACIC (A.), VORONENKO (Y.) and others -   SPIRAL : Code generation for DSP transforms.  -  Proceedings of the IEEE, 93(2):232–275 (2005).

  • (3) - ISO -   The ANSI C standard (C99).  -  Technical Report WG14 N1124, ISO/IEC (1999).

  • (4) - ISO -   Microprocessor Systems – Floating-Point arithmetic.  -  Technical Report ISO/IEC/IEEE 60559:2011, ISO/IEC (2011).

  • (5) - American National Standards Institute, 1430 Broadway, New York, NY 10018, USA -   Military Standard Ada Programming Language,  -  February 1983. Also MIL-STD-1815A.

  • (6) - Bjarne Stroustrup -   The...

Cet article est réservé aux abonnés.
Il vous reste 92% à découvrir.

Pour explorer cet article
Téléchargez l'extrait gratuit

Vous êtes déjà abonné ?Connectez-vous !


L'expertise technique et scientifique de référence

La plus importante ressource documentaire technique et scientifique en langue française, avec + de 1 200 auteurs et 100 conseillers scientifiques.
+ de 10 000 articles et 1 000 fiches pratiques opérationnelles, + de 800 articles nouveaux ou mis à jours chaque année.
De la conception au prototypage, jusqu'à l'industrialisation, la référence pour sécuriser le développement de vos projets industriels.

Cet article fait partie de l’offre

Technologies logicielles Architectures des systèmes

(239 articles en ce moment)

Cette offre vous donne accès à :

Une base complète d’articles

Actualisée et enrichie d’articles validés par nos comités scientifiques

Des services

Un ensemble d'outils exclusifs en complément des ressources

Un Parcours Pratique

Opérationnel et didactique, pour garantir l'acquisition des compétences transverses

Doc & Quiz

Des articles interactifs avec des quiz, pour une lecture constructive

ABONNEZ-VOUS