Présentation
EnglishRÉSUMÉ
Afin de faciliter la transmission de signaux audio entre équipements de studio, divers formats de transfert des flux numériques de données ont été préconisés par des organismes de normalisation et de standardisation. Mais ces normes sont nombreuses et enchevêtrées. Le standard dit AES/EBU correspond à une interface audionumérique à deux canaux, monodirectionnelle, qui définit une liaison entre un émetteur et un récepteur. Ce standard est régi par les normes AES3, une variante existe appelée AES-3id dédiée plus spécifiquement à la télédiffusion, ainsi qu’une autre sous la référence AES42 qui concerne le transport d’un signal audionumérique issu d’un microphone.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
Yves GRENIER : Ingénieur de l’École Centrale, docteur en sciences physiques - Professeur à l’École nationale supérieure des télécommunications (ENST), Paris - Département traitement du signal et des images
INTRODUCTION
Les signaux audio sous forme numérique, quand ils ne sont pas compressés, sont transmis sous forme de flux binaire continu (par opposition à une transmission par paquets) entre deux équipements. Afin de faciliter l’interconnexion des équipements, plusieurs organismes de normalisation et de standardisation ont préconisé divers formats de transfert des flux numériques de données audio. Parmi ces organismes de normalisation, on trouve les suivants : Audio Engineering Society (AES), European Broadcasting Union (EBU ou Union européenne de radio-télévision : UER), International Telecommunication Union (ITU ou Union internationale des télécommunications : UIT), Society of Motion Picture and Television Engineers (SMPTE), International Electrotechnical Commission (IEC ou Commission électrotechnique internationale : CEI).
À ces organismes, il conviendrait d’ajouter des organismes nationaux (par exemple ANSI, DIN). Certaines normes existent sous plusieurs versions quasiment identiques lorsqu’elles ont été adoptées simultanément ou successivement par plusieurs de ces organismes.
En premier lieu, nous nous intéressons ici au standard dit AES/EBU qui correspond à une interface audionumérique à deux canaux. Cette interface est monodirectionnelle ; elle définit une liaison entre un émetteur et un récepteur. Nous présentons d’abord sa version symétrique (au sens électrique) utilisant une paire de conducteurs. Cette version correspond au standard AES3.
Une variante importante de ce standard porte le numéro AES-3id ; elle correspond au même type de liaison, mais sur câble coaxial, et donc non symétrique. Cette variante concerne essentiellement le contexte de la télédiffusion. Dans le même contexte, le signal audio est naturellement véhiculé conjointement au signal vidéo. Nous étudions les standards qui précisent l’insertion du signal audio AES/EBU dans un flux vidéo numérique. La norme a été éditée par l’UIT-R sous la référence BT.1305.
Un troisième type de liaison dérivé du modèle AES/EBU a été récemment normalisé par l’AES sous la référence AES42 ; ce standard concerne le transport d’un signal audionumérique issu d’un microphone. Par rapport au standard AES3, le standard AES42 ajoute principalement la possibilité d’envoyer depuis le récepteur AES/EBU vers l’émetteur (c’est‐à‐dire vers le microphone) une alimentation électrique sous forme d’une tension continue fantôme. Elle ajoute également la possibilité d’envoyer depuis le récepteur (qui peut par exemple être une table de mixage) des commandes destinées à modifier le comportement du microphone (ou de toute autre source numérique).
Nous couvrons ainsi les techniques permettant de véhiculer le signal sonore seul, et celles permettant d’associer le signal audionumérique à la vidéo numérique. À l’inverse, nous excluons les techniques de télécommunications permettant de véhiculer ces signaux sur des réseaux. De même, nous ne traitons pas les différents formats de fichiers audio utilisés dans le stockage sur support informatique, ni dans des liaisons avec ordinateurs (par exemple USB, FireWire). Ce document se veut une introduction aux diverses normes, un panorama donc, mais pas un résumé de ces normes. L’ingénieur ayant à les implanter doit se reporter aux textes originaux des normes (voir ).
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Le traitement du signal et ses applications
(160 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
4. Synchronisation et horloges
La numérisation des signaux a entraîné l’apparition d’un problème très important dans le transfert de signaux entre équipements : la synchronisation des horloges de chaque équipement. Le standard AES3 résout très élégamment ce problème entre un équipement émetteur et un équipement récepteur : l’émetteur insère son horloge dans le flux émis et permet au récepteur de se synchroniser sur elle. Mais cela ne suffit pas lorsque plusieurs équipements doivent travailler en parallèle ou lorsque l’horloge du récepteur est imposée, par exemple en fonction d’une horloge vidéo.
La synchronisation suppose deux choses. Tout d’abord, les fréquences d’échantillonnage doivent être identiques, garantissant le même nombre d’échantillons à chaque seconde. Ensuite, les trames audio doivent survenir au même instant, aux tolérances près. Les ingénieurs du son portent une très grande attention à la qualité des signaux d’horloge, car la qualité du signal analogique restitué en dépend.
La synchronisation sur une horloge de référence peut se faire de trois manières. Le schéma le plus simple consiste, pour chaque équipement recevant un flux AES/EBU, à utiliser l’horloge inhérente à ce flux comme horloge de synchronisation. Dans ce schéma, les difficultés viennent des variations de l’horloge (gigue) ainsi que des décalages successifs qui s’introduisent quand de tels équipements sont mis en cascade. Une seconde technique consiste à fabriquer une horloge de référence pour les signaux audio, envoyée à tous les équipements du studio. Ceux‐ci se synchronisent donc sur cette horloge unique. Cette technique réclame une horloge très précise, que décrit le standard AES11. La troisième manière consiste à utiliser un asservissement de l’horloge de l’émetteur, une horloge de référence audio ; c’est la technique qu’utilise le standard AES42 pour synchroniser tous les microphones connectés à une même console de mixage.
4.1 Gigue
La gigue (jitter ) se définit comme les variations des instants de passage du signal par zéro, par rapport à l’horloge idéale. Deux types de gigue peuvent être considérés : le premier est intrinsèque, il est observé quand l’émetteur fonctionne de...
Cet article fait partie de l’offre
Le traitement du signal et ses applications
(160 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Synchronisation et horloges
BIBLIOGRAPHIE
-
(1) - WATKINSON (J.) - The Art of Digital Audio. - Focal Press (1991).
-
(2) - BALLOU (G.M.) (éd.) - Handbook of Sound Engineers : The New Audio Cyclopedia. - Butterworth-Heinemann (1998).
-
(3) - BALESTRAT (G.) - Signal vidéo numérique. - TE 5 330, Traitement du signal et ses applications (2001).
-
(4) - DELHAISE (A.) - Enregistrement magnétique des images : formats numériques. - TE 5 772, Traitement du signal et ses applications (2004).
-
(5) - DELHAISE (A.) - Interfaces et liaisons de transfert. - TE 5 774, Traitement du signal et ses applications (2004).
-
(6) - GOUYET (J.-N.) - DMAM : médias numériques, métadonnées et gestion. - TE 5 885, Traitement du signal et ses applications (2004).
NORMES
-
AES Recommended practice for digital audio engineering – Serial transmission format for two-channel linearly represented digital audio data - AES3-2003 -
-
Specification of the digital audio interface (the AES/EBU interface) - EBU Tech. 3250-E - 2004
-
Interface audionumérique pour les studios de radiodiffusion - UIT-R BS.647-2 - 03-92
-
AES information document for digital audio engineering – Transmission of AES3 formatted data by unbalanced coaxial cable - AES-3id-2001 -
-
AES information document for digital audio engineering – Guidelines for the use of the AES3 interface - AES-2id-1996 (r2001) -
-
AES Recommended practice for digital audio engineering – Synchronization of digital audio equipment in studio operations - AES11-2003 -
-
Synchronization of digital audio signals in a television environment - EBU R83-1996 -
-
...
ANNEXES
Audio Engineering Society (AES)
American National Standard Institute (ANSI)European Broadcasting Union (EBU)Union européenne de radio-télévision (UER)Society of Motion Picture and Television Engineers (SMPTE)International Electrotechnical Commission (IEC)Commission électrotechnique internationale (CEI)International Telecommunication Union (ITU)Union internationale des télécommunications (UIT) HAUT DE PAGECet article fait partie de l’offre
Le traitement du signal et ses applications
(160 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive