Présentation
En anglaisRÉSUMÉ
Une multitude de facteurs liés à aux activités humaines (télévision, satellite, radio, stations radar…) perturbe les nombreuses télécommunications (liaisons wifi, téléphones portables, liaisons satellite) qui peuplent de nos jours notre environnement. Ce bruit important peut conduire à des erreurs de transmission de données. Les codes correcteurs sont une forme de codage basée sur la redondance de l’information et destinés à corriger ces erreurs. L’intégration des turbocodes dans ces systèmes est venue bousculer la théorie précédemment établie. La correction d’erreur peut se pratiquer maintenant à des niveaux de bruit jusqu’alors inaccessibles, avec en plus une structure de décodeurs grandement simplifiée.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleABSTRACT
A multitude of factors related to human activities (television, satellite, radio, radar stations, etc.) disrupts many telecommunications (WiFi connections, mobile phones, satellite links) currently present in our environment. This significant noise can lead to errors in data transmission. Correcting codes are a type of coding based on the redundancy of information and used in order to correct these errors. The integration of turbocodes into these systems has shaken the previously established theory. Error correction can be now carried out at previously inaccessible noise levels and has a greatly simplified structure of decoders.
Auteur(s)
-
Yannick SAOUTER : Institut Télécom – Télécom Bretagne
INTRODUCTION
De nos jours, les télécommunications sont omniprésentes dans notre environnement. Que ce soit pour les liaisons satellites, les téléphones portables, les liaisons WiFi, de nombreux systèmes s'échangent des données par voie hertzienne. Or le milieu de propagation des ondes est perturbé de manière inhérente par du bruit. Ce bruit est de différente nature. Il peut être lié aux activités humaines (stations radar, balises maritimes, radio, télévision...) mais aussi d'origine externe (activité solaire ou rayonnements intergalactiques). De plus, les ondes radioélectriques subissent des affaiblissements liés à l'absorption par le milieu de propagation. Enfin, dans les applications terrestres, on assiste aussi à des phénomènes d'écho où le récepteur reçoit plusieurs copies du signal hertzien décalées dans le temps. C'est le cas, par exemple, quand le faisceau principal est réfléchi par des objets appartenant à l'environnement (immeubles, voitures...). Tous ces facteurs perturbent les communications et peuvent conduire à des erreurs de transmission des données.
Pour faire face à ce problème, les codes correcteurs d'erreurs ont été inventés. Le principe consiste à rajouter de l'information redondante à l'information que l'on veut émettre. Ainsi, si on veut diffuser un paquet de symboles de taille n, au préalable, il est encodé en un paquet de taille N > n. Du côté du récepteur, le paquet de taille N reçu contient éventuellement des erreurs. Mais tous les paquets possibles en réception ne correspondent pas à un encodage correct. Le décodage consiste donc à trouver d'abord le paquet le plus vraisemblable, puis d'en extraire l'information utile de taille n. Par paquet le plus vraisemblable, en général, il faut comprendre le paquet valide minimisant le nombre d'erreurs ou la puissance du bruit observée par rapport au paquet de taille N reçu.
Les références entre crochets sont développées dans la rubrique Pour en savoir plus [Doc. TE 5 260].
L'invention des turbocodes en 1993 a fortement modifié l'approche moderne des codes correcteurs d'erreurs. En effet, les systèmes préexistants étaient relativement complexes en termes d'encodage et de décodage. D'autre part, d'un point de vue théorique, les travaux réalisés par Claude Shannon prédisaient qu'en deçà d'une certaine puissance de bruit, il était possible d'obtenir des systèmes de communications sans erreurs. Or les solutions existantes fonctionnaient à des niveaux de bruit relativement éloignés de cette limite. Avec le temps, cette différence entre la théorie et la pratique avait même fini par être définitivement acceptée comme une pénalité incompressible. Les solutions à base de turbocodes ont montré que la pénalité vis-à-vis de la limite de Shannon est en fait beaucoup plus faible. En effet, avec ce type de systèmes, la correction d'erreur intervient à des niveaux de bruit qui étaient jusqu'alors inaccessibles. En outre, la structure des décodeurs est relativement simple. Leur intégration pour des applications du monde réel est donc possible pour un coût matériel qui s'avère en fait moins élevé qu'avec les solutions classiques précédemment utilisées.
DOI (Digital Object Identifier)
Cet article fait partie de l’offre
Le traitement du signal et ses applications
(160 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
7. Perspectives et problématiques
Plus de quinze ans après leur invention, le domaine des turbocodes est toujours un domaine de recherche fécond. Le principe de décodage turbo permet d'inventer de nouvelles structures de codes pour lesquels la procédure de décodage est implicite dans la définition du code. Une des structures prometteuses pour les applications futures est l'emploi d'un code récursif supplémentaire de rendement 1. Ce type de code appelé turbocodes 3D permet d'atteindre des taux d'erreurs très bas sans observer de phénomène de plancher. Cette structure est basée sur un turbocode classique. Les redondances formées sont alors partagées en deux groupes. Une partie est émise sur le canal de transmission sans post-traitement, comme dans le cas des turbocodes classiques. L'autre partie est réencodée par un code convolutif avant d'être émise sur le canal (voir figure 23). Au niveau du décodage, pendant la première itération, les redondances post-codées ne sont associées à aucune information qui permettrait le décodage. La conséquence est que l'on a un phénomène de multiplication d'erreurs : la sortie du post-décodeur est en fait moins bonne que son entrée. Ensuite, l'itération turbo classique est exécutée. Par une légère modification de l'algorithme, elle produit aussi des probabilités de décision pour les redondances. À l'étape suivante, le post-codeur dispose ainsi d'informations supplémentaires et donc les fiabilités en sortie du post-décodeur deviennent de bonne qualité. Par le processus turbo, on peut ainsi décoder les redondances, en plus des symboles d'information. Les redondances étant elles-mêmes corrigées, les décisions associées aux symboles systématiques sont alors de meilleure qualité. Il en résulte finalement de meilleures performances en termes de correction d'erreurs.
En ce qui concerne les codes produits, une des tendances actuelles est la recherche sur des codes constituants plus complexes que les codes binaires comme, par exemple, les codes Reed-Solomon. Ces codes possèdent des tailles de trames plus longues et plus en adéquation avec les besoins modernes en communication. De plus, les symboles des trames d'information ne sont plus binaires mais m-aires. Cela induit un surcoût en termes de complexité mais permet aussi d'obtenir des décisions plus fiables par les algorithmes classiques. Les performances sont donc généralement meilleures d'autant plus que ces codes possèdent des distances minimales plus grandes que leurs homologues binaires...
Cet article fait partie de l’offre
Le traitement du signal et ses applications
(160 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Perspectives et problématiques
BIBLIOGRAPHIE
-
(1) - BERROU (C.), GLAVIEUX (A.) - Near Shannon limit error correcting coding and decoding : turbocodes. - In Intl. Conf. On Communications, Geneva, Switzerland, vol. 2, p. 1064-1070 (1993).
-
(2) - SHANNON (C.E.) - A mathematical theory of communication. - Bell System Technical Journal, vol. 27, p. 379-423, juil. 1948.
-
(3) - HARTMANN (C.), RUDOLPH (L.) - An optimum symbol-by-symbol decoding rule for linear codes. - IEEE Trans. On Information Theory, vol. 22, issue 5, p. 514-517, sept. 1976.
-
(4) - Telemetry channel coding, CCSDS. 101.0-B-3. - Blue Book, mai 1992.
-
(5) - PYNDIAH (R.), GLAVIEUX (A.), PICART (A.), JACQ (S.) - Near optimum decoding of product codes. - In Global Telecommunications Conference, vol. 1, p. 339-343, déc. 1994.
-
(6) - BAHL (L.), COCKE (J.), JELINEK (F.), RAVIV (J.) - On optimal decoding...
Cet article fait partie de l’offre
Le traitement du signal et ses applications
(160 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive