FR2972877A1 - Procede d'encodage correcteur d'erreur, procede de decodage et dispositifs associes. - Google Patents
Procede d'encodage correcteur d'erreur, procede de decodage et dispositifs associes. Download PDFInfo
- Publication number
- FR2972877A1 FR2972877A1 FR1152106A FR1152106A FR2972877A1 FR 2972877 A1 FR2972877 A1 FR 2972877A1 FR 1152106 A FR1152106 A FR 1152106A FR 1152106 A FR1152106 A FR 1152106A FR 2972877 A1 FR2972877 A1 FR 2972877A1
- Authority
- FR
- France
- Prior art keywords
- data
- decoding
- class
- encoding
- interleaving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/27—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes using interleaving techniques
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/29—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/23—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using convolutional codes, e.g. unit memory codes
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/25—Error detection or forward error correction by signal space coding, i.e. adding redundancy in the signal constellation, e.g. Trellis Coded Modulation [TCM]
- H03M13/258—Error detection or forward error correction by signal space coding, i.e. adding redundancy in the signal constellation, e.g. Trellis Coded Modulation [TCM] with turbo codes, e.g. Turbo Trellis Coded Modulation [TTCM]
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/29—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
- H03M13/2939—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes using convolutional codes
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/29—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
- H03M13/2957—Turbo codes and decoding
- H03M13/296—Particular turbo code structure
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/29—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
- H03M13/2957—Turbo codes and decoding
- H03M13/296—Particular turbo code structure
- H03M13/2972—Serial concatenation using convolutional component codes
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/35—Unequal or adaptive error protection, e.g. by providing a different level of protection according to significance of source information or by adapting the coding according to the change of transmission channel characteristics
- H03M13/356—Unequal error protection [UEP]
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/37—Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
- H03M13/45—Soft decoding, i.e. using symbol reliability information
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/63—Joint error correction and other techniques
- H03M13/635—Error control coding in combination with rate matching
- H03M13/6362—Error control coding in combination with rate matching by puncturing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/004—Arrangements for detecting or preventing errors in the information received by using forward error control
- H04L1/0045—Arrangements at the receiver end
- H04L1/0047—Decoding adapted to other signal detection operation
- H04L1/005—Iterative decoding, including iteration between signal detection and decoding operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/004—Arrangements for detecting or preventing errors in the information received by using forward error control
- H04L1/0056—Systems characterized by the type of code used
- H04L1/0059—Convolutional codes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/004—Arrangements for detecting or preventing errors in the information received by using forward error control
- H04L1/0056—Systems characterized by the type of code used
- H04L1/0067—Rate matching
- H04L1/0068—Rate matching by puncturing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/004—Arrangements for detecting or preventing errors in the information received by using forward error control
- H04L1/0056—Systems characterized by the type of code used
- H04L1/007—Unequal error protection
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/29—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
- H03M13/2957—Turbo codes and decoding
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Error Detection And Correction (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
La présente invention concerne un procédé d'encodage correcteur d'erreur (300) pour encoder en parallèle des données numériques (30) dites sources, se présentant sous la forme d'une trame (102), lesdites données pouvant être classées en N classes (102 ), où N est un entier au moins égal à 2. Le procédé d'encodage selon l'invention comprend : - une première étape d'encodage convolutionnel récursif et systématique (3061) de données à encoder, formées par les données de la classe 1 (1021); et - une mise en œuvre des étapes suivantes, pour chaque n variant de 1 à M, où M est un entier positif inférieur ou égal à N-1 : - n mélange (304 ) d'un ensemble formé par les données de la classe n+1 (102 ) et les données systématique d'un encodage précédent ; (n + 1) encodage (306 ) convolutionnel récursif et systématique de données à encoder, formées par le résultat du n mélange. L'invention concerne également un procédé de décodage de données encodées suivant le procédé d'encodage selon l'invention, ainsi qu'un dispositif d'encodage et un dispositif de décodage associés.
Description
-1- « Procédé d'encodage correcteur d'erreur, procédé de décodage et dispositifs associés»
Domaine technique La présente invention concerne un procédé d'encodage correcteur d'erreur. Elle concerne également un procédé de décodage adapté à décoder des données ayant été encodées à l'aide du procédé d'encodage correcteur d'erreur selon l'invention. Elle concerne aussi un dispositif d'encodage pour la mise en oeuvre du procédé d'encodage correcteur d'erreur selon l'invention, ainsi qu'un dispositif de décodage pour la mise en oeuvre du procédé de décodage selon l'invention.
Le domaine de l'invention est celui de l'encodage de données numériques, destinées à être transmises notamment en présence d'un bruit de transmission, et du décodage desdites données numériques après transmission. L'invention concerne plus particulièrement mais de manière non 20 limitative le domaine de l'optimisation de la transmission de données numériques, par exemple via un réseau radio à large bande.
Etat de la technique antérieure En télécommunications, on utilise des procédés d'encodage correcteur 25 d'erreur (on peut parler de FEC, pour l'anglais « Forward Error Correction ») pour protéger contre les erreurs qui vont provenir de la transmission, des données, dites sources, à transmettre. Pour cela, on ajoute aux données sources de la redondance afin de permettre au destinataire de détecter et de corriger une partie des erreurs. 30 L'encodage correcteur d'erreur est suivi d'une modulation en vue de la transmission, c'est pourquoi on parle généralement de schéma de codage et de modulation (MCS, pour l'anglais « Modulation and Coding Scheme »), pour désigner tout à la fois l'encodage correcteur d'erreur et la modulation. On connaît dans l'art antérieur un procédé d'encodage correcteur 35 d'erreur communément appelé « turbo code ». Il s'agit d'un procédé 2972877 -2- d'encodage correcteur d'erreur, mettant en oeuvre en parallèle au moins deux étapes indépendantes d'encodage convolutif systématique de l'ensemble des données à encoder, et au moins une étape d'entrelacement temporel modifiant l'ordre de prise en compte des données pour chacune des étapes 5 d'encodage. Les turbo codes sont par exemple présentés dans le brevet français FR 2 675 971. Le décodage met en oeuvre un algorithme de décodage itératif basé sur l'algorithme de Bahl, Cocke, Jelinek et Raviv, et une recherche de maximum a posteriori.
10 Un inconvénient des turbo codes est cependant que l'ensemble des données sources est protégé de façon égale. Les codes UEP (pour l'anglais « Unequal Error Protection », c'est-à-dire à protection d'erreur inégale), nés avec la technologie GSM, apportent une réponse à cet inconvénient en permettant de regrouper dans différentes 15 classes, en fonction de leur importance, les données numériques d'une trame, et de protéger chaque classe en fonction de son niveau de priorité (on attribue un niveau de priorité d'autant plus élevé que la donnée est importante). Ce principe permet d'optimiser des ressources en transmission ainsi que 20 la largeur de bande de fréquence utilisée. Un inconvénient des codes UEP connu est que chaque classe est traitée séparément. On commence par séparer les différentes classes, avant de les encoder séparément. Les données encodées de chaque classe sont ensuite modulées séparément. Après transmission, les données d'une même trame 25 sont donc décorrelées. Cela implique une perte en terme de ressources car on a par exemple besoin : - d'en-têtes supplémentaires (ou en anglais « headers », données supplémentaires servant à définir un paquet de données, par exemple les données d'une classe dans le cas où les différentes 30 classes sont traitées de façon indépendante), et - de traitements supplémentaires pour resynchroniser après transmission les données des différentes classes d'une même trame. En outre, ces étapes de resynchronisation engendrent des retards en 35 réception. 2972877 -3- Une telle perte de ressource va à l'encontre de la demande actuelle en débit de transmission plus élevé, en capacité de réseau plus élevée, et en délai de transmission plus court.
5 Un but de la présente invention est de proposer des procédés et dispositifs d'encodage/de décodage correcteur d'erreur qui ne présentent pas les inconvénients de l'art antérieur. Un autre but de la présente invention est de proposer des procédés et dispositifs d'encodage/de décodage correcteur d'erreur qui minimisent les 10 délais de transmission et réception, notamment pour des applications telles que la transmission de son ou de vidéo. Un autre but de la présente invention est de proposer des procédés et dispositifs d'encodage/de décodage correcteur d'erreur qui sont moins gourmands en ressource que les procédés et dispositifs de l'art antérieur. 15 Un autre but de la présente invention est de proposer des procédés et dispositifs d'encodage/de décodage correcteur d'erreur qui nécessitent moins de débits en transmission que les procédés et dispositifs de l'art antérieur. Enfin, un but de la présente invention est de proposer des procédés et dispositifs d'encodage/de décodage correcteur d'erreur qui nécessitent moins de capacité de réseau que les procédés et dispositifs de l'art antérieur.
Exposé de l'invention L'invention permet d'atteindre au moins l'un de ces buts par un procédé d'encodage correcteur d'erreur pour encoder en parallèle des données numériques dites sources, se présentant sous la forme d'une trame, lesdites données pouvant être classées en N classes, où N est un entier au moins égal à 2. Le procédé d'encodage selon l'invention comprend : - une première étape d'encodage convolutionnel récursif et systématique de données à encoder, formées par les données de la classe 1 ; et - une mise en oeuvre des étapes suivantes, pour chaque n variant de 1 à m, où M est un entier positif inférieur ou égal à N-1 : - nè' mélange d'un ensemble formé par les données de la classe n+1 et les données systématique d'un encodage 35 précédent ; -4- - (n+1)ème encodage convolutionnel récursif et systématique de données à encoder, formées par le résultat du nème mélange.
On peut aussi prévoir plusieurs étapes d'encodage intermédiaires des mêmes données avant l'ajout de nouvelles informations à encoder. On parle donc d'un nème mélange d'un ensemble formé par les données de la classe n+1 et les données systématiques d'une étape d'encodage précédente car - l'étape d'encodage précédente peut être l'étape d'encodage n ; - l'étape d'encodage précédente peut être une étape d'encodage intermédiaire. Le terme « donnée systématique », ainsi que le terme « donnée de parité » utilisé dans la suite, sont des termes relatives aux codes convolutionnels récursifs et systématiques, et sont connues de l'homme de l'art. Ils correspondent aux deux sorties d'un code convolutionnel récursif et systématique. Dans tout le texte, les données systématiques et les données de parité peuvent comprendre des bits de terminaison (on parle en anglais de «tait bits») La donnée systématique est de préférence identique à la donnée à encoder, tandis que la donnée de parité peut correspondre à au moins une donnée de redondance. Les données systématiques d'une étape d'encodage forment les données 25 à encoder par ladite étape encodage.
L'invention prévoit avantageusement d'ajouter avant certaines étapes d'encodage de nouvelles informations à encoder. On réalise ainsi un procédé d'encodage correcteur d'erreur de type UEP, 30 c'est-à-dire à protection non-uniforme, chaque classe pouvant bénéficier d'une protection différente à l'égard des erreurs apparaissant notamment au cours de la transmission sur un canal. L'invention reprend le principe général des turbo codes, puisqu'on retrouve des étapes d'encodage successives et des étapes de mélange en vue 35 d'un autre encodage des mêmes données. Cependant, on a modifié le schéma -5- connu pour aboutir à un schéma d'encodage dans lequel différentes données numériques sources d'une même trame sont plus ou moins protégées. La protection différente provient d'un nombre d'informations de redondance (ou données encodées) différent, en fonction du nombre de fois où les données de la classe ont été encodées. Chaque classe peut en effet être encodée un nombre de fois différent, selon un nombre d'encodages réalisés prenant en compte les données de cette classe. Les données d'une classe peuvent être prises en compte pour un encodage, en tant que données de la classe 1, en tant que données de la classe n+1 et/ou en tant que données à encoder formées par le résultat du nè' mélange. Le procédé selon l'invention est adapté à traiter des trames entières. La protection des données peut être appelée hiérarchique, des données plus importantes, autrement dit à plus haut niveau de priorité, pouvant être mieux protégées. La structure peut être adaptée à tout type de trame, peu importe notamment le nombre de classes. On réalise un encodage UEP qui s'applique directement à une trame de données numériques entière.
Chaque classe d'une trame peut ainsi être encodée avec un schéma d'encodage dédié et différent du schéma d'encodage appliqué à une ou plusieurs autres classes de la même trame. Le procédé selon l'invention permet ainsi de réaliser un encodage avec moins de ressources que les procédés de l'état de la technique.
Par ailleurs, le procédé selon l'invention permet de réaliser un encodage plus rapide, en consommant moins d'énergie par rapport aux procédés de l'état de la technique et en réduisant le retard en réception des applications tel que la parole et la vidéo. Enfin, les données encodées avec le procédé selon l'invention peuvent être transmises avec moins de débits en transmission et moins de capacité de réseau que les données encodées avec les procédés et dispositifs de l'art antérieur, à protection égale. Le procédé selon l'invention permet que les différentes classes d'une même trame soient encodées par un unique procédé d'encodage correcteur d'erreur, à l'inverse des procédés d'encodage UEP connus dans lesquels 2972877 -6- chaque classe est encodée indépendamment des autres classes de la même trame. Il n'est plus nécessaire de séparer en plusieurs flux de données les données des différentes classes d'une même trame, pour les encoder 5 séparément. Le procédé selon l'invention permet ainsi d'éviter la transmission d'informations de synchronisation, et donc d'optimiser les ressources et les délais du réseau de transmission. Le procédé selon l'invention permet ainsi de réduire un retard en 10 réception, en particulier pour des applications telles que la transmission de son (par exemple parole) ou de vidéo. Le procédé selon l'invention permet ainsi d'éviter une étape de resynchronisation après transmission. Le procédé selon l'invention permet aussi de simplifier la modulation des 15 données ayant été encodées, toutes les classes d'une trame pouvant être modulées ensemble. Il permet d'appliquer un unique schéma de modulation.
L'au moins une étape de mélange peut apporter une distribution aléatoire des données numériques dans le résultat final. 20 Les données numériques peuvent être toute donnée numérique, notamment des données numériques représentant une vidéo ou une voix. Le procédé d'encodage est suivi de préférence d'une modulation appropriée au canal de transmission utilisé. Le schéma d'encodage et de modulation pouvant alors être obtenu est 25 particulièrement robuste aux erreurs. On peut prévoir que certaines données de la trame ne soient pas encodées. On peut prévoir de mettre en oeuvre un poinçonnage suite à la mise en oeuvre d'une étape d'encodage. Cela peut impliquer au moins une étape de 30 dépoinçonnage lors d'un décodage. Le dépoinçonnage consiste à retrouver des données de la même taille que des données avant un poinçonnage correspondant, par exemple en introduisant des zéros dans les données poinçonnées. 2972877 -7- De préférence, un niveau de priorité est attribué à chacune des classes, les classes 1 à N étant rangées dans l'ordre décroissant des niveaux de priorité. Le procédé selon l'invention permet ainsi que chaque classe bénéficie 5 d'une protection adaptée. Il permet ainsi éviter la transmission de plus d'informations de redondance qu'il est nécessaire, ce qui permet d'optimiser les ressources du réseau de transmission tout en obtenant une qualité optimale en réception, les informations les plus importantes ayant été hautement protégées. 10 Chaque étape de mélange peut consister en une simple concaténation. Avantageusement, chaque étape de mélange consiste en un entrelacement. Un entrelacement peut consister à organiser d'une manière non 15 contiguë des données reçues. On peut envisager tout type d'entrelacement connu, notamment les entrelacements développés dans le cadre des turbo codes. En général, des erreurs lors d'une transmission sur un canal se produisent en rafales plutôt que de manière indépendante. Si le nombre 20 d'erreurs dépasse la capacité de l'encodage correcteur d'erreur, il ne parvient pas à récupérer les données sources. L'entrelacement est généralement utilisé pour contribuer à résoudre ce problème en modifiant l'ordre de prise en compte de mêmes données numériques dans plusieurs encodages, créant ainsi une distribution plus uniforme des erreurs. 25 Selon un mode de réalisation privilégié du procédé d'encodage selon l'invention, on choisit M égal à N-1, de façon que les classes 1 à N soient encodées. Ainsi, toutes les données numériques source peuvent être protégées. De préférence, on obtient à l'issu de la mise en oeuvre de toute les étapes du procédé d'encodage selon l'invention, c'est-à-dire en sortie, des données de parité correspondant à chacune des étapes d'encodage et une donnée systématique correspondant à la (M+1)ème étape d'encodage. 30 35 2972877 -8- L'invention concerne également un dispositif d'encodage pour la mise en oeuvre du procédé d'encodage correcteur d'erreur selon l'invention, apte à encoder des données numériques dites sources se présentant sous la forme d'une trame, lesdites données pouvant être classées en N classes. Ledit 5 dispositif d'encodage selon l'invention comprend : - un premier module d'encodage convolutionnel récursif et systématique agencé pour encoder des données à encoder formées par les données de la classe 1 ; et - et soit n variant de 1 à M, où M est un entier positif inférieur ou égal à N-1, 10 M ensembles formés chacun par un nème mélangeur suivi d'un (n+Dème module d'encodage convolutionnel récursif et systématique, le nème mélangeur étant agencé pour recevoir les données de la classe n+1 et les données systématiques d'un module d'encodage précédent, et le (n+Dème module d'encodage étant agencé pour encoder des données à encoder formées par la 15 sortie du nème mélangeur.
L'invention concerne également un procédé de décodage de données numériques, agencé pour décoder des données numériques encodées conformément au procédé d'encodage selon l'invention. 20 De préférence, on obtient à l'issu de la mise en oeuvre de toute les étapes du procédé d'encodage selon l'invention des données de parité correspondant à chacune des étapes d'encodage, et la donnée systématique de la (M+1)ème étape d'encodage. 25 Ces données obtenues sont avantageusement transmises via un canal de transmission. On reçoit donc après transmission des données dites reçues pouvant être affectées d'erreurs intervenues en particulier au cours de la transmission. Avantageusement, le procédé de décodage selon l'invention est appliqué 30 à ces données reçues. Pour des raisons de clarté de l'exposé, dans tout le texte on désigne de la même façon une donnée avant et après transmission.
De façon particulièrement avantageuse, le procédé de décodage selon 35 l'invention est tel que, pour tout j, k, 1 compris entre M+1 et 1: 2972877 -9- - à chaque Jerne étape d'encodage du procédé d'encodage selon l'invention, correspond une étape de décodage j (410;), adaptée à décoder des données encodées résultant de la jème étape d'encodage ; - à l'issu de chaque étape de décodage j, on obtient d'une part des 5 données dites « soft » correspondant à une estimation des données de la classe j, d'autre part des données dites extrinsèques ; et on met en oeuvre les étapes suivantes : - décodage k ; puis - décodage I k en fonction d'au moins une donnée extrinsèque fournie par au 10 moins une étape de décodage autre, utilisée comme donnée a priori.
Les données dites "a priori" représentent de préférence des probabilités sur des données encodées reçues du canal. Ces probabilités sont disponibles avant tout décodage courant desdites 15 données encodées reçues, ces valeurs probabilistiques venant d'une source autre que les données encodées reçues du canal. Une donnée a priori utilisée pour décoder les données encodées résultant de la kème étape d'encodage peut être relative aux données de parité et aux données systématiques de cette kème étape d'encodage. 20 Les données extrinsèques d'un bit B désignent avantageusement les informations produites par un décodeur (en se basant sur les informations encodées reçues canal et le cas échéant des données a priori), à l'exception des informations canal et a priori du bit B en question. 25 Ces données extrinsèques peuvent représenter la probabilité d'avoir reçu ce bit B en fonction des valeurs de tous les autres bits adjacents de la même trame. On peut se référer notamment à l'ouvrage suivant : Todd K Moon, "Error Correction Coding - Mathematical Methods and Algorithms", John Wiley & 30 Sons 2005. Les données extrinsèques résultant de la jème étape d'encodage sont de préférence relatives aux données de parité et aux données systématiques de cette jème étape d'encodage. -10- Les données extrinsèques comprennent de préférence des données dites « a priori » fournissant une donnée supplémentaire pour estimer les données des autres classes.
A chaque étape de décodage, on peut utiliser une donnée a priori. Pour l'étape de décodage effectuée en premier dans l'ordre chronologique, la donnée a priori est mise à zéro. Ensuite, chaque étape de décodage permet d'obtenir une donnée a priori utilisée pour une autre étape de décodage.
Chaque classe peut bénéficier d'une protection différente à l'égard des erreurs. Une classe fortement protégée bénéficiera d'un taux d'erreur d'autant moins important lors du décodage. Un décodage I k en fonction d'au moins une donnée extrinsèque fournie par au moins une étape de décodage autre, utilisée comme donnée a priori, permet que les différentes classes encodées bénéficient de l'encodage des autres classes encodées. On peut ainsi atteindre plus rapidement, pour une classe moins protégée, un taux d'erreur binaire donné. L'invention permet ainsi une 20 économie d'énergie, de redondance et de délai.
Chaque étape de décodage peut mettre en oeuvre un décodage itératif, c'est-à-dire tout type d'algorithme basé sur la recherche du maximum a posteriori pour l'estimation de probabilités a posteriori (MAP). Ce maximum a 25 posteriori peut être calculée avec l'algorithme BCJR (algorithme de Bahl, Cocke, Jelinek et Raviv), avec une dérivation du MAP, notamment selon un décodage dit LOG MAP utilisant un rapport de vraisemblance (on parle en anglais du "Log Likelihood Probabilities Ratios"), ou un décodage dit MAX LOG MAP, plus appropriée pour l'implémentation matérielle. 30 Avant leur utilisation comme donnée a priori pour une étape de décodage j, on peut effecteur un certain traitement des données extrinsèques. L'idée est de retrouver des données de la même dimension et dans le même ordre que les données en sortie de l'étape d'encodage correspondant. 35 De préférence, les estimations des données de chaque classe sont progressivement extraites des données soft. Il s'agit d'extraire au bon moment certaines données relatives aux classes respectives.
Une étape de décodage peut être réalisée non successivement pour toute classe, indépendamment de l'ordre d'encodage. La première étape d'encodage peut être réalisée pour une classe intermédiaire, et les étapes de décodage précédentes et suivantes peuvent être réalisées dans tout ordre avantageux, notamment selon un taux d'erreur prédéfini à atteindre pour chaque classe.
Avantageusement, une étape de décodage peut être réalisée successivement pour toutes les classes n, où n est décroissant, variant de M+1 à 1.
De préférence, le procédé de décodage selon l'invention comprend en outre une étape initiale de démultiplexage réalisant la séparation des données de parité de chaque classe. Les données de parité de chaque classe peuvent alors être utilisées 20 chacune pour une étape de décodage correspondante.
Pour tout j compris entre M+1 et 2, le procédé de décodage selon l'invention peut comprendre en outre après chaque étape de décodage j les opérations suivantes : 25 - démêlage j-1 des données dites extrinsèques, le démêlage j-1 réalisant une fonction inverse de celle mise en oeuvre à l'étape de mélange j-1, pour fournir des données démêlées ; - démultiplexage des données démêlées pour séparer des données a priori relatives à la classe j dites données extraites et des données a priori 30 relatives aux classes 1 à j-1 dites a priori utiles ; - fourniture des données dites a priori utiles pour être utilisées à l'étape de décodage j-1. 2972877 -12- Dans tout le texte, lorsqu'on parle démêlage, on se réfère à un mélange donné, le démêlage consistant à retrouver l'ordre des données avant ledit mélange.
5 Pour tout j compris entre M+1 et 2, le procédé de décodage selon l'invention peut comprendre en outre après chaque étape de décodage j les opérations suivantes : - démêlage j-1 des données soft, le démêlage j-1 réalisant une fonction inverse de celle mise en oeuvre à l'étape de mélange j-1, pour fournir 10 des données soft démêlées; - démultiplexage des données soft démêlées pour séparer des données soft relatives à la classe j dites données soft extraites et des données soft relatives aux classes 1 à j-1. Les données soft extraites servent pour une estimation des données de 15 la classe j. On peut prévoir en outre une étape spécifique d'estimation des données soft extraites pour retrouver les valeurs de la classe j.
Au moins une étape de décodage j peut être réitérée au moins une fois, en fonction de données a priori correspondant à des données extrinsèques fournies par au moins une étape de décodage des données d'une autre classe. A chaque réitération d'une étape de décodage, on peut utiliser une donnée a priori. Chaque étape de décodage peut être réitérée au moins 1 fois, par 25 exemple entre 1 et 5 fois. L'étape de décodage ainsi réitérée peut ensuite être suivie de nouvelles étapes de décodage de données des classes suivantes ou précédentes. Avant leur utilisation pour une réitération de l'étape de décodage j, on peut effecteur un certain traitement des données extrinsèques avant d'en 30 utiliser certaines au moins comme données a priori. L'idée est de retrouver des données de la même dimension et dans le même ordre que les données en sortie de l'étape d'encodage correspondant.
On réalise ainsi au moins un rebouclage. Le procédé de décodage selon 35 l'invention peut donc être considéré comme itératif, chaque nouvelle itération 2972877 -13- d'une étape de décodage pouvant améliorer l'estimation des données de la classe correspondante. On peut ainsi utiliser des informations d'autres classes pour améliorer le décodage d'une classe. 5 Chaque classe bénéficie d'une protection différente à l'égard des erreurs. Une classe fortement protégée bénéficiera d'un taux d'erreur d'autant moins important lors du décodage. Lors du décodage, l'au moins un rebouclage permet d'exploiter le fait que lors de l'encodage, des données correspondant à chacune des classes sont mélangées. Les différentes classes encodées 10 peuvent donc bénéficier de l'encodage des autres classes encodées. On peut ainsi atteindre plus rapidement, pour une classe moins protégée, un taux d'erreur binaire donné. L'invention permet ainsi une économie d'énergie, de redondance binaire et de délai de transmission.
15 Au moins une étape de décodage j peut être réitérée au moins une fois en fonction de données a priori correspondant à des données extrinsèques fournies par au moins une étape de décodage des données d'une autre classe, et pour j compris entre M+1 et 2 et t strictement inférieur à j, on réitère l'étape de décodage j en fonction de données a priori obtenues aux étapes de 20 décodage t à j-1. Chaque étape de décodage peut donc être réitérée en utilisant des données a priori obtenues à des étapes de décodage de classes de priorité plus élevée. Dans ce cas, lesdites données a priori peuvent comprendre des 25 informations extrinsèques relatives aux classes 1 à j-1 et des informations relatives aux données de parité des classes 1 à j-1. On peut ensuite réitérer les étapes de décodage j-1 à t.
Au moins une étape de décodage j peut être réitérée au moins une fois 30 en fonction de données a priori correspondant à des données extrinsèques fournies par au moins une étape de décodage des données d'une autre classe, et pour j compris entre M et 1 et t strictement supérieur à j, on réitère l'étape de décodage j en fonction de données a priori obtenues aux étapes de décodage t à j+1. 2972877 -14- Chaque étape de décodage peut donc être réitérée en utilisant des données a priori obtenues à des étapes de décodage de classes de priorité moins élevée. Dans ce cas, lesdites données a priori peuvent comprendre des 5 informations extrinsèques relatives aux classes t à j+1 et des informations relatives aux données de parité des classes t à j+1. On peut ensuite réitérer les étapes de décodage j+1 à t.
De préférence, le procédé de décodage selon l'invention comprend les 10 étapes suivantes : - on réitère l'étape de décodage M+1 en fonction de données a priori obtenues aux étapes de décodage 1 à M ; - on réitère les étapes de décodage M à 1 en utilisant des données a priori correspondant à des données extrinsèques fournies par l'étape de 15 décodage précédente (selon l'ordre chronologique), de façon que les étapes de décodage M+1 à 1 composent une phase de décodage ; et la phase de décodage est réitérée au moins une fois.
Ainsi, on effectue un rebouclage sur l'ensemble des étapes de 20 décodage, et dans chaque phase de décodage les étapes de décodage sont effectuées successivement pour toutes les classes n, où n est décroissant, variant de M+1 à 1. A partir de la deuxième itération, l'étape de décodage M+1 peut être réalisée en fonction de données extrinsèques fournies par l'étape de décodage 25 1. On peut ainsi utiliser des informations de toutes les autres classes pour améliorer le décodage d'une classe.
L'invention concerne également un dispositif de décodage adapté à la 30 mise en oeuvre du procédé de décodage selon l'invention. Le dispositif de décodage selon l'invention comprend M+1 modules de décodage, chaque module de décodage j (où j est un entier compris entre 1 et M+1 inclus) étant apte à décoder des données encodées résultant de la jème étape d'encodage du procédé d'encodage selon l'invention, et chaque module -15- de décodage j fournissant des données dites extrinsèques aptes à être utilisées comme données a priori par un autre module de décodage, et au moins une donnée dite « soft » pour une estimation de la classe j.
L'invention trouve une application dans tous les domaines de transmission de données et tout système de transmission, que ce soit une transmission filaire ou non filaire. Il peut s'agir notamment du domaine : - des communications radio terrestres, - des communications radio aérospatiales, - de la transmission de données en robotique ou en électronique, - des applications audio et/ou vidéo.
L'invention concerne également un produit programme d'ordinateur comprenant les instructions pour réaliser les étapes du procédé d'encodage 15 selon l'invention lorsqu'il est exécuté par un appareil informatique.
L'invention concerne également un produit programme d'ordinateur comprenant les instructions pour réaliser les étapes du procédé de décodage selon l'invention lorsqu'il est exécuté par un appareil informatique. 20
Description des figures et modes de réalisation D'autres avantages et particularités de l'invention apparaîtront à la lecture de la description détaillée de mises en oeuvre et de modes de 25 réalisation nullement limitatifs, et des dessins annexés suivants : - la figure 1 illustre sous forme de diagramme un exemple dit « en parallèle » de procédé d'encodage selon l'invention, - la figure 2 illustre sous forme de diagramme un exemple dit « en parallèle » de procédé de décodage selon l'invention, 30 - la figure 3 illustre un mode de réalisation particulier du procédé d'encodage dit « en parallèle » selon l'invention, - la figure 4 illustre un mode de réalisation particulier du procédé de décodage dit « en parallèle » selon l'invention, - la figure 5 illustre des courbes de taux d'erreur binaire obtenu avec un 35 procédé de décodage selon l'invention. 2972877 -16- Dans tout le texte, un multiplexage peut désigner une concaténation, un entrelacement ou toute autre opération réalisée pour ranger des données dans une trame binaire unidimensionnelle ou multidimensionnelle. 5 Dans tout le texte, lorsqu'on parle démultiplexage, on se réfère à un multiplexage donné, le démultiplexage étant l'opération inverse dudit multiplexage. Dans tout le texte, lorsqu'on parle désentrelacement, on se réfère à un entrelacement donné, le désentrelacement consistant à retrouver l'ordre des 10 données avant ledit entrelacement.
Les moyens pour mettre en oeuvre chacune des étapes du procédé selon l'invention sont connus de l'homme du métier, c'est pourquoi on se limitera ici à la description détaillée d'exemples de procédés selon l'invention.
La figure 1 est une représentation sous forme de diagramme d'un exemple de procédé d'encodage en parallèle conformément au procédé selon l'invention. Chaque encodeur met en oeuvre un code convolutionnel récursif et 20 systématique.
Dans l'exemple représenté sur la figure 1, une trame de données 102 est encodée. Les données de la trame 102 sont classées dans n classes 1021-1O2n. A chacune des classes 102; est associé un niveau de priorité. Dans 25 l'exemple présent, de manière non limitative, le niveau de priorité de la classe 1021 est plus grand que le niveau de priorité de la classe 1022, et ainsi de suite, la classe de niveau de priorité le plus faible étant la classe 1O2n. Le procédé 300, représenté sur la figure 3, comprend une première étape de codage 3021 qui se limite à l'encodage 3061 des données de la classe 30 1021. Cette étape de codage 3021 fournit en sortie des données de parité qui sont des données de redondance pour permettre de retrouver les données d'entrée (et des données dites systématiques qui correspondent aux données d'entrée). 2972877 -17- Cette étape 3021 est suivie d'une deuxième étape de codage 3022 réalisant un entrelacement 3042 des données de la classe 1021 avec les données de la classe 1022. On utilise le terme « suivi », bien que chaque étape de codage i puisse 5 être effectuée simultanément, avant ou après l'encodage 306;_1.
L'étape de codage 3022 comprend un encodage 3062 des données entrelacées fournies par l'entrelacement 3042. Cette étape de codage 3022 fournit en sortie des données de parité qui 10 sont des données de redondance pour permettre de retrouver les données d'entrée (et des données dites systématiques qui correspondent aux données d'entrée). Le procédé 100 comprend après l'étape 3022 une étape de codage 3023 et ainsi de suite jusqu'à l'étape 302n. Chacune des étapes 302; pour i>_3 15 comprend les opérations suivantes : - un entrelacement 304; des données systématiques fournies à l'étape 302;_1r avec les données sources de la classe 102; ; et - un encodage 306; des données entrelacées fournies par l'entrelacement 304;.
Chaque étape 302; pour i>_2 fournit en sortie les données de parité et des données systématiques qui correspondent ici aux données entrelacées obtenues à l'entrelacement 304;. En sortie, la trame encodée A est obtenue par multiplexage des données de parité fournies à chaque étape 302;, i=14n, et de la donnée 25 systématique fournie par l'étape 302n. On remarque que chaque étape d'entrelacement 304;+1, peut aussi être mise en oeuvre en même temps que l'étape d'encodage 306;.
Les données de la trame 102 sont modulées et transmises ensemble 30 sous la forme des données A, car elles n'ont pas été séparées préalablement à la mise en oeuvre d'un procédé d'encodage selon l'invention.
Les données A sont de préférences modulées puis transmises sur un canal de transmission. 2972877 -18- Après transmission, on reçoit les données A qui peuvent être entachées d'erreurs.
La figure 2 est une représentation sous forme de diagramme d'un 5 exemple de procédé de décodage en série 400 conformément au procédé selon l'invention, dans le cas où chaque encodeur met en oeuvre un code convolutionnel récursif et systématique. Dans l'exemple représenté sur la figure 2, des données A sont décodées. Ces données A ont été encodées conformément au procédé 10 d'encodage en parallèle 300 selon l'invention.
On peut prévoir qu'après chaque encodage, on ait en outre réalisé un poinçonnage. Dans ce cas, le décodage comprend des étapes de dépoinçonnage. Ce cas particulier n'est pas représenté ici, mais il n'est pas 15 exclu du domaine de l'invention.
Le procédé 400 comprend une étape préliminaire de démultiplexage 402 permettant de séparer parmi les données A les données de parité 4041_,n obtenues respectivement aux étapes d'encodage 3061_,n du procédé 20 d'encodage en parallèle 300, et une donnée dites systématique 406 correspondant aux données à encoder à la dernière étape d'encodage du procédé d'encodage en parallèle 300. Une première étape de décodage 408n des données de la classe 102n comprend les étapes suivantes : - un décodage 410n des données de parité 404n de la classe 102n, utilisant la donnée systématique 406 et une donnée a priori (initialement égale à zéro), et fournissant des données dites extrinsèques et des données dites soft pour une estimation des données de la classe 102n ; - un désentrelacement 412n des données dites extrinsèques, pour fournir des données désentrelacées, le désentrelacement 412n mettant en oeuvre une fonction d'entrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'entrelacement 304n du procédé 300 d'encodage en parallèle ; 2972877 -19- - un démultiplexage 414, des données désentrelacées pour séparer des données a priori dites utiles qui vont être utilisées à l'étape de décodage suivante, et des données dites a priori relatives aux données de la classe 102n. 5 Les données soft pour une estimation des données de la classe 102n subissent une étape de désentrelacement 416n mettant en oeuvre une fonction d'entrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'entrelacement 304n du procédé 300 d'encodage en parallèle. Une étape de démultiplexage 418n permet d'isoler des probabilités pour les 10 données de la classe 102n (pour chaque bit, probabilité de valoir 0 ou 1). On peut prévoir en outre une étape d'estimation des données de la classe 102n. Le démultiplexage 414n est suivi d'une nouvelle étape de décodage 408n_1 des données de la classe 102n_1 comprenant les étapes suivantes : - un décodage 410n_1 des données de parité 404n_1 de la classe 102n_1r 15 utilisant : - les données a priori utiles obtenues à l'étape de décodage précédente, et - une donnée canal estimée (données parité et systématique pour les codes convolutionnels récursifs et systématiques, dont le systématique est formé par la donnée systématique de l'étape de décodage précédente ayant subi une étape de désentrelacement 420n_1 mettant en oeuvre une fonction d'entrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'entrelacement 304n du procédé 300 d'encodage en parallèle et en ayant retiré les données systématiques correspondant à la classe 102n).
Le décodage 410n_1 fournit des données dites extrinsèques correspondant aux classes 1021_,n_1 et des données pour une estimation des données de la 30 classe 102n_1. L'étape de décodage 408n_1 comprend ensuite les étapes suivantes : - un désentrelacement 412n_1 des données dites extrinsèques, pour fournir des données désentrelacées, le désentrelacement 412n_1 mettant en oeuvre une fonction d'entrelacement inverse de la fonction 20 25 2972877 -20- d'entrelacement mise en oeuvre à l'entrelacement 304n_1 du procédé 300 d'encodage en parallèle ; - un démultiplexage 414n_1 des données désentrelacées pour séparer des données a priori dites utiles relatives aux données de la classe 1021_,n_2 5 qui vont être utilisées à l'étape de décodage suivante, et des données dites a priori relatives aux données de la classe 102n_1. Les données soft pour une estimation des données de la classe 102n_1 subissent une étape de désentrelacement 416n_1 mettant en oeuvre une fonction d'entrelacement inverse de la fonction d'entrelacement mise en 10 oeuvre à l'entrelacement 304n_1 du procédé 300 d'encodage en parallèle. Une étape de démultiplexage 418n_1 permet d'isoler des probabilités pour les données de la classe 102n_1 (pour chaque bit, probabilité de valoir 0 ou 1). On peut prévoir en outre une étape d'estimation des données de la classe 102n_1. Le procédé 300 comprend après l'étape 408n_1 une étape décodage 15 408n_2 et ainsi de suite jusqu'à l'étape 4082. Chacune des étapes 408; pour n-2>_i>_2 comprend les opérations suivantes : - un décodage 410; des données de parité 404; de la classe 102;, utilisant : - les données a priori utiles obtenues à l'étape de décodage précédente, et - une donnée canal estimée (formée par la parité et le systématique pour les codes convolutionnel récursifs et systématiques, dont le systématique est formé par la donnée systématique de l'étape de décodage précédente ayant subi une étape de désentrelacement 420; mettant en oeuvre une fonction d'entrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'entrelacement 304;+1 du procédé 300 d'encodage en parallèle et en ayant retiré les données systématiques correspondant aux classes 102;+1->n)- 30 Le décodage 410; fournit des données dites extrinsèques et des données pour une estimation des données de la classe 102;, dites données soft. L'étape de décodage 408; comprend ensuite les étapes suivantes : - un désentrelacement 412; des données dites extrinsèques, pour fournir des données désentrelacées, le désentrelacement 412; mettant en 20 25 2972877 -21- oeuvre une fonction d'entrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'entrelacement 304; du procédé 300 d'encodage en parallèle ; - un démultiplexage 414; des données désentrelacées pour séparer des 5 données a priori dites utiles relatives aux données de la classe 1021_,;_1 qui vont être utilisées à l'étape de décodage suivante, et des données dites a priori relatives aux données de la classe 102;. Les données pour une estimation des données de la classe 102; subissent une étape de désentrelacement 416; mettant en oeuvre une fonction 10 d'entrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'entrelacement 304; du procédé 300 d'encodage en parallèle. Une étape de démultiplexage 418; permet d'isoler des probabilités pour les données de la classe 102; (pour chaque bit, probabilité de valoir 0 ou 1). On peut prévoir en outre une étape d'estimation des données de la classe 102;. 15 Le procédé 400 comprend après l'étape 4082 une étape de décodage 4081 comprenant les étapes suivantes : - un décodage 4101 des données de parité 4041 de la classe 1021r utilisant : - les données a priori utiles obtenues à l'étape de décodage précédente, et - une donnée canal estimée (formée par la parité et le systématique pour les codes convolutionnel récursifs et systématiques, dont le systématique est formé par la donnée systématique de l'étape de décodage précédente ayant subi une étape de désentrelacement 4201 mettant en oeuvre une fonction d'entrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'entrelacement 3042 du procédé 300 d'encodage en parallèle et en ayant retiré les données systématiques correspondant aux classes 1022_,n). 30 Le décodage 4101 fournit des données dites extrinsèques et des données correspondant à une estimation des données de la classe 1021r dites données soft. On appelle phase de décodage les étapes décrites, depuis le décodage 35 410n. 20 25 2972877 -22- Le procédé de décodage 400 adapté à l'encodage en parallèle comprend également un rebouclage, qui consiste à utiliser des données extrinsèques fournies à une étape de décodage pour réitérer une étape de décodage 5 précédente de la phase de décodage. Les données extrinsèques utilisées pour une réitération d'une étape de décodage sont entrelacées pour retrouver des données de la même dimension et dans le même ordre que les données en sortie de l'étape d'encodage correspondant. 10 Le rebouclage comprend les étapes suivantes : - entrelacement 4221 des données extrinsèques fournies par l'étape de décodage 4101 et des données dites a priori relatives aux données de la classe 1022, pour obtenir des données entrelacées fournies par 15 l'entrelacement 4221r l'entrelacement 4221 mettant en oeuvre une fonction d'entrelacement similaire à la fonction d'entrelacement mise en oeuvre à l'entrelacement 3042 du procédé 300 d'encodage en parallèle ; - pour i allant de 2 à n-2, i étapes d'entrelacement 422; des données dites a priori relatives aux données de la classe 102; et des données 20 entrelacées fournies par l'entrelacement 422;_1r l'entrelacement 422; mettant en oeuvre une fonction d'entrelacement similaire à la fonction d'entrelacement mise en oeuvre à l'entrelacement 304;+1 du procédé 300 d'encodage en parallèle ; - entrelacement 422n_1 des données entrelacées fournies par 25 l'entrelacement 422n_2, avec une donnée de la taille des données a priori relatives aux données de la classe 1O2n mais mise à zéro, l'entrelacement 422n_1 mettant en oeuvre une fonction d'entrelacement similaire à la fonction d'entrelacement mise en oeuvre à l'entrelacement 3O4n du procédé 300 d'encodage en parallèle ; 30 - prise en compte des données entrelacées de l'entrelacement 422n_1 en tant que donnée a priori lors d'une deuxième itération de l'étape de décodage 41On. Cette deuxième itération de l'étape de décodage 41On peut être suivie d'une troisième itération de toutes les autres étapes d'une phase de décodage 35 telle que décrite précédemment. 2972877 -23- Un tel rebouclage peut être mis en oeuvre plusieurs fois, par exemple trois à quinze fois. On améliore à chaque fois l'estimation des données de chacune des classes. Après au moins cinq rebouclages, il n'est plus toujours intéressant d'effecteur plus de rebouclages, le gain sur la précision de 5 l'estimation étant négligeable en comparaison du temps supplémentaire nécessaire pour une autre itération.
On va ensuite décrire, en référence à la figure 3, un mode de réalisation particulier de procédé d'encodage correcteur d'erreur 300 selon 10 l'invention. Chaque encodage met en oeuvre un code convolutionnel récursif et systématique. Un tel code permet d'obtenir des données encodées formées par des données dites « de parité » (redondance) et des données dites 15 « systématiques » (identiques aux données à encoder).
Les données numériques dites sources 30 sont formées par une trame 102 comprenant trois classes 1021r 1022 et 1023. Le procédé 300 selon l'invention comprend une étape initiale 70 de 20 séparation des données de chacune des classes 1021r 1022 et 1023. Les données de la classe 1021 sont désignées par le symbole al. Les données de la classe 1022 sont désignées par le symbole a2. Les données de la classe 1023 sont désignées par le symbole a3. Le procédé 300 selon l'invention comprend une première étape 25 d'encodage 3061 des données de la classe 1021. On obtient des données de parité PI, c'est-à-dire des données de redondance relatives aux données al. Les données P1 obtenues sont appelées « parité de la classe 1021 ».
30 Le procédé 300 selon l'invention comprend ensuite (ou simultanément) une étape 3042 d'entrelacement des données al avec les données a2 de la classe 1022. On obtient des données entrelacées bl. 2972877 -24- Les données entrelacées bl sont ensuite encodées au cours d'une étape d'encodage 3062r qui fournit des données de parité P2, c'est-à-dire des données de redondance relatives aux données bl. Les données bl étant formées par les données al et a2 mélangées, on 5 augmente le nombre de données de redondance disponibles et correspondant aux données al. Les données P2 obtenues sont appelées « parité des classes 1021 et 1022 ».
10 Le procédé 300 selon l'invention comprend ensuite (ou simultanément) une étape 3043 d'entrelacement des données bl avec les données a3 de la classe 1023. On obtient des données entrelacées b2.
15 Les données entrelacées b2 sont ensuite encodées au cours d'une étape d'encodage 3063r qui fournit des données de parité P3, c'est-à-dire des données de redondance relatives aux données b2. Les données b2 étant formées par les données al, a2 et a3 mélangées, on augmente le nombre de données de redondance disponibles et 20 correspondant aux données al et a2. Les données P3 obtenues sont appelées « parité des classes 1021r 1022 et 1023 ».
On obtient en sortie les données A regroupant l'ensemble des parités 25 PI, P2 et P3, ainsi qu'une sortie S3 dite systématique correspondant aux données b2 à encoder lors de la dernière étape d'encodage 3063. La sortie systématique est due à l'utilisation des codes convolutionnels récursifs et systématiques.
30 On va maintenant décrire, en référence à la figure 4, un mode de réalisation particulier du procédé de décodage 400 selon l'invention, correspondant au procédé d'encodage de la figure 3, et dans le cas où chaque encodeur met en oeuvre un code convolutionnel récursif et systématique. -25- Une première étape de démultiplexage 402 permet de séparer, parmi les données A reçues, les parités PI, P2, P3, et la sortie systématique S3. Le procédé 400 selon l'invention comprend un premier décodage comprenant une étape de décodage 4103 de la parité Par en fonction de la sortie systématique S3 et d'une donnée a priori initialement mise à zéro. On obtient une sortie Lsott(b2), et des données dites extrinsèques Lext(b2) La sortie Lsott(b2) permet une estimation des données b2. Dans tout le texte, Loft , Lext et Lpriori correspondent aux probabilités logarithmiques pour chaque bit des données de valoir 0 ou 1, suite à une utilisation avantageuse pour cette réalisation particulière de l'algorithme de décodage appelé MAX LOG MAP.
D'une part, on met en oeuvre les étapes suivantes : - désentrelacement 4163 de la sortie Lsott(b2), le désentrelacement 4163 mettant en oeuvre une fonction de désentrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'étape d'entrelacement 3043 ; - démultiplexage 4183 pour séparer les données Lsott(a3) et Lsott(bi)- 20 La sortie Lsott(a3) correspond à une estimation des données a3 de la classe 1023. La sortie Lsott(bl) correspond à une estimation des données bl. En effet, les données b2 correspondent aux données a3 entrelacées avec les données bl. 25 Les données dites extrinsèques Lext(b2) comprennent notamment des informations relatives à une estimation des données de la classe 1023. D'autre part, on met en oeuvre les étapes suivantes : - désentrelacement 4123 de la sortie Lext(b2), le désentrelacement 4123 30 mettant en oeuvre une fonction de désentrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'étape d'entrelacement 3043 ; - démultiplexage 4143 pour séparer les données Lpriori(a3) et Lpriori(bl)- 2972877 -26- Les données Lpriori(a3) correspondent aux probabilités logarithmiques pour chaque bit des données de la classe 1023 de valoir 0 ou 1. Les données Lpriori(bl) sont utilisées comme informations à priori à l'étape de décodage suivante. 5 Le démultiplexage 4143 est suivi d'un deuxième décodage comprenant une étape de décodage 4102 de la parité Per en fonction de Lpriori(bl) et de la sortie systématique S3 à laquelle on a appliqué un désentrelacement 4202 mettant en oeuvre une fonction de désentrelacement 10 inverse de la fonction d'entrelacement mise en oeuvre à l'étape d'entrelacement 3043r et un démultiplexage pour séparer les informations systématiques correspondant aux données bl et les données de la classe a3. Seules les données systématiques bl sont utiles pour ce décodage. On obtient une sortie Lsott(bl), et des données dites extrinsèques 15 Lext(bl)- La sortie Lsott(bl) permet une estimation des données bl.
D'une part, on met en oeuvre les étapes suivantes : - désentrelacement 4162 de la sortie Lsott(bl), le désentrelacement 4162 mettant en oeuvre une fonction de désentrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'étape d'entrelacement 3042 ; - démultiplexage 4182 pour séparer les données Lsott(a2) et L'sott(al)- La sortie Lsott(a2) correspond à une estimation des données a2 de la 25 classe 1022.
Les données dites extrinsèques Lext(bl) comprennent des informations relatives à une estimation des données des classes 1021 et 1022. D'autre part, on met en oeuvre les étapes suivantes : 30 - désentrelacement 4122 de la sortie Lext(bl), le désentrelacement 4122 mettant en oeuvre une fonction de désentrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'étape d'entrelacement 3042 ; - démultiplexage 4142 pour séparer les données Lpriori(a2) et Lpriori(al). 35 2972877 -27- Les données Lpriori(a2) correspondent aux probabilités pour chaque bit des données de la classe 1022 de valoir 0 ou 1. Les données Lpriori(al) sont utilisées comme informations à priori à l'étape de décodage suivante. 5 Le démultiplexage 4142 est suivi d'un troisième décodage comprenant une étape de décodage 4101 de la parité PI, en fonction de Lpriori(al) et de la sortie systématique S3 à laquelle on a appliqué un désentrelacement 4202 puis 4201r mettant en oeuvre une fonction de 10 désentrelacement inverse de la fonction d'entrelacement mise en oeuvre à l'étape d'entrelacement 3043 respectivement 3042r et les démultiplexages appropriés pour obtenir les données systématiques de la classe al. On obtient des données extrinsèques Lext(al) et une estimation des données de la classe 1021, Lsott(al)- 15 Le procédé de décodage 400 présente un rebouclage comprenant les étapes suivantes : - entrelacement 4221 des données Lext(al) et Lpriori(a2), pour obtenir une donnée entrelacée L'ext(bl), et mettant en oeuvre une fonction 20 d'entrelacement similaire à la fonction d'entrelacement mise en oeuvre à l'entrelacement 3042 du procédé 300 d'encodage en parallèle ; - entrelacement 4222 des données L'ext(bl) et L'ext(a3), pour obtenir une donnée entrelacée Lpriori(b2), et mettant en oeuvre une fonction d'entrelacement similaire à la fonction d'entrelacement mise en oeuvre à l'entrelacement 3043 du procédé 300 d'encodage en parallèle (L'ext(a3) étant une donnée de la taille de a3 mais prenant des valeurs nulles) ; - nouvelle itération de l'étape de décodage 4103r en prenant en compte comme donnée a priori Lpriori(b2) ; - nouvelle itération des étapes suivant l'étape de décodage 4103. 30 Ce rebouclage permet que chaque classe bénéficie de la précision de décodage obtenue pour les autres classes. Au final, les classes peu protégées peuvent être décodées avec une meilleure précision que si elles avaient été encodées séparément des classes mieux protégées. 35 2972877 -28- Les encodages décrits utilisent par exemple des générateurs polynomiaux. La taille des différentes classes traitées peut varier. On peut prévoir que certaines classes ne sont pas encodées. 5 On a illustré à la figure 5, des courbes de taux d'erreur binaire pouvant être obtenus avec un procédé de décodage selon l'invention. Le taux d'erreur binaire est le nombre de bits erronés dans les estimations des données d'une classe encodées, divisé par le nombre total de 10 bits analysés par le procédé de décodage selon l'invention. Il est donc sans unité. Le taux d'erreur binaire est souvent exprimé en fonction d'un rapport signal à bruit. A la figure 5, l'axe des abscisses correspond à un taux d'erreur binaire, l'axe des ordonnées correspond au rapport Eb/No en dB, c'est-à-dire 15 le rapport en dB d'une énergie par bit sur la densité spectrale de puissance du bruit. On a pris l'exemple où : - on a mis en oeuvre après l'encodage, une modulation QPSK (pour l'anglais «Quadrature Phase-Shift Keying ») sur un canal AWGN (pour 20 l'anglais « Additive White Gaussian Noise ») ; - la trame 102 ne comprend que deux classes 1021 et 1022 encodées.
A la figure 5, on a un rapport 2/3 entre la taille de la classe 1022 moins protégée et la taille de la trame, et une taille de trame de 900 bits. 25 La courbe 11 représente le taux d'erreur binaire associé au décodage de la classe 1021r dès la première itération de l'étape de décodage des données de la classe 1021. La courbe 12 représente le taux d'erreur binaire associé au décodage de la classe 1022, dès la première itération de l'étape de décodage des données 30 de la classe 1022. La courbe 11' représente le taux d'erreur binaire associé au décodage de la classe 1021r à la deuxième itération de l'étape de décodage des données de la classe 1021. 2972877 -29- La courbe 12' représente le taux d'erreur binaire associé au décodage de la classe 1022, à la deuxième itération de l'étape de décodage des données de la classe 1022. Les courbes sont présentées pour leur allure, et non pour leurs valeurs 5 particulières. On voit donc que : - la classe 1021r qui est la première classe à avoir été encodée, atteint dès la première itération un très bon taux d'erreur binaire, puisqu'on dispose de nombreuses informations de redondance pour retrouver les données de la 10 classe 1021 ; - les données de la classe 1021 encodées à la première étape d'encodage bénéficient d'un gain de décodage semblable à celui qu'on obtient dans un décodage de type « turbo » dès la deuxième itération; - à la première itération, le taux d'erreur binaire associé aux données de la 15 classe 1022 est assez faible, car on ne dispose que de peu d'informations de redondance pour retrouver les données de la classe 1022 ; - après une itération, le taux d'erreur binaire associé aux données de la classe 1022 est nettement amélioré, et se rapproche du taux d'erreur binaire obtenu pour le décodage des données de la classe 1021r bénéficiant 20 notamment du gain de décodage « turbo » . L'influence d'une classe plus fortement encodée sur une classe moins encodée dépend notamment du rapport entre la taille de la première classe et la taille de la deuxième classe, en nombre de bits. Après cinq itérations on peut par exemple obtenir un taux d'erreur 25 binaire de 10-2 pour un rapport signal à bruit inférieur de 2 dB, avec un gain de 2,5 dB entre la première et la dernière itération. Cette propriété de l'invention est particulièrement intéressante, car on voit que chaque classe bénéficie de la précision de décodage obtenue pour les autres classes et de l'effet « turbo » .
Ainsi, une classe donnée peut être moins protégée que dans l'art antérieur, pour un taux d'erreur binaire donné. On voit alors qu'on peut transmettre moins de données de redondance que dans l'art antérieur, pour obtenir un taux d'erreur binaire donné. On augmente ainsi la capacité d'un canal de transmission pour une couverture donnée. 2972877 -30- On augmente ainsi la portée d'un canal de transmission pour une capacité donnée.
Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être 5 décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention. On peut par exemple envisager tout type de décodage, mettant en oeuvre en particulier différentes phases de rebouclage. On peut par exemple combiner l'invention avec des techniques qui 10 existent déjà, par exemple avec les techniques de poinçonnage, qui consistent à effacer des bits de la trame déjà encodée pour augmenter le ratio de codage. Dans ce cas, on peut réduire la redondance du code pour chaque classe. On peut également combiner l'invention avec des techniques de l'art 15 antérieur consistant à séparer les données d'une même trame, mais chaque paquet de données regroupant plusieurs classes et pouvant être traité selon l'invention.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1152106A FR2972877B1 (fr) | 2011-03-15 | 2011-03-15 | Procede d'encodage correcteur d'erreur, procede de decodage et dispositifs associes. |
ES12712988.0T ES2486323T3 (es) | 2011-03-15 | 2012-03-14 | Método de codificación de corrección de errores, método de decodificación y dispositivos asociados |
EP12712988.0A EP2686962B1 (fr) | 2011-03-15 | 2012-03-14 | Procédé de codage de correction d'erreurs, procédé de décodage et dispositifs associés |
CA2827338A CA2827338C (fr) | 2011-03-15 | 2012-03-14 | Procede de codage de correction d'erreurs, procede de decodage et dispositifs associes |
US14/004,799 US8782501B2 (en) | 2011-03-15 | 2012-03-14 | Error correction encoding method, decoding method and associated devices |
PCT/EP2012/054494 WO2012123511A2 (fr) | 2011-03-15 | 2012-03-14 | Procédé de codage de correction d'erreurs, procédé de décodage et dispositifs associés |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1152106A FR2972877B1 (fr) | 2011-03-15 | 2011-03-15 | Procede d'encodage correcteur d'erreur, procede de decodage et dispositifs associes. |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2972877A1 true FR2972877A1 (fr) | 2012-09-21 |
FR2972877B1 FR2972877B1 (fr) | 2013-03-22 |
Family
ID=44337927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1152106A Expired - Fee Related FR2972877B1 (fr) | 2011-03-15 | 2011-03-15 | Procede d'encodage correcteur d'erreur, procede de decodage et dispositifs associes. |
Country Status (6)
Country | Link |
---|---|
US (1) | US8782501B2 (fr) |
EP (1) | EP2686962B1 (fr) |
CA (1) | CA2827338C (fr) |
ES (1) | ES2486323T3 (fr) |
FR (1) | FR2972877B1 (fr) |
WO (1) | WO2012123511A2 (fr) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170328203A1 (en) * | 2016-05-10 | 2017-11-16 | General Electric Company | Turbine assembly, turbine inner wall assembly, and turbine assembly method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2675971B1 (fr) | 1991-04-23 | 1993-08-06 | France Telecom | Procede de codage correcteur d'erreurs a au moins deux codages convolutifs systematiques en parallele, procede de decodage iteratif, module de decodage et decodeur correspondants. |
FI97837C (fi) | 1995-04-11 | 1997-02-25 | Nokia Mobile Phones Ltd | Tiedonsiirtomenetelmä sekä lähetin |
-
2011
- 2011-03-15 FR FR1152106A patent/FR2972877B1/fr not_active Expired - Fee Related
-
2012
- 2012-03-14 EP EP12712988.0A patent/EP2686962B1/fr active Active
- 2012-03-14 ES ES12712988.0T patent/ES2486323T3/es active Active
- 2012-03-14 US US14/004,799 patent/US8782501B2/en active Active
- 2012-03-14 CA CA2827338A patent/CA2827338C/fr not_active Expired - Fee Related
- 2012-03-14 WO PCT/EP2012/054494 patent/WO2012123511A2/fr active Application Filing
Non-Patent Citations (1)
Title |
---|
BURKERT F ET AL: "TURBO DECODING WITH UNEQUAL ERROR PROTECTION APPLIED TO GSM SPEECH CODING", GLOBAL TELECOMMUNICATIONS CONFERENCE 1996, GLOBECOM '96; [GLOBAL TELECOMMUNICATIONS CONFERENCE (GLOBECOM)],, vol. 3, 18 November 1996 (1996-11-18), pages 2044 - 2048, XP002924961, ISBN: 978-0-7803-3337-6 * |
Also Published As
Publication number | Publication date |
---|---|
EP2686962B1 (fr) | 2014-06-25 |
WO2012123511A3 (fr) | 2013-04-04 |
WO2012123511A2 (fr) | 2012-09-20 |
CA2827338A1 (fr) | 2012-09-20 |
CA2827338C (fr) | 2015-01-13 |
EP2686962A2 (fr) | 2014-01-22 |
US20140006910A1 (en) | 2014-01-02 |
US8782501B2 (en) | 2014-07-15 |
ES2486323T3 (es) | 2014-08-18 |
FR2972877B1 (fr) | 2013-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0891656B1 (fr) | Procede et dispositif de codage convolutif de blocs de donnees, et procede et dispositif de decodage correspondants | |
EP0827284B1 (fr) | Procédé de transmission de bits d'information avec codage correcteur d'erreurs, codeur et décodeur pour la mise en oeuvre de ce procédé | |
EP1362447B1 (fr) | Procede et systeme de codage-decodage iteratif de flux de donnees numeriques codees par combinaisons spatio-temporelles, en emission et reception multiple | |
EP1378089B1 (fr) | Décodage et égalisation turbo conjointe pour transmission MIMO avec interférence intersymboles | |
EP0827285A1 (fr) | Procédé de transmission de bits d'information avec codage correcteur d'erreurs, codeur et décodeur pour la mise en oeuvre de ce procédé | |
FR2712760A1 (fr) | Procédé pour transmettre des bits d'information en appliquant des codes en blocs concaténés. | |
EP0808538B1 (fr) | Dispositif de reception de signaux numeriques a structure iterative, module et procede correspondants | |
EP2478680B1 (fr) | Procede de transmission d'un signal numerique pour un systeme marc avec relais full-duplex, produit programme et dispositif relais correspondants | |
FR2675971A1 (fr) | Procede de codage correcteur d'erreurs a au moins deux codages convolutifs systematiques en parallele, procede de decodage iteratif, module de decodage et decodeur correspondants. | |
EP2507930B1 (fr) | Procede de transmission d'un signal numerique pour un systeme marc semi-orthogonal avec relais half-duplex, produit programme et dispositif relais correspondants | |
EP2609704B1 (fr) | Procede et dispositif d'emission et de reception dans un canal à plusieurs entrées et sorties répartissant un mot de code entre plusieurs matrices de mappage, et programme d'ordinateur correspondants | |
FR2804260A1 (fr) | Procede de transmission numerique de type a codage correcteur d'erreurs | |
FR2778289A1 (fr) | Decodage iteratif de codes produits | |
EP0848524A1 (fr) | MAQ à codage perforé en trellis, avec décodage itératif | |
WO2005034386A1 (fr) | Procede d'emission multi-antennes d'un signal par codes espace-temps en bloc, procede de reception et signal correspondant | |
FR2782425A1 (fr) | Procede et dispositif de codage correcteur d'erreurs et procede et dispositif de decodage correspondant | |
FR2805102A1 (fr) | Procedes et dispositifs d'emission et de reception d'information, et systemes les mettant en oeuvre | |
FR2972878A1 (fr) | Procede d'encodage correcteur d'erreur, procede de decodage et dispositifs associes. | |
EP0774840A1 (fr) | Procédé de transmission d'une séquence de bits d'information avec protection sélective contre les erreurs de transmission, procédés de codage et de correction pouvant être mis en oeuvre dans un tel procédé de transmission | |
FR2805418A1 (fr) | Procede de transmission numerique de type a codage correcteur d'erreurs | |
FR2972877A1 (fr) | Procede d'encodage correcteur d'erreur, procede de decodage et dispositifs associes. | |
FR2972876A1 (fr) | Procede d'encodage correcteur d'erreur, procede de decodage et dispositifs associes. | |
FR3037746A1 (fr) | Procede de construction d'un entrelaceur pour turbo-encodeur | |
FR2910200A1 (fr) | Recepteur a decodage conditionnel | |
WO2008129195A1 (fr) | Codage et decodage de signaux de donnees de rendements variables |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TP | Transmission of property |
Owner name: CASSIDIAN SAS, FR Effective date: 20130704 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
CD | Change of name or company name |
Owner name: AIRBUS DS SAS, FR Effective date: 20160307 |
|
ST | Notification of lapse |
Effective date: 20161130 |