[go: up one dir, main page]

FR2680259A1 - Appareil et procede de compression d'image. - Google Patents

Appareil et procede de compression d'image. Download PDF

Info

Publication number
FR2680259A1
FR2680259A1 FR9112450A FR9112450A FR2680259A1 FR 2680259 A1 FR2680259 A1 FR 2680259A1 FR 9112450 A FR9112450 A FR 9112450A FR 9112450 A FR9112450 A FR 9112450A FR 2680259 A1 FR2680259 A1 FR 2680259A1
Authority
FR
France
Prior art keywords
sep
pixels
transformation
vertical
transformed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9112450A
Other languages
English (en)
Other versions
FR2680259B1 (fr
Inventor
Steven M Blonstein
James D Allen
Martin P Boliek
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to FR9112450A priority Critical patent/FR2680259A1/fr
Publication of FR2680259A1 publication Critical patent/FR2680259A1/fr
Application granted granted Critical
Publication of FR2680259B1 publication Critical patent/FR2680259B1/fr
Granted legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/147Discrete orthonormal transforms, e.g. discrete cosine transform, discrete sine transform, and variations therefrom, e.g. modified discrete cosine transform, integer transforms approximating the discrete cosine transform

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Theoretical Computer Science (AREA)
  • Discrete Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

L'invention concerne les techniques de compression d'image. Un appareil de compression d'image comprend des moyens de transformation en direction horizontale (10) qui transforment horizontalement des pixels d'entrée en utilisant seulement un réseau d'additionneurs; une mémoire de transposition (12) qui fait tourner les pixels transformés en direction horizontale pour les amener en direction verticale; des moyens de transformation en direction verticale (16) qui reçoivent les pixels verticaux et qui les transforment verticalement; et un seul multiplieur (20) qui accomplit une seule fonction de multiplication sur les pixels verticaux transformés, pour fournir des données de pixels comprimées qui sont représentatives des pixels d'entrée. Applications aux photocopieurs en couleurs.

Description

La présente invention concerne un appareil et un procédé correspondant pour la compression d'images fixes, qui sont compatibles avec une Norme de Compression d'Images Fixes JPEG (Joint Photographic
Experts Group).
Lorsqu'on doit comprimer des images de haute qualité pour réduire des exigences de mémoire ou de transmission, il est de pratique courante de transformer tout d'abord les images dans un autre espace dans lequel on peut représenter l'information de façon plus compacte. On effectue habituellement ceci bloc par bloc au moyen d'une transformation linéaire (multiplication matricielle); une configuration caractéristique consiste à effectuer des transformations à 8 points sur des segments de rangée de 8 pixels, et à effectuer ensuite des transformations à 8 points sur les segments de colonne à 8 éléments de cette image transformée dans la direction des rangées. De façon équivalente, on peut effectuer une seule transformation à 64 points sur un bloc de pixels comprenant 64 pixels disposés en un bloc de 8 par 8.
La transformation de Tchebychev discrète est un bon choix pour une transformation unidimensionnelle
Figure img00010001

avec
Figure img00010002
2/8 dans les autres cas
cette transformation présente plusieurs avantages parmi lesquels : a) le fait que la compression est presque optimale à certains égards, b) le fait qu'il existe des algorithmes de calcul rapides pour effectuer cette transformation et son inverse, et c) le fait qu'on peut réduire aisément le flou (amélioration de l'image initiale) dans l'espace de la transformée, sous certaines hypothèses qui sont décrites dans la Référence Lîl.
L'invention a pour but de procurer un appareil et un procédé correspondant pour la compression d'images fixes.
Un but plus particulier est de procurer un appareil et un procédé correspondant pour la compression d'images fixes qui demeurent compatibles avec une
Transformation JPEG.
D'autres buts, caractéristiques et avantages de l'invention seront mieux compris à la lecture de la description détaillée qui va suivre d'un mode de réalisation, donné à titre d'exemple non limitatif. La suite de la description se réfère aux dessins annexés dans lesquels
La figure 1A montre un schéma synoptique d'un compresseur et la figure 1B montre un schéma synoptique d'un extenseur, conformes à l'invention.
Les figures 2A-2C montrent la façon dont sont ordonnés les pixels d'entrée, les caractéristiques temporelles de bloc et les caractéristiques temporelles de vecteur de données conformes à l'invention.
Les figues 3A,3BmatrzEune transformation à trois points de données RGB en données XYZ.
Les figures 4A et 4B montrent des configurations possibles de circuits à très haut niveau d'intégration (VLSI) conformes à l'invention.
La figure 5 montre un schéma d'un registre à décalage qui est utilisé dans l'invention.
La figure 6A montre un schéma d'un réseau de décalage conforme à l'invention.
La figure 6B montre un exemple du réseau de décalage de la figure 6A.
La figure 7 montre un schéma de la circulation combinée de données.
Les figures 8A et 8B montrent des schémas de réseaux d'addition en sens avant conformes à l'invention.
La figure 9 montre un schéma d'une transformation de Chen généralisée bidimensionnelle conforme à l'invention.
La figure 10 montre un schéma synoptique d'un mode de réalisation préféré de l'invention.
Exposé théorique de l'invention
Un système complet pour la compression et la reconstruction d'images peut se présenter comme le montre le Tableau 1.
TABLEAU 1
Figure img00040001
<tb> <SEP> 64 <SEP> pixels <SEP> d'entrée
<tb> A) <SEP> Transformation <SEP> de <SEP> Tchebychev <SEP> discrète <SEP> (ou <SEP> simi
<tb> <SEP> laire) <SEP> sur <SEP> des <SEP> rangées
<tb> <SEP> Transformation
<tb> B) <SEP> Transformation <SEP> de <SEP> Tchebychev <SEP> discrète <SEP> (ou <SEP> simi
<tb> <SEP> laire) <SEP> sur <SEP> des <SEP> colonnes
<tb> Z)
<tb> (étape <SEP> facultative) <SEP> - > <SEP> &commat; <SEP> Classification <SEP> de
<tb> <SEP> la <SEP> la <SEP> difficulté
<tb> C) <SEP> Multiplication <SEP> par <SEP> un <SEP> facteur <SEP> e <SEP> - <SEP> - <SEP> N
<tb> <SEP> d'échelle <SEP> de <SEP> taux
<tb> <SEP> l
<tb> D) <SEP> Multiplication <SEP> par <SEP> des <SEP> poids
<tb> <SEP> psycho-adaptatifs
<tb> E) <SEP> Multiplication <SEP> par <SEP> des <SEP> poids <SEP> de
<tb> <SEP> suppression <SEP> de <SEP> flou
<tb> F) <SEP> Application <SEP> d'un <SEP> seuil, <SEP> quantification,
<tb> <SEP> codage <SEP> et <SEP> émission
<tb> G) <SEP> Réception, <SEP> décodage <SEP> et <SEP> interpolation
<tb> <SEP> 1 <SEP> il
<tb> H) <SEP> Multiplication <SEP> par <SEP> un <SEP> facteur <SEP> < <SEP> - <SEP> - <SEP>
<SEP> par
<tb> <SEP> d'échelle <SEP> de <SEP> taux <SEP> inverse
<tb> I) <SEP> Multiplication <SEP> parldes <SEP> poids
<tb> <SEP> par <SEP> des <SEP> poids
<tb> <SEP> psycho-adaptatifs <SEP> inverses
<tb> <SEP> 't,
<tb> J) <SEP> Transformation <SEP> de <SEP> Tchebychev
<tb> <SEP> discrète <SEP> inverse <SEP> }
<tb> K) <SEP> Transformation <SEP> de <SEP> Tchebychev
<tb> <SEP> discrète <SEP> inverse
<tb> L) <SEP> Lissage <SEP> des <SEP> frontières <SEP> de <SEP> v <SEP> - <SEP> - <SEP> - <SEP> - <SEP>
<tb> <SEP> blocs <SEP> de <SEP> pixels <SEP> |
<tb> <SEP> 64 <SEP> pixels <SEP> reconstruits <SEP> - <SEP> voisins <SEP>
<tb>
Le Tableau 1 ci-dessus décrit l'invention, et également la technologie actuelle lorsqu'on omet les étapes facultatives (L, Z).
La multiplication par les poids de suppression de flou (étape E) peut également être effectuée sous la forme d'une étape de décodage (par exemple après l'étape I).
On effectue la suppression du flou pour compenser la fonction d'étalement de point du dispositif d'entrée. Elle doit être adaptée au dispositif ou omise lorsque l'image d'entréeadéjà été améliorée. Il existe de meilleures manières de supprimer le flou de l'image, mais le procédé qui est représenté ici est économique du point de vue du calcul et il est approprié dans certaines applications, par exemple pour un photocopieur en couleurs.
Il est possible de réaliser le calcul de la transformation directe ((A, B) de façon que la majeure partie de la charge de travail de calcul consiste en une phase de multiplication finale. En pré-calculant les produits de ces multiplicateurset ceux des étapes C,
E, on peut accélérer le processus de compression.
De façon similaire, il est possible de réaliser le calcul de la transformation inverse de façon que la majeure partie de la charge de travail de calcul soit concentrée dans une phase de multiplication préliminaire. Ici encore, en pré-calculant les produits, on élimine effectivement l'effort de calcul des étapes H, I.
En outre, on substitue une autre transformation à la transformation de Tchebychev discrète bidimensionnelle, ce qui simplifie encore davantage les calculs.
De plus, on peut faire varier sélectivement les poids psycho-adaptatifs, pour que les multiplicateurs combinés pour les étapes B, D, soient efficaces au point de vue du calcul, c'est-à-dire qu'ils correspondent par exemple à des puissances de deux. De petits changements dans les poids psycho-adaptatifs des éléments de transformation de sortie à faible énergie ont peu d'effet sur la qualité de l'image ou le taux de compression.
Enfin, on considérera les étapes L, Z du
Tableau 1, c'est-à-dire Classification de Difficulté de l'image, et Lissage des Frontières de Blocs. du fait que ces opérations sont facultatives et indépendantes de l'invention principale, on ne les envisagera ici que de façon minimale.
Algorithme de Chen
L'algorithme de Chen unidimensionnel [3] indique que
= N 2,N AN x (1) en désignant par x un vecteur de données, par X un vecteur transformé et par AN la quantité suivante
AN = c(k) cos((2j+1)kY /2N); j, k, = 0,1,2,...N-1
En outre, on peut décomposer AN de la façon suivante:
Figure img00060001
<tb> <SEP> I <SEP> 0
<tb> AN <SEP> = <SEP> ZN <SEP> I <SEP> I <SEP> BN <SEP> (2)
<tb> <SEP> O <SEP> RN/2
<tb> avec pour RN/2 la valeur suivante RN/2 = = c(2k +1) cos((2j + 1) (2K +1)X/2N); j, k = 0,1,2,...,N/2-1.
(3)
On note que la matrice Z est la matrice P de la transformation de Chen. On a changé la notation pour éviter une confusion avec la matrice P dans la présente demande.
Exemple de transformation de Chen unidimensionnelle à huit points (N = 8)
Pour mettre en oeuvre l'algorithme de Chen à huits points, on utilise deux fois l'équation 2, de façon récursive. La première itération utilise les matrices Z8, R4 et B8. La seconde itération effectue une résolution visant à déterminer A4, et elle utilise les matrices Z4, R2, A2 et B4. On obtient aisément ces matrices à partir des équations ci-dessus ou de l'article de Chen |3|.
Figure img00070001
<tb>
<SEP> | <SEP> | <SEP> A2 <SEP> 0 <SEP> | <SEP> |
<tb> <SEP> Z4 <SEP> 1 <SEP> j <SEP> B4 <SEP> 0 <SEP> <SEP> l <SEP>
<tb> = <SEP> Z@ <SEP> O <SEP> R2 <SEP> B@
<tb> <SEP> I <SEP> 0 <SEP> <SEP> R4
<tb> avec
Figure img00070002
<tb> <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0
<tb> <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0
<tb> <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0
<tb> Z@ <SEP> = <SEP> # <SEP> <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> #
<tb> <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0
<tb> <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0
<tb> <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0
<tb> <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1
<tb>
Figure img00080001
<tb> <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1
<tb> <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0
<tb> <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0
<tb> B@ <SEP> = <SEP> # <SEP> <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> #
<tb> <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> -1 <SEP> 0 <SEP> 0 <SEP> 0
<tb> <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> -1 <SEP> 0 <SEP> 0
<tb> <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> -1 <SEP> 0
<tb> <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> -1
<tb> <SEP> C1 <SEP> C3 <SEP> C5 <SEP> C7 <SEP> C1 <SEP> C4(C7+C1) <SEP> C4(C1-C7) <SEP> C7
<tb> R4 <SEP> = <SEP> # <SEP> C3 <SEP> -C7 <SEP> -C1 <SEP> -C5 <SEP> #=# <SEP> C3 <SEP> C4(C5-C3) <SEP> -C4(C3+C5) <SEP> -C5
<tb> <SEP> C5 <SEP> -C1 <SEP> C7 <SEP> C3 <SEP> -C5 <SEP> -C4(C5+C3) <SEP> C4(C3-C5) <SEP> C3
<tb> <SEP> C7 <SEP> -C5 <SEP> C3 <SEP> -C1 <SEP> C7 <SEP> C4(C7-C1) <SEP> C4(C1+C7) <SEP> -C1
<tb> <SEP> C1 <SEP> 0 <SEP> C7 <SEP> 0 <SEP> 1 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0
<tb> = <SEP> # <SEP> 0 <SEP> C3 <SEP> 0 <SEP> C5 <SEP> # <SEP> <SEP> 1 <SEP> -1 <SEP> 0 <SEP> 0 <SEP> # <SEP> <SEP> 0 <SEP> C4 <SEP> 0 <SEP> 0 <SEP> # <SEP> <SEP> 0 <SEP> 1 <SEP> 1 <SEP> 0
<tb> <SEP> 0 <SEP> C5 <SEP> 0 <SEP> -C3 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> C4 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> -1 <SEP> 0
<tb> <SEP> C7 <SEP> 0 <SEP> -C1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> -1 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0 <SEP> -1
<tb> = <SEP> RA4 <SEP> RB4 <SEP> RC4 <SEP> RD4
<tb> <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 0
<tb> Z4 <SEP> = <SEP> # <SEP> <SEP> 0 <SEP> 0 <SEP> 1 <SEP> 0 <SEP> #
<tb> <SEP> 0 <SEP> 1 <SEP> 0 <SEP> 0
<tb> <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1
<tb> <SEP> 1 <SEP> 0 <SEP> 0 <SEP> 1
<tb> B4 <SEP> = <SEP> # <SEP> <SEP> 0 <SEP> 1 <SEP> 1 <SEP> 0 <SEP> #
<tb> <SEP> 0 <SEP> 1 <SEP> -1 <SEP> 0
<tb> <SEP> 1 <SEP> 0 <SEP> 0 <SEP> -1
<tb>
Figure img00090001
<tb> R2 <SEP> = <SEP> t <SEP> C2 <SEP> C6 <SEP> j <SEP>
<tb> <SEP> j <SEP> C6 <SEP> -C2 <SEP> j <SEP>
<tb> A2 <SEP> = <SEP> | <SEP> 1/#2 <SEP> <SEP> 1/#2 <SEP> <SEP> |
<tb> <SEP> <SEP> 1/12 <SEP> -1/#2 <SEP> <SEP> <SEP> 1 <SEP>
<tb> avec, d'après l'équation 3
Cn = cos (n #/16)
Transformation de Chen-Wu (modifiée) ou paramétrisée
La transformation de Chen est tout ce qui a été fait jusqu'à présent. On pourrait effectuer les multiplications nécessaires et réaliser une économie de calcul par rapport à une mise en oeuvre grossière de la transformation de Tchebychev discrète exigeant des multiplications intensives. Ce n'est cependant pas ce que propose la demanderesse. Pour réduire le nombre de multiplications au strict minimum, on reprend la paramétrisation des matrices, de la façon suivante. Ceci constitue ce que la demanderesse appelle la transformation de Chen-Wu (modifiée), qui est une création de la demanderesse.
Figure img00100001
<tb> <SEP> j <SEP> a <SEP> r(i+a) <SEP> r(a-l) <SEP> 1 <SEP> || <SEP> 1#(a2+1) <SEP> <SEP> O <SEP> o <SEP> o <SEP>
<tb> R4 <SEP> = <SEP> | <SEP> c <SEP> c <SEP> r(l-c) <SEP> -r(1+c) <SEP> -1 <SEP> il <SEP> o <SEP> l//(c2+1) <SEP> 0 <SEP> 0 <SEP> j <SEP>
<tb> <SEP> j <SEP> 1 <SEP> -r(i+c) <SEP> r(c-l) <SEP> c <SEP> || <SEP> o <SEP> o <SEP> 1/#(c2+1) <SEP> <SEP> O <SEP>
<tb> <SEP> 1 <SEP> i <SEP> r(l-a) <SEP> r(a+l) <SEP> -a <SEP> 11 <SEP> O <SEP> 0 <SEP> 0 <SEP> 1/#(a2+1) <SEP>
<tb> <SEP> = <SEP> RE4 <SEP> RF4
<tb> <SEP> R2 <SEP> = <SEP> 1#(b2+1) <SEP> <SEP> | <SEP> b <SEP> 1 <SEP> |
<tb> <SEP> j <SEP> 1 <SEP> -b <SEP> j <SEP>
<tb> <SEP> A2 <SEP> = <SEP> 1/#2 <SEP> <SEP> | <SEP> 1 <SEP> 1 <SEP> |
<tb> <SEP> | <SEP> 1 <SEP> -1 <SEP> |
<tb> avec
a = C1/C7 = cos(#/16)/cos(7#/16) = tan(7#/16).
b = C2/C6 = tan(6#/16),
c = C3/C5 = tan(5#/16),
r = C4 = cos(4#/16). (4)
Il faut noter que la matrice diagonale RF4 contient les facteurs de normalisation de la matrice non paramétrisée RA4. Il faut également noter qu'une matrice diagonale peut être constituée par les constantes dans R2 et A2.
Au moment de la reconstruction de la matrice
A8, deux matrices sont conservées distinctes. Les matrices diagonales sont conservées séparées de la matrice principale. La matrice principale est multipliée par les termes BN. Après le réarrangement approprié et la multiplication par le terme constant, l'équation 1 se réduit â : X=Q(a, b, c) P(a,b,c,r) x , avec:
Figure img00110001
1/2#2 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0
<tb> 0 <SEP> 1/2#(a2+1) <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0
<tb> 0 <SEP> 0 <SEP> 1/2#(b2+1) <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0
<tb> Q(a,b,c)= <SEP> # <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1/2#(c2+1) <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> # <SEP> (5)
<tb> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1/2#2 <SEP> 0 <SEP> 0 <SEP> 0
<tb> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1/2#(c2+1) <SEP> 0 <SEP> 0
<tb> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1/2#(b2+1) <SEP> 0
<tb> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 0 <SEP> 1/2#(a2+1)
<tb> 1 <SEP> 1 <SEP> 1 <SEP> 1 <SEP> 1 <SEP> 1 <SEP> 1 <SEP> 1
<tb> a <SEP> r(a+1) <SEP> r(a-1) <SEP> 1 <SEP> -1 <SEP> r(1-a) <SEP> -r(a+1) <SEP> -1
<tb> b <SEP> 1 <SEP> -1 <SEP> -b <SEP> -b <SEP> -1 <SEP> 1 <SEP> b
<tb> P(a, <SEP> b, <SEP> c, <SEP> r)=# <SEP> c <SEP> r(1-c) <SEP> -r(c+1) <SEP> -1 <SEP> 1 <SEP> r(c+1) <SEP> r(c-1) <SEP> -c# <SEP> (6)
<tb> 1 <SEP> -1 <SEP> -1 <SEP> -1 <SEP> 1 <SEP> 1 <SEP> -1 <SEP> -1 <SEP> 1
<tb> 1 <SEP> -r(c+1) <SEP> r(c-1) <SEP> c <SEP> -c <SEP> r(1-c) <SEP> r(c+1) <SEP> -1
<tb> 1 <SEP> -b <SEP> b <SEP> -1 <SEP> -1 <SEP> b <SEP> -b <SEP> 1
<tb> 1 <SEP> r(1-a) <SEP> r(a+1) <SEP> -a <SEP> a <SEP> -r(a+1) <SEP> r(a-1) <SEP> -1
<tb>
Transformation généralisée
La transformation DCT à 8 points généralisée est déterminée par quatre paramètres a, b, c et r, et on peut l'écrire sous la forme
T(a,b,c,r,) = P(a,b,c,r) X Q(a,b,c) dans laquelle P() et Q() sont les mêmes que ci-dessus.
La transformation d'image exige deux de ces transformations T, à savoir Tv et Th, pour transformer l'image respectivement en direction verticale et en direction horizontale. La transformation bidimensionnelle complète est représentée par
[F] = CTV] [f] t [Th] en désignant par f le bloc d'image d'entrée, et par F les coefficients de la transformée de sortie, tandis que l'indice supérieur "t" désigne l'opération de transposition de matrice. Toutes les matrices ont ici des dimensions de 8 par 8.
Du fait qu'une matrice diagonale (telle que
Q) est sa propre transposée, et que
t t t
[A] [B] = ([B] [A] pour toutes les matrices, et que :
[Tv] = [FV] [Q 1vJ'
[Thl] = [Pn] [Qh] on peut écrire :
[F] = [Qv] [Pv] [f] [Ph] [Qh] ce qui se réduit à :
F(i,j) = q(i,j) * g(i,j) avec
[g] = [Fv] Uf] [Phti et
q(i,j) = Qv(i,i) * Qh(j,j) (7)
Lorsqu'on transforme un bloc d'image, on doit effectuer une résolution donnant [g], en utilisant l'algorithme de Chen-Wu, et multiplier ensuite par les facteurs q(i,j). Connaissant
P = P(a, b, c, r
v v et
Ph = P(a, b, c, rh) l'inverse de la transformation ci-dessus s'exprime par :
[f] = [Pv'] [Qv] [F] [Qh] [Ph'@] avec
Pv' = P(a, b, c, 1 / 2rv) et
P' = P(a, b, c, 1 / 2 rh)
Ici encore, on obtient la solution par l'intermédiaire de l'algorithme de Chen-Wu.
Algorithme de Chen
Plusieurs procédés ont été imaginés pour accélérer le calcul des transformations de Tchebychev unidimensionnelles ou bidimensionnelles et de leurs transformations inverses;
Il existe un algorithme bien connu (Chen) [2,3] qui multiplie un 8-uple arbitraire par la ma trice T ci-dessus, en utilisant seulement 16 multiplications, 13 additions et 13 soustractions. Cet algorithme ne repose sur aucune propriété spéciale des paramètres a, b, c et r.
Algorithme de Chen-Wu (modifié)
En factorisant [T] = LP] rQ] comme cidessus, on décompose l'algorithme de Chen en deux étages, avec 8 multiplications utilisées dans la multiplication par [Q], et 8 multiplications et le reste des opérations arithmétiques utilisées dans la multiplication par [P]. Ceci est une conséquence de notre choix pour [Q]; plusieurs éléments de []j deviennent égaux à 1 ou -1 et une multiplication disparaît.
Comme indiqué ci-dessus, des simplifications similaires s'appliquent à la transformation inverse, à la transformation bidimensionnelle et à la transformation bidimensionnelle inverse. Pour des blocs de 8 par 8, on utilise 128 multiplications pour la transformation bidimensionnelle directe ou inverse (à l'exclusion des multiplications par [q]). Lorsqu'on observe le flux de données interne de l'algorithme de Chen, on note que ces multiplications sont incorporées dans une structure de huit étages d'addition/soustraction et de quatre étages de multiplication.
Il est important de souligner le fait que l'algorithme de Chen fonctionne indépendamment des paramètres a, b, c et r. Cependant, la transformation
DCT à 8 points qui est employée dans l'art antérieur utilise les paramètres de la "transformation en cosinus vraie" :
a = tangente (7*pi/16)
b = tangente (6*pi/160
c = tangente (5*pi/16)
r = racine carrée de (1/2) = 0,70710678 avec le choix de r nécessaire et suffisant pour que la matrice T soir orthogonale.
Choix des valeurs des paramètres
La transformation de Chen fonctionne indépendamment des valeurs qui sont sélectionnées pour les paramètres a, b, c et r. Ceci vient du fait que la transformée qui est créée par QP est orthogonale. Il est entièrement possible d'utiliser n'importe quels nombres et d'avoir une transformation qui accomplit la décorrélation désirée des données d'image qui est nécessaire pour la compression. On note que cette transformation n'est ni une transformation en cosinus discrète, ni une approximation d'une transformation
DCT. C'est une transformation spécifique.
On admet cependant de façon générale que la transformation DCT est très souhaitable pour réaliser une décorrélation efficace de l'image d'entrée, et pour effectuer une transformation en coefficients de fréquence spatiale relativement significatifs [5]. Par conséquent, pour bénéficier de la transformation DCT, on fixe les paramètres de façon qu'ils constituent des approximations de ceux de la transformation DCT qui sont donnés par l'équation 4. Le facteur qui s'oppose à ceci est l'efficacité du calcul. Du fait qu'une addition est moins coûteuse qu'une multiplication (dans le cas du matériel, l'économie porte sur l'aire de silicium qui est occupée, tandis que dans le cas du logiciel elle porte sur le nombre de cycles), les paramètres sont choisis pour être efficaces au point de vue du calcul.
Autres algorithmes
D'autres solutions de calcul ont été imaginées pour la Transformation de Tchebychev Discrète.
Par exemple, un algorithme dû à Lee effectue la transformation unidimensionnelle à 8 points et la trans for- mation bidimensionnelle à 64 points avec respectivement 12 et 144 multiplications [4,5].
Ces algorithmes "plus rapides" présentent cependant plusieurs inconvénients en comparaison avec l'algorithme de Chen a) La simplification T = P x Q (et la factorisation
similaire pour la transformation inverse) ne fonc
tionne plus. La séparation de la matrice diagonale
Q est essentielle pour les simplifications qui sui
vent. b) Ces algorithmes ne fonctionnent pas avec des para
mètres a, b, c et r arbitraires. Ils reposent en
effet sur diverses identités trigonométriques qui
sont spécifiquement valides pour les véritables
paramètres de'la transformation en cosinus. c) Ces algorithmes ont une structure plus difficile.
Ceci peut créer des difficultés dans leur mise en
oeuvre et augmenter le risque d'instabilité numéri
que.
Exposé de l'invention
A) En se référant à nouveau au Tableau 1, on note que les étapes C, D, E peuvent être combinées avec les post-multiplicateurs de transformation directe déduits de [Qj. De façon similaire, les étapes H, I peuvent être combinées avec les pré-multiplicateurs de transformation inverse. Ceci vient du fait que l'opé- ration de multiplication par un facteur d'échelle de taux, l'opération de multiplication par des poids psycho-adaptatifs (correspondant à ce que l'on appelle couramment des valeurs de quantification), et l'opération de multiplication par des poids de suppression du flou, sont toutes des opérations de multiplication de point. Si b, c, d, e sont les informations de sortie des étapes respectives B, C, D, E, on a c(i,j) = b(i,j) * q(i,j) d(i,j) = c(i,j) * r(i,j) = b(i,j) * q(i,j) * r(i,j) e(i,j) = d(i,j) * u(i,j) = b(i,j) * g(i,j) * r(i,j) * u(i,j) ou e(i,j) = b(i,j) * tous(i,3) avec tougi,j) = q(i,j) * r(i,j) * ui,j) (8) et q(i,j) est le facteur d'échelle de taux, r(i,j) sont des poids de quantifications choisis de façon psycho-adaptative (ou même choisis par l'utilisateur), et u(i,j) sont des poids des suppression de flou.
On peut combiner de façon similaire les étapes H et I.
Ceci signifie effectivement que les fonctions d'application de facteur d'échelle de taux, de pondération adaptative et de suppression de flou sont réalisées sans aucune charge de calcul générale supplémentaire. Comme indiqué ci-dessus, cette façon de procéder n'est pas applicable aux algorithmes "plus rapides", tels que celui de Lee.
B) Du fait que l'algorithme de Chen fonctionne avec n'importe quels paramètres a, b, c et r, on choisira des valeurs qui offrent une qualité et une compression similaires à celles de la transformation
DCT, mais qui conduisent à une multiplication rapide.
Les paramètres suivants sont raisonnablement proches de ceux de la transformation DCT, mais beaucoup plus efficaces au point de vue du calcul
a = 5,0
b = 2,5
c = 1,5
r = 0,75
La multiplication est maintenant remplacée par des opérations arithmétiques beaucoup plus simples. Par exemple, la multiplication par 5 devient copie; décalage à gauche de 2; addition. La multiplication par 1,5 devient : copie; décalage à droite de 1; addition.
Selon une variante, le numérateur inverse d'un multiplicateur rationnel peut être factorisé dans le multiplicateur combiné [q]. Ainsi, la multiplication par 2,5 peut devenir des multiplications par 5 et 2, respectivement pour des termes affectés et non affectés.
En mettant en oeuvre cette dernière idée, la manipulation du paramètre r = 0,75 dans l'algorithme de Chen de base exige 96 multiplications par 4 et 32 multiplications par 3. Avec l'algorithme de Wu-Paolini dans un perfectionnement correspondant à une forme de réalisation bidimensionnelle, un étage de multiplication complet est éliminé, et on obtient ainsi 36 multiplications par 16, 24 multiplications par 12 et 4 multiplications par 9. (La transformation inverse utilise 36 multiplications par 9, 24 multiplications par 6 et 4 multiplications par 4.)
Au prix d'une diminution de la vitesse de calcul, on peut sélectionner des valeurs de prametres encore plus proches de celles de la transformation en cosinus. On peut effectuer les substitutions b = 12/5 et/ou r = 17/24. Une autre possibilité intéressante est
rRow = 0,708333 (17/24)
rCol = 0,7 ( 7/10)
On utilise ici des transformations légère- ment différentes (paramètre r différent) pour les rangées et les colonnes. Ceci a pour but de simplifier les multiplicateurs qui sont obtenus dans le procédé de Wu-Paolini. Ce procédé donne ici 36 multiplications par 15, 12 multiplications par 85/8, 12 multiplications par 21/2 et 4 multiplications par 119/16. (La transformation inverse utilise 36 multiplications par 119/16, 12 multiplications par 85/16, 12 multiplications par 21/4 et 4 multiplications par 15/4.)
De la façon que l'on vient de décrire, toutes les multiplications ont été rendues rapides et peu coûteuses, sauf pour le multiplicateur combiné [q] dans le compresseur et le multiplicateur combiné [q] dans l'extenseur. Chacun d'eux exige une multiplication par élément de transformation. Ce dernier cas est simplifié par le fait que la majorité des coefficients de transformation seront égaux à zéro, et que la majeure partie des coefficients différents de zéro seront des entiers très proches de zéro que l'on pourra traiter de façon spécifique.
C) On utilise une technique supplémentaire pour réduire le coût du calcul du multiplicateur combiné [q] dans le compresseur. Du fait que le facteur d'échelle de taux est en réalité une valeur arbitraire, on l'ajustera point par point pour donner à tous les éléments de matrice [q] des valeurs simples au point de vue du calcul, par exemple des puissances de deux. Ces 64 ajustements ne doivent être effectués qu'une seule fois (après la spécification du facteur d'échelle de taux et des filtres de suppression de flou).
Par exemple, si un élément (C) du multipli cateur combiné et l'élément du multiplicateur d'extension correspondant (D) ont les valeurs
C = 0,002773
D = 0,009367 on peut trouver l'approximation C ~ 3 / 1024 = 0,002930, et on peut l'utiliser pour simplifier la multiplication. Ceci donne C' = 3 / 1024 et D' =
D *C/C'-0,008866.
Description détaillée du processus (de base)
Remarques a) Dans l'espace de transformation quantifié, il est
commode et efficace de choisir une largeur constante
(w) pour les étapes différentes de zéro de la quan
tification des coefficients "AC", et de prendre la
largeur w*q pour l'étape zéro.
En outre, q = 2 est commode d'un point de
vue arithmétique et est presque optimal pour la
qualité sur une gamme étendue de facteurs de com
pression. Dans la description, on prend q = 2
("zéro à double largeur"), bien que l'invention
englobe n'importe quelle valeur possible de q. b) L'algorithme suivant est conçu pour une arithméti
que portant sur des entiers binaires en complément
à deux à précision limitée, sauf pour les détermi
nations intermédiaires aux étapes (
En choisissant l'identité 7,4375 = (8-1) * (1+1/16),
la multiplication peut être effectuée efficacement
avec des décalages et des additions. c) Les multiplications de suppression du flou sont
représentées ici à l'étape 8, mais elles doivent
habituellement être effectuées à l'étape 4, si
encore elles le sont. Dans de nombreuses applica
tions, l'extenseur ne "sait" pas comment supprimer
le flou de l'image, ou s'il doit le faire. Il faut
noter que les meilleures valeurs de Thr() dépendent
du dispositif d'entrée et du procédé de suppression
du flou.
Une technique recommandée consiste à calcu
ler la valeur m(i,j) (voir l'étape 8) au moment de
la compression (étape 4), et de la transmettre ou
de l'enregistrer dans le cadre de l'image compri
mée. d) Il existe plusieurs moyens évidents pour combiner
en parallèle, en séquence temporelle ou de façon
entrelacée, les calculs qui suivent. Le procédé
préféré pour une architecture de matériel donnée
ressort clairement.
Exemple de mode de réalisation en pseudo-code
Cette partie de la présente demande consiste fondamentalement en un mode de réalisation de l'invention expliqué en texte et en pseudo-code. On y trouve plusieurs sections, comprenant la paramétrisation, le calcul de tous(i,j) comme dans l'équation 8 ci-dessus, l'exécution du corps principal de la transformation de
Chen généralisée directe, le calcul de tous(i,j) inverse, et l'exécution du corps principal de la transformation de Chen généralisée inverse.
1. Les paramètres a, b, c et r sont indiqués ci-dessus. On note qu'il existe une valeur de r à la fois pour les rangées et les colonnes. Bien que la transformation de Chen généralisée bidimensionnelle soit une transformation séparable et puisse être exécutée en deux passes, il n'y a aucune restriction exigeant qu'elle soit symétrique. Les facteurs d'échelle peuvent donc être dissymétriques, comme représenté.
Les équations pour les numérateurs N et les dénominateurs D montrent des combinaisons possibles de numérateur et de dénominateur qui peuvent être égales aux valeurs ci-dessus. Le concepteur de la mise en oeuvre de la transformation de Chen généralisée dispose d'une grande liberté dans le choix des valeurs réelles qui sont utilisées dans le réseau additionneur. Bes choix de valeurs sont corrigés dans l'étage de multiplication final.
On choisit
tan 7*psi/16 --=a = Na / Da
tan 6*pi/16 =b = Nb / Db
tan 5*pi/16 --=c = Nn / nr
Figure img00220001
0;5 / rRow = rRow' = Nrr'/Drr'
0,5 / rCol = rCol' = Nrc'/Drc', pour les paramètres de la transformation de Chen généralisée, comme envisagé ci-dessus. Il n'est pas nécessaire que les "numérateurs" N et les "dénominateurs" D soient entiers, bien qu'on les choisisse entiers pour la commodité du calcul. Parmi plusieurs possibilités utiles, on peut mentionner
Na = 5 Da = 1
Nb = 3 Db = 1,25
Nc = 1,5 Dc = 1
Nrr = 1,75 Drr = 2,5
Nrc = 4t25 Drc = 6
Nrr' = 1725 Drr' = 1,75
Nrc' = 3 Drc' = 425 mais ici encore, l'invention englobe toutes les approximations rationnelles des tangentes ci-dessus
On calcule ainsi les facteurs d'échelle de normalisation nécessaires.
2. On écrit également
Figure img00230001
3. On adopte les notations suivantes désigne un index sur 0,1,2,3,4,5,6,7 re
présentant la position verticale (dans l'es
pace d'image) ou la séquence de variation
verticale (dans l'espace de la transformée) j désigne un index sur 0,1,2,3,4,5,6,7 re
présentant la position horizontale (dans
l'espace d'image) ou une séquence de varia
tion horizontale (dans l'espace de la trans
formée)
Debl(i,j) désigne les facteurs de suppression de flou,
ou Debl() = 1 quand il n'y a pas de suppres
sion de flou.
Thr(i,j) désigne les poids psycho-adaptatifs inver
ses, par exemple ceux recommandés par le
CCITT.
M désigne le facteur d'échelle de taux; on a
ici M = 1 (approximativement) pour des taux
de compression caractéristiques. v(i,j) désigne les différentes valeurs de luminance
dans l'espace d'image (spatiale).
L(i,j) désigne les valeurs de luminance transfor
mées dans l'espace de la transformée (avec
compression).
S est un entier arbitraire de valeur faible
désignant la précision arithmétique qui est
utilisée dans la reconstruction.
Les poids psycho-adaptatifs 1 / Thr(i,j) doivent être réoptimisés pour chaque ensemble de paramètres de la transformation de Chen généralisée.
Cependant, les paramètres qui sont donnés à l'étape (1) ci-dessus sont suffisamment proches des paramètres du CCITT pour que la même matrice Thr() soit optimale.
4. g(i,j) équivaut ici à tous(i,j). On effectue une itération passant par les 64 positions de transformation (i,j), en calculant k(i,j) et s(i,j) pour satisfaire la relation :
s(i,j)
g(i1j) < 2 * M * U(i) * U(j)
k(i,j) * Zr(i) * Zc(j) * Thr(i,j) avec le membre de droite aussi proche que possible de g(i,j), avec s(i,j) entier, et avec g(i,j) = 1,0, k(i,j) dans {1,3,5,7,9}
pour i+j (4 g(i,j) = 0,9, k(i,j) dans {1,3,5}
pour i+j (4 g(i,j) = 0,7, k(i,j) = 1
pour i+j C 4
Zr(i) = 1, lorsque i = 0, 1, 2 ou 3
Zr(i) = Drr, lorsque i = 4, 5, 6 ou 7
Zc(j) = 1, lorsque j = 0, 1, 2 ou 3
Zc(j) = Drc, lorsque j = 4, 5, 6 ou 7
Zr'(i) = 1, lorsque i = 0, 1, 2 ou 3
Zr'(i) = Drr', lorsque i = 4, 5, 6 ou 7
Zc'(j) = 1, lorsque j = 0, 1, 2 ou 3
Zc'(j) = Drc, lorsque j = 4, 5, 6 ou 7
Les facteurs g(i,j) sont destinés à rendre le biais de quantification indépendant de la taille choisie.
5. Exécution de la transformation de Chen généralisée directe
L'étape 5 est l'exécution du pseudo-code de la transformation directe. Les étapes suivantes accomplissent une transformation bidimensionnelle sous une forme entrelacée.
On effectue une itération dans l'image en accomplissant les opérations qui suivent sur chaque bloc de valeurs de luminance v(,) de 8 par 8
5.1 Préparer les valeurs
M(i, 0) = V(i, 0) + V(i,7)
M(i, 1) = V(i, 1) + V(i,6)
M(i, 2) = V(i, 2) + V(i,5)
M(i, 3) = V(i, 3) + V(i,4)
M(i, 4) = V(i, 3) - V(i,4)
MS(i) = V(, 2) - V(i, 5)
M6(i) = V(i, 1) - V(i, 6)
M(i, 5) = M6(i) + MS (i)
M(i, 6) = M6(i) - M5(i)
M(i, 7) = v(i, 0) - v(i,7) pour i = 0, 1; 2, ..., 7
5.2 Préparer les valeurs
H(0, j) = M(0, j) + M(7,j)
(1, j) = M(1, j) + M(6,j)
- H(2, j) = M(2, j) + M(5, j)
H(3, j) = M(3, j) + M(4, j)
H(4, i) = M(3, j) - M(4, j)
H5(j) = M(2, j) - M(5, j)
H6(j) = M(1, j) - M(6, j)
H(5, j) = H6(j) + H5(j)
H(6, j) = H6(j) = H5(j)
H(7, j) = M(0, j) - M(7,j) pour j = 0, 1, 2, ..., 7
5.3 Multiplier chaque H(i,j) par (si i = 0, 2, 3 ou 4 :)
Nrc si j = 5 ou 6
Drc si j = 4 ou 7
1 (pas d'action) si j = 0, 1, 2 ou 3 (si i = 4 ou 7 :)
Drr Nrc si j = 5 ou 6
Drr Drc si j = 4 ou 7
Nrr si j = 0, 1, 2 ou3 (si i = 5 ou 6 :)
Nrr Nrc si j = 5 ou 6
Nrr Drc si j = 4 ou 7
Nrr si j = 0, 1, 2 ou 3
5.4 Préparer les valeurs
E(0, j) = H(0,j) + H(3,j)
E(1, j) = H(7,j) + H(5,j)
E(2, j) = H(0,j) - H(3,j)
E(3, j) = H(7,j) - H(5,j)
E(4, j) = H(I,j) + H(2,j)
E(5, j) = H(6,j) - H(4,j)
E(6, j) = H(I,j) - H(2,j)
E(7, j) = H(6,j) + H(4,j)
F(O, j) = E(4, j) + E(0, j)
F(4, j) = E(0, j) - E(4, j)
F(2, j) = Db * E(6,j) + Nb * E(2, j)
F(6, j) = Db * E(2,j) - Nb * E(6, j)
F(1, j) = Da * E(7,j) + Na * E(1, j)
F(7. j) = Da * E(l,j) - Na * E(7, j)
F(3, j) = Dc t E(5,j) + Nc * E(3, j)
F(5, j) = Dc * E(3,j) - Nc * E(5, j) pour j = 0, 1, 2, ..., 7
5.5 préparer les valeurs
Z(i, 0) = F(i,0) + F(i,e,)
z(i, 2) = F(i,0) - F(i,3)
Z(i, 4) = F(i,1) + F(i,2)
z(i, 6) = F(i,i) + F(i,2)
Z(i, 1) = F(i,7) + F(i,5)
Z(i, 3) = F(i,7) - F(i,5)
Z(i, 5) = F(i,6) - F(i,4)
Z(i, 7) = F(i,6) + F(i,4)
G(i, 0) = Z(i, 4) + Z(i, 0)
G(i, 4) = Z(i, 0) - Z(i, 4)
G(i, 2) = Db * Z(i,6) + Nb * Z(i, 2)
G(i, 6) = Db * Z(i,2) - Nb * Z(i, 6)
G(i, 1) = Da * Z(i,7) + Na * Z(i, 1)
G(i, 7) = Da * Z(i,1) - Na * Z(i, 7)
G(i, 3) = Dc * Z(i,5) + Nc * Z(i, 3)
G(i, 5) = Dc * Z(i,3) - Nc * Z(i, 5) pour i = 0, 1, 2, . ..., 7
Selon une variante, on peut séparer la transformation en deux passes dans une transformation unidimensionnelle. Ce qui suit est un exemple d'une passe d'une transformation unidimensionnelle. La figure 8 montre ces étapes.
A1 = X0 + X7 B1 = A1 - A2 C1 = 1,25 B1
A2 = X3 + X4 B2 = A1 + A2 C2 = 3 B1
A3 = X2 + X5 B3 = A3 + A4 C3 = 1,25 B4
A4 = X1 + X6 B4 = A4 - A3 C4 = 3 B4
A5 = X0 - X7 B5 - A6 + A7 C5 = 1,5 A5
A6 = X1 - X6 B6 = A6 - A7 C6 = 1,0625 B5
A7 = X2 - XS C7 = 1,0625 B6
A8 = X3 - X4 C8 = 1,5 A8
D1 - C5 + C6 El = 2,5 D1 YO = B2 + B3
D2 = C5 - C6 E2 = 1,25 D2' Y1 = E1 + (0,5 D3)
D3 = C7 + C8 E3 = 215 D3 Y2 = C2 + C4
D4 = C7 - C8 E4 = 1,5 D4 Y3 = E2 + D4
Y4 = B2 - B3
Y5 = D2 - E3
Y6 = C1 - C4
Y7 = (0,5 D1) - E4
On note que toutes les multiplications dans
ces équations sont accomplies avec des opérations de
décalage et d'addition.
Pour lier ceci à la forme matricielle de la
transformation de Chen généralisée, on montre à titre
d'exemple le cas du point de vecteur Y6.
Y6 = C1 - C4 = (1,25 B1) - (3 B4) = 1,25 (A1 - A2) - 3 (A4
= 1,25 ((X0 + X7) - (X3 + X4)) - 3 ((X1 + X6) - (X2 + X5))
= 1,25 X0 - 3 X1 + 3 X2 - 1,25 X3 + 1,25 X4 + 3 X5 - 3 X6 + 1,25 X7
Y6/1,25 = XO - 2,4 X1 + 2,4 X2 - X3 + X4 + 2,4 X5 - 2,4 X6 + X7 = } 1 -b b -1 l b -b 1
avec b = 2,4. Ceci correspond à la sixième ligne de la
matrice P dans l'équation. On note que la division par
1,25 correspond à un facteur d'échelle qui est collec
té dans la matrice de facteurs d'échelle de taux.
On fait passer par ce réseau additionneur
les données de rangées d'un bloc de 8 x 8 pixels. On
transpose les composantes de fréquence unidimension nelles résultantes, et on les fait passer à nouveau par le même réseau.
6. Après l'étape 5.1 dans chaque sous-bloc d'image, et pour chacune des 64 positions (i,j), en utilisant k(i,j) et s(i,j) provenant de l'étape (4), préparer la valeur -s(i,j)
L(i,j) = G(i,j) * k(i,j) * 2 mais si cette valeur est négative (ou si i = j = 0), additionner 1 à cette valeur. Ce résultat est le coefficient de transformée L(i,j).
Commentaires concernant l'étape 6
Les calculs ici sont simples du fait que - k(i,j)esttoujours égalàl, 3, 5, 7 ou 9 et est habi
tuellement égal à 1.
- La multiplication par 2(-s(i,j)) est simplement un
décalage à droite (ou éventuellement un décalage à
gauche si on a choisi M très grand).
Les décalages à droite arithmétiques donnent toujours un arrondi vers le bas. On désire en réalité un arrondi vers zéro; d'où la condition "si (valeur négative) additionner 1".
L'addition de 1 lorsque i = j = 0 repose sur le fait que v(i,j) > = 0, et est juste un moyen pour simplifier la condition de l'étape (9.1) ci-dessous.
7. Coder, enregistrer et/ou émettre les valeurs L(i,j). En fin de compte, ces valeurs seront récupérées et l'image sera reconstruite par les étapes suivantes.
8. Ceci est la version inverse de tous(i,j).
Effectuer une itération passant par les 64 positions de transformation (i,j), en calculant m(i,j) sous la forme de l'entier le plus proche de
2 2
U(i) * U(j) * Zr(i) # Zc(j) * Debl(i,j)
m(i,j) =
Zr'(i) * Zc'(j) * k(i,j) * 24-S-s(i,j)
Dans cette expression, s(i,j) et k(i,j) sont calculés à l'étape (4) ci-dessus et les termes "Z" sont définis à l'étape (4).
De plus, choisir A(i,j) sous la forme de l'entier le plus proche de
2S-2 A(0.0) @ @ 0.5 * m(0.0)
Drc' * Drr
A(i,j) = m(i,j) * (25 - i - j) / 64
pour i = 0 ou j = 0
Commentaires concernant l'étape 8
Les valeurs m(i,j) peuvent avoir été précalculées ci-dessus à l'étape (4) et transmises avec l'image comprimée. Ceci n'est pas nécessaire pour
A(i,j), qui dépend seulement de constantes et de m(i,j). Dans des applications dans lesquelles le facteur d'échelle de taux et les poids de suppression de flou sont fixés, les valeurs m(i,j) et A(i,j) seront constantes. Le facteur 2^S représentent des bits de précision supplémentaires qui seront ultérieurement éliminés par des décalages arithmétiques à droite dans les étapes (9.2) et (10).
L'ajustement relatif à A(0,0) corrige un biais d'arrondi, pour permettre l'utilisation des informations de sortie ci-dessous sans correction d'arrondi.
Dans le cas considéré ici, l'obtention de
A(0,0) repose sur l'addition de 1 à L(0,0) à l'étape (6).
L'interpolation "(25 - i - j) / 64" est heuristique, mais elle est approximativement optimale au sens des moindre carrés de l'erreur. Ici encore, on utilise la version entrelacée d'ordre 20.
9. Effectuer une itération dans l'image transformée en accomplissant ce qui suit sur chaque bloc de huit par huit des valeurs de luminance transformées L( , ) qui sont obtenuesà l'étape (5) cidessus
9.1 Préparer les valeurs :
E(i,j) = L(i,j) * rn(i,j) + A(i,j)
pour L(i,j) > 0
E(i,j) = L(i,j) * in(i,j) - A(i,j)
pour L(i,j) < 0
E(i,j) = 0
pour L(i,j) = 0 pour chaque(i,j), i = 0,1,2,...,7 et j = 0,1,2,...,7.
On doit toujours additionner A(0,0). La présente invention couvre également le cas dans lequel le test L(0,0) > 0 n'est pas effectué et les étapes (6) et (8) ci-dessus sont simplifiées (facultative ment).
En pratique, on doit reconnaître de petites multiplications, par exemple -11 < L(i,j) < 11 comme des cas spéciaux, pour éviter le coût de calcul que représente une multiplication.
9.2 (Si ceci est commode pour réduire le coût du dispositif à semiconducteurs, décaler les nombres E(i,j) d'un nombre arbitraire de positions S1 vers la droite. I1 faut noter que ces décalages sont "libres" dans certaines formes de réalisation du procédé. Dans des formes de réalisation dans lesquelles le décalage n'est pas libre, on peut choisir de l'omettre lorsque E(i,j) est égal à zéro. On peut également choisir d'éliminer tous les décalages en fixant
Si = O.)
9.3 Dans la forme bidimensionnelle, préparer à nouveau les valeurs suivantes
F(0, j) = E(4, j) + E(0, j)
F(4, j) = E(0, j) - E(4, j)
F(2, j) = Db * E(6, j) + Nb * E(2, j)
F(6, j) = Db * E(2, j) - Nb * E(6, j)
F(1, j) = Da * E(7, j) + Na * E(1, j)
F(7, j) = Da * E(1, j) - Na * E(7, j)
F(3, j) = Dc * E(5, j) + Nc * E(3, j)
F(S, j) = Dc * E(3, j) - Nc * E(5, j)
H(0, j) = F(0, j) + F(2, j)
H(1, j) = F(4, j) + F(6, j)
H(2, j) = (4, j) - F(6, j)
H(3, j) = F(G, j) - F(2, j)
H(4, j) = F(7, j) - F(S, j)
H5(j) = F(7, j) + F(5, j)
H6(j) = F(1, j) - F(3, j)
H(5,j) = H6(j) + H5(j)
H(7, j) = F(1, j) + F(3, j) pour j = 0, 1, 2, ..., 7
9.4 Préparer les valeurs
G(i, 0) = H(i, 4) + H(i, 0)
G(i, 4) = H(i, 0) - H(i, 4)
G(i, 2) = Db * H(i, 6) + Nb * H(i, 2)
G(i, 6) = Db * H(i, 2) - Nb * H(i, 6)
G(i, 1) = Da * H(i, 7) + Na * H(i, 1)
G(i, 7) = Da * H(i, 1) - NA * H(i, 7)
G(i, 3) = Dc * H(i, 5) + Nc * H(i, 3)
G(i, 5) = Dc * (i, 3) - Nc * H(i, 5)
M(i, 0) = G(i, 0) + G(i, 2)
M(i, 1) = G(i, 4) + G(i, 6)
M(i, 2) = G(i, 4) - G(i, 6)
M(i, 3) = G(i, 0) - G(i, 2)
M(i, 4) = G(i, 7) - G(i, 5)
M5(i) = G(i, 7) + G(i, 5)
MG (i) = G(i, 1) - G(i, 3)
M(i, 5) = M6(i) - m5(i)
M(i, 6) = M6(i) + M5(i)
M(i, 7) = G(i, 1) + G(i, 3) pour i = 0, 1, 2, ..., 7
9.5 Multiplier chaque M(i,j) par (si i = 0, 2, 3 ou 4 :)
Nrc' si j = 5 ou 6
Drc' si j = 5 ou 7 1 (pas d'action) si j = 0, 1, 2 ou 4 (si i = 4 ou 7 :)
Drr' Nrc' si j = 5 ou 6
Drr' Drc' si j = 4 ou 7
Drr' si j = 0, 1, 2 ou 3 (si i = 5 ou 6 :)
Nrr' Nrc' si j = 5 ou 6
Nrr' Drc' si j = 4 ou 7
Nrr' si j = 0, 1, 2 ou 3
9.6. Préparer les valeurs
Z(i, O) = M(i, 0) + M(i, 7)
z(i, 1) = M(i, 1) + M(i, 6)
z(i, 2) = M(i, 2) + M(i, 5)
z(i, 3) = M(i, 3) + M(i, 4)
z(i, 4) M(i, 3) - M(i, 4)
Z(i, 5) = M(i, 2) - M(i, 5)
z(i, 6) = M(i, 1) - M(i, 6)
z(i, 7) = M(i, 0) - M(i, 7) pour i = 0, 1, 2, ..., 7
9.7 Préparer les valeurs
Y(O, j) = Z(O, j) + Z(7, j)
Y(1, j) = Z(1, j) + Z(6, j)
Y(2, j) = Z(2, j) + Z(5, j)
Y(3, j) = Z(3, j) + Z(4, j)
Y(4, j) = Z(3, j) - Z(4, j)
Y(5, j) = Z(2, j) - Z(5, j)
Y(6, j) = Z(1, j) - Z(6, j)
Y(7, j) - Z(0, j) - Z(7, j) pour j = 0, 1, 2, ..., 7
10. Après l'étape 9.7 dans chaque sous-bloc d'image, et pour chacune des 64 positions (i,j), préparer la valeur
S1 - S
V(i,j) = Y(i,j) * 2 dans laquelle S et S1 sont des entiers arbitraires définis aux étapes (7) et (9.2) ci-dessus. Ici encore, la multiplication est en réalité un décalage à droite.
11. En fonction de systèmes particuliers, il peut maintenant être nécessaire d'effectuer un contrôle de plage. Par exemple, si la plage de luminance admissible est 0 4 v(i,j) t 255, on doit remplacer les valeurs de V(i,j) inférieures à zéro ou supérieures à 255, respectivement par 0 et 255.
Les valeurs v(i,j) sont maintenant les valeurs de luminance de l'image reconstruite.
Considérations concernant des processus secondaires
On complète habituellement le processus de base par des mesures supplémentaires visant à améliorer la compression ou la qualité de 11 image.
Après l'étape (10), on peut améliorer l'exactitude de l'image par une itération passant par toutes les paires de pixels V(8I + 7, j), V(8I + 8, j) et par toutes les paires de pixels V(k, 8J + 7),
V(i, 8J + 8) (c'est-à-dire des pixels adjacents qui étaient séparés dans des blocs d'image séparés), et en incrémentant et en décrémentant respectivement leurs valeurs vl, v2, par exemple par (v2 - V1) / max
Figure img00360001

en désignant par M le facteur d'échelle de taux qui est utilisé à l'étape (4), et l'expression qui figure au dénominateur étant ici encore simplement une approximation commode de l'optimum.
Avant d'accomplir l'étape (6), on peut classifier la difficulté subjective de la zone d'image locale, de façon à la faire correspondre de préférence à un type parmi trois, à savoir simple précision, double précision ou quadruple précision, avec respectivement le préfixe codé "0", "10" ou "11" pour l'information de sortie. Le calcul de l'étape (6) est maintenant remplacé par
P-s(i,j)
L(i,j) = G(i,j) * J(i,j) * 2 avec p = 0, 1 ou 2 respectivement pour la simple précision, la double précision et la quadruple précision.
Ceci est compensé ultérieurement à l'étape (9.2) à laquelle la précision ajoutée doit être éliminée avec un décalage à droite (augmenté).
Malheureusement, on n'a trouvé aucune technique de classification qui soit simple et très efficace. On utilise actuellement une technique malcommode qui déduit la mesure de difficulté de P de quatre sources a) P~gauche et P~haut, qui sont les mesures de diffi
culté de zones d'image voisines, b) (i+j)G(i,j)2) / E G(i,j)2, qui est le biais
d'énergie de la transformée c) -G(0,0), qui est la luminance moyenne inverse, et d) max (#(Histogramme (v(i,j))) ~de~largeur~fixe),
qui est l'uniformité.
A l'étape (7), les données de transformée
L(,) à enregistrer ou à transmettre peuvent faire l'objet d'une réduction supplémentaire en utilisant un procédé de codage par entropie. On utilise et on recommande de mettre en oeuvre le code de plage en zigzag/gabarit du CCITT, avec plusieurs tables de
Huffman prises par défaut, en fonction du débit binaire. Pour que l'exposé soit complet, on décrit en détail un exemple de ceci au paragraphe suivant.
Exemple de format de fichier comprimé
Une image comprimée est représentée par les informations suivantes 1) Préface (largeur et hauteur d'image, facteur
d'échelle de taux M, etc.) 2) Bloc de pixels 0
Bloc de pixels 1
Bloc de pixels 2
Bloc de pixels N-l 3) Posface (éventuellement) et chaque Bloc de pixels est représenté par les informations suivantes 1) Code de précision (déterminé par l'étape faculta
tive Z) 2) Code delta de coefficient continu 3) Code de coefficient alternatif (répété zéro fois ou
plus) 4) Code de fin de bloc chaque Code de coefficient alternatif étant représenté par les informations suivantes 1) Extension neuf-zéro (répétée E fois, E 0) 2) Code de plage/gabarit désignant (R, T) 3) Valeur de signe de coefficient (1 bit) 4) Valeur absolue de coefficient avec le bit de plus
fort poids supprimé (T bits).
R+(*E) est le nombre de coefficients de valeur zéro qui précèdent le coefficient considéré dans un ordre en "zigzag" (séquence basée sur la somme i+j), et T est la position de bit du bit de plus fort poids (MSB) de la valeur absolue du coefficient, par exemple T = 3 lorsque le coefficient est égal à 11 ou -11 position de bit : 876543210
11 = 000001011 (en binaire)
( bit de plus fort poids
On ne décrira pas en dédail le choix ou le codage concernant le code delta de coefficient continu, mais on donnera effectivement un exemple de code de Huffman utile à des débits binaires élevés, pour les codes de plage/gabarit alternatifs.
Code R T
Oxx O w 100x 0 4+w 111110 0 6 1111110{0} 0 1010 1 0 10110 1 1 10111 2 0 1100xx l+w max(0,2-w) 11010{0}1xx 1+w n+1+max(0,2-w) llOllxx S+w O 111100{0} > 1xx 1+w n+1+max(0,2-w) llOllxx 5+w 0 111100{0} > 1xx %+w 1+n 1111111 = Réservé 111101 = Extension Neuf-Zéro 1110 = Code de fin de bloc avec les notations suivantes
0 désigne n zéros consécutifs, n = 0, 1, 2, 3, ... xx désigne 2 bits interprétés comme w = 1, 2, ou x désigne l bit interprété comme w = 0 ou 1
Transformations à 128 points et 256 points
On peut utiliser le procédé précédent avec une plus grande transformation de Chen généralisée (GCT), de type 8 par 16 ou 16 par 16. Le procédé pour généraliser encore davantage la transformation de Chen apparaît clairement lorsqu'on note que la transformation GCT unidimensionnelle à 16 points est donnée (avec les rangées en "ordre papillon" et sans les post-multiplicateurs de normalisation qui sont nécessaires) par
GCT~16 (a, b, c, e, f, g, h, r, s, t) = j GCT~8(a, b, c, r) GCT~*(a, b, c, r) | t GQ(e,f,g,h,r,s,t,) - GQ(e,f,g,h,r,s,t) j avec GCT8(a, b, c, r) = 1 1 1 1 1 1 1 1 1 -1 -1 1 1 -1 -1 1 j b 1 -1 -b -b -1 1 b j b 1 -1 -b -b -1 1 b a ar+r ar-r 1 -1 r-ar -r-ar -a j 1 -cr-r cr-r c -c r-cr cr+r -1 j c c r-cr -cr-r -1 1 cr+r cr-r -c |
I 1 r-ar ar+r -a a -r-ar ar-r -1 j et avec GQ8(e, f, g, h, r, s, t) =
Les paramètres de type "cosinus vrai" ont ici les
valeurs
g = tangente 15pi/32 #=1-.1532.
a = tangente 14pi/32 #= 5,0273
f = tangente 13pi/32 #= 3,2966
b = tangente 12pi/32 #= 2,4142
g = tangentellpi/32 -= 1,8709
c = tangentel0pi/32 -= 1,4966
h = tangente9pi/32 -= 1r2185
r = cosinus 8pi/32 -= 0,7071
t = cosinus 2pi/32 -= 0,3827
s = cosinus4pi/32 = t * b
Les paramètres que l'on utilise sont
e=10
a=5
f=3,25
b=2,4
g=1,875
c=1,5
h=1,25
r=17 / 240t708333
r=17 / 240,708333
t = 5 / 13 #= 0,384615 s=t * b=12/ 13
L'inverse de GQ8(e, f, g, h, r, s, t) est la transposée de GQ8(e, t, g, h, 1/2r, t', b, t') avec
b=s/t
t' = 1 / (t+t*b*b)
Exemples de matrices
Transposée de la matrice TP
Matrice ae transformation en cosinus la = 5,02734 b = 2,41421 c = 1,49661 r = 0,70711) 0,1768 0,1768 0,1768 0,1768 0,1768 0,1768 0,1768 0,1768 0,2452 0,2078 0,1389 0,0488 -0,0488 -0,1389 -0,2079 -0,2452 0,2310 0,0957 -0,0957 -0,2310 -0,2310 -0,0957 0,0957 0,2310 0,2070 -0,0488 -0,2452 -0,1389 0,1389 0,2452 0,0488 -0,2079 0,1768 -0,1768 -0,1768 0,1768 0,1768 -0,1768 0,1768 0,1768 0,1389 -0,2452 0,0488 0,2079 -0,2079 -0,0488 0,2452 -0,1389 0,0957 -0,2310 0,2310 -0,0957 -0,0957 -0,2310 -0,2310 0,0957 0,0488 -0,1389 0,2079 -0,2452 0,2452 0,2452 -0,2079 0,1389
Transformation de
Chen associée (a = 5,0 b = 2,4 c = 1,5 r = 0,7) 0,1768 0,1768 0,1768 0,1768 0,1768 0,1768 0,1768 0,1768 0,2451 0,2059 0,1373 0,0490 -0,0490 -0,1373 -0,2059 -0,2451 0,2308 0,0962 -0,0962 -0,2308 -0,2308 -0,0962 0,0962 0,2308 0,2080 -0,0485 -0,2427 -0,1387 0,1387 0,2427 0,0485 -0,2080 0,1768 -0,1768 -0,1768 0,1768 0,1768 -0,1768 -0,1768 0,1768 0,1387 -0,2427 0,0485 0,2080 -0,2080 -0,0485 0,242 -0,1387 0,0962 -0,2308 0,2308 -0,0962 -0,0962 0,2308 -0,2308 -0,0962 0,0490 -0,1373 0,2059 0,2451 0,2451 -0,2059 0,1373 -0,0490
Description de I'appareil
Maintenant qu'on a examine l'invention en
détail, on va décrire un appareil qui met en oeuvre
des aspects de l'invention.
Dans ce qui suit, on utilise le terme
"point" pour désigner un registre de facteurs ou un
chemin de données de précision arbitraire, comprenant
de façon caractéristique 8 à 12 bits. On connaît un
procédé pour déterminer la précision appropriée [61.
Dans le procédé par logiciel, on combine des
étages de transformation, et on a adopté l'améliora
tion de Wu-Paolini. Pour l'appareil à semiconducteurs,
il est plus commode d'utiliser simplement deux unités
de transformation à 8 points, l'une pour la direction
horizontale et l'autre pour la direction verticale. Il
est nécessaire de prévoir un réseau de décalage à 64
points entre les transformations verticale et horizon
tale, ainsi qu'une structure tampon similaire entre la section de transformation et la section de codage.
Bien que l'invention puisse utiliser un appareil monochrome et / ou des appareils séparés pour la compression et l'extension, un mode de réalisation préféré (figure 7) comprend à la fois un compresseur (figure 1A) et un extenseur (figure 1B) qui travaillent sur des données correspondant à trois couleurs. Des données sont admises dans le compresseur (figure 2A) sous la forme de vecteurs de 8 pixels qui sont en outre arrangés selon un ordre lexicographique en blocs de 64 pixels. Le traitement des blocs est accompli en une configuration pipeline (figure 2B).
Un pixel qui est appliqué au compresseur comprend des facteurs d'échelle "R" (rouge); "G" (vert) et "B" (bleu). Ceux-ci sont immédiatement transformés dans un espace de lu formation. La première unité de transformation travaille en une durée de 2,6 périodes de pixel, ce qui fait que certaines des données doivent être retardées, comme représenté. La désignation "XYZ" est un peu malheureuse; des procédés de codage optimisés exigent que la liminance ("Y") soit traitée en premier.
Pendant l'extension, le problème du biais
XYZ est inversé. On note que 5 points de registres sont économisés dans le mode de réalisation préféré, en inversant l'utilisation des registres à décalage Y et Z pendant l'extension.
En se référant à la figure 1A, on note que les principales sections du compresseur comprennent une section d'entrée (1, 2) qui transforme l'information d'entrée en une information dans l'espace XYZ et qui l'enregistre en tampon pour son transfert ultérieur vers l'unité de transformation (3). Pour chaque période de huit pixels, l'unité de transformation 1 doit accomplir trois cycles (un pour chacune des informations X, Y et Z). L'information de sortie de l'unité de transformation 1 est placée dans le réseau de décalage (4) dans lequel elle est conservée jusqu'à ce que le bloc de 8 x 8 pixels ait été entièrement lu.
L'unité de transformation 2 (5, 6) travaille sur le bloc de pixels qui a été lu précédemment, en accomplissant également trois cycles pendant chaque période de huit pixels, et elle fournit des données au Tampon d'Entrée de Codeur (7, 8). Le Codeur (9, 10, 11) est également utilisé de façon partagée entre les trois coordonnées de couleurs, mais un bloc de luminance entier sera codé sans interruption, en étant suivi par chacun des blocs de chrominance. Si le traitement de ces trois blocs ne peut pas être entièrement accompli au cours de 64 périodes de pixel, la logique de commande et de définition des conditions temporelles bloquera l'horloge de pixel qui est appliquée au circuit d'entrée externe.
Les zones de mémorisation d'information (Registre à Décalage d'Entrée (2), Réseau de Décalage (4) et Tampons d'Entrée de Codeur (7, 8)) doivent être triplées pour les trois couleurs, mais les unités de calcul (3, 5, 6, 9, 10, 11) sont utilisées en temps partagé (multiplexage temporel) entre les données Y, X et Z.
Le codeur (9, 10, 11), le Tampon d'Entrée de
Codeur (7, 8), la programmation de code (12, 13, 14) et la logique de commande et de définition des conditions temporelles (non représentées) peuvent être conformes à la technique ou à la pratique existante. De façon similaire, le procédé pour le multiplexage temporel de trois couleurs dans un seul circuit est bien connu. La section de transformation à 3 points (1) (figures 3A, 3B) et les Registres à Décalage (2) (figure 5) sont également bien connus.
Le circuit d'application de facteur d'échelle (6) utilise une mémoire vive ou une mémoire morte programmée et un système de décalage (implicite), de multiplexeurs et d'additionneurs. La mise en oeuvre de ceci ne présente aucune difficulté. La conception du
Dispositif de Transformation à 8 Points (figures 8A, 8B) n'offre également aucune difficulté, connaissant la définition de la Transformation de Chen généralisée et les paramètres appropriés.
Le Réseau de Décalage (figure 6A) mérite un examen spécial. Des vecteurs verticaux (transformés) provenant du bloc de pixels d'entrée courant sont assemblés pendant que des vecteurs horizontaux provenant du bloc de pixels précédent sont appliqués au dispositif de transformation en direction horizontale.
En l'absence d'une conception spéciale, ceci exigerait 128 registres (64 pour chaque bloc comprenant le bloc courant et le bloc précédent), du fait que les points sont utilisés dans un ordre différent de celui dans lequel ils sont reçus. On peut cependant éliminer cette nécessité en décalant les données de la gauche vers la droite pendant des blocs de pixels de numéro pair, et du haut vers le bas pendant des blocs de pixels de numéro impair.
Le réseau de décalage qui est décrit est bidirectionnel. Un réseau de décalage quadridirectionnel est préférable dans certains modes de réalisation.
La figure 6B montre de façon plus détaillée l'aspect du réseau de décalage de la figure 6A. Sur la figure 6B, des vecteurs sont retirés du réseau de décalage au bas de celui-ci, un par un, et ils sont émis vers la section DECT8 de la figure 1A. Pendant ce temps, des vecteurs verticaux provenant de l'autre section DCT8 sont introduits dans le réseau de décalage, en haut de celui-ci. Progressivement, les anciens vecteurs sont retirés du réseau de décalage, et ce dernier se remplit complètement avec des vecteurs verticaux provenant du bloc de pixels suivant.
Pour le bloc de pixels suivant, la direction de circulation des données diffère maintenant de 90" de la direction de circulation des données dans un bloc de pixels précédent. De cette manière, les vecteurs horizontaux seront retirés à droite du réseau de décalage et ils seront émis vers la section DCT8, et de nouveaux vecteurs verticaux arriveront du côté gauche. Au passage au bloc N + 2, une autre rotation de 90" ramène à la forme d'origine, et ainsi de suite.
L'extenseur (figure 1B) a une structure tout à fait similaire à celle du compresseur (figure lA),si on excepte que la direction de circulation des données est maintenant inversée. Dans un mode de réali sation préféré, un seul appareil fonctionne selon deux modes, en compresseur ou en extenseur.
Différentes configurations possibles de circuits à très haut niveau d'intégration (VLSI) (figures 4A, 4B) conduisent à différents flux de données pour la compression (figures 4A, 4B) et l'extension (figures 4A, 4B). On note que le fonctionnement des unités de transformation et de réseau de décalage présente le même sens pour la compression et l'extension dans une configuration (figure 4B), mais non dans l'autre (figure 4A). Ceci apparaît plus clairement lorsqu'on considère le flux de données du compresseur/extenseur combiné (figure 7). Lorsque les deux unités de transformation sont respectivement associées avec des données RGB et des données comprimées (figure 4A), des difficultés liées à la configuration apparaissent, sauf si on utilise un réseau de décalage à quatre directions. Par conséquent, on associe aux deux unités de transformation (figure 4B) respectivement les sections d'entrée et de sortie du réseau de décalage.
Dans un mode de réalisation, l'unité de transformation qui est utilisée dans le compresseur (figure 8A) emploie 38 additionneurs. Le décalage à droite d'une position ("R1"), de deux positions ("R2") ou de quatre positions ("R4"), ou le décalage à gauche d'une position ("L1") s'effectuent aisément. Le circuit qui est représenté utilise les paramètres (3,b,c,r) = (5, 2,4, 1,5, 17/24). Une forme de réalisation avec b = 2,5 n'exigerait que 36 additionneurs, dans un autre mode de réalisation (figure 8B).
Un circuit associé est nécessaire pour l'unité de transformation inverse dans l'extenseur. En utilisant soigneusement des signaux de "validation de sortie", il est possible de réutiliser la majeure partie des additionneurs dans l'unité de transformation directe. La réalisation de ceci n'offre aucune difficulté pour l'homme de l'art.
Le dispositif d'application de facteurs d'échelle utilise une mémoire vive ou une mémoire morte programmée, et un système de décalage implicité, de multiplexeurs et d'additionneurs. La réalisation de ceci n'offre aucune difficulté.
Le dispositif d'application de facteurs d'échelle inverses peut être réalisé de diverses manières, en employant de préférence un petit multiplieur câblé avec une mémoire vive, un accumulateur, une logique de commande et de définition de conditions temporelles, et un petit dispositif de découpage à gabarit. Dans une application spécialisée à faible coût, on peut simplifier le dispositif d'application de facteurs d'échelle inverses, en notant que les poids de suppression de flou sont presque optimaux sur une plage étendue; on peut donc utiliser une opération simple, comme dans le dispositif d'application de facteurs d'échelle.
Le dispositif d'application de facteurs d'échelle inverses peut être placé soit entre le codeur et son tampon de sortie, soit entre le tampon de sortie et une unité de transformation, comme indiqué sur les figures 1B et 7.
On peut réaliser de diverses manières le tampon d'entrée de codeur, celles-ci comprenant l'utilisation d'une structure de réduction de registres par partage de cycles, similaire à celle du réseau de décalage. Une structure plus directe utilise une mémoire vive de 384 par 10 bits, avec une mémoire morte de 64 par 7 bits pour fournir les adresses de la mémoire vive.
On va maintenant décrire un exemple de cycle de fonctionnement, en se référant aux figures 1A et 1B.
Sur la figure 1A, des données entrent dans le compresseur sous la forme d'une information correspondant à trois couleurs (rouge, vert et bleu). Elles sont immédiatement transformées en données dans un autre espace, que l'on appelle XYZ. Chacun des trois éléments X, Y et Z entre dans son propre registre à décalage.
A partir du registre à décalage (Etape 2), les données passent à une unité de transformation DCT à 8 points. Il pourrait y avoir une seule unité de transformation DCT à 8 points, multiplexée entre les trois couleurs X, Y et Z, ou bien chaque couleur pourrait avoir sa propre unité de transformation DCT 8 individuelle.
L'information entre ensuite dans le réseau de décalage à 64 points (4). Il y a un réseau de décalage individuel pour chaque couleur. A partir du réseau de décalage (bloc 4), l'information passe à une autre unité de transformation DCT (bloc 5) qui est similaire au bloc 3. On doit ensuite appliquer un facteur d'échelle à l'information, ce qui correspond à une couche supplémentaire de décalage ajouté.
L'information est seulement transformée en direction horizontale et en direction verticale. Le réseau de décalage fait en réalité tourner théoriquement les données de 90 , de façon qu'elles puissent être transformées dans l'autre direction. Après l'application d'un facteur d'échelle, les données entrent dans un autre tampon, correspondant aux blocs 7 et 8 (Z1 et Z2), qui est destiné à conserver les données de façon qu'elles puissent finalement être codées et émises par la puce (Z1, Z2 correspondent au traitement en zigzag).
D'un point vue théorique, ceci est semblable au réseau de décalage (bloc 4), à l'exception du fait du fait que maintenant les données ne subissent pas une rotation de 90 . A la place, elles sont transformées dans l'ordre en zigzag, qui est habituellement utilisé dans ce domaine, et qui est utilisé par la norme CCITT. L'information est ensuite présentée au bloc d'unité de commande de plage et de gabarit, 9, qui détecte des zéros et crée des plages pour les zéros, qui détecte des valeurs différentes de zéro et qui produit une estimation du logarithme de la valeur, que l'on appelle le gabarit. La combinaison de plage/ gabarit est recherchée dans une mémoire vive ou une mémoire morte, correspondant à ce qu'on appelle le code RT, et elle est ensuite émise par la puce.
La mantisse, qui correspond aux bits de fort poids des coefficients de transfert, est également émise par la puce. Du fait que la mantisse et le code de plage/gabarit ont une longueur arbitraire, à savoir un bit, deux bits, ou un nombre quelconque, et l'in- formation de sortie de la puce a toujours 16 bits, ou 8 bits, 32 bits ou un nombre quelconque, le bloc 11 (alignement) facilite ceci.
Les autres blocs qui sont représentés sur la figure 1A sont des blocs de programmation (facultatifs), 12, 13 et 14, qui permettent respectivement de fixer une transformation de RGB en XYZ arbitraire, des facteurs d'échelle de taux et des poids psycho-adaptatifs arbitraires, et un code de Huffman modifié arbitraire pour la plage et le gabarit.
La figure 1B est très similaire à la figure 1A. Le code de plage et de gabarit doit maintenant être décodé en une combinaison de plage et de gabarit arbitraire, et le nombre de zéros nécessaire doit être supprimé. Sur la figure 1A, le dispositif d'application de facteur d'échelle est un simple réseau d'additionneurs et de circuits de décalage. Sur la figure 1B, le dispositif d'application de facteurs d'échelle inverses est réalisé sous la forme d'un très petit multiplicateur, par matériel.
La figure 9 montre un schéma relatif à la transformation de Chen bidimensionnelle généralisée.
Des pixels entrent par le haut et ont une largeur caractéristique de 8 bits. Les pixels traversent un réseau d'additionneurs de grande largeur dans l'unité de transformation horizontale 10, avec une largeur de données d'une valeur caractéristique de 128 bits.
L'information de sortie de l'unité de transformation horizontale 10 traverse une mémoire vive de transposition 12 qui fait tourner l'information de la direction horizontale vers la direction verticale. Les données entrent ensuite dans l'unité de transformation verticale 16 qui ne comprend également que des additionneurs (d'une largeur caractéristique de 128 bits). Les coefficients de sortie sont finalement réduits à une largeur d'approximativement 16 bits, et ils traversent un seul multiplieur 20 qui, conformément à l'invention, est compatible avec la norme JPEG.
La figure 10 montre un schéma synoptique pour la réalisation sous forme d'un circuit à très haut niveau d'intégration (VLSI) conformément à l'invention. Sur la figure 10, les données entrent dans un composant 40 et sont mémorisées dans le réseau de bascules d'entrée 42, et elles traversent un multiplexeur 44 pour entrer dans la première moitié de l'unité de transformation GCT 50 (qui est un réseau additionneur).
La seconde moitié du réseau additionneur 60 se trouve à droite des bascules de milieu d'étage 54. L'information de sortie est transmise par le multiplexeur 62 à la mémoire vive de transposition 66, qui effectue la transformation faisant passer de la direction horizontale à la direction verticale.
L'information de sortie de la mémoire vive de transposition 66 est renvoyée vers le premier étage de l'unité de transformation GCT 50, dans le but de former la première moitié de la transformée verticale, dans une configuration de partage de temps ou de découpage du temps en tranches.
L'information de sortie de l'unité de transformation GCT 50 est appliquée à l'entrée du second étage de l'unité de transformation verticale 60.
Enfin, l'information de sortie de l'unité de transformation GCT 60 est transmise par le multiplexeur de sortie avec mémorisation, 70, et elle est dirigée par l'intermédiaire du multiplieur 74 et du dispositif d'arrondi 76 au dispositif d'arrangement en zigzag 80, dont l'information de sortie est émise sous la forme d'un coefficient à douze bits 84.
On va maintenant décrire brièvement le processus de transformation inverse conforme à l'invention, en se référant toujours à la figure 10.
Sur la figure 10, les coefficients à 12 bits sont appliqués par l'intermédiaire du bloc 84 à l'entrée Y du dispositif d'arrangement en zigzag 80. L'information de sortie du dispositif d'arrangement en zigzag 80 traverse le multiplieur 74 et le dispositif d'arrondi qui accomplissent un processus de quantification inverse similaire à celui qui est accompli dans le processus direct. L'information de sortie du multiplieur 74 est appliquée au réseau de bascules 42, qui est le premier étage du processus de transformation inverse.
A partir du réseau de bascules 42, le processus de transformation inverse suit le même chemin en multiplex temporel à deux étages que le processus direct. L'information de sortie apparaît sur le réseau de bascules de sortie 70, et cette information de sortie consiste en pixels qui sont arrondis par le dispositif d'arrondi 76, dont l'information de sortie est appliquée au bloc 40 pour être présentée en sortie.
La description précédente du mode de réalisation préféré de 11 invention a été présentée dans un but d'illustration et de description. Elle ne vise pas à être exhaustive ou à limiter l'invention à la forme précise qui est décrite, et de nombreux changements et modifications sont possibles sur la base de l'information qui précède. De plus, l'invention est compatible avec des normes existantes, telles que la norme JPEG.
On a choisi et décrit le mode de réalisation préféré dans le but d'expliquer le mieux possible les principes de l'invention et ses applications pratiques, pour permettre à l'homme de l'art d'utiliser au mieux l'invention ainsi que divers modes de réalisation et diverses modifications qui conviennent pour l'utilisation particulière envisagée.
Références
(1) Acheroy, M. "Use of the DCT for the restoration of an image sequence", SPIE vol 593
Medical Image Processing (1985).
(2) Cooley, et Tukey, JW, "An algorithm for (fast) Fourier series", Math. Comput, XIX N" 90, page 296-301, 1965.
(3) Chen, W. et al., "A fast computational algorithm for the DCT", IEEE Trans. Commun. vol.COM-25 (1977).
(4) Wu, HR et Paolini, FJ, "A 2D Fast Cosine
Transform", IEEE Conf. on Image Processing, vol.I (1989).
(5) Lee, BC, "A Fast Cosine Transform", IEEE
ASSP, vol XXXIII (1985).
(6) Jalali et Rao, "Limited Wordlength and
FDCT Processing Accuracy", IEEE ASSP-81, vol.III, pages 1180-2.
(7) Wu, H.R. et Paolini, F.J., "A Structural
Approach to Two Dimensional Direct Fast Discrete
Cosine Transform algorithms", International Symposium on Computer Architecture and Digital Signal Processing
Hong Kong, octobre 1989.

Claims (8)

REVENDICATIONS
1. Appareil de compression d'image, caractérisé en ce qu'il comprend : des moyens de transformation en direction horizontale (10) qui sont destinés à recevoir des pixels d'entrée ayant une certaine largeur, exprimée en nombre de bits, et à transformer horizontalement des pixels d'entrée en utilisant seulement un réseau d'additionneurs; des moyens de mémoire de transposition (12) destinés à faire tourner les pixels transformés en direction horizontale, pour les amener en direction verticale; des moyens de transformation en direction verticale (16) qui sont destinés à recevoir les pixels verticaux et à transformer verticalement les pixels verticaux en utilisant seulement un second réseau d'additionneurs; et un multiplieur unique (20) qui est destiné à recevoir les pixels verticaux transformés et à accomplir une seule fonction de multiplication sur ces pixels verticaux transformés, pour fournir des données de pixels comprimées qui sont représentatives des pixels d'entrée.
2. Procédé prévu pour etre mis en oeuvre dans un appareil de compression d'image, caractérisé en ce qu'il comprend les étapes suivantes : on reçoit des pixels d'entrée ayant une certaine largeur, exprimée en nombre de bits, et on transforme horizontalement ces pixels d'entrée en utilisant seulement un réseau d'additionneurs (10); on fait tourner les pixels transformés en direction horizontale, pour les amener en direction verticale; on reçoit les pixels verticaux et on transforme verticalement les pixels verticaux en utilisant seulement un second réseau d'additionneurs (16); et on reçoit les pixels verticaux transformés et on applique une seule fonction de multiplication à ces pixels verticaux transformés, pour fournir des données de pixels comprimées qui sont représentatives des pixels d'entrée.
3. Système de compression d'image, caractérisé en ce qu'il comprend : des moyens (40, 42) qui sont destinés à recevoir des données de pixels d'image d'entrée représentatives d'une image; des moyens de transformation de Chen généralisée (ou GCT) (50, 60) qui sont destinés à comprimer les données d'image, ces moyens de transformation GCT comprenant : des moyens additionneurs de transformation GCT (50, 60) qui sont destinés à transformer horizontalement les données d'image en utilisant seulement des additionneurs; des moyens de mémoire de transposition (66) qui sont destinés à faire tourner les pixels transformés en direction horizontale, pour les amener en direction verticale; les moyens additionneurs de transformation GCT (50, 60) comprenant des moyens pour transformer verticalement les pixels verticaux, en utilisant seulement les additionneurs précités; et des moyens multiplieurs (74) pour accomplir une fonction de multiplication sur les pixels verticaux transformés, pour donner des données de pixels comprimées représentatives des pixels d'entrée.
4. Système de compression d'image selon la revendication 3, caractérisé en ce que les moyens additionneurs de transformation GCT comprennent un premier étage de réseau d'additionneurs de transformation GCT (50) qui est destiné à accomplir la première moitié des transformations horizontale et verticale, et un second égage de réseau d'additionneurs de transformation GCT (60) qui est destiné à accomplir la seconde moitié des transformations horizontale et verticale.
5. Système de compression d'image selon la revendication 4, caractérisé en ce que les premiers et seconds moyens additionneurs (50, 60) transforment horizontalement et verticalement les pixels d'image selon un mode de fonctionnement en temps partagé.
6. Système de compression d'image selon la revendication 5, caractérisé en ce que les moyens multiplieurs (74) comprennent des moyens d'arrangement en zigzag (80).
7. Système de compression d'image selon la revendication 6, caractérisé en ce que les moyens multiplieurs (80) comprennent des moyens effectuant une opération d'arrondi (76).
8. Système de compression d'image selon la revendication 7, caractérisé en ce que les moyens multiplieurs (74) comprennent une structure de table de multiplieur.
FR9112450A 1991-10-09 1991-10-09 Appareil et procede de compression d'image. Granted FR2680259A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR9112450A FR2680259A1 (fr) 1991-10-09 1991-10-09 Appareil et procede de compression d'image.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR9112450A FR2680259A1 (fr) 1991-10-09 1991-10-09 Appareil et procede de compression d'image.

Publications (2)

Publication Number Publication Date
FR2680259A1 true FR2680259A1 (fr) 1993-02-12
FR2680259B1 FR2680259B1 (fr) 1997-02-07

Family

ID=9417759

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9112450A Granted FR2680259A1 (fr) 1991-10-09 1991-10-09 Appareil et procede de compression d'image.

Country Status (1)

Country Link
FR (1) FR2680259A1 (fr)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0412252A2 (fr) * 1989-07-13 1991-02-13 ALCATEL ITALIA Società per Azioni Méthode et circuit pour le calcul d'une transformée discrète bidimensionnelle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0412252A2 (fr) * 1989-07-13 1991-02-13 ALCATEL ITALIA Società per Azioni Méthode et circuit pour le calcul d'une transformée discrète bidimensionnelle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS. vol. 36, no. 4, Avril 1989, NEW YORK US pages 610 - 617; MING-TING SUN ET AL.: 'vlsi implementation of a 16x16 discrete cosine transform' *

Also Published As

Publication number Publication date
FR2680259B1 (fr) 1997-02-07

Similar Documents

Publication Publication Date Title
Xing et al. Invertible image signal processing
US5319724A (en) Apparatus and method for compressing still images
Acharya et al. Computational foundations of image interpolation algorithms.
EP1053534B1 (fr) Post-traitement d&#39;images decompressees
EP0709809B1 (fr) Méthode et appareil de codage et de décodage d&#39;images utilisant une synthèse de contours et une transformation en ondelettes inverse
AU637020B2 (en) Improved image compression method and apparatus
US5129015A (en) Apparatus and method for compressing still images without multiplication
JP2002269556A (ja) デジタル画像からノイズを除去する複数解像度に基づく方法
EP4078526B1 (fr) Synthèse du bruit pour les images numériques
US6876704B2 (en) Apparatus and method for encoding and computing a discrete cosine transform using a butterfly processor
FR2738364A1 (fr) Procede et processeur de transformation cosinusoidale discrete inverse
WO2000056060A1 (fr) Dispositif et procede de traitement d&#39;image, et support enregistre
KR20230108286A (ko) 전처리를 이용한 비디오 인코딩
US6870885B2 (en) Apparatus and method for decoding and computing a discrete cosine transform using a butterfly processor
Starosolski Application of reversible denoising and lifting steps with step skipping to color space transforms for improved lossless compression
JPH11177985A (ja) 高速の画像圧縮のための方法および装置
US6996595B2 (en) Apparatus and method for consolidating output data from a plurality of processors
FR2680259A1 (fr) Appareil et procede de compression d&#39;image.
WO2001018743A1 (fr) Calcul rapide et efficace d&#39;interpolation de fonction spline cubique pour compression de donnees
US5664028A (en) Apparatus and method for compressing still images
US5594812A (en) Apparatus and method for compressing still images
JP3155383B2 (ja) 2モード処理装置、2次元変換装置及び静止画像データの圧縮システム
CN112581362A (zh) 用于调整图像细节的图像处理方法和装置
Rodrigues et al. Image Compression for Quality 3D Reconstruction
JPH0595483A (ja) 画像圧縮装置及び方法

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20080630