[go: up one dir, main page]

JPH03125570A - Coding method for picture data - Google Patents

Coding method for picture data

Info

Publication number
JPH03125570A
JPH03125570A JP26447489A JP26447489A JPH03125570A JP H03125570 A JPH03125570 A JP H03125570A JP 26447489 A JP26447489 A JP 26447489A JP 26447489 A JP26447489 A JP 26447489A JP H03125570 A JPH03125570 A JP H03125570A
Authority
JP
Japan
Prior art keywords
frame
encoding
difference
circuit
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26447489A
Other languages
Japanese (ja)
Inventor
Mikio Sasaki
美樹男 笹木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP26447489A priority Critical patent/JPH03125570A/en
Publication of JPH03125570A publication Critical patent/JPH03125570A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To attain efficient coding by coding a difference between a picture element data of a frame coded already and a frame succeeding to a desired frame. CONSTITUTION:Each signal element of frames such as FR10, FR90... belonging to the frame is divided into plural macro blocks and signal elements are averaged for each macro block to obtain a mean value of signals in the block and the in-block signal mean value of each macro block is coded to generate a reference data FUN. Moreover, a difference between each signal element belonging to each frame and the in-block signal mean value belonging to each macro block is obtained and the difference is coded to generate an in-frame difference data IDEL. Then as to frames succeeding to a desired frame, the difference from the picture element data of the frame coded already is coded. Thus, the coding is implemented efficiently.

Description

【発明の詳細な説明】[Detailed description of the invention]

「産業上の利用分野」 この発明は、画像データをCD −ROM等の蓄積メデ
ィアに記録ずろ際に用いて好適な画像データの符号化方
法に関する。 「従来の技術」 画像データを記憶容量の限られた蓄積系メディアに記録
するためには、符号化を効率的に行って記録する符号列
のビット数を小さく抑える必要がある。フレーム間符号
化方式は、時間軸上で連続した動画像の相関を利用した
ものであり、!フレーム分の画像データを符号化する場
合に、直前に符号化されたフレームの画像データとの差
分を符号化するものである。このフレーム間符号化方式
によれば、画像データをそのまま符号化する場合に比へ
てはるかに少ないビット数で符号化を行うことができる
。 しかし、フレーム間符号化方式を用いた場合、各フレー
ムの画像データを復号するためには、そのフレームの直
前のフレームの画像データを必要とケるので、高速逆転
再生あるいは高速再生等の特殊再生が困難であり、また
、所望の画面を選択的に再生することも困難である。 そこで、フレーム内符号化とフレーム間符号化を交互に
用いる符号化方法が各種提案されており、例えば、CC
I TT(国際電信電話諮問委員会)からはRM (R
eference  M odel)が提案されている
。 このRMは、フレーム内符号化を行うと共に、フレーム
間符号化の際には動き補償を行って前フレームとの間の
差分を減らし、さらに差分データに対して離散コサイン
変換を施し、その結果を符号化するものである。この方
法によれば、フレーム内符号化の行われた各フレームの
画像データは、そのフレームに対応する符号列のみを用
いて復号することができるので、]二述した特殊再生が
可能となる。また、フレーム間符号化と併用するので、
全体の所要ビット数を小さく抑えることができる。 このような符号化方式:1、特に符号化ずろ動画像の内
容に関する先験的知識があり、かつ、符号化にリアルタ
イム性の要求されない用途、例えば、CI) −ROM
等への動画像の記録を行う場合に用いる符号化方法とし
て何望視されている。 「発明が解決しようとAる課題」 しかしながら、上述のように、フレーム間符号化とフレ
ーム内符号化とを01用する場合においても、依然とし
てフレーム内符号化を行うフレームは多くのビット数を
必要とするので、画面の変化が多い場合に膨大なビット
数となってしま・うという欠点がある。また、フレーム
内符号化によって得られる符号列のビット数が多くなる
と、記録系への伝送ビットレートの限界を越えてしまう
恐れがある。この場合、記録系への伝送が不可能となら
ないように、記録する符号列を量子化する時の閾値を記
録系に至る伝送路のデータ占有率に応じて制御するとい
う方法が採られる。しかし、このようにすると、フレー
ム内符号化によって得られる符号列はそのデータ量が必
然的に大きくなるので大きな量子化閾(/fが適用され
、そのフレーノ、の量子化雑音が他のフレームに比べて
大きくなる。 このため、画像再生中に周期的に画質の劣化が発生ずる
という問題があった。 この発明は」二連した事情に鑑みてなされたもので、再
生画質の劣化を招くことなく、効率的に符号化を行うこ
とができ、しかし、特殊再生を行うことが可能な画像デ
ータの符号化方法を提供することを目的としている。 「課題を解決するための手段」 この発明は、所望のフレームについては、該フレームを
構成する画素データを複数のブロックに分割し、各ブロ
ック毎に、当該ブロックに属する各画素データの平均値
を符号化すると共に、各画素データと該平均値との差分
を符号化し、前記所望のフレームに続くフレームについ
ては、既に符号化されたフレームの画素データとの差分
を符号化することを特徴としている。 「作用」 上記方法によれば、全体の画素データを複数のブロック
に分割し、各ブ(7ツク毎に、当該ブロックに属する各
画素データを平均化して符号化すると共に、各画素デー
タと該平均化された画素データとの差分を符号化するの
て、少ないビット数で当該フレームの符号化を行うこと
ができる。 「実施例」 以下、図面を参照して本発明の一実施例について説明ず
ろ。 (符号化方法の説明) 以下、この発明の一実施例による画像データの符号化方
法の主要な特徴を列挙し説明する。 (1)フレーム内符号化とフレーム間符号化の併用第1
図に示すフレームFR,O,PR11゜、・等のように
、シーンの最初のフレームについては、フレーム内符号
化を行い、それに続くフレームについては、フレーム間
符号化を行う。 (2)フレーム内符号化の方法 フレームP R、、)、F r(go、・・・等のフレ
ームは、当該フレームに属する各信号要素を、複数のマ
ク〔Jブロックに分割し、各マクロブロック毎に信Y]
要素を平均化してブ〔Jツク内信号平均値を求め、各マ
クロブロックのブロック内信号平均値を符号化して基準
データFUNを作成する。また、当該フレームに属する
各信号要素と、その信号要素が属するマクロブロックに
対応したブロック内信号平均値との差分を求め、これら
の差分を符号化してフレーム内差分データIDELを作
成ずろ。ここで、基準データFUNはマクロブロック数
に対応した僅かな符号列によって構成され、また、フレ
−ム内差分データは、1画素に対応する符号に割り当て
るピット数を少なくすることができるので、iフレーム
分の符号化を少ない所要ビット数で行うことができる。 このようにして得られた基準データFUNおよびフレー
ム内差分データIDELのみを用いることにより、当該
フレームの画像を再生することができる。従って、以後
、シーンSC1,SC2,−・・の最初のフレームP 
RIO+ F Re。 ・を完全独立再生フレームと呼ぶ。 (3)準独立再生フレームの適用 シーン内の所望のフレーム(例えばシーンSclにお(
1ろフレームF II 、1. F Ran、・)につ
いては、当該フレームにおける各画素データと、当該シ
ーンにおいて作成された基準データFUNにおする各ブ
ロック内信号平均値との差分を符号化し、独立フレーム
間差分データrεI) IΣ1、を作成する。 このような符号化方法を適用するフレームを以後、準独
立再生フレームと呼ぶ。準独立再生フレームの画像デー
タは、そのフレームの独立フレーム間差分データE D
 E Lと当該シーンにおける完全独立フレームの基準
データFUNとを用いて復号することができる。 (符号化装置の実施例) 第2図は上述した符号化を実施するための符号化装置の
構成例を示すブロック図である。同図において、lは減
算器、2は離散コサイン変換回路、3は量子化回路、4
は逆量子化回路、5は離散コサイン逆変換回路、6は加
算器、F M aおよびFMbは各々フレームメモリで
ある。ここで、フレームメモリFMaおよびFMbは、
いずれか一方がスイッチSW1によって選択され、選択
されたフレームメモリから画像データが読み出され、U
J −バスフィルタ16を介して減算器1に入力される
ようになっている。 また、7はフレーム内符号化を行う完全独Y7.再生フ
レームの画像データを抽出する独立フレーム抽出回路、
8は独立フレームの画像データのベクトル量子化を行う
ベクトル量子化回路、9はベクトル量子化によって得ら
れた出力ベクトルおよび各種パラメータに基づいて画像
データを復元する逆ベクトル量子化回路、10は動き補
償回路、15はクラスタ内平均値算出回路である。また
、11.12は、各々、可変長符号化回路、13はラン
レングス符号化回路であり、14は多重化回路である。 可変長符号化回路II、12、ランレングス符号化回路
13およびベクトル量子化回路8の各出力データは多重
化回路14によって所定の順序に編成され、バッファB
UFOを介して出力され、CD−ROM等の蓄積メディ
アに記録される。 以下、この符号化装置の動作を説明する。この符号化装
置は、画面の構成する各画素の色を輝度信号(以下、Y
信号)および2種類の色差信号(以下、U信号およびV
信号)によって表現したYUv方式の画像信号を取り扱
う。また、画像信号は、テレヒ会議等の画像通信におい
て用いられるCIFフォーマットに編成された状態で、
この符号化装置に人力される。 第3図(a)に、lフレーム周期毎に入ツノされる1画
面分のY、LJ、V各信号からなる色信号マトリックス
[Y]、[U]、[V]を示す。この図に示すように、
マトリックス[Y]は行数が2881列数が356であ
り、マトリックス[U]および[V]は共に行数が14
4、列数が178である。CrFフォーマットの場合、
1画面分の各色信号マトリックス[Y]、[U]および
[V]の各要素は、各々、18X22=396個のマク
ロブロック[Y M kl(k=1〜396 )、[U
 Mk](k= 1〜396 )、[V Mk](k−
1〜396)に分割され、マクロブロック単位で時分割
に順次伝送されろ。ここで、マク〔1ブUl −/り[
YMkコは16x16=256個のY信シ)要素かラナ
ル。また、−/ ’y trブL1 ソ7 r (J 
M kiお、1;び[VMk]は、各々、8x8=64
個(1) LJ信号要素、■信号要素からなる。 く完全独立再生フレームの符号化(フレーム内符号化)
〉 完全独立再生フレームが入力された場合、そのフレーム
のマクロブ[1ンクl−Y M kl、[tJ M k
l、[VMk]は独立フレーJえ抽j口回路7によって
取り込まれ、ベクトル量子化回路8に人力され、以下説
明する手順に従ってベクトル量子化が行われる。
"Industrial Application Field" The present invention relates to an image data encoding method suitable for use when recording image data on a storage medium such as a CD-ROM. ``Prior Art'' In order to record image data on storage media with limited storage capacity, it is necessary to perform encoding efficiently to keep the number of bits of the code string to be recorded small. The interframe coding method utilizes the correlation between consecutive moving images on the time axis. When encoding a frame's worth of image data, the difference between the image data of the immediately preceding encoded frame is encoded. According to this interframe encoding method, encoding can be performed using a much smaller number of bits than when encoding image data as is. However, when using the interframe coding method, in order to decode the image data of each frame, the image data of the frame immediately before that frame is required, so special playback such as high-speed reverse playback or high-speed playback is required. It is also difficult to selectively reproduce desired screens. Therefore, various encoding methods have been proposed that alternately use intraframe encoding and interframe encoding.
RM (R
reference model) has been proposed. This RM performs intra-frame encoding, performs motion compensation during inter-frame encoding to reduce the difference from the previous frame, and then performs discrete cosine transformation on the difference data, and converts the result to It is something that is encoded. According to this method, the image data of each frame subjected to intra-frame encoding can be decoded using only the code string corresponding to that frame, thus making it possible to perform the special reproduction described above. Also, since it is used in conjunction with interframe coding,
The overall number of required bits can be kept small. Such encoding methods: 1. Applications where there is a priori knowledge of the content of the moving image and real-time encoding is not required, such as CI) - ROM
It is widely regarded as an encoding method used when recording moving images on DVDs, etc. ``Problem to be solved by the invention'' However, as mentioned above, even when interframe coding and intraframe coding are used, frames that undergo intraframe coding still require a large number of bits. Therefore, there is a drawback that the number of bits becomes enormous when there are many changes in the screen. Furthermore, if the number of bits in a code string obtained by intraframe encoding increases, there is a risk that the transmission bit rate to the recording system will exceed the limit. In this case, in order to prevent transmission to the recording system from becoming impossible, a method is adopted in which the threshold value when quantizing the code string to be recorded is controlled in accordance with the data occupancy rate of the transmission path leading to the recording system. However, in this case, the code string obtained by intraframe encoding inevitably has a large amount of data, so a large quantization threshold (/f) is applied, and the quantization noise of that Freno is transmitted to other frames. For this reason, there has been a problem in that image quality deteriorates periodically during image reproduction.This invention was made in view of two consecutive circumstances. It is an object of the present invention to provide an encoding method for image data that can be efficiently encoded without any problems, and that can also perform special reproduction. For a desired frame, the pixel data constituting the frame is divided into a plurality of blocks, and for each block, the average value of each pixel data belonging to the block is encoded, and each pixel data and the average value are encoded. The method is characterized in that the difference between the pixel data of the frame that follows the desired frame is encoded, and the difference between the pixel data and the pixel data of the already encoded frame is encoded. Pixel data is divided into multiple blocks, and for each block (every 7 blocks), each pixel data belonging to the block is averaged and encoded, and the difference between each pixel data and the averaged pixel data is encoded. Embodiment: An embodiment of the present invention will be described below with reference to the drawings. (Explanation of encoding method) Below, The main features of the image data encoding method according to an embodiment of the present invention will be listed and explained. (1) Combination of intra-frame encoding and inter-frame encoding.
As shown in frames FR, O, PR11°, etc. shown in the figure, the first frame of the scene is subjected to intra-frame encoding, and the subsequent frames are subjected to inter-frame encoding. (2) Intraframe encoding method Frames such as frames P R, , ), F r (go, . Believe each block]
The elements are averaged to obtain the intra-block signal average value, and the intra-block signal average value of each macroblock is encoded to create reference data FUN. Also, find the difference between each signal element belonging to the frame and the intra-block signal average value corresponding to the macroblock to which the signal element belongs, and encode these differences to create intra-frame difference data IDEL. Here, the reference data FUN is composed of a small number of code strings corresponding to the number of macroblocks, and the intra-frame difference data can reduce the number of pits assigned to codes corresponding to one pixel. Encoding for a frame can be performed with a small number of required bits. By using only the reference data FUN and the intra-frame difference data IDEL obtained in this manner, the image of the frame can be reproduced. Therefore, from now on, the first frame P of scenes SC1, SC2, ...
RIO+ F Re.・is called a completely independent playback frame. (3) Application of semi-independent playback frames Select a desired frame in the scene (for example, in scene Scl)
1ro frame F II, 1. For F Ran, ·), the difference between each pixel data in the frame and the average signal value within each block applied to the reference data FUN created in the scene is encoded, and independent inter-frame difference data rεI) IΣ1, Create. A frame to which such an encoding method is applied will hereinafter be referred to as a semi-independent reproduction frame. The image data of a semi-independent reproduction frame is the difference data between independent frames of that frame E D
It can be decoded using E L and reference data FUN of completely independent frames in the scene. (Embodiment of Encoding Apparatus) FIG. 2 is a block diagram showing a configuration example of an encoding apparatus for implementing the above-mentioned encoding. In the figure, l is a subtracter, 2 is a discrete cosine transform circuit, 3 is a quantization circuit, and 4
5 is an inverse quantization circuit, 5 is a discrete cosine inverse transform circuit, 6 is an adder, and FM a and FMb are frame memories, respectively. Here, frame memories FMa and FMb are
Either one is selected by switch SW1, image data is read from the selected frame memory, and U
The signal is input to the subtracter 1 via the J-bus filter 16. 7 is a complete German Y7.7 that performs intraframe encoding. an independent frame extraction circuit that extracts image data of the reproduced frame;
8 is a vector quantization circuit that performs vector quantization of image data of independent frames; 9 is an inverse vector quantization circuit that restores image data based on the output vector obtained by vector quantization and various parameters; 10 is motion compensation The circuit 15 is an intra-cluster average value calculation circuit. Further, 11 and 12 are variable-length encoding circuits, 13 is a run-length encoding circuit, and 14 is a multiplexing circuit. Each output data of variable length encoding circuits II, 12, run length encoding circuit 13 and vector quantization circuit 8 is organized in a predetermined order by multiplexing circuit 14, and is stored in buffer B.
It is output via UFO and recorded on storage media such as CD-ROM. The operation of this encoding device will be explained below. This encoding device converts the color of each pixel of the screen into a luminance signal (hereinafter referred to as Y
signal) and two types of color difference signals (hereinafter referred to as U signal and V signal)
handles YUv image signals expressed by In addition, the image signal is organized in the CIF format used in image communication such as telegraph conferences,
This encoding device is manually inputted. FIG. 3(a) shows color signal matrices [Y], [U], and [V] consisting of Y, LJ, and V signals for one screen input every l frame period. As shown in this figure,
Matrix [Y] has 2881 rows and 356 columns, and matrices [U] and [V] both have 14 rows.
4. The number of columns is 178. In the case of CrF format,
Each element of each color signal matrix [Y], [U], and [V] for one screen is composed of 18X22=396 macroblocks [Y M kl (k=1 to 396), [U
Mk] (k = 1 to 396), [V Mk] (k-
1 to 396) and sequentially transmitted in time-division units in macroblock units. Here, Mac[1buUl-/ri[
YMk is 16x16=256 Y elements or ranals. Also, -/ 'y tr B L1 So7 r (J
Mkio, 1; and [VMk] are each 8x8=64
(1) Consists of LJ signal element, ■signal element. Fully independent reproduction frame encoding (intraframe encoding)
〉 When a completely independent playback frame is input, the macrob of that frame [1kl-Y Mkl, [tJ Mk
l, [VMk] are taken in by the independent frame extraction circuit 7, inputted to the vector quantization circuit 8, and vector quantized according to the procedure described below.

【ブロック内色信号平均値の算出】[Calculation of intra-block color signal average value]

まず、下記式(1)〜(3)に従って、マクロブロック
[YMkコ、[UMk]、[v Mk]内に属するY信
号要素Yij、U信号要素Llij、■信号要素Vij
の平均化が行われ、Y、U、V各色のブロック内色信号
平均値Y E (k)、 U E (k)、V E (
k)が各々求められる。
First, according to the following formulas (1) to (3), the Y signal element Yij, the U signal element Llij, and the ■signal element Vij belonging to the macroblocks [YMk, [UMk], and [v Mk] are determined.
are averaged, and the intra-block color signal average values of Y, U, and V colors Y E (k), U E (k), V E (
k) are determined respectively.

【正規化】【Normalization】

次に、下記式(4)〜(6)に示す正規化演算が行われ
、絶対値が「1」以下の正規化色ベクトルの各要素Y 
S (k)、 U S (k)、 V S (k)が求
められる。 i:1 j:1 i−1j=1 i:l j−■ さらに、上記3つのブロック内色信号平均値Y!・〕(
k)、LJ E (k)、V E (k)の平均値X[
シ(k)お、1;び桶型偏差5E(k)が求められる。 なお、平均値xt−〕(k)は、ブa−)り白色信号平
均値Y E (k)、U E(k)、VE (k)と区
別するために、以後、3色平均値XE(k)とよぶ。
Next, the normalization calculations shown in equations (4) to (6) below are performed, and each element Y of the normalized color vector whose absolute value is "1" or less
S (k), U S (k), and V S (k) are obtained. i:1 j:1 i-1j=1 i:l j-■ Furthermore, the above three intra-block color signal average values Y!・〕(
k), LJ E (k), V E (k) average value X[
shi(k), 1; and bucket-shaped deviation 5E(k) are determined. Note that the average value xt-](k) is hereinafter referred to as the three-color average value It is called (k).

【クラスタリング】[Clustering]

次に、このようにして得られた正規化色ベクトル(Y 
S (k)、U S (k)、V S (k)lのクラ
スタリングが行われる。すなわち、第3図(C)に示す
ように、YtJV色ベクトル空間を、各領域が共存部分
を持たないようにN分割(mは整数)し、正規化色ベク
トル(Y S (k)、U S (k)、V S (k
)]が、これら分割された領域C3〜Cm分割のいl”
れに属するかが求められる。 すなわち、各領域C1〜(ymを代表するベクトル(Y
 D +、 U D 1.v D 、)〜(Y I) 
m、 U D m、V I) s+)が、1 2 第3図(d)に示すように予めコードブック[CB]と
して記憶されており、これらの中から、正規化色ベクト
ル(Y S (k)、U S (k)、V S (k)
)との間の歪みが最も小さいベクトルが、正規化色ベク
トル(Y S (k)、 U S (k)、V S (
k))を近似する出力ベクトルとして選択される。第3
図(c)に示すように正規化色ベクトル(Y S (k
)、 LJ S (k)、 V S (k))が領域C
1に属する場合は、ベクトル(YDlLJDV D 、
)が出力ベクトルとして選択される。 以上説明したベクトル量子化処理が、全マクtlブロッ
ク[YMk](k= 1〜396)、(:UMk](k
= 1〜396 )、[V Mk](k= 1〜396
)について実行される。この結果、第3図(e)に示す
ように、各マクロブロックに対応した出力ベクトルのイ
ンデックスを要素とするインデックスマトリックスIN
J、各マクロブロックの3色平均値X E (k)を要
素とする3色平均値マトリックス[XE]、各マクロブ
ロックにおける標準偏差S E (k)を要素とする標
準偏差マトリックス[SE]か得られる。 第4図(a)〜(c)は、ある画面について上記ベクト
ル量子化を試行した結果を示すものである。ここで、第
4図(a)はYtJV色ベクトル空間を4分割し、出力
ベクトルを4個用いた場合のインデックマトリックス[
N]、第4図(b)は8分割の場合、第4図(c)は1
6分割の場合を各々示す。 このようにして得られたマトリックス[N]の各要素は
ランレングス符号化回路13に入力され、各要素が同一
値で連続するl連の要素列毎に、谷要素共通の要素値と
その連続回数を表°4′値とを組み合わせたランレング
ス符号に変換され、多重化回路14に入力される。第4
図(a)〜(c)において示したように、画像をベクト
ル量子化した場合、同一の出力ベクトルが連続して現れ
ろことが多い。 従って、ベクトルインデックスに対し、ランレングス符
号化を行うことにより、所要ビット数が大幅に低減され
る。また、マトリックス[XE]の各要素およびマトリ
ックス[SE]の各要素はクラスタ内平均値算出回路1
5に人力され、ベクトル量子化回路8によって同一イン
デックスが付与されたマクロブロック群の平均値[TI
:]、[rT]が算出される。マトリックス[XE]、
[SE]の各要素は1完全独立フレーム当たり396個
であるが、このようにクラスタ内平均値を算出すること
により、インデックスの数mに対応した個数のデータに
圧縮される(第3図(d)参照)。そして、クラスタ内
平均値[1]、[−]は多重化回路14に人力される。 なお、コードブック[CB]は、記録する動画像が同じ
シーンの場合は同一のものを用いることができるので、
シーンの切り換わりfrjに多重化回路!4に送られる
Next, the normalized color vector (Y
Clustering of S (k), U S (k), and V S (k)l is performed. That is, as shown in FIG. 3(C), the YtJV color vector space is divided into N parts (m is an integer) so that each region has no coexisting part, and the normalized color vectors (Y S (k), U S (k), V S (k
)] are these divided areas C3 to Cm.
It is required to determine whether it belongs to this category. That is, the vector (Y
D +, U D 1. v D , ) ~ (Y I)
m, U D m, VI) s+) are stored in advance as a codebook [CB] as shown in FIG. 3(d), and from these, the normalized color vector (Y S k), U S (k), V S (k)
) is the normalized color vector (Y S (k), U S (k), V S (
k)) is selected as the output vector that approximates. Third
As shown in Figure (c), the normalized color vector (Y S (k
), LJ S (k), V S (k)) are area C
1, vector (YDlLJDVD D,
) is selected as the output vector. The vector quantization process described above is applied to all macro tl blocks [YMk] (k = 1 to 396), (:UMk] (k
= 1 to 396), [V Mk] (k = 1 to 396
) is executed. As a result, as shown in FIG. 3(e), an index matrix IN whose elements are the indexes of the output vectors corresponding to each macroblock is created.
J, a three-color average value matrix [XE] whose elements are the three-color average values X E (k) of each macroblock, and a standard deviation matrix [SE] whose elements are the standard deviation S E (k) of each macroblock? can get. FIGS. 4(a) to 4(c) show the results of trying the vector quantization described above for a certain screen. Here, FIG. 4(a) shows the index matrix [
N], Figure 4(b) is for 8 divisions, Figure 4(c) is for 1 division.
The cases of 6 divisions are each shown. Each element of the matrix [N] obtained in this way is input to the run-length encoding circuit 13, and for each element string of l series in which each element has the same value and continues, the common element value of the valley element and its continuation. The number of times is converted into a run-length code in combination with the table 4' value, and the code is input to the multiplexing circuit 14. Fourth
As shown in FIGS. (a) to (c), when an image is vector quantized, the same output vector often appears consecutively. Therefore, by performing run-length encoding on the vector index, the number of required bits can be significantly reduced. In addition, each element of the matrix [XE] and each element of the matrix [SE] are calculated by the intra-cluster average value calculation circuit 1.
The average value of the macroblock group [TI
:], [rT] are calculated. Matrix [XE],
Each element of [SE] is 396 per completely independent frame, but by calculating the intra-cluster average value in this way, it is compressed to the number of data corresponding to the number of indexes m (see Figure 3). d)). Then, the intra-cluster average values [1] and [-] are manually input to the multiplexing circuit 14. Note that the same codebook [CB] can be used if the video images to be recorded are of the same scene.
Multiplexing circuit for scene switching FRJ! Sent to 4.

【逆ベクトル量子化】[Inverse vector quantization]

ベクトル量子化によって得られた上記マトリックス[N
]、コードブック[CB]およびクラスタ内平均値算出
によって得られた平均値[5n’Z ] 、 [n 1
は、逆ベクトル量子化回路9に人力され、各マクロブロ
ック番号に毎に、下記式(7)〜(9)の演算が行われ
、ブロック内色信号平均値Y F (k)、 UI”(
k)、V F (k)が復号される。 Y F (k)−〇 B Y (N (k)) n (
N (k))+ T1(N (k))       ・
・・・・(7)U P (k) −CB U (N (
k))チE (N (k))+ ’TV (N (k)
)       ・・・・・・(8)V F (k)−
CB V (N (k)) n (N (k))十■(
N (k ) f     ・・・・・(9)ただし、
上記式(7)〜(9)において、N (k)は当該マク
ロブロックの出力ベクトルのインデックスである。また
、CB Y (N (k))は、コードブック[CB]
におけるY信号要素列C13Y (n)(n−1−n+
)の中のインデックスN (k)に対応した要素を意味
する。同様にCBtJ (N (k)) 、 CT3 
V (N (k)iも=r−ドブック[CB]における
各信号要素列の中のインデックスN (k)に対応した
信号要素を各々意味する。また、n(N(k))および
T’T’、 (N (k))は、各々、クラスタ内平均
値算出によって得られたインデックスN (k)に対応
した平均値である。そして、各マクロブロックのブロッ
ク内色信号平均値YF(k)、U P (k)、V F
 (k)は、フレームメモリFMbに書き込まれる。
The above matrix [N
], the codebook [CB] and the average value obtained by calculating the intra-cluster average value [5n'Z ], [n 1
is manually input to the inverse vector quantization circuit 9, and the following equations (7) to (9) are calculated for each macroblock number, and the intra-block color signal average value Y F (k), UI''(
k), V F (k) is decoded. Y F (k)−〇 B Y (N (k)) n (
N (k)) + T1(N (k)) ・
...(7) U P (k) -CB U (N (
k)) Chi E (N (k)) + 'TV (N (k)
) ・・・・・・(8) V F (k)−
CB V (N (k)) n (N (k))
N (k) f...(9) However,
In the above equations (7) to (9), N (k) is the index of the output vector of the macroblock. Also, CB Y (N (k)) is the codebook [CB]
Y signal element sequence C13Y (n) (n-1-n+
) means the element corresponding to index N (k). Similarly, CBtJ (N (k)), CT3
V (N (k) i also means the signal element corresponding to the index N (k) in each signal element sequence in the = r book [CB]. Also, n (N (k)) and T'T', (N (k)) are the average values corresponding to the index N (k) obtained by calculating the intra-cluster average value. Then, the intra-block color signal average value YF (k) of each macroblock is ), U P (k), V F
(k) is written to the frame memory FMb.

【フレーム内差分データの符号化】[Encoding of intra-frame difference data]

また、フレーム内符号化を行う期間、スイッチSW、は
フレームメモリPMb側に切り換えられ、以下、説明す
る処理が行われる。フレームメモリFMbに記憶された
データは、ローパスフィルタ16を介して減算器1に人
力される。なお、このローパスフィルタI6は量子化誤
差平滑化のために介挿されたものである。そして、減算
器!によって、入力画像データと、フレームメモリFM
bがら読み出されてローパスフィルタ16を介して入力
された画像データとの差分データが演算される。 詳しくは、第3図(g)に示すように、マクロブt′!
ツク番号に毎に、当該マクロブロックに属するY信号要
素Y Mk(i、D(i= 1〜16 +j−1〜+6
)の各々とフレームメモリFMb内のブロック内色信号
平均値Y F (k)との減算が行われてY信号差分マ
トリックス[Y A k]= Y A k(i、D(i
= I〜!6j−1〜16)が求められる。同様の処理
により、U信号差分マトリックス[U A klお上び
V信号差分マトリックス[V A klが求められるそ
して、離散コサイン変換回路2によって、各マクロブロ
ック番号に毎に、各色信号差分マトリックス[YAk]
、[UAk]および[VAk]の離散コサイン変換が行
われ、Y、U、V各差分マトリックスの空間周波数成分
の係数行列[CY kl、[c u kl、[cVk]
が各々得られる。 そして、これらの係数行列[CY kl、[CLJkl
および[CV klの各要素は量子化器3によって量子
化され、この結果得られる量子化値は可変符号化回路1
1によってハフマン符号等の可変長符号に変換され、多
重化回路14に入力される。ここで、量子化器3におけ
る量子化の閾値qはバッフγ1(LIFOの空き容量に
応じて制御され、バッファBUFOの空き容量が多い場
合は小さな値が、空き容量が少ない場合は大きな値が設
定される。 また、量子化器3から出力される量子化値は量子化に用
いたのと同じ閾値qに基づいて逆量子化回路4によって
復号される。ここで、係数行列の各要素には、量子化器
3に入力される1iiTと、逆量子化回路4から出力さ
れた後とで、量子化器3の量子化誤差に相当するずれが
生じる。 逆量子化回路4から出力される符号はマクロブロック単
位でまとめられ、Y、U、V各信号の差分マトリックス
の空間周波数成分の係数行列が復元される。そして、こ
の係数行列に対し、離散コザイン逆変換回路5によって
離散コサイン逆変換が施され、Y、U、V各信号の差分
マトリックス[YB k]、[U B k]、[V B
 k]が得られる。 そして、加算器6によって、下記式(10)〜(I2)
に示すように、差分マトリックス[、y B k] 、
 [LJBk]、[VBk]とフレームメモリFMbに
記憶されたブロック内色信号平均値Y F (k)、 
U F (k)、 v rx(k)とが各々加算され、
加算の結果得られる色信号マトリックス[Y T(kl
、[U Hkl[V Hk]がフレームメモリFMaに
書き込まれる。 [Y Hk]= [Y B k]+ y F (k)・
・・・(10)[U I−1k]−[U B k]+ 
u F (k)・・・・・(1り[V Hk]−[V 
Bk]+ V F (k)−−−−(+ 2 )以上の
ようにして完全独立再生フレームの符号化が完了する。 そして、可変長符号化回路11.12およびランレング
ス符号化回路13の各出力データ、および平均値[5n
’> ]、[■]が多重化回路14によって所定の順序
に編成され、CD−ROM等の蓄積メディアに記録され
る。また、コードブック[CB]の各要素が、」−記各
行列要素と多重化されて伝送され、メディアに記録され
る。 くフレーム間符号化〉 さて、フレーム間符号化を行う場合は、スイッチSW、
はフレームメモリFMa側に切り換えられる。
Further, during the intraframe encoding period, the switch SW is switched to the frame memory PMb side, and the processing described below is performed. The data stored in the frame memory FMb is input to the subtracter 1 via the low-pass filter 16. Note that this low-pass filter I6 is inserted for smoothing quantization errors. And a subtractor! input image data and frame memory FM
Difference data between the image data read from the image data b and input through the low-pass filter 16 is calculated. In detail, as shown in FIG. 3(g), macrob t'!
For each block number, the Y signal element Y Mk (i, D (i = 1 to 16 +j-1 to +6
) and the intra-block color signal average value Y F (k) in the frame memory FMb, and the Y signal difference matrix [Y A k] = Y A k (i, D (i
= I~! 6j-1 to 16) are obtained. Through similar processing, the U signal difference matrix [UA kl and the V signal difference matrix [VA kl] are obtained.Then, the discrete cosine transform circuit 2 calculates each color signal difference matrix [YAk ]
, [UAk] and [VAk] are subjected to discrete cosine transformation, and the coefficient matrix [CY kl, [c u kl, [cVk]
are obtained respectively. And these coefficient matrices [CY kl, [CLJkl
and [Each element of CV kl is quantized by the quantizer 3, and the resulting quantized value is sent to the variable encoding circuit 1.
1 is converted into a variable length code such as a Huffman code, and input to the multiplexing circuit 14. Here, the quantization threshold q in the quantizer 3 is controlled according to the free capacity of the buffer γ1 (LIFO, and a small value is set when the free capacity of the buffer BUFO is large, and a large value is set when the free capacity is small. In addition, the quantized value output from the quantizer 3 is decoded by the inverse quantization circuit 4 based on the same threshold q used for quantization.Here, each element of the coefficient matrix is , a deviation corresponding to the quantization error of the quantizer 3 occurs between the 1iiT input to the quantizer 3 and the output from the inverse quantizer 4. The code output from the inverse quantizer 4 are grouped in macroblock units, and the coefficient matrix of the spatial frequency component of the difference matrix of the Y, U, and V signals is restored.This coefficient matrix is then subjected to discrete cosine inverse transform by the discrete cosine inverse transform circuit 5. and the difference matrices of Y, U, and V signals [YB k], [U B k], [V B
k] is obtained. Then, by the adder 6, the following formulas (10) to (I2)
As shown in , the difference matrix [,y B k],
[LJBk], [VBk] and the intra-block color signal average value Y F (k) stored in the frame memory FMb,
U F (k) and v rx (k) are each added,
The color signal matrix [Y T(kl
, [U Hkl[V Hk] are written to the frame memory FMa. [Y Hk] = [Y B k] + y F (k)・
...(10) [U I-1k] - [U B k] +
u F (k)...(1ri [V Hk] - [V
Bk]+V F (k)---(+2) In the above manner, encoding of completely independent reproduction frames is completed. Then, each output data of the variable length encoding circuits 11 and 12 and the run length encoding circuit 13 and the average value [5n
'> ] and [■] are organized in a predetermined order by the multiplexing circuit 14 and recorded on a storage medium such as a CD-ROM. Furthermore, each element of the codebook [CB] is multiplexed with each matrix element, transmitted, and recorded on the media. Interframe encoding> Now, when performing interframe encoding, switch SW,
is switched to the frame memory FMa side.

【動き補償】[Motion compensation]

フレーム間符号化を行う場合、前フレー11との差分の
データ量を小さく抑えるために動き補償が行われる。す
なわち、予め用、化された動き補償ベクトル群の中から
順次1つが選択され、この動き補償ベクトルに従って、
フレーノーメモリ[’ M aに記憶された画像データ
の各要素の平行移動が行イっれる。そして、このように
して動きベクトルによる平行移動の行イっれた画像デー
タとこの符号化装置に対する人力画像データとが比較さ
れ、両画像データ間の相関が最も強くなる動き補償ベク
トル[M OV ]が選択される。このようにして決定
された動き補償ベクトル[M OV ]の各要素は可変
長符号化回路12によってハフマン符号等の可変長符号
に変換され、多重化回路!4に入力される。
When performing interframe encoding, motion compensation is performed to keep the amount of data of the difference from the previous frame 11 small. That is, one is selected one after another from a group of motion compensation vectors that have been transformed in advance, and according to this motion compensation vector,
Each element of the image data stored in the frameau memory ['M a is translated in parallel. Then, the image data that has been translated in parallel using the motion vector is compared with the human image data for this encoding device, and a motion compensation vector [M OV ] is determined that provides the strongest correlation between both image data. is selected. Each element of the motion compensation vector [M OV ] determined in this manner is converted into a variable length code such as a Huffman code by the variable length encoding circuit 12, and is then converted into a variable length code such as a Huffman code by the variable length encoding circuit 12. 4 is input.

【差分符号化】[Differential encoding]

そして、減算器lによって、入力画像データを構成する
各信号のマクロブロック[Y M k]、[u M k
l[V M k]と、フレームメモリFMaに記憶され
た動き補償のなされたY 、Lj 、V各信号のマトリ
ックス[Y Hk]、[U Hkl、[V Hk]との
差分−/ ト’) −/ クス[Y A k][U A
 k]、[V A k]が演算される。以下、上述した
フレーム内符号化の場合と同様に、離散コザイン変換に
よる符号化が行われ、その結果得られる符号が多重化回
路I4によって他の情報と多重化され、バッファB U
 F Oを介し記録系に伝送される。なお、このフレー
ム間符号化を行う期間は、独立フレーム抽出回路7、ベ
タ1−ル量子化回路8、逆ベクトル量子化回路9および
クラスタ内平均値算出回路15は動作せず、マトリック
ス[N]、[n]、[1mの各要素およびコードブック
[CB]の各要素は出力されない。 〈準独立再生フレームの符号化〉 準独立再生フレームの符号化を行う期間、スイッチSW
Iは、フレームメモリFMb側に切り換えられる。そし
て、入力される各マクロブロック[YM k]、 [t
J M k]、 [V M klと、フレームメモリF
Mbに記憶された完全独立再生フレームにおける各マク
ロブロックのブロック内色信号平均値Y[?(k)U 
F (k)、V F (k)との差分が減算器1によっ
て演算され、その差分データが、」二連と同様、離散コ
ザイン変換による符号化が行われ、多重化回路I4およ
びバッファBUFOを介し、記録系に伝送される。それ
以後、完全独立再生フレームが入力されろ[711に、
準独立再生フレームが人力される場合は、同様の処理が
行われる。 (復号装置の実施例) 第5図は第2図の符号化装置によって作成された符号を
復号する復号装置の構成を示すブロック図である。同図
において、BUFIはメディアか1 ら読み取られる符号を順次取り込むバッファ、21は分
離回路、22および23は可変長符号を固定長符号に復
号する可変長符号復号回路、24はランレングス符号を
通常の連続した符号列に変換するランレングス符号復号
回路、25は逆ベクトル量子化回路、26は逆量子化回
路、27は離散コザイン逆変換回路、28は加算器であ
る。また、FMcおよびFMdはフレームメモリであり
、これらに記憶された画像データのいずれかがスイッチ
S W tによって選択されて加算器28にりえられる
。また、29は動き補償回路、30は(7−ハスフィル
タである。 以下、この復号装置の動作を説明する。 く完全独立再生フレームの復号〉 メディアから読み取られた符号列がバッファl3UFI
に取り込まれろと、分離回路2Iによって、符号列のデ
ータ区分が判断される。そして、コードブック[CI3
]および各ヘク)・ルインデックス毎の平均値[51”
”H,]、 [n ]が、逆ベクトル虫量子化回路2に
送られる。また、各マクロブロックのベクトルインデッ
クスN (k)のランレングス符号は、ランレングス符
号復号回路24によって通常の符号列に変換され、逆ベ
クトル量子化回路25に入力される。そして、前述の式
(7)〜(9)の演算か実行され、各マク「lブCJツ
タのブロック内色信号平均値Y F (k)、 U P
 (k)、 V I’ (k)が復元され、フレームメ
モリl’ M (lに書き込まれろ。 また、第2図の可変長符号化回路I+によって作成され
た可変長符号に91;ろ差分符号DIFは、分離回路2
1によって分離されて、可変長符号復号回路22に入力
されろ1.そして、固定長省号に変換された後、逆量子
化回路26に、にって組子化前の符号値に戻される。こ
こで、量子化符号の復号はメディアから読み取られた閾
値qに基づいて行われる。すなわち、第1図の7’l弓
化装置において、f量子化回路3の…了化閾1rj q
を変更する場合には、閾値qを示す符号かメディアに書
き込まれるようになっており、再生時には、メディアか
ら閾値qが読み取られ、逆晴r・化回路26に設定され
る。 23 4 そして、入力される各差分符号DIF、DIF。 ・に対し、可変長符号の固定長化および皇子化の逆オペ
レーンヨンが行われ、前述した差分データの係数行列[
CY k]、[CU k]、rCV k]か復元される
。そして、この係数行列[CY k]、[CU kl、
[cVk]に対し、離散コザイン逆変換回路27によっ
て離散コサイン逆変換が施され、Y、tJ、V各信号の
差分マトリックス[Y [3k]、 [113k1. 
[V 13 k]が得られる。 この時、スイッチSW、はフレーノ、メモリl”Md側
に切り換えられている。そして、フレーノ、メモリFM
d内のブロック内色信壮・li均値Y Ii’ (k)
、 [IF (k)、v F(k)がローパスフィルタ
30を介して読み出され、加算器28に、L 、て、X
−分マトリ・ソクス[Y B kl、[u B k]、
い・[3klの各々対応するものと加算され、色信号マ
トリックスl Y 1.1 kl 、 l UHk]、
[VHk]が復元される。そして、各マクロブロックに
ついて、−に連の処理により、色信号マトリックス[Y
 r−1kl、[011k二、 [V 11 klが復
元され、これらに基づいて完全独立再生フレームの画像
が再生される。また、各マクロブロックの色信号マトリ
ックス[YHk]、[UT(k]、[VHk]はフレー
ムメモリFMcに書き込まれる。 このように完全独立再生フレームは、他のフレームの復
号を必要としないので、完全独立再生フレームのみを選
択して読み取り、高速再生、高速逆転再生、所望の画面
の選択再生等の特殊再生を行うことができる。 〈フレーム間符号化された符号の復号〉この場合、動き
hli償ベクトル[M OV ]の各要素の可変長符号
が分離回路21を介して可変長符号復号回路23に入力
されて固定長荀号に復fEされ、動き補償回路29に入
力される1、そして、動き補償回路29によって、フレ
ームメモリFMc内の各マク〔ノブロックの色信号マト
リックス[Ytlkl[LJ Hk] 、 [V Ll
 k]の要素の動き補償ベクトル[MOV]に従った平
行移動が行われる。 また、nQフレー11との差分に対応した差分符号[)
IFが分離回路2Iを介し、=S変長符号復号回路22
に入力される。そして、−1−述した完全独立再生フレ
ームの復号の場合と同様の処理が行われ、離散コサイン
逆変換回路27から前フレームとの差分に対応した差分
マトリックス[Y B k]、[U B k][V B
 klが得られる。この時、スイッS W tは、フレ
ームメモリFMc側に切り換えられている。 そして、フレームメモリF M cから動き補償のなさ
れた色信号マトリックス[Y Hk]、[U Hk]、
[Vl−1k]がローパスフィルタ30を介して読みだ
され、加算器28によって、差分マトリックス[YI3
kl。 [U Bk1.[V B klの各々対応する乙のと加
算され、当該フレームの色信号マトリックスl’、YI
lk1.口J[−1k] 、 [V Hk]が得られる
。そして、この新たな色信号マトリックス[Y I−1
k]、 [U I−1kl、1VI(k]によって画像
が再生されると共に、新たな色信号マトリックス[Y 
Hk]、[U Hk]、[V It klがフレームメ
モリF M cに書き込まれる。 く準独立再生フレームの復号〉 この場合、スイッチS W 、はフレームメモリr>M
d側に切り換えられる。フレームメモリri’Md1.
:は、当該シーンにおける完全独立再生フレームの各マ
クロブロックのブロック内色信号平均値YF(k)、 
U F (k)、V F (k)が記憶されている。そ
して、各マクロブロックのブロック内色信号平均値YF
(k)、 [J F (k)、 V F (k)との差
分に差分符号DIFが分離回路21を介し、可変長符号
復号回路22に入力される。そして、上述した完全独立
再生フレームの復号の場合と同作の処理が行われ、新た
な色信号マトリックス[YT−1k11.口J It 
kl 、 [V 11 klが復元され、それらに屑づ
いて画像が再生されると共に、新たな色信号7トリツク
スl’i’Hk1.口JHk’] 、 [V Hk]が
フレームメモリIンMeに書き込まれろ。 (変形例) 本発明における完全独立CF牛フレームの基準デー F
 tJ Nは非常に圧縮された乙のなので、第6図に示
すように、第1図において準独X″f、+lr生フレー
ムとして扱ったフレームF It v。、 F It 
、、。、・・・等を完全独立再生フレーム扱いとし、亭
独立再生フレームをなくしてもよい。 「発明の効果」 以上説明したように、この発明によれば、所望のフレー
ムについては、該フレームを構成する画素データを複数
のブロックに分割し、各ブロック毎に、当該ブロックに
属する各画素データの平均値を符号化すると共に、各画
素データと該平均値との差分を符号化し、前記所望のフ
レームに続くフレームについては、既に符号化されたフ
レート、の画素データとの差分を符号化するようにした
ので、効率的に符号化を行うことができ、しかし、−1
−記所望のフレームの符号を再生゛4゛ることにより、
特殊再生を行うことができるという効果がある。 また、−[―記所望のフレームを符号化4−ろ際の所要
ビット数が少なくて済む(他のフレームと路間−のヒツ
ト数)ので、通常再生時においても伝送ビットレートの
制約等により符号のビット精度を犠牲にすることがない
。従−2て、周期的な画像の劣化を発生ずることなく符
号化を行うことがてきるという効果が得られる。
Then, the subtracter l subtracts the macroblocks [Y M k] and [u M k of each signal constituting the input image data.
Difference between l[VMk] and the motion-compensated Y, Lj, V signal matrices [YHk], [UHkl, [VHk] stored in the frame memory FMa -/ t') -/ Kus [Y A k] [U A
k] and [V A k] are calculated. Thereafter, as in the case of intra-frame encoding described above, encoding is performed using discrete cosine transform, and the resulting code is multiplexed with other information by the multiplexing circuit I4, and is sent to the buffer B U
It is transmitted to the recording system via FO. Note that during this inter-frame encoding period, the independent frame extraction circuit 7, the flat quantization circuit 8, the inverse vector quantization circuit 9, and the intra-cluster average value calculation circuit 15 do not operate, and the matrix [N] , [n], [1m] and each element of the codebook [CB] are not output. <Encoding of semi-independent playback frames> During the encoding of semi-independent playback frames, the switch SW
I is switched to the frame memory FMb side. Then, each input macroblock [YM k], [t
J M k], [VM kl and frame memory F
The intra-block color signal average value Y[? of each macroblock in the completely independent reproduction frame stored in Mb? (k)U
The difference between F (k) and V F (k) is calculated by the subtracter 1, and the difference data is encoded by discrete cosine transform as in the case of the double series, and sent to the multiplexing circuit I4 and the buffer BUFO. It is transmitted to the recording system via the After that, a completely independent playback frame is input [711,
Similar processing is performed when semi-independent playback frames are manually generated. (Embodiment of Decoding Apparatus) FIG. 5 is a block diagram showing the configuration of a decoding apparatus that decodes the code created by the encoding apparatus of FIG. 2. In the figure, BUFI is a buffer that sequentially takes in codes read from the media 1, 21 is a separation circuit, 22 and 23 are variable length code decoding circuits that decode variable length codes into fixed length codes, and 24 is a buffer that converts run-length codes into fixed-length codes. 25 is an inverse vector quantization circuit, 26 is an inverse quantization circuit, 27 is a discrete cosine inverse transformation circuit, and 28 is an adder. Further, FMc and FMd are frame memories, and any of the image data stored in these is selected by the switch S W t and sent to the adder 28 . Further, 29 is a motion compensation circuit, and 30 is a (7-Has filter). The operation of this decoding device will be explained below.
The separation circuit 2I determines the data classification of the code string. And the codebook [CI3
] and the average value for each index [51”
"H, ], [n ] are sent to the inverse vector quantization circuit 2. Also, the run-length code of the vector index N (k) of each macroblock is converted into a normal code string by the run-length code decoding circuit 24. Then, the calculations of equations (7) to (9) described above are executed, and the intra-block color signal average value Y F ( k), UP
(k), V I' (k) is restored and written to the frame memory l' M (l. Also, the variable length code created by the variable length encoding circuit I+ in FIG. DIF is separation circuit 2
1 and input to the variable length code decoding circuit 22. Then, after being converted into a fixed length code, the code value is returned to the code value before muntinization by the inverse quantization circuit 26. Here, the quantization code is decoded based on the threshold value q read from the medium. That is, in the 7'l arching device shown in FIG. 1, the f quantization circuit 3...
When changing the threshold value q, a code indicating the threshold value q is written on the medium, and during playback, the threshold value q is read from the medium and set in the reverse arithmetic circuit 26. 23 4 And each input difference code DIF, DIF. , the inverse operation of making the variable-length code fixed-length and making it into a prince is performed, and the coefficient matrix of the difference data described above [
CY k], [CU k], rCV k] are restored. Then, this coefficient matrix [CY k], [CU kl,
[cVk] is subjected to discrete cosine inverse transform by the discrete cosine inverse transform circuit 27, and the difference matrix of the Y, tJ, and V signals [Y [3k], [113k1.
[V 13 k] is obtained. At this time, the switch SW is switched to the Freno memory l''Md side.Then, the Freno memory FM
Intra-block color confidence/li average value Y Ii' (k) in d
, [IF (k), v F(k) is read out via the low-pass filter 30 and sent to the adder 28 as L, t, X
-Min Matri Socs [Y B kl, [u B k],
・[3kl are added to each corresponding one, and the color signal matrix l Y 1.1 kl , l UHk],
[VHk] is restored. Then, for each macroblock, the color signal matrix [Y
r-1kl, [011k2, [V 11 kl are restored, and images of completely independent reproduction frames are reproduced based on these. Also, the color signal matrices [YHk], [UT(k], and [VHk] of each macroblock are written to the frame memory FMc. In this way, completely independent reproduction frames do not require decoding of other frames, so It is possible to select and read only completely independent playback frames and perform special playback such as high-speed playback, high-speed reverse playback, and selective playback of a desired screen. <Decoding of interframe encoded code> In this case, the motion hli The variable length code of each element of the compensation vector [M OV ] is inputted to the variable length code decoding circuit 23 via the separation circuit 21, decoded into a fixed length code, and inputted to the motion compensation circuit 29. , the motion compensation circuit 29 calculates the color signal matrix [Ytlkl[LJ Hk], [V Ll
k] is translated in accordance with the motion compensation vector [MOV]. In addition, the difference code [) corresponding to the difference with nQ frame 11
IF passes through the separation circuit 2I, =S variable length code decoding circuit 22
is input. Then, the same process as in the case of decoding the completely independent reproduction frame described in -1- is performed, and the discrete cosine inverse transform circuit 27 outputs difference matrices [Y B k], [U B k] corresponding to the difference from the previous frame. ] [V B
kl is obtained. At this time, the switch SW t has been switched to the frame memory FMc side. Then, motion-compensated color signal matrices [Y Hk], [U Hk],
[Vl-1k] is read out via the low-pass filter 30, and the adder 28 adds the difference matrix [YI3
kl. [UBk1. [V
lk1. mouth J [-1k], [V Hk] is obtained. Then, this new color signal matrix [Y I-1
k], [U I-1kl, 1VI(k], and a new color signal matrix [Y
Hk], [U Hk], and [V It kl are written to the frame memory F M c. Decoding of quasi-independent playback frames> In this case, the switch S W is the frame memory r>M
It can be switched to the d side. Frame memory ri'Md1.
: is the intra-block color signal average value YF(k) of each macroblock of a completely independent reproduction frame in the scene,
U F (k) and V F (k) are stored. Then, the intra-block color signal average value YF of each macroblock
(k), [J F (k), and the difference code DIF between V F (k) is input to the variable length code decoding circuit 22 via the separation circuit 21 . Then, the same process as in the case of decoding the completely independent reproduction frame described above is performed, and a new color signal matrix [YT-1k11. Mouth J It
kl , [V 11 kl are restored, and an image is reproduced using them, and a new color signal 7 matrix l'i'Hk1 .口JHk'], [VHk] are written to the frame memory InMe. (Modified example) Reference data F for completely independent CF cow frame in the present invention
Since tJ N is extremely compressed, as shown in Fig. 6, the frames F It v., F It treated as semi-German X''f, +lr raw frames in Fig. 1 are
,,. , . . . etc. may be treated as completely independent playback frames, and the independent playback frames may be eliminated. "Effects of the Invention" As explained above, according to the present invention, for a desired frame, pixel data constituting the frame is divided into a plurality of blocks, and for each block, each pixel data belonging to the block is At the same time, the difference between each pixel data and the average value is encoded, and for the frame following the desired frame, the difference between the pixel data of the already encoded frame is encoded. As a result, encoding can be performed efficiently, but -1
- by reproducing the code of the desired frame;
This has the effect of allowing special playback. In addition, the number of bits required for encoding a desired frame is small (the number of hits between other frames), so even during normal playback, it is possible to avoid transmission bit rate constraints, etc. The bit precision of the code is not sacrificed. Therefore, it is possible to perform encoding without causing periodic image deterioration.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例による画像データの符号化
方法を説明する図、第2図は同実施例による符号化装置
の構成を示すブロック図、第3図は第2図の符号化装置
によって行われる処理を説明する図、第4図は同実施例
におけるベクトル量子化の試行結果を示す図、第5図は
同実施例による復号装置の構成を示すブ【1ツク図、第
6図は本発明の変形例による画像データの符号化方法を
説明ずろ図である。 F Rlo、 P It n n ・・・・完全独立再
生フレート、FLJN・・Jl(準データ、l l) 
l−〕1.   ・フレート1、内差分データ。
FIG. 1 is a diagram illustrating an image data encoding method according to an embodiment of the present invention, FIG. 2 is a block diagram showing the configuration of an encoding device according to the embodiment, and FIG. 3 is a diagram illustrating the encoding method of FIG. 2. FIG. 4 is a diagram showing the trial results of vector quantization in the same embodiment. FIG. 5 is a block diagram showing the configuration of the decoding device according to the same embodiment. The figure is a diagram illustrating a method of encoding image data according to a modified example of the present invention. F Rlo, P It n n...Completely independent recycled freight, FLJN...Jl (semi-data, l l)
l-]1.・Freight 1, internal difference data.

Claims (1)

【特許請求の範囲】 所望のフレームについては、該フレームを構成する画素
データを複数のブロックに分割し、各ブロック毎に、当
該ブロックに属する各画素データの平均値を符号化する
と共に、各画素データと該平均値との差分を符号化し、 前記所望のフレームに続くフレームについては、既に符
号化されたフレームの画素データとの差分を符号化する
ことを特徴とする画像データの符号化方法。
[Claims] For a desired frame, the pixel data constituting the frame is divided into a plurality of blocks, and for each block, the average value of each pixel data belonging to the block is encoded, and the average value of each pixel data belonging to the block is encoded. A method for encoding image data, comprising: encoding a difference between data and the average value; and for a frame following the desired frame, encoding a difference between pixel data of an already encoded frame.
JP26447489A 1989-10-11 1989-10-11 Coding method for picture data Pending JPH03125570A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26447489A JPH03125570A (en) 1989-10-11 1989-10-11 Coding method for picture data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26447489A JPH03125570A (en) 1989-10-11 1989-10-11 Coding method for picture data

Publications (1)

Publication Number Publication Date
JPH03125570A true JPH03125570A (en) 1991-05-28

Family

ID=17403727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26447489A Pending JPH03125570A (en) 1989-10-11 1989-10-11 Coding method for picture data

Country Status (1)

Country Link
JP (1) JPH03125570A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017502A (en) * 2006-08-08 2009-01-22 Canon Inc Image encoding apparatus and image decoding apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017502A (en) * 2006-08-08 2009-01-22 Canon Inc Image encoding apparatus and image decoding apparatus

Similar Documents

Publication Publication Date Title
KR100335707B1 (en) Coding method, coding apparatus, decoding method and decoding apparatus of image signal
JP3312417B2 (en) Image signal encoding device and image signal decoding device
JPH0379182A (en) Image encoding control method
JPH0759085A (en) Forced intraframe coding method
JP3911035B2 (en) Moving picture coding method and moving picture coding apparatus
JPH06284412A (en) Picture signal coding method and picture signal coder, picture signal decoding method and picture signal decoder and picture signal recording medium
US5748248A (en) Real time motion vector processing of image data
JPH03125570A (en) Coding method for picture data
JP2002064821A (en) Method for compressing dynamic image information and its system
JP2932950B2 (en) Data compression / recording method, data compression / recording device, compressed data decoding / reproduction method, compressed data decoding / reproduction device
JP3200199B2 (en) Video compression encoding method
JP3128393B2 (en) Compressed video playback device
JP3689437B2 (en) Image signal encoding method and apparatus
WO1995004433A1 (en) Processing image data
JPH0795536A (en) Device and method for reversely reproducing moving image
JP3240737B2 (en) Image signal encoding method and apparatus, decoding method and apparatus
JPH0984011A (en) Video coding system converter
JP2005184525A (en) Image processing device
JP2630140B2 (en) Image signal recording / reproduction method
JP2000270251A (en) Digital camera
NZ269177A (en) Telescoping with video frame buffers in backward predictive coding
JP2004274212A (en) Picture encoding device
JP3689626B2 (en) Image signal decoding method and apparatus
AU674984B2 (en) Processing image data
JP3624435B2 (en) Information reproducing apparatus and method