[go: up one dir, main page]

JP2000152233A - Image information converter and conversion method - Google Patents

Image information converter and conversion method

Info

Publication number
JP2000152233A
JP2000152233A JP32357698A JP32357698A JP2000152233A JP 2000152233 A JP2000152233 A JP 2000152233A JP 32357698 A JP32357698 A JP 32357698A JP 32357698 A JP32357698 A JP 32357698A JP 2000152233 A JP2000152233 A JP 2000152233A
Authority
JP
Japan
Prior art keywords
image signal
processing
extracting
output
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP32357698A
Other languages
Japanese (ja)
Other versions
JP4154772B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Toshihiko Hamamatsu
俊彦 浜松
Masaaki Hattori
正明 服部
Yasushi Noide
泰史 野出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP32357698A priority Critical patent/JP4154772B2/en
Publication of JP2000152233A publication Critical patent/JP2000152233A/en
Application granted granted Critical
Publication of JP4154772B2 publication Critical patent/JP4154772B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance the image quality in a transmission-reception system in compliance with the moving picture image coding experts group phase 2 MPEG 2 standards. SOLUTION: An image signal decoded by a receiver side is fed to area cut- out circuits 100, 120 and a field/frame processing identification circuit 11 as an input image signal. The area cut-out circuits 100, 120 extract a class tap and a prediction tap on the basis of the input image signal and the field/frame processing identification circuit 11 identifies which of field DCT processing/frame DCT processing is conducted at compensation coding. A characteristic quantity extract circuit 130 generates an ADRC code based on the output of the area cut-out circuit 100 and generates a code corresponding to the output of the field/frame processing identification circuit 11. A class code generating circuit 14 generates a class code based on the output of the characteristic quantity extract circuit 130. Proper processing is conducted corresponding to the changeover of the DCT processing mode by using the class code to conduct classification adaptive processing.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、MPEG2(Mo
ving Picture Expert Group phase 2) の規定に従う画
像間圧縮符号化および伸長復号化によって生成される復
元画像信号について画質を改善する機能を有する画像情
報変換装置および変換方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to MPEG2 (Mo
The present invention relates to an image information conversion device and a conversion method having a function of improving image quality of a restored image signal generated by inter-image compression encoding and decompression decoding according to the specification of the ving Picture Expert Group phase 2).

【0002】[0002]

【従来の技術】画像信号の圧縮符号化方式としてMPE
G2規格による符号化方式が従来から用いられている。
MPEG2規格による送受信システムでは、送信すべき
画像信号に対してMPEG2規格による圧縮符号化処理
を施して送信し、また、受信した画像信号に対して、M
PEG2規格による圧縮符号化処理に対応する伸長復号
化を施すことにより、元の画像信号を復元する。
2. Description of the Related Art MPE is used as a compression encoding method for image signals.
An encoding system based on the G2 standard has been conventionally used.
In a transmission / reception system based on the MPEG2 standard, an image signal to be transmitted is subjected to a compression coding process according to the MPEG2 standard, and is transmitted.
The original image signal is restored by performing decompression decoding corresponding to the compression encoding process according to the PEG2 standard.

【0003】ここで、MPEG2規格による圧縮符号化
処理には、DCT(Discrete CosineTransform) 処理が
含まれる。DCT処理として、フィールドDCT処理,
フレームDCT処理の何れかがマクロブロックを単位と
して切替えて行われる。
[0003] Here, the compression encoding process according to the MPEG2 standard includes DCT (Discrete Cosine Transform) processing. As DCT processing, field DCT processing,
Any one of the frame DCT processes is performed by switching on a macroblock basis.

【0004】このようなMPEG2規格による送受信シ
ステムにおいては、受信側で復元される画像信号に、高
域部分のぼけ、ブロック歪み等の部分的な不具合が生じ
ることがあった。
In such a transmission / reception system based on the MPEG2 standard, an image signal restored on the receiving side sometimes has partial problems such as blurring of a high frequency portion and block distortion.

【0005】[0005]

【発明が解決しようとする課題】上述したような不具合
に対処するために、受信側で復元される画像信号に対し
てクラス分類適応処理を利用した画像情報変換を施すこ
とにより、画質を改善することが考えられる。この場
合、フィールドDCT処理/フレームDCT処理の切替
えに起因して、ぼけの改善が不充分となるおそれ、ある
いはブロック歪みが強調されるおそれがある。
In order to cope with the above-mentioned problems, the image quality is improved by performing image information conversion using the classification adaptive processing on the image signal restored on the receiving side. It is possible. In this case, the switching between the field DCT processing and the frame DCT processing may result in insufficient improvement of blurring, or may enhance block distortion.

【0006】従って、この発明の目的は、MPEG2規
格による符号化方式を用いた送受信システムにおいて、
より良好な画質を得ることが可能な画像情報変換装置お
よび変換方法を提供することにある。
Accordingly, an object of the present invention is to provide a transmission / reception system using an encoding system conforming to the MPEG2 standard.
An object of the present invention is to provide an image information conversion device and a conversion method capable of obtaining better image quality.

【0007】[0007]

【課題を解決するための手段】請求項1の発明は、MP
EG2規格に従って圧縮符号化された画像信号を伸長復
号化することによって生成される入力画像信号に画像情
報変換を施す画像情報変換装置において、伸長復号化さ
れた入力画像信号から所定の画素領域を抽出する第1の
領域切り出し手段と、入力画像信号について、圧縮符号
化時にフィールド内DCT処理/フレーム内DCT処理
の何れがなされたかをマクロブロックを単位として識別
し、識別結果を示すコードを出力するフィールド/フレ
ーム処理識別手段と、第1の領域切り出し手段から供給
される画素データと、フィールド/フレーム処理識別手
段の出力とに基づいて特徴量を抽出する特徴量抽出手段
と、特徴量抽出手段の出力に対応してクラスコードを生
成するクラスコード生成手段と、予め決定された予測係
数を記憶し、記憶した予測係数の内から、クラスコード
生成手段の出力に対応する予測係数を出力する係数記憶
手段と、入力画像信号から所定の画素領域を抽出する第
2の領域切り出し手段と、第2の領域切り出し手段の出
力と、係数記憶手段の出力とに基づいて、重み付け加算
を行って画素値を生成する演算処理手段とを有すること
を特徴とする画像情報変換装置である。
According to the first aspect of the present invention, an MP is provided.
In an image information conversion apparatus for performing image information conversion on an input image signal generated by expanding and decoding an image signal compressed and encoded according to the EG2 standard, a predetermined pixel region is extracted from the expanded and decoded input image signal. A first area cutout means for performing, in the input image signal, whether the intra-field DCT processing or the intra-frame DCT processing has been performed at the time of compression encoding in units of macroblocks, and a field for outputting a code indicating the identification result. / Frame processing identification means, a feature quantity extraction means for extracting a feature quantity based on pixel data supplied from the first area cutout means, and an output of the field / frame processing identification means, and an output of the feature quantity extraction means And a class code generating means for generating a class code corresponding to, and storing a predetermined prediction coefficient. Coefficient storage means for outputting a prediction coefficient corresponding to the output of the class code generation means from among the prediction coefficients, a second area cutout means for extracting a predetermined pixel area from an input image signal, and a second area cutout An image information conversion apparatus comprising: an arithmetic processing unit that performs weighted addition based on an output of a unit and an output of a coefficient storage unit to generate a pixel value.

【0008】請求項6の発明は、MPEG2規格に従っ
て圧縮符号化された画像信号を伸長復号化することによ
って生成される入力画像信号に画像情報変換を施す画像
情報変換方法において、伸長復号化された入力画像信号
から所定の画素領域を抽出する第1の領域切り出しステ
ップと、入力画像信号について、圧縮符号化時にフィー
ルド内DCT処理/フレーム内DCT処理の何れがなさ
れたかをマクロブロックを単位として識別し、識別結果
を示すコードを出力するDCT処理識別ステップと、第
1の領域切り出しステップから供給される画素データ
と、処理識別ステップの結果とに基づいて特徴量を抽出
する特徴量抽出ステップと、特徴量抽出ステップの結果
に対応してクラスコードを生成するクラスコード生成ス
テップと、予め決定された予測係数を記憶し、記憶した
予測係数の内から、クラスコード生成ステップの結果に
対応する予測係数を出力する係数記憶ステップと、入力
画像信号から所定の画素領域を抽出する第2の領域切り
出しステップと、第2の領域切り出しステップの結果
と、係数記憶ステップの結果とに基づいて、重み付け加
算を行って画素値を生成する演算処理ステップとを有す
ることを特徴とする画像情報変換方法である。
According to a sixth aspect of the present invention, there is provided an image information conversion method for performing image information conversion on an input image signal generated by expanding and decoding an image signal compressed and encoded according to the MPEG2 standard. A first area extracting step of extracting a predetermined pixel area from the input image signal, and identifying whether the input image signal has been subjected to intra-field DCT processing or intra-frame DCT processing at the time of compression encoding in macroblock units. A DCT processing identifying step of outputting a code indicating the identification result, a feature amount extracting step of extracting a feature amount based on the pixel data supplied from the first area cutout step, and a result of the processing identifying step; A class code generation step of generating a class code corresponding to the result of the quantity extraction step; A coefficient storing step of storing a predicted coefficient corresponding to the result of the class code generating step from among the stored predicted coefficients, and a second area for extracting a predetermined pixel area from the input image signal An image information conversion method comprising: an extraction step; a calculation processing step of performing a weighted addition based on a result of the second area extraction step and a result of the coefficient storage step to generate a pixel value. is there.

【0009】以上のような発明によれば、圧縮符号化時
になされたDCT処理の種類(モード)に的確に応じた
クラス分類適応処理を行うことが可能となる。
According to the above-described invention, it is possible to perform the classification adaptive processing appropriately according to the type (mode) of the DCT processing performed at the time of compression encoding.

【0010】[0010]

【発明の実施の形態】この発明の一実施形態についての
説明に先立ち、理解を容易とするために、クラス分類適
応処理について説明する。まず、図1を参照して、予測
画像信号の生成に係る構成について説明する。入力画像
信号が領域切り出し回路10、12に供給される。ここ
では、入力画像信号は、MPEG2規格による送受信シ
ステムにおいて受信側で復元される画像信号である。領
域切り出し回路10は、入力画像信号から所定の画素領
域を抽出し、抽出した画素領域に係る画素データを特徴
量抽出回路13に供給する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Prior to description of an embodiment of the present invention, a classification adaptive process will be described for easy understanding. First, a configuration related to generation of a predicted image signal will be described with reference to FIG. The input image signal is supplied to the region extracting circuits 10 and 12. Here, the input image signal is an image signal restored on the receiving side in the transmission / reception system based on the MPEG2 standard. The region cutout circuit 10 extracts a predetermined pixel region from the input image signal, and supplies pixel data relating to the extracted pixel region to the feature amount extraction circuit 13.

【0011】特徴量抽出回路13は、供給される画素デ
ータに1ビットADRC等の処理を施すことによってA
DRCコードを生成し、生成したADRCコードをクラ
スコード発生回路14に供給する。クラスコード発生回
路14は、供給されるADRCコードに基づいて、クラ
ス分類の結果を表すクラスコードを発生してROM15
に供給する。ROM15は、供給されるクラスコードに
対応する係数データを推定演算回路16に供給する。こ
こで、予測係数は後述するようにして予め決定され、ク
ラス毎に、より具体的にはクラスコードをアドレスとす
る等の形態でROM15に記憶されている。なお、領域
切り出し回路10が抽出する、クラス分類に使用される
画素領域をクラスタップと称する。
The feature quantity extraction circuit 13 performs a process such as 1-bit ADRC on the supplied pixel data, thereby
A DRC code is generated, and the generated ADRC code is supplied to the class code generation circuit. The class code generation circuit 14 generates a class code representing the result of the classification based on the supplied ADRC code, and
To supply. The ROM 15 supplies coefficient data corresponding to the supplied class code to the estimation operation circuit 16. Here, the prediction coefficient is determined in advance as described later, and is stored in the ROM 15 for each class, more specifically, in such a form that a class code is used as an address. Note that a pixel area used by the area extraction circuit 10 and used for class classification is referred to as a class tap.

【0012】一方、領域切り出し回路12は、入力画像
信号から所定の画素領域を抽出し、抽出した画素領域の
画素データを推定演算回路16に供給する。推定演算回
路16は、領域切り出し回路12から供給される画素デ
ータと、ROM15から供給される予測係数とに基づい
て以下の式(1)に従う積和演算を行うことによって予
測画像信号を生成する。ここで、領域切り出し回路12
が抽出する、積和演算に使用される画素領域を予測タッ
プと称する。
On the other hand, the area cutout circuit 12 extracts a predetermined pixel area from the input image signal, and supplies pixel data of the extracted pixel area to the estimation calculation circuit 16. The estimation operation circuit 16 generates a predicted image signal by performing a product-sum operation according to the following equation (1) based on the pixel data supplied from the region cutout circuit 12 and the prediction coefficient supplied from the ROM 15. Here, the region extraction circuit 12
The pixel area used for the product-sum operation that is extracted is referred to as a prediction tap.

【0013】 y=w1 ×x1 +w2 ×x2 +‥‥+wn ×xn (1) ここで、x1 ,‥‥,xn が各予測タップであり、
1 ,‥‥,wn が各予測係数である。
Y = w 1 × x 1 + w 2 × x 2 + ‥‥ + w n × x n (1) where x 1 , ‥‥, x n are each prediction tap,
w 1 , ‥‥, and w n are respective prediction coefficients.

【0014】次に、学習すなわちクラス毎の予測係数を
求める処理について説明する。一般的には、クラス分類
適応処理によって予測されるべき画像信号と同一な信号
形式の画像信号(以下、教師信号と称する)と、教師信
号にクラス分類適応処理の目的とされる画像情報変換に
関連した処理を行うことによって得られる画像信号とに
基づく所定の演算処理によって予測係数が決定される。
MPEG2規格等に従う画像信号の圧縮符号化/伸長復
号化によって生じる高域部分のぼけ、ブロック歪み等を
改善して画質を向上させるためになされるクラス分類適
応処理においては、学習は、例えば図2に示すような構
成によって行われる。
Next, learning, that is, a process of obtaining a prediction coefficient for each class will be described. Generally, an image signal having the same signal format as an image signal to be predicted by the classification adaptive processing (hereinafter, referred to as a teacher signal) is used for converting the teacher signal into image information conversion intended for the classification adaptive processing. A prediction coefficient is determined by a predetermined calculation process based on an image signal obtained by performing a related process.
In the class classification adaptive processing performed to improve the image quality by improving blurring of a high frequency portion, block distortion, and the like caused by compression encoding / decompression decoding of an image signal according to the MPEG2 standard or the like, learning is performed by, for example, FIG. This is performed by the configuration shown in FIG.

【0015】所定の画像信号が教師信号としてMPEG
2エンコーダ20と、正規方程式加算回路26とに供給
される。MPEG2エンコーダ20は、教師信号にMP
EG2規格に従う圧縮符号化を施し、圧縮符号化信号を
MPEG2デコーダ21に供給する。MPEG2デコー
ダ21は、供給される圧縮符号化信号を伸長復号化処理
して復元画像信号を生成し、生成した復元画像信号を領
域切り出し回路22と、特徴量抽出回路23とに供給す
る。ここで、MPEG2デコーダ21の出力は、高域部
分のぼけ、ブロック歪み等を含んでいる。
A predetermined image signal is an MPEG signal as a teacher signal.
2 encoder 20 and normal equation addition circuit 26. The MPEG2 encoder 20 outputs the MP
The compression coding according to the EG2 standard is performed, and the compression coding signal is supplied to the MPEG2 decoder 21. The MPEG2 decoder 21 expands and decodes the supplied compressed and coded signal to generate a restored image signal, and supplies the generated restored image signal to the region cutout circuit 22 and the feature amount extraction circuit 23. Here, the output of the MPEG2 decoder 21 includes blurring of a high-frequency portion, block distortion, and the like.

【0016】特徴量抽出回路23は、MPEG2デコー
ダ21の出力に1ビットADRC等の処理を施すことに
よってADRCコードを生成し、生成したADRCコー
ドをクラスコード発生回路25に供給する。クラスコー
ド発生回路クラスコード発生回路25は、供給されるA
DRCコードに基づいて、分類されるクラスに対応する
クラスコードを発生して正規方程式加算回路26に供給
する。
The feature amount extracting circuit 23 generates an ADRC code by performing processing such as 1-bit ADRC on the output of the MPEG2 decoder 21, and supplies the generated ADRC code to the class code generating circuit 25. The class code generation circuit 25 receives the supplied A
Based on the DRC code, a class code corresponding to the class to be classified is generated and supplied to the normal equation adding circuit 26.

【0017】一方、領域切り出し回路22は、MPEG
2デコーダ21の出力から所定の画素領域を予測タップ
として抽出し、予測タップの画素データを正規方程式加
算回路26に供給する。正規方程式加算回路26は、領
域切り出し回路22の出力と、教師信号とに基づく所定
の演算処理によって、クラスコード発生回路25から供
給されるクラスコードに対応する予測係数を解とする正
規方程式のデータを生成する。正規方程式加算回路26
の出力は、予測係数算出回路27に供給される。予測係
数算出回路27は、供給されるデータに基づいて正規方
程式を解くための演算処理を行う。この演算処理によっ
て算出された予測係数がメモリ28に供給され、記憶さ
れる。予測推定に係る処理を行うに先立って、図1中の
ROM15にメモリ28の記憶内容がロードされる。
On the other hand, the area extracting circuit 22
A predetermined pixel area is extracted from the output of the two decoder 21 as a prediction tap, and pixel data of the prediction tap is supplied to the normal equation adding circuit 26. The normal equation adding circuit 26 performs normal arithmetic processing based on the output of the area cutout circuit 22 and the teacher signal, and obtains data of a normal equation having a prediction coefficient corresponding to a class code supplied from the class code generating circuit 25 as a solution. Generate Normal equation addition circuit 26
Is supplied to the prediction coefficient calculation circuit 27. The prediction coefficient calculation circuit 27 performs an arithmetic process for solving a normal equation based on the supplied data. The prediction coefficients calculated by this calculation process are supplied to the memory 28 and stored. Prior to performing the processing relating to the prediction estimation, the storage content of the memory 28 is loaded into the ROM 15 in FIG.

【0018】正規方程式について以下に説明する。上述
の式(1)において、学習前は予測係数w1 ,‥‥,w
n が未定係数である。学習は、クラス毎に複数の教師信
号を入力することによって行う。教師信号の種類数をm
と表記する場合、式(1)から、以下の式(2)が設定
される。
The normal equation will be described below. In the above equation (1), before learning, the prediction coefficients w 1 , ‥‥, w
n is an undetermined coefficient. Learning is performed by inputting a plurality of teacher signals for each class. The number of types of teacher signals is m
In this case, the following equation (2) is set from the equation (1).

【0019】 yk =w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn (2) (k=1,2,‥‥,m) m>nの場合、予測係数w1 ,‥‥,wn は一意に決ま
らないので、誤差ベクトルeの要素ek を以下の式
(3)で定義して、式(4)によって定義される誤差ベ
クトルeを最小とするように予測係数を定めるようにす
る。すなわち、いわゆる最小2乗法によって予測係数を
一意に定める。
Y k = w 1 × x k1 + w 2 × x k2 + ‥‥ + w n × x kn (2) (k = 1,2, ‥‥, m) When m> n, the prediction coefficients w 1 , Since ‥‥ and w n are not uniquely determined, the element e k of the error vector e is defined by the following equation (3), and the prediction coefficient is set so as to minimize the error vector e defined by the equation (4). To be determined. That is, the prediction coefficient is uniquely determined by the so-called least square method.

【0020】 ek =yk −{w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn} (3) (k=1,2,‥‥m)E k = y k − {w 1 × x k1 + w 2 × x k2 + Δ + w n × x kn } (3) (k = 1, 2, Δm)

【0021】[0021]

【数1】 (Equation 1)

【0022】式(4)のe2 を最小とする予測係数を求
めるための実際的な計算方法としては、e2 を予測係数
i (i=1,2‥‥)で偏微分し(式(5))、iの各値に
ついて偏微分値が0となるように各予測係数wi を定め
れば良い。
As a practical calculation method for obtaining the prediction coefficient minimizing e 2 in Equation (4), partial differentiation of e 2 with the prediction coefficient w i (i = 1, 2 ‥‥) is performed (Equation 4). (5)) Each prediction coefficient w i may be determined so that the partial differential value becomes 0 for each value of i .

【0023】[0023]

【数2】 (Equation 2)

【0024】式(5)から各予測係数wi を定める具体
的な手順について説明する。式(6)、(7)のように
ji,Yi を定義すると、式(5)は、式(8)の行列
式の形に書くことができる。
A specific procedure for determining each prediction coefficient w i from equation (5) will be described. If X ji and Y i are defined as in equations (6) and (7), equation (5) can be written in the form of a determinant of equation (8).

【0025】[0025]

【数3】 (Equation 3)

【0026】[0026]

【数4】 (Equation 4)

【0027】[0027]

【数5】 (Equation 5)

【0028】式(8)が一般に正規方程式と呼ばれるも
のである。予測係数算出回路27は、掃き出し法等の一
般的な行列解法に従って正規方程式(8)を解くための
計算処理を行って予測係数wi を算出する。
Equation (8) is generally called a normal equation. The prediction coefficient calculation circuit 27 calculates a prediction coefficient w i by performing a calculation process for solving the normal equation (8) according to a general matrix solution such as a sweeping method.

【0029】上述したような処理においては以下のよう
な問題がある。すなわち、MPEG2規格による符号化
方式では、画像の動きの程度等に応じてマクロブロック
を単位としてフレームDCT処理/フィールドDCT処
理が切替えられる。この点を考慮せずにクラス分類適応
処理を適用すると、ぼけの改善が不充分になるおそれ、
あるいはブロック歪みが強調されてしまうおそれがあ
る。そこで、この発明は、圧縮符号化時にフレームDC
T処理/フィールドDCT処理の何れが行われたかを識
別し、識別結果をクラス分類の結果に反映させるように
したものである。
The above-described processing has the following problems. That is, in the encoding method based on the MPEG2 standard, the frame DCT processing / field DCT processing is switched on a macroblock basis according to the degree of motion of an image. If the classification adaptation process is applied without considering this point, the blur may not be sufficiently improved,
Alternatively, block distortion may be emphasized. Therefore, the present invention provides a method for compressing and encoding a frame DC.
It identifies which of the T processing and the field DCT processing has been performed, and reflects the identification result in the result of the classification.

【0030】この発明の一実施形態における、予測画像
信号生成に係る構成の一例を図3に示す。なお、上述し
たように、入力画像信号はMPEG2規格による送受信
システムにおいて受信側で復元される画像信号である。
また、図1中の構成要素と同様な構成要素には同一の符
号を付し、重複する説明を省略する。フィールド/フレ
ーム処理識別回路11は、入力画像信号に基づいて、フ
ィールドDCT処理/フレームDCT処理の何れが圧縮
符号化時に行われたかを識別し、識別結果を領域切り出
し回路100、120および特徴量抽出回路130に供
給する。領域切り出し回路100、120は、それぞ
れ、クラスタップ、予測タップを抽出する動作を、供給
される識別結果に応じて行う。
FIG. 3 shows an example of a configuration relating to the generation of a predicted image signal in one embodiment of the present invention. As described above, the input image signal is an image signal restored on the receiving side in the transmission / reception system based on the MPEG2 standard.
Also, the same components as those in FIG. 1 are denoted by the same reference numerals, and redundant description will be omitted. The field / frame processing identification circuit 11 identifies which of the field DCT processing and the frame DCT processing has been performed at the time of the compression encoding based on the input image signal, and extracts the identification result as the area cutout circuits 100 and 120 and the feature amount extraction. Supply to the circuit 130. Each of the region cutout circuits 100 and 120 performs an operation of extracting a class tap and a prediction tap according to the supplied identification result.

【0031】また、特徴量抽出回路130は、領域切り
出し回路100から供給される予測タップのデータに1
ビットADRC等の処理を施すことによってADRCコ
ードを生成すると共に、フィールド/フレーム処理識別
回路11から供給される識別結果に対応するコードを生
成する。クラスコード発生回路14は、特徴量抽出回路
130の出力に基づいてクラスコードを発生する。この
クラスコードがフィールド/フレーム処理識別回路11
から供給される識別結果を反映するクラスを表現するこ
とになる。
The feature amount extraction circuit 130 adds 1 to the prediction tap data supplied from the region extraction circuit 100.
By performing processing such as bit ADRC, an ADRC code is generated, and a code corresponding to the identification result supplied from the field / frame processing identification circuit 11 is generated. The class code generation circuit 14 generates a class code based on the output of the feature amount extraction circuit 130. This class code is used for the field / frame processing identification circuit 11.
Represents a class reflecting the identification result supplied from.

【0032】次に、この発明の一実施形態における、予
測係数の決定に係る構成の一例を図4に示す。ここで、
図2中の構成要素と同様な構成要素には、同一の符号を
付し、重複する説明を省略する。フィールド/フレーム
処理識別回路24は、MPEG2デコーダ21の出力に
基づいて、フィールドDCT処理/フレームDCT処理
の何れが行われているかをマクロブロック毎に識別し、
識別結果を特徴量抽出回路230と領域切り出し回路1
2とに供給する。
Next, FIG. 4 shows an example of the configuration relating to the determination of the prediction coefficient in one embodiment of the present invention. here,
The same components as those in FIG. 2 are denoted by the same reference numerals, and redundant description will be omitted. The field / frame processing identification circuit 24 identifies which of the field DCT processing / frame DCT processing is being performed for each macro block based on the output of the MPEG2 decoder 21.
A feature amount extraction circuit 230 and an area extraction circuit 1
And 2.

【0033】特徴量抽出回路230は、MPEGデコー
ダ21の出力に1ビットADRC等の処理を施すことに
よってADRCコードを生成すると共に、フィールド/
フレーム処理識別回路24から供給される識別結果に対
応するコードを生成し、ADRCコードと、識別結果に
対応するコードとをクラスコード発生回路25に供給す
る。クラスコード発生回路25は、特徴量抽出回路23
0の出力に基づいてクラスコードを発生させる。このク
ラスコードがフィールド/フレーム処理識別回路24か
ら供給される識別結果を反映するクラスを表現すること
になる。
The feature amount extraction circuit 230 generates an ADRC code by subjecting the output of the MPEG decoder 21 to processing such as 1-bit ADRC.
A code corresponding to the identification result supplied from the frame processing identification circuit 24 is generated, and an ADRC code and a code corresponding to the identification result are supplied to the class code generation circuit 25. The class code generation circuit 25 includes a feature amount extraction circuit 23
A class code is generated based on the output of 0. This class code represents a class reflecting the identification result supplied from the field / frame processing identification circuit 24.

【0034】次に、フィールドDCT処理,およびフレ
ームDCT処理の何れが行われているかを識別する方法
について説明する。理解を容易とするために、まず、D
CT処理について図5Aおよび図5Bを参照して説明す
る。MPEG規格に従う圧縮符号化においては、各マク
ロブロック内の画像データが8×8(画素)からなる4
個のDCTブロックに分割され、DCTブロックを単位
としてDCT処理がなされる。DCT処理によって生成
される各係数が所定の量子化ステップで量子化されるこ
とにより、データストリームが生成される。一方、デー
タの伸長符号化においては、DCTブロックを単位とし
て逆DCT処理がなされる。
Next, a method of identifying which of the field DCT processing and the frame DCT processing is being performed will be described. To facilitate understanding, first, D
The CT processing will be described with reference to FIGS. 5A and 5B. In the compression coding according to the MPEG standard, image data in each macroblock is composed of 8 × 8 (pixels).
It is divided into DCT blocks, and DCT processing is performed in units of DCT blocks. Each coefficient generated by the DCT processing is quantized in a predetermined quantization step, thereby generating a data stream. On the other hand, in decompression encoding of data, inverse DCT processing is performed for each DCT block.

【0035】上述したように、MPEG2規格において
は、マクロブロックを単位として、フィールドDCT処
理/フレームDCT処理とを切替えることができる。フ
ィールドDCT処理においては、マクロブロック輝度信
号を4個のブロックに分解する際に、各DCTブロック
が図5Aに示すようにフィールドで構成されるように分
解する。すなわち、各DCTブロックは、マクロブロッ
ク内の奇数番目のラインのみ、または、偶数番目のライ
ンのみの何れかから構成される。一方、フレームDCT
処理では、図5Bに示すように、各DCTブロックがフ
レームで構成されるように分解する。一般に、フィール
ドDCT処理は動画像に対して高い圧縮効率を実現し、
一方、フレームDCT処理は静止画像(動き量がある程
度以上小さい画像)に対して高い圧縮効率を実現する。
As described above, in the MPEG2 standard, it is possible to switch between field DCT processing and frame DCT processing in units of macroblocks. In the field DCT processing, when the macroblock luminance signal is decomposed into four blocks, each DCT block is decomposed so as to be constituted by fields as shown in FIG. 5A. That is, each DCT block is composed of only odd-numbered lines or only even-numbered lines in a macroblock. On the other hand, the frame DCT
In the process, as shown in FIG. 5B, each DCT block is decomposed so as to be constituted by a frame. Generally, field DCT processing achieves high compression efficiency for moving images,
On the other hand, the frame DCT process achieves high compression efficiency for a still image (an image whose motion amount is small to some extent).

【0036】フィールドDCT処理/フレームDCT処
理の何れを選択するかについては、MPEG2規格上で
は標準化されていないが,例えばフィールド内およびフ
レーム内での垂直方向のライン間相関に基づいて以下の
ようにして選択する方法を用いることができる。ライン
間相関を評価するためには、例えば垂直方向に隣接する
画素間差分値の2乗を評価値として用いることができ
る。
Although the field DCT processing or the frame DCT processing is not standardized in the MPEG2 standard, it is determined as follows based on, for example, a vertical line-to-line correlation in a field and a frame. Can be used. In order to evaluate the correlation between lines, for example, the square of the difference value between pixels adjacent in the vertical direction can be used as the evaluation value.

【0037】より具体的には、フィールド内およびフレ
ーム内で垂直方向に隣接する画素間差分値の2乗var
1およびvar2を、それぞれ、以下の式(9)および
式(10)に従って計算する。式(9)、式(10)に
おいて、図5に示すように、u、vは、それぞれ、マク
ロブロック内の水平方向、垂直の画素位置を表現する変
数である。従って、式(9)の右辺は、偶数番目の画素
間差分の2乗和と、奇数番目の画素間差分の2乗和との
総和を示し、かかる値が小さい程、フィールド内で垂直
方向に隣接する画素間の相関が大きいことになる。ま
た、式(10)の右辺は、偶数番目の画素と奇数番目の
画素の間の差分の2乗の総和を示し、かかる値が小さい
程、フレーム内で垂直方向に隣接する画素間の相関が大
きいことになる。
More specifically, the square var of the difference value between adjacent pixels in the field and the frame in the vertical direction is used.
1 and var2 are calculated according to the following equations (9) and (10), respectively. In Equations (9) and (10), as shown in FIG. 5, u and v are variables representing horizontal and vertical pixel positions in the macroblock, respectively. Accordingly, the right side of the equation (9) indicates the sum of the square sum of the even-numbered pixel difference and the square sum of the odd-numbered pixel difference, and the smaller the value is, the more vertically the field becomes in the field. The correlation between adjacent pixels is large. The right side of the equation (10) indicates the sum of the squares of the differences between the even-numbered pixels and the odd-numbered pixels. The smaller the value is, the more the correlation between the vertically adjacent pixels in the frame becomes. It will be big.

【0038】[0038]

【数6】 (Equation 6)

【0039】[0039]

【数7】 (Equation 7)

【0040】そして、式(9)および式(10)に従う
計算結果に基づいて、DCT処理が以下のように選択さ
れる。
Then, based on the calculation results according to the equations (9) and (10), the DCT processing is selected as follows.

【0041】(a) var1≧var2→フレーム内DC
T処理 (b) var1<var2→フィールド内DCT処理 この発明の一実施形態においては、上述したようなDC
T処理の選択に係る計算処理と同様な計算処理を入力画
像信号(すなわちMPEG2規格による送受信システム
において受信側で復元される画像信号)に基づいて行う
ことにより、入力画像信号におけるDCT処理を識別す
る。より具体的には、式(9)および式(10)に従う
計算を行い、その計算結果に基づいて、識別結果を表す
クラス値blk _class を生成する。生成されるクラス値
blk _class の一例を以下に示す。
(A) var1 ≧ var2 → intra-frame DC
T processing (b) var1 <var2 → in-field DCT processing In one embodiment of the present invention, DC processing as described above is performed.
A DCT process in the input image signal is identified by performing a calculation process similar to the calculation process related to the selection of the T process based on the input image signal (that is, an image signal restored on the receiving side in the transmission / reception system according to the MPEG2 standard). . More specifically, calculation is performed according to Expressions (9) and (10), and a class value blk_class representing the identification result is generated based on the calculation result. The generated class value
An example of blk_class is shown below.

【0042】(a)'var1≧var2→ フレーム内D
CTと識別し、blk _class=1 (b)'var1<var2→ フィールド内DCTと識別
し、blk _class=0 (a)’,(b)’のようにして生成される識別結果に
係るクラス値blk _class と、一般的に用いられる1ビ
ットADRCによって生成される入力画像信号の波形に
係るクラス値とを組み合わせてクラスコードを発生させ
てクラス分類適応処理を行うことにより、フィールドD
CT処理/フレームDCT処理のマクロブロック毎の切
替えに的確に対応することが可能となる。クラスコード
classとしては,例えば次のようなものが用いられ
る。
(A) 'var1 ≧ var2 → D in frame
CT and blk_class = 1 (b) 'var1 <var2 → DCT in the field, class value related to the classification result generated as blk_class = 0 (a)', (b) ' By combining the blk_class with the class value related to the waveform of the input image signal generated by the commonly used 1-bit ADRC to generate a class code and performing the class classification adaptive processing, the field D
It is possible to accurately cope with the switching for each macroblock of the CT processing / frame DCT processing. For example, the following is used as the class code class.

【0043】 class=adrc_class+32×blk_class (11) 次に、この発明の一実施形態におけるクラスタップおよ
び予測タップのタップ構造の一例を図6Aおよび図6B
にそれぞれ示す。図6A、図6Bの何れにおいても、丸
は、クラスタップおよび予測タップとして抽出される画
素を示す。また、二重丸が注目画素を示す。なお、この
一例では、注目画素も、クラスタップおよび予測タップ
として抽出される。また、四角形は、クラスタップおよ
び予測タップの近傍の画素を示す。なお、注目画素がマ
クロブロックの中央部分に位置し、クラスタップの全て
がマクロブロック内に収まるような配置が処理精度等の
面から理想的ではあるが、必ずしも、クラスタップの全
てがマクロブロック内に収まらなくても良い。
Class = adrc_class + 32 × blk_class (11) Next, an example of a tap structure of a class tap and a prediction tap according to an embodiment of the present invention will be described with reference to FIGS. 6A and 6B.
Are shown below. 6A and 6B, circles indicate pixels extracted as class taps and prediction taps. Further, a double circle indicates a target pixel. In this example, the pixel of interest is also extracted as a class tap and a prediction tap. The squares indicate pixels near the class tap and the prediction tap. Note that an arrangement in which the pixel of interest is located at the center of the macroblock and all of the class taps fall within the macroblock is ideal from the viewpoint of processing accuracy and the like, but it is not necessarily required that all of the class taps be within the macroblock. It does not have to fit in.

【0044】上述したこの発明の一実施形態では、MP
EG2規格による送受信システムにおいて受信側で復元
される画像信号である入力画像信号に対してライン間相
関を評価し、評価結果に基づいて、フィールドDCT処
理/フレームDCT処理の何れが行われているかを識別
し、識別結果をクラス分類結果に反映させるようにした
ものである。これに対し、入力画像信号を生成するMP
EG2デコーダに入力するMPEG2規格による圧縮符
号化によって生成されたデータストリーム内から、フィ
ールドDCT処理/フレームDCT処理の何れが行われ
たかに係る1ビットの情報(データストリーム内のマク
ロブロック層の情報に含まれる)を参照してクラス分類
を行うようにしても良い。
In one embodiment of the present invention described above, the MP
In the transmission / reception system based on the EG2 standard, an input image signal, which is an image signal restored on the receiving side, is evaluated for inter-line correlation, and based on the evaluation result, which of field DCT processing and frame DCT processing is performed is determined. The identification is performed, and the identification result is reflected in the classification result. On the other hand, the MP that generates the input image signal
1-bit information (field information of a macroblock layer in the data stream) indicating whether field DCT processing or frame DCT processing has been performed from the data stream generated by the compression encoding based on the MPEG2 standard input to the EG2 decoder. (Included) for class classification.

【0045】この場合、より具体的には、受信されるデ
ータストリームから所定の回路によって当該1ビットの
情報を取り出してクラス分類のために用いる構成、ある
いは、受信されるデータストリームに伸長復号化を施す
MPEG2デコーダにおいてデータストリームから取り
出される当該1ビットの情報をクラス分類のために用い
る構成等を使用することができる。
In this case, more specifically, the 1-bit information is extracted from the received data stream by a predetermined circuit and used for class classification, or the received data stream is subjected to decompression decoding. A configuration or the like can be used in which the 1-bit information extracted from the data stream in the MPEG2 decoder is used for class classification.

【0046】この発明は、上述したこの発明の一実施形
態に限定されるものでは無く、この発明の主旨を逸脱し
ない範囲内で様々な変形や応用が可能である。
The present invention is not limited to the above-described embodiment of the present invention, and various modifications and applications can be made without departing from the gist of the present invention.

【0047】[0047]

【発明の効果】上述したように、この発明は、MPEG
2規格による送受信システムにおいて受信側で復元され
る画像信号を入力画像信号として供給され、かかる入力
画像信号にクラス分類適応処理を施す際に、圧縮符号化
時にフィールド内DCT処理/フレーム内DCT処理の
何れがなされたかをマクロブロックを単位として識別
し、識別結果をADRC処理等による波形分類と共にク
ラス分類に反映させるようにしたものである。
As described above, the present invention provides an MPEG
An image signal restored on the receiving side in a transmission / reception system conforming to the two standards is supplied as an input image signal, and when applying the classification adaptive processing to the input image signal, DCT processing in a field / DCT processing in a frame is performed during compression encoding. The identification is performed in units of macroblocks, and the identification result is reflected in the class classification together with the waveform classification by ADRC processing or the like.

【0048】このため、圧縮符号化時になされたDCT
処理の種類(モード)に的確に応じたクラス分類適応処
理を行うことが可能となる。
For this reason, DCT performed at the time of compression encoding is performed.
It is possible to perform the class classification adaptive processing appropriately corresponding to the processing type (mode).

【0049】従って、MPEG2規格による送受信シス
テムにおいて受信側で復元される画像信号に対して、ク
ラス分類適応処理を利用して画質改善を図る際に、フィ
ールド内DCT処理/フレーム内DCT処理の切替えに
起因して改善の程度が不充分となることを回避すること
ができる。
Therefore, when the image signal restored on the receiving side in the transmission / reception system based on the MPEG2 standard is improved in image quality by using the classification adaptive processing, it is necessary to switch between DCT processing in a field and DCT processing in a frame. It is possible to prevent the degree of improvement from becoming insufficient due to this.

【0050】従って、MPEG2規格による送受信シス
テムにおいて受信側で復元される画像信号の画質を向上
させることができる。
Therefore, the image quality of the image signal restored on the receiving side in the transmission / reception system based on the MPEG2 standard can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】一般的なクラス分類適応処理における予測推定
に係る構成の一例を示すブロック図である。
FIG. 1 is a block diagram illustrating an example of a configuration related to prediction estimation in a general classification adaptive process.

【図2】MPEG2規格による符号化方式を用いた送受
信システムに対してクラス分類適応処理を行う場合の学
習に係る構成の一例を示すブロック図である。
FIG. 2 is a block diagram illustrating an example of a configuration related to learning when performing a class classification adaptive process for a transmission / reception system using an encoding scheme based on the MPEG2 standard.

【図3】この発明の一実施形態における予測推定に係る
構成の一例を示すブロック図である。
FIG. 3 is a block diagram illustrating an example of a configuration related to prediction estimation according to an embodiment of the present invention.

【図4】この発明の一実施形態における学習に係る構成
の一例を示すブロック図である。
FIG. 4 is a block diagram illustrating an example of a configuration related to learning according to an embodiment of the present invention.

【図5】MPEG2におけるDCTモードについて説明
するための略線図である。
FIG. 5 is a schematic diagram for explaining a DCT mode in MPEG2.

【図6】この発明の一実施形態におけるクラスタップお
よび予測タップのタップ構造の一例を示す略線図であ
る。
FIG. 6 is a schematic diagram illustrating an example of a tap structure of a class tap and a prediction tap according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11、・・・フィールド/フレーム処理識別回路、24
・・・フィールド/フレーム処理識別回路、130・・
・特徴量抽出回路、230・・・特徴量抽出回路
11,... Field / frame processing identification circuit, 24
... Field / frame processing identification circuit, 130 ...
.Characteristic amount extraction circuit, 230 ... Characteristic amount extraction circuit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 服部 正明 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 野出 泰史 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C059 KK03 MA00 MA23 PP04 TA13 TB07 TC02 TD05 TD06 UA05 UA34 UA38 5C063 AA01 AB03 AB07 AC01 CA01 CA05 CA36 CA38  ────────────────────────────────────────────────── ─── Continued on the front page (72) Inventor Masaaki Hattori 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Yasushi Node 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo No. Sony Corporation F term (reference) 5C059 KK03 MA00 MA23 PP04 TA13 TB07 TC02 TD05 TD06 UA05 UA34 UA38 5C063 AA01 AB03 AB07 AC01 CA01 CA05 CA36 CA38

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 MPEG2規格に従って圧縮符号化され
た画像信号を伸長復号化することによって生成される入
力画像信号に画像情報変換を施す画像情報変換装置にお
いて、 伸長復号化された入力画像信号から所定の画素領域を抽
出する第1の領域切り出し手段と、 上記入力画像信号について、圧縮符号化時にフィールド
内DCT処理/フレーム内DCT処理の何れがなされた
かをマクロブロックを単位として識別し、識別結果を示
すコードを出力するフィールド/フレーム処理識別手段
と、 上記第1の領域切り出し手段から供給される画素データ
と、上記フィールド/フレーム処理識別手段の出力とに
基づいて特徴量を抽出する特徴量抽出手段と、 上記特徴量抽出手段の出力に対応してクラスコードを生
成するクラスコード生成手段と、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラスコード生成手段の出力に対応す
る予測係数を出力する係数記憶手段と、 上記入力画像信号から所定の画素領域を抽出する第2の
領域切り出し手段と、 上記第2の領域切り出し手段の出力と、上記係数記憶手
段の出力とに基づいて、重み付け加算を行って画素値を
生成する演算処理手段とを有することを特徴とする画像
情報変換装置。
An image information conversion apparatus for performing image information conversion on an input image signal generated by expanding and decoding an image signal compressed and encoded in accordance with the MPEG2 standard. A first area cutout unit for extracting a pixel area of the macroblock; and identifying whether the input image signal has been subjected to intra-field DCT processing or intra-frame DCT processing at the time of compression encoding, using a macroblock as a unit. Field / frame processing identifying means for outputting a code shown in the table, a feature quantity extracting means for extracting a feature quantity based on pixel data supplied from the first area cutout means and an output of the field / frame processing identifying means. Class code generating means for generating a class code corresponding to the output of the feature amount extracting means; Coefficient coefficient storing means for storing the determined prediction coefficient and outputting a prediction coefficient corresponding to the output of the class code generating means from the stored prediction coefficients; and extracting a predetermined pixel area from the input image signal. A second area cutout unit that performs weighted addition based on an output of the second area cutout unit and an output of the coefficient storage unit to generate a pixel value. Image information conversion device.
【請求項2】 請求項1において、 上記フィールド/フレーム処理識別手段は、 フィールド内およびフレーム内で、垂直方向のライン間
相関を比較することによって識別結果を得ることを特徴
とする画像情報変換装置。
2. An image information conversion apparatus according to claim 1, wherein said field / frame processing identification means obtains an identification result by comparing vertical line-to-line correlations within a field and within a frame. .
【請求項3】 請求項2において、 上記フィールド/フレーム処理識別手段は、 フィールド内,フレーム内でそれぞれ垂直方向に隣接す
る画素間差分値の2乗和を計算し、計算値をライン間相
関の評価値として使用することを特徴とする画像情報変
換装置。
3. The method according to claim 2, wherein the field / frame processing identification means calculates a sum of squares of a difference value between pixels adjacent in a field and a frame in a vertical direction, and calculates a calculated value of a correlation between lines. An image information conversion device characterized by using as an evaluation value.
【請求項4】 請求項1において、 上記特徴量抽出手段は、 上記第1の領域切り出し手段から供給される画素データ
にADRC処理を施すことによってADRCコードを生
成し、 上記ADRCコードと、上記フィールド/フレーム処理
識別手段の出力とを組み合わせることによって上記特徴
量を生成することを特徴とする画像情報変換装置。
4. The method according to claim 1, wherein the feature amount extracting unit generates an ADRC code by performing an ADRC process on the pixel data supplied from the first region extracting unit. An image information conversion apparatus characterized in that the feature amount is generated by combining an output of a frame processing identification unit.
【請求項5】 請求項1において、 上記予測係数は、 所定の画像信号にMPEG2規格に従う圧縮符号化およ
び伸長復号化を施す画像信号復元手段と、 上記入力画像信号について、圧縮符号化時にフィールド
内DCT処理/フレーム内DCT処理の何れがなされた
かをマクロブロックを単位として識別し、識別結果を示
すコードを出力する学習用フィールド/フレーム処理識
別手段と、 上記画像信号復元手段の出力から所定の画素領域を抽出
し、抽出した画素領域に係る画素データと、上記学習用
フィールド/フレーム処理識別手段の出力とに基づいて
特徴量を抽出する学習用特徴量抽出手段と、 上記特徴量抽出手段の出力に対応してクラスコードを生
成する学習用クラスコード生成手段と、 上記画像信号復元手段の出力から所定の画素領域を抽出
する学習用領域切り出し手段と、 上記所定の画像信号と、上記学習用クラスコード生成手
段の出力と、上記学習用領域切り出し手段の出力とに基
づいて、正規方程式を解くためのデータを生成する正規
方程式加算手段と、 上記正規方程式加算手段の出力に基づいて所定の演算処
理を行うことにより、上記予測係数を算出する予測係数
算出手段とを備える予測係数決定手段によって決定され
ることを特徴とする画像情報変換装置。
5. The image processing apparatus according to claim 1, wherein the prediction coefficient is an image signal restoring unit that performs compression encoding and decompression decoding on a predetermined image signal according to the MPEG2 standard. Learning field / frame processing identifying means for identifying which of the DCT processing / intra-frame DCT processing has been performed on a macroblock basis and outputting a code indicating the identification result; and a predetermined pixel from the output of the image signal restoring means. A feature extracting unit for learning for extracting a feature based on pixel data relating to the extracted pixel region and an output of the learning field / frame processing identifying unit; and an output of the feature extracting unit Learning class code generating means for generating a class code corresponding to the image signal; Learning region extracting means for extracting a region, the predetermined image signal, the output of the learning class code generating device, and the data for solving the normal equation based on the output of the learning region extracting device. The normal coefficient adding means to be generated, and the predetermined arithmetic processing performed based on the output of the normal equation adding means, whereby the prediction coefficient determining means comprising the prediction coefficient calculating means for calculating the prediction coefficient, Characteristic image information conversion device.
【請求項6】 MPEG2規格に従って圧縮符号化され
た画像信号を伸長復号化することによって生成される入
力画像信号に画像情報変換を施す画像情報変換方法にお
いて、 伸長復号化された入力画像信号から所定の画素領域を抽
出する第1の領域切り出しステップと、 上記入力画像信号について、圧縮符号化時にフィールド
内DCT処理/フレーム内DCT処理の何れがなされた
かをマクロブロックを単位として識別し、識別結果を示
すコードを出力するDCT処理識別ステップと、 上記第1の領域切り出しステップから供給される画素デ
ータと、上記処理識別ステップの結果とに基づいて特徴
量を抽出する特徴量抽出ステップと、 上記特徴量抽出ステップの結果に対応してクラスコード
を生成するクラスコード生成ステップと、 予め決定された予測係数を記憶し、記憶した上記予測係
数の内から、上記クラスコード生成ステップの結果に対
応する予測係数を出力する係数記憶ステップと、 上記入力画像信号から所定の画素領域を抽出する第2の
領域切り出しステップと、 上記第2の領域切り出しステップの結果と、上記係数記
憶ステップの結果とに基づいて、重み付け加算を行って
画素値を生成する演算処理ステップとを有することを特
徴とする画像情報変換方法。
6. An image information conversion method for performing image information conversion on an input image signal generated by expanding and decoding an image signal compressed and encoded in accordance with the MPEG2 standard, comprising the steps of: A first area cutout step of extracting a pixel area of the input image signal; identifying whether the input image signal has been subjected to intra-field DCT processing or intra-frame DCT processing at the time of compression encoding, on a macroblock basis; A DCT processing identifying step of outputting a code indicating the above, a feature quantity extracting step of extracting a feature quantity based on the pixel data supplied from the first area cutout step, and a result of the processing identifying step; A class code generating step of generating a class code corresponding to the result of the extracting step; Storing the predicted coefficients, and outputting a predicted coefficient corresponding to the result of the class code generating step from among the stored predicted coefficients; and extracting a predetermined pixel area from the input image signal. 2 and a calculation processing step of performing a weighted addition to generate a pixel value based on the result of the second area cutting step and the result of the coefficient storing step. Image information conversion method.
JP32357698A 1998-11-13 1998-11-13 Image information conversion apparatus and conversion method Expired - Fee Related JP4154772B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32357698A JP4154772B2 (en) 1998-11-13 1998-11-13 Image information conversion apparatus and conversion method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32357698A JP4154772B2 (en) 1998-11-13 1998-11-13 Image information conversion apparatus and conversion method

Publications (2)

Publication Number Publication Date
JP2000152233A true JP2000152233A (en) 2000-05-30
JP4154772B2 JP4154772B2 (en) 2008-09-24

Family

ID=18156258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32357698A Expired - Fee Related JP4154772B2 (en) 1998-11-13 1998-11-13 Image information conversion apparatus and conversion method

Country Status (1)

Country Link
JP (1) JP4154772B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335405A (en) * 2001-05-10 2002-11-22 Sony Corp Image data processing unit and method, recording medium, and program
JP2007295599A (en) * 2007-06-04 2007-11-08 Sony Corp Learning apparatus and learning method, program, and recording medium
CN109766089A (en) * 2018-12-15 2019-05-17 平安科技(深圳)有限公司 Code generating method, device, electronic equipment and storage medium based on cardon

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335405A (en) * 2001-05-10 2002-11-22 Sony Corp Image data processing unit and method, recording medium, and program
JP2007295599A (en) * 2007-06-04 2007-11-08 Sony Corp Learning apparatus and learning method, program, and recording medium
CN109766089A (en) * 2018-12-15 2019-05-17 平安科技(深圳)有限公司 Code generating method, device, electronic equipment and storage medium based on cardon
CN109766089B (en) * 2018-12-15 2023-05-30 平安科技(深圳)有限公司 Code generation method and device based on dynamic diagram, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP4154772B2 (en) 2008-09-24

Similar Documents

Publication Publication Date Title
EP0585051B1 (en) Image processing method and apparatus
EP1379000B1 (en) Signal encoding method and apparatus and decoding method and apparatus
US7298303B2 (en) Signal encoding method, signal decoding method, signal encoding apparatus, signal decoding apparatus, signal encoding program, and signal decoding program
US6359929B1 (en) Image predictive decoding method, image predictive decoding apparatus, image predictive coding apparatus, and data storage medium
US6078694A (en) Image signal padding method, image signal coding apparatus, image signal decoding apparatus
US8285064B2 (en) Method for processing images and the corresponding electronic device
US20020090030A1 (en) Digital image encoding and decoding method and digital image encoding and decoding device using the same
US6360014B1 (en) Image decoding method, image decoding apparatus, and data recording medium
CN101416521A (en) Image encoding/decoding method and apparatus
JP2001028756A (en) Method and device for executing selection between intra- frame coding mode and inter-frame coding mode in context base
JPH09154137A (en) Method and apparatus for compressing video information usingmovement-dependent estimation
JP3031152B2 (en) Motion prediction processor and motion prediction device
US5991445A (en) Image processing apparatus
US20080273597A1 (en) Method for searching for motion vector
JPH0775111A (en) Digital signal encoder
JPH09121359A (en) Image encoding method and image decoding method
JP2723867B2 (en) Image signal decoding device
JP2000152233A (en) Image information converter and conversion method
US20040013200A1 (en) Advanced method of coding and decoding motion vector and apparatus therefor
JP3188081B2 (en) Image encoding method and image encoding device
JP2000513914A (en) Method and apparatus for encoding and decoding digital images
KR100657714B1 (en) Image Data Encoding Method Using 3D Scanning
JPH08289289A (en) Moving image compressor
JP2001285864A (en) Device and method for correcting error
JP2000350214A (en) Method and device for movement compensating predictive encoding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080630

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130718

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees