JP3480015B2 - Apparatus and method for generating image data - Google Patents
Apparatus and method for generating image dataInfo
- Publication number
- JP3480015B2 JP3480015B2 JP31734993A JP31734993A JP3480015B2 JP 3480015 B2 JP3480015 B2 JP 3480015B2 JP 31734993 A JP31734993 A JP 31734993A JP 31734993 A JP31734993 A JP 31734993A JP 3480015 B2 JP3480015 B2 JP 3480015B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- class
- generating
- temporally
- motion amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 17
- 230000033001 locomotion Effects 0.000 claims description 46
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 230000015654 memory Effects 0.000 description 17
- 238000001514 detection method Methods 0.000 description 12
- 101710163391 ADP-ribosyl cyclase/cyclic ADP-ribose hydrolase Proteins 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Landscapes
- Television Systems (AREA)
Description
【0001】[0001]
【発明の属する技術分野】この発明は、例えば飛び越し
走査において抜けている水平走査線を補間する走査線補
間装置に適用することができる画像データの生成装置お
よび生成方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image data generating apparatus and an image data generating apparatus which can be applied to a scanning line interpolating device for interpolating a horizontal scanning line missing in an interlaced scan .
And the generation method .
【0002】[0002]
【従来の技術】現行の標準的テレビジョン信号(例えば
NTSC方式)は、飛び越し走査のために、ラインフリ
ッカ等の問題があった。この問題を解決するために、受
像機側で抜けた走査線を補間し、順次走査のテレビジョ
ン信号へ変換する走査線補間装置が既に提案されてい
る。図5は、従来の動き適応形走査線補間装置の一例で
ある。2. Description of the Related Art Current standard television signals (for example, NTSC system) have problems such as line flicker due to interlaced scanning. In order to solve this problem, there has already been proposed a scanning line interpolating device which interpolates a missing scanning line on the receiver side and converts it into a progressive scanning television signal. FIG. 5 is an example of a conventional motion adaptive scanning line interpolation device.
【0003】21で示す入力端子には、例えば13.5
MHzの周波数でサンプリングされ、1サンプル(1画
素)が8ビットに量子化された、飛び越し走査のディジ
タルビデオ信号が供給される。この入力信号がフィール
ド内補間回路22、フィールド間補間回路23および動
き検出回路24にそれぞれ供給される。フィールド内補
間回路22は、同じフィールドの信号により補間を行
う。例えば上下の走査線にそれぞれ位置する2サンプル
の平均値が補間値とされる。フィールド間補間回路23
は、時間的に前フィールドの補間走査線と同一位置の走
査線上で、補間画素と同一位置の画素で補間する回路で
ある。The input terminal indicated by 21 has, for example, 13.5.
An interlaced-scan digital video signal is supplied, which is sampled at a frequency of MHz and 1 sample (1 pixel) is quantized to 8 bits. This input signal is supplied to the intra-field interpolation circuit 22, the inter-field interpolation circuit 23, and the motion detection circuit 24, respectively. The intra-field interpolation circuit 22 performs interpolation with signals in the same field. For example, the average value of two samples located on the upper and lower scanning lines is used as the interpolation value. Inter-field interpolation circuit 23
Is a circuit that interpolates at the pixel at the same position as the interpolation pixel on the scanning line at the same position as the interpolation scanning line of the previous field in terms of time.
【0004】動き検出回路24は、画素毎の動き量を検
出する。動き検出回路24は、動き係数kおよび1−k
を発生する。動き係数kは、静止画素の場合に(k=
1)となり、動き量が大きいほど、小となる係数であ
る。The motion detection circuit 24 detects the amount of motion for each pixel. The motion detection circuit 24 uses the motion coefficients k and 1-k.
To occur. The motion coefficient k is (k =
1), and the coefficient becomes smaller as the amount of movement increases.
【0005】フィールド内補間回路22の出力信号が乗
算回路25に供給され、フィールド間補間回路23の出
力信号が乗算回路26に供給される。乗算回路25によ
って1−kの係数が乗じられ、乗算回路26によってk
の係数が乗じられる。これらの乗算回路25および26
のそれぞれの出力信号が加算回路27に供給され、加算
回路27から補間回路22および23の出力信号が混合
された補間出力信号が発生する。The output signal of the intra-field interpolation circuit 22 is supplied to the multiplication circuit 25, and the output signal of the inter-field interpolation circuit 23 is supplied to the multiplication circuit 26. The multiplication circuit 25 multiplies the coefficient by 1-k, and the multiplication circuit 26 multiplies k.
Is multiplied by the coefficient of. These multiplication circuits 25 and 26
Are supplied to the adder circuit 27, and the adder circuit 27 generates an interpolated output signal in which the output signals of the interpolators 22 and 23 are mixed.
【0006】[0006]
【発明が解決しようとする課題】従来の補間回路は、動
き量から想定される画像信号の特性に応じて経験的に定
められた動き量に応じた重み付けによって、フィールド
内補間信号とフィールド間補間信号とを混合するもので
ある。しかしながら、想定された画像信号特性と、実際
の画像信号の特性とが異なっている場合には、良好な補
間ができないのみならず、出力信号に残像などの劣化が
生じたりする問題があった。さらに、フィールド内補間
およびフィールド間補間を用いているときには、補間装
置の能力が充分でなく、飛び越し走査から順次走査への
変換による画質の改善度が不十分であった。The conventional interpolating circuit uses an intra-field interpolated signal and an inter-field interpolated signal by weighting according to the motion amount which is empirically determined according to the characteristics of the image signal assumed from the motion amount. It mixes with the signal. However, when the assumed image signal characteristic and the actual image signal characteristic are different, there is a problem that not only good interpolation cannot be performed but also an output signal is deteriorated such as an afterimage. Furthermore, when the intra-field interpolation and the inter-field interpolation are used, the ability of the interpolator is not sufficient, and the degree of improvement in image quality due to the conversion from interlaced scanning to progressive scanning is insufficient.
【0007】従って、この発明の目的は、出力信号に劣
化を生じることなく、良好な補間画質を得ることができ
る画像データの生成装置および生成方法を提供すること
にある。Therefore, an object of the present invention is to provide an image data generating apparatus and method capable of obtaining a good interpolated image quality without causing deterioration of an output signal.
【0008】[0008]
【課題を解決するための手段】請求項1の発明は、入力
画像信号中に存在しない画素データを生成する画像デー
タの生成装置において、入力画像信号に基づいて、生成
対象である注目画素位置での動き量を検出するための動
き量検出手段と、検出された動き量および、注目画素位
置と空間的および/または時間的に近傍の複数の参照画
素のレベル分布のパターンに応じたクラスコードを発生
するクラスコード発生手段と、 学習時に対象画素位置で
の動き量を求め、対象画素位置での動き量および、対象
画素の空間的および/または時間的に近傍の複数の参照
画素のレベル分布のパターンに応じたクラスを作成し、
クラス毎に学習することで予め求められた予測係数を、
クラス毎に記憶し、クラスコードに対応するクラスに格
納された予測係数を出力する係数記憶手段と、係数記憶
手段からの予測係数と注目画素位置と空間的および/ま
たは時間的に近傍の複数の周辺画素データとの演算によ
って、注目画素位置の画素データを生成するための画素
データ生成手段とを有することを特徴とする画像データ
の生成装置である。Means for Solving the Problems of claims 1 invention, the apparatus for generating image data to generate pixel data that does not exist in the input image signal, based on an input image signal, generating
Motion amount detecting means for detecting a motion amount at a target pixel position of interest , detected motion amount, and pixel position of interest
Multiple reference images spatially and / or spatially nearby
Generate class code according to the pattern of elementary level distribution
A class code generating means for, in a target pixel position during training
Of the target pixel position and the target
Multiple references spatially and / or temporally close to a pixel
Create a class according to the pattern of pixel level distribution,
The prediction coefficient obtained in advance by learning for each class ,
Memorize each class and classify to the class corresponding to the class code.
And engaging count storage means you outputs paid prediction coefficients, the target pixel position and the spatial and prediction coefficients from the coefficient storage unit and / or
Alternatively, the image data generating device is characterized by having a pixel data generating unit for generating pixel data at a pixel position of interest by calculation with a plurality of peripheral pixel data that are temporally close to each other.
【0009】[0009]
【作用】予め学習によって、動き量毎に最適な補間値を
生成するための予測係数が決定され、これがメモリに格
納されている。実際の入力画像データの動き量が検出さ
れ、この動き量と対応する動き量がメモリから読出さ
れ、読出し係数と補間対象画素の空間的および時間的に
近傍の画素データとの線形1次結合によって、補間値が
生成される。The prediction coefficient for generating the optimum interpolated value is determined for each motion amount in advance by learning, and this is stored in the memory. The motion amount of the actual input image data is detected, the motion amount corresponding to this motion amount is read from the memory, and the linear linear combination of the read coefficient and the spatially and temporally neighboring pixel data of the interpolation target pixel is performed. , Interpolation values are generated.
【0010】[0010]
【実施例】以下、この発明を走査線補間装置に対して適
用した一実施例について説明する。図1において、1
は、飛び越し走査のディジタルビデオ信号の入力端子で
ある。具体的には、放送などによる伝送、VTR等から
の再生信号が入力端子1に供給される。2は、入力信号
をブロック構造の信号に変換するための時系列変換回路
である。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the present invention is applied to a scanning line interpolation device will be described below. In FIG. 1, 1
Is an input terminal for interlaced scanning digital video signals. Specifically, a transmission signal by broadcasting or the like, a reproduction signal from a VTR or the like is supplied to the input terminal 1. Reference numeral 2 is a time series conversion circuit for converting an input signal into a block structure signal.
【0011】時系列変換回路2の出力信号が補間演算回
路3および動き検出回路5に供給される。補間演算回路
3には、後述のように予め学習により獲得された予測係
数が格納されているメモリ4a、4bが接続されてい
る。この予測係数は、飛び越された水平走査線上の補間
値を正確に推定するための係数である。The output signal of the time series conversion circuit 2 is supplied to the interpolation calculation circuit 3 and the motion detection circuit 5. The interpolation calculation circuit 3 is connected to memories 4a and 4b in which prediction coefficients acquired by learning in advance are stored as described later. The prediction coefficient is a coefficient for accurately estimating the interpolated value on the skipped horizontal scanning line.
【0012】動き検出回路5は、後述のように、例えば
ブロック毎のフレーム間差分の絶対値和から動き量を検
出する。フレーム間差分は、現フレームと時間的に前フ
レームの間で、同一位置の画素データを減算することに
よって求められる。このフレーム間差分を絶対値へ変換
し、1ブロックについて集計した和を所定のしきい値と
比較することによって、現フレームの注目画素が動き画
素か、あるいは静止画素かの判定を行う。As will be described later, the motion detection circuit 5 detects a motion amount from the sum of absolute values of inter-frame differences for each block, for example. The inter-frame difference is obtained by subtracting pixel data at the same position between the current frame and the temporally previous frame. This interframe difference is converted into an absolute value, and the sum totaled for one block is compared with a predetermined threshold value to determine whether the pixel of interest in the current frame is a moving pixel or a still pixel.
【0013】動き検出回路5の出力信号がクラスコード
発生回路6a、6bに供給される。補間の対象である、
注目画素の近傍の複数画素のレベル分布のパターン、す
なわち、クラスがクラスコード発生回路6a、6bによ
って決定される。このクラスを指示するクラスコードが
形成される。The output signal of the motion detection circuit 5 is supplied to the class code generation circuits 6a and 6b. Is the target of interpolation,
The pattern of the level distribution of a plurality of pixels near the target pixel, that is, the class is determined by the class code generation circuits 6a and 6b. A class code is created that points to this class.
【0014】クラスコードがメモリ4a、4bにそれぞ
れアドレスとして供給され、そのクラスと対応する予測
係数がメモリ4a、4bからそれぞれ読出される。メモ
リ4a、4bは、別個のメモリに限らず、一つのメモリ
のメモリ領域を分割し、動き/静止の判定結果によっ
て、メモリ領域を選択する構成としても良い。予測係数
が補間演算回路3に供給され、注目画素の補間値が形成
される。補間演算回路3から出力端子7に飛び越された
走査線上の画素の補間値が出力される。存在している走
査線のデータ(入力データ)と補間走査線のデータと
は、図示しないがフレームメモリによって合成すること
ができる。The class code is supplied to the memories 4a and 4b as addresses, and the prediction coefficient corresponding to the class is read from the memories 4a and 4b, respectively. The memories 4a and 4b are not limited to separate memories, but a memory area of one memory may be divided and a memory area may be selected according to the result of motion / still determination. The prediction coefficient is supplied to the interpolation calculation circuit 3, and the interpolation value of the pixel of interest is formed. The interpolation calculation circuit 3 outputs the interpolated value of the pixel on the scanning line skipped to the output terminal 7. The existing scanning line data (input data) and interpolation scanning line data can be combined by a frame memory (not shown).
【0015】図2は、クラス分類と補間演算を説明する
ためのもので、現フィールド(n番目フィールド)と前
フィールド((n−1)フィールド)のそれぞれの一部
を示している。現フィールドの走査線LnとLn+2 の間
の存在しない走査線Ln+1 上の画素の値yをを生成する
場合、図示されている複数の画素の値を使用してレベル
分布と対応するクラス分類および補間演算がなされる。FIG. 2 is for explaining the class classification and the interpolation calculation, and shows a part of each of the current field (nth field) and the previous field ((n-1) field). When generating the pixel value y on the non-existing scan line Ln + 1 between the scan lines Ln and Ln + 2 of the current field, the pixel values shown are used to correspond to the level distribution. Class classification and interpolation operations are performed.
【0016】一例として、現フィールド内の補間走査線
上に位置し、補間画素の上下にそれぞれ位置する二つの
画素の値x2 、x5 と、画素x2 の両側の画素の値
x1 、x3 と、画素x5 の両側の画素の値x4 、x
6 と、前フィールド内の走査線Ln+1上に位置し、注目
画素と同一位置の画素の値x8 と、その両側の画素の値
x7 、x9 とが使用される。注目画素の補間値yは、予
測係数をw1 〜w9 で表すと、補間演算回路3によっ
て、下記の線形1次結合によって生成される。As an example, the values x 2 and x 5 of two pixels located on the interpolation scanning line in the current field and located above and below the interpolation pixel, and the values x 1 and x of pixels on both sides of the pixel x 2. 3 and the pixel values x 4 and x on both sides of the pixel x 5.
6 , the pixel value x 8 located on the scanning line Ln + 1 in the previous field and located at the same position as the pixel of interest, and the pixel values x 7 and x 9 on both sides thereof are used. The interpolation value y of the pixel of interest is generated by the interpolation calculation circuit 3 by the following linear linear combination when the prediction coefficients are represented by w 1 to w 9 .
【0017】y=w1 x1 +w2 x2 +w3 x3 +w4
x4 +w5 x5 +w6 x6 +w7 x7 +w8 x8 +w9
x9 (1)Y = w 1 x 1 + w 2 x 2 + w 3 x 3 + w 4
x 4 + w 5 x 5 + w 6 x 6 + w 7 x 7 + w 8 x 8 + w 9
x 9 (1)
【0018】このような補間処理は、動き検出回路5に
よって判定された結果に応答して、動き画素および静止
画素のそれぞれについてなされる。また、クラスコード
発生回路6a、6bにおいて、レベル分布のパターン
は、例えば補間演算に使用されるものと同一の9画素を
参照して検出される。ここでは、クラス分類のために参
照される画素と補間演算に使用する画素とが同一とされ
ているが、必ずしもその必要はない。各画素の値が8ビ
ットの場合には、クラス数が非常に多くなり、メモリの
容量の増大等、ハードウエアの規模が大きくなるので、
これらの画素のビット数が圧縮される。Such interpolation processing is performed for each of the moving pixel and the still pixel in response to the result determined by the motion detecting circuit 5. In the class code generation circuits 6a and 6b, the level distribution pattern is detected by referring to, for example, the same nine pixels used in the interpolation calculation. Here, the pixel referred to for class classification and the pixel used for the interpolation calculation are the same, but they are not necessarily required. If the value of each pixel is 8 bits, the number of classes will be very large, and the hardware scale will increase due to an increase in memory capacity.
The number of bits in these pixels is compressed.
【0019】一例として、ADRC(Adaptive Dynamic
Range Coding)によって参照される画素の値が圧縮され
る。ADRCは、画像の局所的な相関を利用してレベル
方向の冗長度を適応的に除去するものである。すなわ
ち、8ビットの原データの持つ0〜255のダイナミッ
クレンジの中で、空間的および時間的に近傍の複数画素
からなるブロック毎に再量子化するのに必要なブロック
内ダイナミックレンジが大幅に小さくなることに注目し
て、各画素の量子化ビット数を元の8ビットより大幅に
低減する。As an example, ADRC (Adaptive Dynamic
The value of the pixel referred to by the range coding is compressed. ADRC is a technique for adaptively removing redundancy in the level direction by utilizing local correlation of images. That is, within the dynamic range of 0 to 255 possessed by the 8-bit original data, the intra-block dynamic range required for requantization for each block composed of a plurality of spatially and temporally neighboring pixels is significantly small. It is noted that the number of quantization bits of each pixel is significantly reduced from the original 8 bits.
【0020】より具体的には、1ビットADRCを使用
できる。すなわち、上述の参照画素x1 〜x9 からなる
ブロックの最大値および最小値が検出され、最大値およ
び最小値の差であるダイナミックレンジが検出され、参
照画素の値がダイナミックレンジで割算され、その商が
0.5と比較され、0.5以上のものが`1' 、それより
小さいものが`0' に符号化される。従って、9ビットの
クラスコードが発生する。1ビット以外のビット数の出
力を発生するADRCを採用しても良い。More specifically, 1-bit ADRC can be used. That is, the maximum value and the minimum value of the block including the reference pixels x 1 to x 9 described above are detected, the dynamic range that is the difference between the maximum value and the minimum value is detected, and the value of the reference pixel is divided by the dynamic range. , Its quotient is compared with 0.5, and those with 0.5 or more are coded as `1 ', and those with less than 0.5 are coded as` 0'. Therefore, a 9-bit class code is generated. ADRC that generates an output of a bit number other than 1 bit may be adopted.
【0021】ADRCに限らず、DPCM(Differentia
l pulse code modulation)、BTC(Block Trancation
Coding) 、VQ(ベクトル量子化)等の圧縮符号化のエ
ンコーダをクラスコード発生回路6a、6bとして使用
することができる。また、参照画素を同一のビット数の
データに変換しているが、注目画素と参照画素との間の
距離を考慮して、割り当てビット数を異ならせても良
い。すなわち、注目画素により近い参照画素の割り当て
ビット数がそれが遠いもののビット数より多くされる。Not only ADRC but also DPCM (Differentia
l pulse code modulation), BTC (Block Trancation
Coding), VQ (vector quantization) and other compression encoding encoders can be used as the class code generating circuits 6a and 6b. Further, although the reference pixels are converted into data having the same number of bits, the number of allocated bits may be changed in consideration of the distance between the pixel of interest and the reference pixel. That is, the number of allocated bits of the reference pixel closer to the pixel of interest is made larger than the number of bits of the farther pixel.
【0022】図3を参照して、動き検出の一例について
述べる。n番目のフレームは、図2のn番目のフィール
ドおよび(n−1)番目のフィールドからなる。動き検
出回路5では、現フレーム(n番目のフレーム)内の上
述の9画素(x1 〜x9 )からなる1ブロックと、前フ
レーム((n−1)フレーム)内の同一位置の9画素
(x1 ´〜x9 ´)からなる1ブロックとの間でフレー
ム差分の絶対値和ΣΔFが求められる。すなわち、
ΣΔF=|x1 −x1 ´|+|x2 −x2 ´|+・・・
・・・+|x9 −x9´| (2)An example of motion detection will be described with reference to FIG. The nth frame is composed of the nth field and the (n-1) th field of FIG. The motion detection circuit 5, 9 pixels at the same position in the one block formed from the above nine pixels in the current frame (n th frame) (x 1 ~x 9), the previous frame ((n-1) frame) The absolute value sum ΣΔF of the frame differences between one block consisting of (x 1 ′ to x 9 ′) is obtained. That is, ΣΔF = | x 1 −x 1 ′ | + | x 2 −x 2 ′ | + ...
··· + | x 9 -x 9 ' | (2)
【0023】この絶対値和ΣΔFが所定のしきい値と比
較され、しきい値より大きい時には、ブロック内の中心
の画素(x8 )が動き画素と判断され、しきい値より小
さい時には、これが静止画素と判断される。そして、上
述のように、動き画素に関して、クラスコード発生回路
6aがレベル分布のパターンと対応するクラスコードを
形成し、静止画素に関して同様にクラスコード発生回路
6bがレベル分布のパターンと対応するクラスコードを
形成する。This sum of absolute values ΣΔF is compared with a predetermined threshold value. When it is larger than the threshold value, the central pixel (x 8 ) in the block is judged to be a moving pixel. It is determined as a still pixel. Then, as described above, the class code generation circuit 6a forms a class code corresponding to the level distribution pattern for the moving pixel, and the class code generation circuit 6b similarly corresponds to the level distribution pattern for the still pixel. To form.
【0024】なお、フレーム差分の絶対値和としては、
前フレームのみならず、後フレームのフレーム差分の絶
対値和を併用しても良い。また、フレーム差分の絶対値
から動き量を検出する方法に限らず、ブロックマッチン
グ法等の既に知られている種々の既知の動き量検出の方
法を使用することができる。[0024] It should be noted that, as the sum of the absolute values of frame difference,
Not only the previous frame but also the sum of absolute values of the frame differences of the subsequent frame may be used together. Further, not limited to the method of detecting the motion amount from the absolute value of the frame difference, various known motion amount detection methods such as the block matching method can be used.
【0025】上述のメモリ4a、4bには、予め学習に
より獲得された予測係数が格納されている。図4は、学
習をソフトウェア処理で行う時のその動作を示すフロー
チャートである。ステップ11から学習処理の制御が開
始され、ステップ12の学習データ形成では、既知の画
像に対応した学習データが形成される。具体的には、上
述したように、図2および図3の配列の複数の画素を使
用できる。ステップ13のデータ終了では、入力された
全データ例えば1フレームのデータの処理が終了してい
れば、ステップ16の予測係数決定へ、終了していなけ
れば、ステップ14の動き検出、クラス決定へ制御が移
る。Prediction coefficients acquired by learning in advance are stored in the memories 4a and 4b. FIG. 4 is a flowchart showing the operation when learning is performed by software processing. The control of the learning process is started from step 11, and in the learning data formation of step 12, learning data corresponding to a known image is formed. Specifically, as described above, a plurality of pixels in the arrangements of FIGS. 2 and 3 can be used. At the end of the data in step 13, if the processing of all the input data, for example, one frame of data has been completed, the process proceeds to step 16 to determine the prediction coefficient, and if not, the process proceeds to step 14 for motion detection and class determination. Shifts.
【0026】ステップ14の動き検出、クラス決定は、
上述のように、注目画素の動き/静止を判定し、また、
注目画素を中心とするレベル分布のパターンを検出する
ステップである。次のステップ15の正規方程式加算で
は、後述する正規方程式が作成される。The motion detection and class determination in step 14 are
As described above, the motion / stillness of the pixel of interest is determined, and
This is a step of detecting a pattern of level distribution centered on the pixel of interest. In the normal equation addition of the next step 15, a normal equation described later is created.
【0027】ステップ13のデータ終了から全データの
処理が終了後、制御がステップ16に移り、ステップ1
6の予測係数決定では、後述する式(10)を行列解法
を用いて解いて、係数を決める。ステップ17の予測係
数ストアで、予測係数をメモリにストアし、ステップ1
8で学習処理の制御が終了する。After the processing of all the data is completed from the end of the data in step 13, the control is transferred to step 16,
In the determination of the prediction coefficient of No. 6, the coefficient is determined by solving the equation (10) described later using the matrix solution method. The predictive coefficient store in step 17 stores the predictive coefficient in the memory, and step 1
At 8, the control of the learning process ends.
【0028】図4中のステップ15(正規方程式生成)
およびステップ16(予測係数決定)の処理をより詳細
に説明する。注目画素の真値をyとし、その予測値をy
´とし、その周囲の画素の値をx1 〜xn としたとき、
クラス毎に係数w1 〜wn によるnタップの線形1次結
合
y´=w1 x1 +w2 x2 +‥‥+wn xn (3)
を設定する。学習前はwi が未定係数である。Step 15 in FIG. 4 (normal equation generation)
The process of step 16 (determination of prediction coefficient) will be described in more detail. Let the true value of the pixel of interest be y and its predicted value be y
′ And the values of the surrounding pixels are x 1 to x n ,
Setting the coefficient for each class w 1 linear combination of n taps by ~w n y'= w 1 x 1 + w 2 x 2 + ‥‥ + w n x n (3). Before learning, w i is an undetermined coefficient.
【0029】上述のように、学習はクラス毎になされ、
データ数がmの場合、式(3)に従って、
yj ´=w1 xj1+w2 xj2+‥‥+wn xjn (4)
(但し、j=1,2,‥‥m)As mentioned above, learning is done for each class,
When the number of data is m, according to the equation (3), y j ′ = w 1 x j1 + w 2 x j2 + ... + w n x jn (4) (where j = 1, 2, ...
【0030】m>nの場合、w1 〜wn は一意には決ま
らないので、誤差ベクトルEの要素を
ej =yj −(w1 xj1+w2 xj2+‥‥+wn xjn) (5)
(但し、j=1,2,‥‥m)
と定義して、次の式(6)を最小にする係数を求める。When m> n, w 1 to w n are not uniquely determined, so the elements of the error vector E are e j = y j − (w 1 x j1 + w 2 x j2 + ... + w n x jn (5) (where j = 1, 2, ..., M), and the coefficient that minimizes the following equation (6) is obtained.
【0031】[0031]
【数1】 [Equation 1]
【0032】いわゆる最小自乗法による解法である。こ
こで式(6)のwi による偏微分係数を求める。This is a so-called least squares method. Here, the partial differential coefficient by w i of the equation (6) is obtained.
【0033】[0033]
【数2】 [Equation 2]
【0034】式(7)を0にするように各wi を決めれ
ばよいから、Since each w i may be determined so that the equation (7) is set to 0,
【0035】[0035]
【数3】 [Equation 3]
【0036】として、行列を用いるとUsing a matrix as
【0037】[0037]
【数4】 [Equation 4]
【0038】となる。この方程式は一般に正規方程式と
呼ばれている。この方程式を掃き出し法等の一般的な行
列解法を用いて、wi について解けば、予測係数wi が
求まり、動き/静止の判定結果とクラスコードをアドレ
スとして、この予測係数wiをメモリに格納しておく。[0038] This equation is generally called a normal equation. If this equation is solved for w i using a general matrix solution method such as a sweeping method, the prediction coefficient w i is obtained, and the prediction result w i is stored in memory using the motion / still determination result and class code as an address. Store it.
【0039】図4は、学習のためのソフトウェア構成を
示しているが、ハードウエアの構成によって、学習を行
うこともできる。また、補間値を形成するのに、予測係
数による線形1次結合に限らず、データの値そのものを
学習によって予め作成し、この値を補間値としても良
い。さらに、この発明は、走査線補間に限らず、サブサ
ンプリングにより間引かれた画素の値を補間する等、存
在しない画素の値を補間する場合に対して適用すること
ができる。Although FIG. 4 shows a software configuration for learning, learning can also be performed by a hardware configuration. Further, the interpolation value is not limited to the linear linear combination using the prediction coefficient, but the data value itself may be created in advance by learning, and this value may be used as the interpolation value. Further, the present invention can be applied not only to the scanning line interpolation but also to the case of interpolating the values of non-existing pixels such as interpolating the values of pixels thinned out by subsampling.
【0040】[0040]
【発明の効果】この発明は、動き量毎に最適な予測係数
を予め学習により求めて、この予測係数をメモリに格納
しておき、補間時にこの係数を利用しているので、出力
信号に劣化を生じることなく、良好な補間画質を得るこ
とができる。According to the present invention, the optimum prediction coefficient for each motion amount is previously obtained by learning, the prediction coefficient is stored in the memory, and this coefficient is used during interpolation, so that the output signal is deteriorated. It is possible to obtain a good interpolation image quality without causing
【図1】この発明を走査線補間装置に対して適用した一
実施例のブロック図である。FIG. 1 is a block diagram of an embodiment in which the present invention is applied to a scanning line interpolation device.
【図2】この発明におけるクラス分類および補間のため
に使用する画素の配列を示す略線図である。FIG. 2 is a schematic diagram showing an array of pixels used for class classification and interpolation in the present invention.
【図3】この発明において、動き量を検出する動作の説
明のための略線図である。FIG. 3 is a schematic diagram for explaining an operation of detecting a motion amount in the present invention.
【図4】予測係数を求めるための学習をソフトウェア処
理で行う時のフローチャートである。FIG. 4 is a flowchart when learning for obtaining a prediction coefficient is performed by software processing.
【図5】従来の走査線補間装置のブロック図である。FIG. 5 is a block diagram of a conventional scanning line interpolation device.
3 補間演算回路 4a、4b 予測係数が格納されたメモリ 5 動き検出回路 3 Interpolation calculation circuit 4a, 4b Memory storing prediction coefficients 5 Motion detection circuit
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平5−167992(JP,A) 特開 平1−108886(JP,A) 特開 昭63−48088(JP,A) 特開 平1−236881(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 7/00 - 7/088 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) Reference JP-A-5-167992 (JP, A) JP-A-1-108886 (JP, A) JP-A-63-48088 (JP, A) JP-A-1- 236881 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) H04N 7/ 00-7/088
Claims (4)
を生成する画像データの生成装置において、 上記入力画像信号に基づいて、生成対象である注目画素
位置での動き量を検出するための動き量検出手段と、上記検出された動き量および、上記注目画素位置と空間
的および/または時間的に近傍の複数の参照画素のレベ
ル分布のパターンに応じたクラスコードを発生するクラ
スコード発生手段と、 学習時に対象画素位置での動き量を求め、 上記対象画素位置での動き量および、上記対象画素の空
間的および/または時間的に近傍の複数の参照画素のレ
ベル分布のパターンに応じたクラスを作成し、 上記クラス毎に学習することで予め 求められた予測係数
を、上記クラス毎に記憶し、 上記クラスコードに対応する上記クラスに格納された 予
測係数を出力する係数記憶手段と、 上記係数記憶手段からの予測係数と上記注目画素位置と
空間的および/または時間的に近傍の複数の周辺画素デ
ータとの演算によって、上記注目画素位置の画素データ
を生成するための画素データ生成手段とを有することを
特徴とする画像データの生成装置。1. An image data generation device for generating pixel data that does not exist in an input image signal, wherein a motion amount for detecting a motion amount at a target pixel position to be generated based on the input image signal. Detecting means, the detected motion amount, and the pixel position and space of interest
Of multiple reference pixels that are temporally and / or temporally adjacent
Class that generates a class code according to the distribution pattern
The code amount generating means calculates the motion amount at the target pixel position at the time of learning, and calculates the motion amount at the target pixel position and the sky of the target pixel.
A plurality of reference pixels that are adjacent to each other temporally and / or temporally
Prediction coefficient obtained in advance by creating a class according to the Bell distribution pattern and learning for each class
The stores for each of the classes, and engaging number storing means you output pre <br/> measuring coefficients stored in the class corresponding to the class code, the prediction coefficient and the target pixel from the coefficient storage means location and
A device for generating image data, comprising: a pixel data generation means for generating pixel data at the pixel position of interest by calculation with a plurality of neighboring pixel data spatially and / or temporally nearby.
において、 上記動き検出手段は、フレーム間差分に基づいて上記動
き量を検出するようにした画像データの生成装置。2. The image data generating device according to claim 1, wherein the motion detecting means detects the amount of motion based on a difference between frames.
において、 入力画像信号が飛び越し走査信号であって、フィールド
内の飛び越された水平走査線位置の画素データが上記画
素データ生成手段で生成されることを特徴とする画像デ
ータの生成装置。3. The image data generating device according to claim 1, wherein the input image signal is an interlaced scanning signal, and pixel data at an interlaced horizontal scanning line position in the field is generated by the pixel data generating means. An image data generation device characterized by being generated.
を生成する画像データの生成方法において、 上記入力画像信号に基づいて、生成対象である注目画素
位置での動き量を検出 するための動き量検出 ステップ
と、上記検出された動き量および、上記注目画素位置と空間
的および/または時間的に近傍の複数の参照画素のレベ
ル分布のパターンに応じたクラスコードを発生するクラ
スコード発生ステップと、 学習時に対象画素位置での動き量を求め、 上記対象画素位置での動き量および、上記対象画素の空
間的および/または時間的に近傍の複数の参照画素のレ
ベル分布のパターンに応じたクラスを作成し、 上記クラス毎に学習することで予め求められた予測係数
を、上記クラス毎に記憶し、 上記クラスコードに対応する上記クラスに格納された予
測係数を出力する係数記憶ステップと、 上記係数記憶ステップからの予測係数と上記注目画素位
置と空間的および/または時間的に近傍の複数の周辺画
素データとの演算によって、上記注目画素位置の画素デ
ータを生成するための画素データ生成ステップとを有す
る ことを特徴とする画像データの生成方法。4. Pixel data not present in an input image signal
In the method of generating image data for generating , the target pixel to be generated is generated based on the input image signal.
A motion amount detecting step for detecting a motion amount at a position, the detected motion amount, and the pixel position of interest and the space
Of multiple reference pixels that are temporally and / or temporally adjacent
Class that generates a class code according to the distribution pattern
In the code generation step , the motion amount at the target pixel position is obtained during learning, and the motion amount at the target pixel position and the sky of the target pixel are calculated.
A plurality of reference pixels that are adjacent to each other temporally and / or temporally
Prediction coefficient obtained in advance by creating a class according to the Bell distribution pattern and learning for each class
Is stored for each of the above classes and stored in the above class corresponding to the above class code.
Coefficient storage step for outputting the measured coefficient, the prediction coefficient from the coefficient storage step, and the target pixel position
Multiple peripheral images spatially and / or spatially nearby
By calculating with the raw data, the pixel
A pixel data generation step for generating the data
A method of generating image data, characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31734993A JP3480015B2 (en) | 1993-11-24 | 1993-11-24 | Apparatus and method for generating image data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31734993A JP3480015B2 (en) | 1993-11-24 | 1993-11-24 | Apparatus and method for generating image data |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003091103A Division JP3918759B2 (en) | 2003-03-28 | 2003-03-28 | Image data generation apparatus and generation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07147670A JPH07147670A (en) | 1995-06-06 |
JP3480015B2 true JP3480015B2 (en) | 2003-12-15 |
Family
ID=18087239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP31734993A Expired - Lifetime JP3480015B2 (en) | 1993-11-24 | 1993-11-24 | Apparatus and method for generating image data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3480015B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4158232B2 (en) | 1998-07-23 | 2008-10-01 | ソニー株式会社 | Image information conversion device and image display device |
JP4618956B2 (en) | 2001-12-10 | 2011-01-26 | ソニー株式会社 | Signal processing apparatus, signal processing method, signal processing system, program, and medium |
US7694326B2 (en) | 2002-05-17 | 2010-04-06 | Sony Corporation | Signal processing system and method, signal processing apparatus and method, recording medium, and program |
-
1993
- 1993-11-24 JP JP31734993A patent/JP3480015B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH07147670A (en) | 1995-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3271108B2 (en) | Apparatus and method for processing digital image signal | |
WO1994014278A1 (en) | Image signal converter | |
JPH1175180A (en) | Image processing device and method, and transmission medium and method | |
JP3271101B2 (en) | Digital image signal processing apparatus and processing method | |
JP3348318B2 (en) | Digital image signal processing apparatus and processing method | |
JPH09172621A (en) | Interpolation device and interpolation method for compressed high resolution video signal | |
JP3946781B2 (en) | Image information conversion apparatus and method | |
JPH0846934A (en) | Processor for digital picture signal | |
JP3480015B2 (en) | Apparatus and method for generating image data | |
JP3470373B2 (en) | Apparatus and method for processing digital image signal | |
JP3362463B2 (en) | Frame interpolation device | |
JP3723995B2 (en) | Image information conversion apparatus and method | |
JPH0851622A (en) | Processor for digital picture signal | |
JP3173508B2 (en) | Moving picture decoding method and moving picture decoding apparatus | |
JP3085289B2 (en) | Moving picture coding method and moving picture coding apparatus | |
JP3271096B2 (en) | Digital image signal processing device | |
JP3653287B2 (en) | Image information conversion apparatus and image information conversion method | |
JP3480011B2 (en) | Image information conversion device | |
JPH06178277A (en) | Picture information converter | |
JP3918759B2 (en) | Image data generation apparatus and generation method | |
JPH08317347A (en) | Image information converting device | |
JP3800638B2 (en) | Image information conversion apparatus and method | |
JP3470380B2 (en) | Apparatus and method for processing digital image signal | |
JP3271109B2 (en) | Digital image signal processing apparatus and processing method | |
JP3480461B2 (en) | Digital image signal processing apparatus and processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091010 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091010 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101010 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111010 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111010 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121010 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121010 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131010 Year of fee payment: 10 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |