[go: up one dir, main page]

JP2000013816A - Video signal converter, its method and served medium - Google Patents

Video signal converter, its method and served medium

Info

Publication number
JP2000013816A
JP2000013816A JP10172387A JP17238798A JP2000013816A JP 2000013816 A JP2000013816 A JP 2000013816A JP 10172387 A JP10172387 A JP 10172387A JP 17238798 A JP17238798 A JP 17238798A JP 2000013816 A JP2000013816 A JP 2000013816A
Authority
JP
Japan
Prior art keywords
signal
video signal
class
component
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10172387A
Other languages
Japanese (ja)
Other versions
JP4062714B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Takanari Hoshino
隆也 星野
Hideo Nakaya
秀雄 中屋
Takeharu Nishikata
丈晴 西片
Masaru Inoue
賢 井上
Naoki Kobayashi
小林  直樹
Tetsushi Kokubo
哲志 小久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP17238798A priority Critical patent/JP4062714B2/en
Publication of JP2000013816A publication Critical patent/JP2000013816A/en
Application granted granted Critical
Publication of JP4062714B2 publication Critical patent/JP4062714B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Of Color Television Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a component video signal from a composite video signal by preventing dot disturbance. SOLUTION: A VIF 3 processes a signal received by a tuner 2 and a composite video signal is given to a classification adaptive processing circuit 11. The classification adaptive processing circuit 11 classifies the received composite video signal corresponding to the magnitude of clot disturbance and predicts and generates a component signal consisting of a luminance signal Y and color difference signals R-Y, B-Y by using a prediction coefficient corresponding to the class. A matrix circuit 6 generates primary color RGB signals from the component signal and provides an output of them to a CRT 7, on which the RGB signals are displayed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、映像信号変換装置
および方法、並びに提供媒体に関し、特に、クラス分類
適応処理により、コンポジット映像信号をベースバンド
の映像信号に直接変換することができるようにした映像
信号変換装置および方法、並びに提供媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video signal converting apparatus and method, and a providing medium, and more particularly, to a method for directly converting a composite video signal into a baseband video signal by a class classification adaptive process. The present invention relates to a video signal conversion device and method, and a providing medium.

【0002】[0002]

【従来の技術】図10は、従来のテレビジョン受像機の
構成例を表している。チューナ2は、アンテナ1で受信
した信号を復調し、映像中間周波信号処理回路(VIF)
3に出力する。VIF3で処理され、出力されたコンポジ
ット映像信号は、Y/C分離回路4に入力される。Y/
C分離回路4は、入力されたコンポジット映像信号から
輝度信号Yとクロマ信号Cを分離し、それぞれマトリク
ス回路6とクロマ復調回路5に出力するようになされて
いる。クロマ復調回路5は、入力されたクロマ信号Cを
復調し、色差信号R−Yと色差信号B−Yを生成し、マ
トリクス回路6に供給している。マトリクス回路6は、
入力された輝度信号Y、並びに色差信号R−Y,B−Y
から、原色RGB信号を生成し、CRT7に出力し、表示
させるようになされている。
2. Description of the Related Art FIG. 10 shows a configuration example of a conventional television receiver. The tuner 2 demodulates the signal received by the antenna 1 and generates a video intermediate frequency signal processing circuit (VIF)
Output to 3. The composite video signal processed and output by the VIF 3 is input to the Y / C separation circuit 4. Y /
The C separation circuit 4 separates the luminance signal Y and the chroma signal C from the input composite video signal, and outputs them to the matrix circuit 6 and the chroma demodulation circuit 5, respectively. The chroma demodulation circuit 5 demodulates the input chroma signal C, generates a color difference signal RY and a color difference signal BY, and supplies it to the matrix circuit 6. The matrix circuit 6
The input luminance signal Y and color difference signals RY, BY
, A primary color RGB signal is generated, output to the CRT 7 and displayed.

【0003】次に、その動作について説明する。チュー
ナ2は、ユーザが指定したチャンネルの放送局の電波を
アンテナ1を介して受信し、その復調信号をVIF3に出
力する。VIF3は、チューナ2より出力された信号を処
理し、例えばNTSC方式のコンポジット映像信号をY/C
分離回路4に出力する。Y/C分離回路4は、コンポジ
ット映像信号から輝度信号Yとクロマ信号Cを分離す
る。
Next, the operation will be described. The tuner 2 receives the radio wave of the broadcasting station of the channel designated by the user via the antenna 1 and outputs the demodulated signal to the VIF 3. The VIF 3 processes the signal output from the tuner 2 and converts, for example, an NTSC composite video signal into a Y / C signal.
Output to the separation circuit 4. The Y / C separation circuit 4 separates a luminance signal Y and a chroma signal C from the composite video signal.

【0004】クロマ復調回路5は、Y/C分離回路4よ
り入力されたクロマ信号Cを復調し、色差信号R−Yと
色差信号B−Yを生成する。マトリクス回路6は、Y/
C分離回路4より供給された輝度信号Yと、クロマ復調
回路5より入力された色差信号R−Y,B−Yを合成
し、原色RGB信号を生成し、CRT7に出力し、表示さ
せる。
[0004] The chroma demodulation circuit 5 demodulates the chroma signal C input from the Y / C separation circuit 4 to generate a color difference signal RY and a color difference signal BY. The matrix circuit 6 has a Y /
The luminance signal Y supplied from the C separation circuit 4 and the color difference signals RY and BY input from the chroma demodulation circuit 5 are combined to generate primary color RGB signals, which are output to the CRT 7 for display.

【0005】[0005]

【発明が解決しようとする課題】このように、従来のテ
レビジョン受像機においては、コンポジット映像信号
を、まず、Y/C分離回路4で輝度信号Yとクロマ信号
Cとに分離し、その後、クロマ信号Cを復調して、ベー
スバンドの輝度信号Y、色差信号R−Y,B−Yよりな
るコンポーネント信号に変換していた。そして、このコ
ンポーネント信号から、さらにマトリクス回路6によ
り、原色RGB信号を生成するようにしていた。このた
め、回路構成が複雑になり、その規模も大きくなり、コ
スト高となる課題があった。
As described above, in the conventional television receiver, the composite video signal is first separated into the luminance signal Y and the chroma signal C by the Y / C separation circuit 4, and thereafter, The chroma signal C is demodulated and converted into a component signal composed of a baseband luminance signal Y and color difference signals RY and BY. Then, the primary color RGB signals are generated from the component signals by the matrix circuit 6. For this reason, there has been a problem that the circuit configuration becomes complicated, the scale thereof becomes large, and the cost increases.

【0006】さらにまた、特に画像のエッジ部分や動画
像部分において、ドット妨害やクロスカラーなどのY/
C分離のエラーに起因する画質劣化が発生し易い課題が
あった。
Further, especially in the edge portion of an image or in a moving image portion, Y / Y values such as dot disturbance and cross color are considered.
There is a problem that the image quality is easily deteriorated due to the C separation error.

【0007】本発明はこのような状況に鑑みてなされた
ものであり、簡単な構成で、小さい規模の回路構成で、
高画質のベースバンド映像信号を得ることができるよう
にするものである。
The present invention has been made in view of such circumstances, and has a simple configuration, a small-scale circuit configuration,
This is to enable a high-quality baseband video signal to be obtained.

【0008】[0008]

【課題を解決するための手段】請求項1に記載の映像信
号変換装置は、入力されたコンポジット映像信号をクラ
ス分類する分類手段と、予測係数を記憶する記憶手段
と、分類手段により分類されたクラスに対応する予測係
数に基づき、ベースバンドの映像信号を予測生成する生
成手段とを備えることを特徴とする。
According to a first aspect of the present invention, there is provided a video signal conversion apparatus comprising: a classification means for classifying an input composite video signal; a storage means for storing prediction coefficients; and a classification means. Generating means for predictively generating a baseband video signal based on a prediction coefficient corresponding to the class.

【0009】請求項5に記載の映像信号変換方法は、入
力されたコンポジット映像信号をクラス分類する分類ス
テップと、予測係数を記憶する記憶ステップと、分類ス
テップで分類されたクラスに対応する予測係数に基づ
き、ベースバンドの映像信号を予測生成する生成ステッ
プとを含むことを特徴とする。
According to a fifth aspect of the present invention, there is provided a video signal conversion method, comprising: a classification step of classifying an input composite video signal; a storage step of storing prediction coefficients; and a prediction coefficient corresponding to the class classified in the classification step. And a generation step of predictively generating a baseband video signal based on

【0010】請求項6に記載の提供媒体は、入力された
コンポジット映像信号をクラス分類する分類ステップ
と、予測係数を記憶する記憶ステップと、分類ステップ
で分類されたクラスに対応する予測係数に基づき、ベー
スバンドの映像信号を予測生成する生成ステップとを含
む処理を映像信号変換装置に実行させるコンピュータが
読みとり可能なプログラムを提供することを特徴とす
る。
According to a sixth aspect of the present invention, there is provided the providing medium, wherein a classification step of classifying the input composite video signal into a class, a storage step of storing a prediction coefficient, and a prediction coefficient corresponding to the class classified in the classification step. A computer-readable program that causes a video signal conversion device to execute a process including a generation step of predictively generating a baseband video signal.

【0011】請求項1に記載の映像信号変換装置、請求
項5に記載の映像信号変換方法、および請求項6に記載
の提供媒体においては、分類されたクラスに対応する予
測係数に基づき、ベースバンドの映像信号が予測生成さ
れる。
[0011] In the video signal conversion apparatus according to the first aspect, the video signal conversion method according to the fifth aspect, and the providing medium according to the sixth aspect, the base is based on the prediction coefficient corresponding to the classified class. A video signal of the band is predicted and generated.

【0012】[0012]

【発明の実施の形態】以下に本発明の実施の形態を説明
するが、特許請求の範囲に記載の発明の各手段と以下の
実施の形態との対応関係を明らかにするために、各手段
の後の括弧内に、対応する実施の形態(但し一例)を付
加して本発明の特徴を記述すると、次のようになる。但
し勿論この記載は、各手段を記載したものに限定するこ
とを意味するものではない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below. In order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, each means is described. When the features of the present invention are described by adding the corresponding embodiment (however, an example) in parentheses after the parentheses, the result is as follows. However, of course, this description does not mean that each means is limited to those described.

【0013】請求項1に記載の映像信号変換装置は、入
力されたコンポジット映像信号をクラス分類する分類手
段(例えば、図2のパターン検出部52)と、予測係数
を記憶する記憶手段(例えば、図2の係数メモリ54)
と、分類手段により分類されたクラスに対応する予測係
数に基づき、ベースバンドの映像信号を予測生成する生
成手段(例えば、図2の予測演算部56)とを備えるこ
とを特徴とする。
The video signal conversion device according to the first aspect of the present invention includes a classification unit (for example, the pattern detection unit 52 in FIG. 2) for classifying the input composite video signal, and a storage unit (for example, for storing prediction coefficients). The coefficient memory 54 in FIG. 2)
And a generation unit (for example, the prediction calculation unit 56 in FIG. 2) that predictively generates a baseband video signal based on a prediction coefficient corresponding to the class classified by the classification unit.

【0014】請求項3に記載の映像信号変換装置は、分
類手段は、ドット妨害成分を検出する検出手段(例え
ば、図5のドット妨害成分検出回路22−1,22−
2)と、検出手段により検出されたドット妨害成分の大
きさに基づいてクラスを判定する判定手段(例えば、図
5の大小比較回路31−1)とを備えることを特徴とす
る。
According to a third aspect of the present invention, in the video signal conversion apparatus, the classification means includes a detection means for detecting a dot interference component (for example, the dot interference component detection circuits 22-1 and 22 in FIG. 5).
2) and determining means for determining the class based on the magnitude of the dot interference component detected by the detecting means (for example, the magnitude comparison circuit 31-1 in FIG. 5).

【0015】請求項4に記載の映像信号変換装置は、検
出手段が、複数の画素の値を加算して輝度信号成分を演
算する演算手段(例えば、図5の加算器21−1,21
−2)と、演算手段による演算結果から色信号成分を抽
出する抽出手段(例えば、図5のBPF23−1,23−
2)と、抽出手段により抽出された色信号成分の振幅を
検出する振幅検出手段(例えば、図5の振幅検出回路2
4−1,24−2)とを備え、判定手段は、振幅検出手
段により検出された複数の色信号成分の大きさを比較し
て、クラスを判定することを特徴とする。
According to a fourth aspect of the present invention, in the video signal conversion device, the detecting means calculates the luminance signal component by adding the values of the plurality of pixels (for example, the adders 21-1 and 21 in FIG. 5).
-2) and extraction means for extracting a color signal component from the calculation result by the calculation means (for example, BPFs 23-1, 23-23 in FIG. 5)
2) and amplitude detecting means for detecting the amplitude of the color signal component extracted by the extracting means (for example, the amplitude detecting circuit 2 shown in FIG. 5).
4-1 and 24-2), and the determining means determines the class by comparing the magnitudes of the plurality of color signal components detected by the amplitude detecting means.

【0016】図1は、本発明を適用したテレビジョン受
像機の構成例を示すブロック図であり、図10における
場合と対応する部分には同一の符号を付してある。この
構成例においては、VIF3とマトリクス回路6の間に、
クラス分類適応処理回路11が配置されている。このク
ラス分類適応処理回路11は、VIF3から入力されたNTS
C方式のコンポジット映像信号から、輝度信号Yと色差
信号R−Y,B−Y信号からなるコンポーネント信号
を、クラス分類適応処理により直接生成する。コンポジ
ット映像信号からコンポーネント信号を予測生成するた
めの予測係数は、コンポーネント信号を教師信号とし、
そのコンポーネント信号をNTSC変調して作成したNTSC信
号を生徒画像として学習により生成される。そして、そ
の予測係数を用いて、マッピング(予測演算処理)によ
りコンポーネント信号が生成される。
FIG. 1 is a block diagram showing a configuration example of a television receiver to which the present invention is applied, and portions corresponding to those in FIG. 10 are denoted by the same reference numerals. In this configuration example, between the VIF 3 and the matrix circuit 6,
A classification adaptive processing circuit 11 is provided. This class classification adaptive processing circuit 11 uses the NTS input from VIF3.
A component signal including a luminance signal Y and color difference signals RY and BY signals is directly generated from the C-system composite video signal by a class classification adaptive process. The prediction coefficient for predicting and generating a component signal from a composite video signal uses the component signal as a teacher signal,
An NTSC signal created by NTSC modulation of the component signal is generated by learning as a student image. Then, a component signal is generated by mapping (prediction calculation processing) using the prediction coefficient.

【0017】図2は、クラス分類適応処理回路11の構
成例を表している。VIF3より出力されたNTSC方式のコ
ンポジット映像信号は、領域抽出部51と領域抽出部5
5に供給される。領域抽出部51は、入力されたコンポ
ジット映像信号から、クラス分類を行うために必要な画
素(クラスタップ)(図3)を抽出し、パターン検出部
52に出力している。パターン検出部52は、入力され
たクラスタップを基にコンポジット映像信号のパターン
を検出する。具体的には、図5を参照して後述するが、
ドット妨害成分の大きさがいずれのパターンに属するの
かが検出される。
FIG. 2 shows an example of the configuration of the class classification adaptive processing circuit 11. The NTSC composite video signal output from the VIF 3 is divided into an area extracting section 51 and an area extracting section 5.
5 is supplied. The area extracting unit 51 extracts pixels (class taps) (FIG. 3) necessary for class classification from the input composite video signal, and outputs the pixels to the pattern detecting unit 52. The pattern detection unit 52 detects a pattern of the composite video signal based on the input class tap. Specifically, it will be described later with reference to FIG.
It is detected which pattern the size of the dot interference component belongs to.

【0018】クラスコード決定部53は、パターン検出
部52で検出されたパターンに基づき、クラスを決定
し、そのクラスに対応するクラスコードを係数メモリ5
4に出力するようになされている。係数メモリ54に
は、予め学習により求められたクラス毎の予測係数が記
憶されており、クラスコード決定部53より入力された
クラスコードに対応する予測係数が読み出され、予測演
算部56に出力されるようになされている。なお、係数
メモリ54の予測係数の決定の仕方については、図8を
参照して後述する。
A class code determining section 53 determines a class based on the pattern detected by the pattern detecting section 52 and stores a class code corresponding to the class in the coefficient memory 5.
4 is output. The coefficient memory 54 stores a prediction coefficient for each class obtained by learning in advance, reads a prediction coefficient corresponding to the class code input from the class code determination unit 53, and outputs the prediction coefficient to the prediction calculation unit 56. It has been made to be. How to determine the prediction coefficients in the coefficient memory 54 will be described later with reference to FIG.

【0019】領域抽出部55は、VIF3より入力された
コンポジット映像信号から、コンポーネント信号を予測
生成するのに必要な画素(予測タップ)を抽出し、予測
演算部56に出力している。予測演算部56は、領域抽
出部55より入力される予測タップに対して、係数メモ
リ54より入力された予測係数を乗算し、コンポーネン
ト信号の1つである輝度信号Yを生成する。
The area extraction unit 55 extracts pixels (prediction taps) necessary for predictively generating a component signal from the composite video signal input from the VIF 3 and outputs the extracted pixels to the prediction calculation unit 56. The prediction calculation unit 56 multiplies the prediction tap input from the region extraction unit 55 by the prediction coefficient input from the coefficient memory 54, and generates a luminance signal Y which is one of the component signals.

【0020】なお、図示は省略するが、コンポーネント
信号のうち、他の色差信号R−Yと色差信号B−Yを生
成するための回路も同様に構成されている。その構成
は、図2に示した場合と同様であり、係数メモリ54に
記憶されている係数が、図2に示した場合においては、
輝度信号Yを生成するための予測係数であるが、色差信
号R−YまたはB−Yを生成する場合には、そのための
予測係数が記憶されることになる。
Although not shown, the circuits for generating the other color difference signals RY and BY among the component signals have the same configuration. The configuration is the same as the case shown in FIG. 2, and the coefficient stored in the coefficient memory 54 is, in the case shown in FIG.
This is a prediction coefficient for generating the luminance signal Y. When the chrominance signal RY or BY is generated, the prediction coefficient for that is stored.

【0021】次に、その動作について説明する。VIF3
より入力されたコンポジット映像信号から、領域抽出部
51は、クラスタップを抽出する。このクラスタップ
は、例えば図3に示すように、所定のフィールドの5個
の画素VO,VA乃至VDと、1フレーム(2フィール
ド)前の注目画素VOに対応する画素VEの合計6個の
画素とされる。
Next, the operation will be described. VIF3
The region extracting unit 51 extracts a class tap from the composite video signal input from the above. For example, as shown in FIG. 3, the class tap includes five pixels VO, VA to VD in a predetermined field, and a pixel VE corresponding to the target pixel VO one frame (two fields) before, which is a total of six pixels. It is said.

【0022】パターン検出部52は、領域抽出部51よ
り入力されたクラスタップの画素データに対して、所定
の演算を施して、ドット妨害成分を検出し、ドット妨害
成分の大きさからクラスタップが属するパターンを検出
する(その詳細は、図5を参照して後述する)。クラス
コード決定部53は、パターン検出部52で検出された
パターンに対応するクラスを決定し、そのクラスに対応
するクラスコードを係数メモリ54に出力する。係数メ
モリ54は、クラスコード決定部53より入力されたク
ラスコードに対応する予測係数を読み出し、予測演算部
56に出力する。
The pattern detecting section 52 performs a predetermined operation on the pixel data of the class tap input from the area extracting section 51 to detect a dot interference component, and detects the class interference based on the size of the dot interference component. The belonging pattern is detected (the details will be described later with reference to FIG. 5). The class code determination unit 53 determines a class corresponding to the pattern detected by the pattern detection unit 52, and outputs a class code corresponding to the class to the coefficient memory 54. The coefficient memory 54 reads out a prediction coefficient corresponding to the class code input from the class code determination unit 53 and outputs it to the prediction calculation unit 56.

【0023】領域抽出部55は、VIF3より入力された
コンポジット映像信号から、例えば図4に示すように、
注目画素VOを含むその近傍の11個の画素と、1フレ
ーム前の画素VEを中心とする11個の画素、並びに、
直流のオフセット成分の合計23個の値を抽出する。従
って、この場合、係数メモリ54には、1つのクラスに
ついて23個の係数が用意されていることになる。
The area extracting section 55 converts the composite video signal input from the VIF 3 into, for example, as shown in FIG.
11 neighboring pixels including the target pixel VO, 11 pixels centered on the pixel VE one frame before, and
A total of 23 values of DC offset components are extracted. Therefore, in this case, the coefficient memory 54 has 23 coefficients for one class.

【0024】予測演算部56は、領域抽出部55より入
力された23個の予測タップの値に対して、係数メモリ
54より入力された23個の予測係数をそれぞれ積和演
算して、注目画素VOに対応する輝度信号Yを生成す
る。
The prediction operation unit 56 performs a product-sum operation on the 23 prediction coefficients input from the coefficient memory 54 with respect to the values of the 23 prediction taps input from the region extraction unit 55 to obtain a pixel of interest. A luminance signal Y corresponding to VO is generated.

【0025】同様の処理がクラス分類適応処理回路11
の色差信号R−YおよびB−Yを生成する回路において
も行われる。その結果、輝度信号Y、色差信号R−Y,
B−Yよりなるコンポーネント信号が生成、出力される
ことになる。
The same processing is performed by the class classification adaptive processing circuit 11
This is also performed in a circuit that generates the color difference signals RY and BY. As a result, the luminance signal Y, the color difference signals RY,
A component signal composed of BY is generated and output.

【0026】次に、パターン検出部52におけるクラス
分類の方法(パターン決定方法)について説明する。最
初に、上下の画素の関係からクラス分類する方法につい
て説明する。
Next, a method of class classification (pattern determination method) in the pattern detecting section 52 will be described. First, a method of classifying from the relationship between upper and lower pixels will be described.

【0027】いま、図3(A)に示すように、所定のフ
ィールド(0フィールド)の注目画素VOの1ライン上
に画素VAが位置し、1ライン下に画素VBが位置する
ものとする。このとき、図5に示すような回路構成によ
りクラス分類処理が行われる。
Now, as shown in FIG. 3A, it is assumed that the pixel VA is located on one line of the target pixel VO in a predetermined field (0 field) and the pixel VB is located one line below. At this time, class classification processing is performed by a circuit configuration as shown in FIG.

【0028】すなわち、図5の構成例においては、注目
画素VOと1ライン上の画素VAが加算器21−1によ
り加算され、ドット妨害成分検出回路22−1に入力さ
れるようになされている。ドット妨害成分検出回路22
−1は、加算器21−1より入力されたデータのカラー
サブキャリア信号(3.58MHzの周波数fscの信
号)を抽出するバンドパスフィルタ(BPF)23−1
と、BPF23−1の出力の振幅を検出する振幅検出回路
24−1により構成されている。振幅検出回路24−1
は、さらに、BPF23−1の出力の絶対値を検出する絶
対値検出回路(ABS)25−1と、ABS25−1の出力の
所定の低域成分を抽出するローパスフィルタ(LPF)2
6−1により構成されている。
That is, in the configuration example of FIG. 5, the pixel of interest VO and the pixel VA on one line are added by the adder 21-1 and input to the dot interference component detection circuit 22-1. . Dot interference component detection circuit 22
-1 is a band-pass filter (BPF) 23-1 for extracting a color subcarrier signal (a signal having a frequency fsc of 3.58 MHz) of the data input from the adder 21-1.
And an amplitude detection circuit 24-1 for detecting the amplitude of the output of the BPF 23-1. Amplitude detection circuit 24-1
Further includes an absolute value detection circuit (ABS) 25-1 for detecting the absolute value of the output of the BPF 23-1, and a low-pass filter (LPF) 2 for extracting a predetermined low-frequency component of the output of the ABS 25-1.
6-1.

【0029】加算器21−2は、注目画素VOと1ライ
ン下の画素VBを加算し、ドット妨害成分検出回路22
−2に供給するようになされている。ドット妨害成分検
出回路22−2は、ドット妨害成分検出回路22−1と
同様に、BPF23−2と振幅検出回路24−2とにより
構成されており、振幅検出回路24−2は、ABS25−
2とLPF26−2により構成されている。
The adder 21-2 adds the pixel of interest VO and the pixel VB one line below, and generates a dot interference component detection circuit 22.
-2. Like the dot interference component detection circuit 22-1, the dot interference component detection circuit 22-2 includes a BPF 23-2 and an amplitude detection circuit 24-2.
2 and the LPF 26-2.

【0030】大小比較回路31−1は、ドット妨害成分
検出回路22−1の出力と、ドット妨害成分検出回路2
2−2の出力の大小を比較し、その比較結果を出力する
ようになされている。
The magnitude comparison circuit 31-1 is connected to the output of the dot disturbance component detection circuit 22-1 and the dot disturbance component detection circuit 2-1.
The output of 2-2 is compared in magnitude and the result of the comparison is output.

【0031】次に、その動作について説明する。加算器
21−1は、注目画素VOと注目画素VOより1ライン
上の画素VAを加算する。この2つの画素のクロマ信号
は、逆位相とされているため、2つの画素を加算して得
られる値は、輝度信号成分だけとなる。この加算器21
−1の出力をYAとすると、この信号YAは、ドット妨
害(クロマ信号成分の輝度信号成分に対するクロストー
ク)が存在する場合、カラーサブキャリアの周波数fsc
(=3.58MHz)の周波数成分を含んでいる。ドッ
ト妨害がなければ、信号YAには、この周波数成分は含
まれていないことになる。
Next, the operation will be described. The adder 21-1 adds the pixel of interest VO and the pixel VA one line above the pixel of interest VO. Since the chroma signals of these two pixels have opposite phases, the value obtained by adding the two pixels is only a luminance signal component. This adder 21
Assuming that the output of -1 is YA, this signal YA has a frequency fsc of the color subcarrier when dot interference (crosstalk of the chroma signal component to the luminance signal component) exists.
(= 3.58 MHz). If there is no dot disturbance, the signal YA does not include this frequency component.

【0032】そこで、BPF23−1により、この3.5
8MHzの周波数成分を抽出し、ABS25−1におい
て、その絶対値を演算する。LPF26−1により、さら
にABS25−1の出力の低域成分を抽出して得られる信
号Y’Aは、大小比較回路31−1に入力される。
Therefore, this 3.5 is performed by the BPF 23-1.
The frequency component of 8 MHz is extracted, and its absolute value is calculated in the ABS 25-1. The signal Y'A obtained by further extracting the low-frequency component of the output of the ABS 25-1 by the LPF 26-1 is input to the magnitude comparison circuit 31-1.

【0033】同様にして、加算器21−2により、注目
画素VOと1ライン下の画素VBとが加算され、その加
算した結果得られた信号YBに含まれるカラーサブキャ
リア信号成分がBPF23−2により抽出される。そし
て、抽出されたカラーサブキャリア信号成分は、ABS2
5−2により絶対値化され、LPF26−2により平滑さ
れ、信号Y’Bとして大小比較回路31−1に入力され
る。
Similarly, the adder 21-2 adds the pixel of interest VO and the pixel VB one line below, and converts the color subcarrier signal component included in the signal YB obtained as a result of the addition into the BPF 23-2. Is extracted by Then, the extracted color subcarrier signal component is set to ABS2
The signal is converted into an absolute value by 5-2, smoothed by the LPF 26-2, and input to the magnitude comparison circuit 31-1 as a signal Y'B.

【0034】例えば、注目画素VOと、それより1ライ
ン上の画素VAとの間に水平方向の色のエッジ(非相関
部)が存在する場合、信号YAには、Y/C分離エラー
である3.58MHzのドット妨害成分が存在する。注
目画素VOと1ライン上の画素VAとの間に色のエッジ
が存在する場合、逆に、注目画素VOと1ライン下の画
素VBとの間には、エッジが存在しないことが多い。も
し存在するとすれば、1ラインの幅の線が存在するとい
うことになり、このような極めて細い線の画像は、ビデ
オカメラなどにより撮像した通常の画像中には、一般的
には存在しないからである。
For example, if there is a horizontal color edge (uncorrelated portion) between the pixel of interest VO and the pixel VA one line above it, the signal YA has a Y / C separation error. There is a 3.58 MHz dot interfering component. When a color edge exists between the target pixel VO and the pixel VA on one line, on the contrary, there is often no edge between the target pixel VO and the pixel VB one line below. If present, it means that there is a line having a width of one line, and such an extremely thin line image is not generally present in a normal image taken by a video camera or the like. It is.

【0035】従って、このような場合、信号Y’A(ド
ット妨害成分が多く含まれている)は、信号Y’B(ド
ット妨害成分がほとんど含まれていない)より大きな値
となる。
Therefore, in such a case, the value of the signal Y'A (which contains many dot interference components) is larger than the value of the signal Y'B (which contains almost no dot interference components).

【0036】これに対して、逆に、注目画素VOと、1
ライン下の画素VBとの間に水平方向の色のエッジが存
在する場合、注目画素VOと1ライン上の画素VAとの
間には、エッジが存在しないことが多いので、信号Y’
B(3.58MHzのドット妨害成分が多い)は、信号
Y’A(3.58MHzの周波数のドット妨害成分が少
ない)の値より大きくなる。
On the other hand, conversely, the target pixel VO, 1
When an edge in the horizontal direction exists between the pixel VB below the line and the pixel VB below the line, there is often no edge between the pixel of interest VO and the pixel VA on one line, so the signal Y ′
B (there are many 3.58 MHz dot interference components) becomes larger than the value of the signal Y'A (the 3.58 MHz frequency has little dot interference components).

【0037】大小比較回路31−1は、信号Y’Aと信
号Y’Bの大きさを比較し、その比較結果から、クラス
タップがどのパターン(クラス)に属するかを決定する
(クラス分類処理する)。
The magnitude comparison circuit 31-1 compares the magnitudes of the signal Y'A and the signal Y'B, and determines to which pattern (class) the class tap belongs from the comparison result (class classification processing). Do).

【0038】すなわち、例えば、信号Y’Aと信号Y’
Bの大きさの関係から、次のように3つのクラスが分類
される。 N×Y’B < Y’A ・・・(1) Y’B/N ≦ Y’A ≦ N×Y’B ・・・(2) Y’A < Y’B/N ・・・(3)
That is, for example, the signal Y'A and the signal Y '
According to the size of B, three classes are classified as follows. N × Y′B <Y′A (1) Y′B / N ≦ Y′A ≦ N × Y′B (2) Y′A <Y′B / N (3) )

【0039】なお、上記式におけるNは定数であり、例
えばN=2とされる。
Note that N in the above equation is a constant, for example, N = 2.

【0040】あるいはまた、次のようにして、5個のク
ラスに分類することも可能である。 N2×Y’B < Y’A ・・・(4) N1×Y’B < Y’A ≦ N2×Y’B ・・・(5) Y’B/N1 < Y’A ≦ N1×Y’B ・・・(6) Y’B/N2 < Y’A ≦ Y’B/N1 ・・・(7) Y’A ≦ Y’B/N2 ・・・(8)
Alternatively, they can be classified into five classes as follows. N2 × Y′B <Y′A (4) N1 × Y′B <Y′A ≦ N2 × Y′B (5) Y′B / N1 <Y′A ≦ N1 × Y ′ B (6) Y′B / N2 <Y′A ≦ Y′B / N1 (7) Y′A ≦ Y′B / N2 (8)

【0041】なお、上記式におけるN1,N2は定数で
あり、例えばN1=2,N2=3である。
In the above equation, N1 and N2 are constants, for example, N1 = 2 and N2 = 3.

【0042】以上においては、画素の上下の関係からク
ラス分類を行うようにしたが、画素の左右の関係から、
クラス分類することも可能である。いま、図3(A)に
示すように、注目画素VOの2画素(1画素は4fscの
周波数によりサンプリングされた画素とする)だけ左側
の画素をVC、2画素だけ右側の画素をVDとする。注
目画素VOとその左右の画素VC,VDを図5における
場合と同様に処理する回路が図6に示されている。この
図6の構成は、図5における場合と基本的に同様の回路
である。
In the above description, the class is classified based on the vertical relationship between pixels.
Classification is also possible. Now, as shown in FIG. 3A, a pixel on the left side by two pixels of the target pixel VO (one pixel is a pixel sampled at a frequency of 4 fsc) is VC, and a pixel on the right side by two pixels is VD. . FIG. 6 shows a circuit for processing the pixel of interest VO and its left and right pixels VC and VD in the same manner as in FIG. The configuration of FIG. 6 is a circuit basically similar to that of FIG.

【0043】すなわち、加算器21−3は、注目画素V
Oと2画素だけ左側の画素VCとを加算する。2つの画
素のクロマ信号成分は逆位相となっているので、加算器
21−3の出力は、基本的には、輝度信号成分YCとな
る。同様に、加算器21−4が、注目画素VOと2画素
だけ右側の画素VDを加算して出力する信号YDも、基
本的には、輝度信号成分となる。
That is, the adder 21-3 outputs the target pixel V
O and two pixels VC on the left side are added. Since the chroma signal components of the two pixels have opposite phases, the output of the adder 21-3 is basically a luminance signal component YC. Similarly, the signal YD output by the adder 21-4 adding the pixel of interest VO and the pixel VD on the right by two pixels is also basically a luminance signal component.

【0044】上述した場合と同様に、例えば、注目画素
VOと2画素だけ左側の画素VCとの間にカラーエッジ
が存在する場合、信号YCの値は、信号YDの値より大
きくなる。逆に、注目画素VOと2画素分だけ右側の画
素VDの間にカラーエッジが存在する場合、信号YD
は、信号YCより大きくなる。
As in the case described above, for example, when a color edge exists between the pixel of interest VO and the pixel VC two pixels to the left, the value of the signal YC is larger than the value of the signal YD. Conversely, if there is a color edge between the pixel of interest VO and the pixel VD on the right by two pixels, the signal YD
Becomes larger than the signal YC.

【0045】そこで、図5における場合と同様に、図6
においても、加算器21−3のドット妨害成分をドット
妨害成分検出回路22−3で検出し、加算器21−4の
出力のドット妨害成分をドット妨害成分検出回路22−
4で検出する。そして、大小比較回路31−2により、
ドット妨害成分検出回路22−3の出力信号Y’Cとド
ット妨害成分検出回路22−4の出力信号Y’Dの大小
を比較する。
Therefore, as in the case of FIG. 5, FIG.
In this case, the dot interference component of the adder 21-3 is detected by the dot interference component detection circuit 22-3, and the dot interference component of the output of the adder 21-4 is detected by the dot interference component detection circuit 22-3.
4 to detect. Then, by the magnitude comparison circuit 31-2,
The output signal Y'C of the dot interference component detection circuit 22-3 is compared with the output signal Y'D of the dot interference component detection circuit 22-4.

【0046】大小比較回路31−2は、例えば次の条件
に従って、3クラスに分類する処理を行う。 N×Y’D < Y’C ・・・(9) Y’D/N ≦ Y’C ≦ N×Y’D ・・・(10) Y’C < Y’D/N ・・・(11)
The magnitude comparison circuit 31-2 performs a process of classifying into three classes according to, for example, the following conditions. N × Y′D <Y′C (9) Y′D / N ≦ Y′C ≦ N × Y′D (10) Y′C <Y′D / N (11) )

【0047】さらに上述した場合と同様に、次のように
して、5個のクラスに分類することも可能である。 N2×Y’D < Y’C ・・・(12) N1×Y’D < Y’C ≦ N2×Y’D ・・・(13) Y’D/N1 < Y’C ≦ N1×Y’D ・・・(14) Y’D/N2 < Y’C ≦ Y’D/N1 ・・・(15) Y’C ≦ Y’D/N2 ・・・(16)
Further, similarly to the case described above, it is also possible to classify into five classes as follows. N2 × Y′D <Y′C (12) N1 × Y′D <Y′C ≦ N2 × Y′D (13) Y′D / N1 <Y′C ≦ N1 × Y ′ D (14) Y'D / N2 <Y'C ≤ Y'D / N1 (15) Y'C ≤ Y'D / N2 (16)

【0048】図7は、パターン検出部52におけるさら
に他のクラス分類の例を表している。この例において
は、図5と図6に示した構成に加え、加算器21−5に
より、注目画素VOと、1フレーム(2フィールド)前
の注目画素VOに対応する画素VEとが加算される。時
間方向に非相関の画素がある場合、すなわち、画像に動
きがある場合、加算器21−5の出力信号YEに、やは
りドット妨害成分が発生する。そこで、ドット妨害成分
検出回路22−5により、信号YEのドット妨害成分を
検出し、信号Y’Eを得るようにしている。
FIG. 7 shows an example of still another class classification in the pattern detecting section 52. In this example, in addition to the configuration shown in FIGS. 5 and 6, the adder 21-5 adds the pixel of interest VO and the pixel VE corresponding to the pixel of interest one frame (two fields) before. . When there is an uncorrelated pixel in the time direction, that is, when there is motion in the image, a dot disturbing component also occurs in the output signal YE of the adder 21-5. Therefore, the dot interference component of the signal YE is detected by the dot interference component detection circuit 22-5 to obtain the signal Y'E.

【0049】大小比較回路31−1乃至31−10は、
ドット妨害成分検出回路22−1乃至22−5のいずれ
か2つの出力の大小を比較し、その比較結果に対応し
て、クラス分類処理を行う。各大小比較回路31−i
(i=1乃至10)がそれぞれn個のクラス分類を行う
ものとすると、10個の大小比較回路31−1乃至31
−10のうちのm個の出力を使用して、その組み合わせ
をクラスコード化すると、nm個のクラス分類を行うこ
とができる。
The magnitude comparison circuits 31-1 to 31-10 are
The magnitudes of any two outputs of the dot interference component detection circuits 22-1 to 22-5 are compared, and a class classification process is performed according to the comparison result. Each magnitude comparison circuit 31-i
Assuming that each of (i = 1 to 10) performs n class classifications, ten magnitude comparison circuits 31-1 to 31-1
If m combinations of -10 outputs are used and the combination is class-coded, n m classifications can be performed.

【0050】このように、ドット妨害の大きさに基づい
てクラス分類を行い、そのクラスに対応する予測係数を
用いて、コンポーネント信号成分を予測生成処理するの
で、ドット妨害の少ないコンポーネント信号を生成する
ことができる。
As described above, the class is classified based on the magnitude of the dot disturbance, and the component signal components are predicted and generated using the prediction coefficients corresponding to the class. Therefore, a component signal with little dot disturbance is generated. be able to.

【0051】次に、図2の係数メモリ54に記憶させる
予測係数の求め方について説明する。図8は、このよう
な予測係数を求めるための構成例を表している。NTSCエ
ンコーダ71には、教師信号としての輝度信号Y、色差
信号R−Y,B−Yからなるコンポーネント信号が入力
される。エンコーダ71は、入力されたコンポーネント
信号から生徒信号としてのNTSC方式のコンポジット映像
信号を生成し、領域抽出部72と領域抽出部75に出力
している。領域抽出部72は、入力されたコンポジット
映像信号からクラスタップを抽出し、パターン検出部7
3に出力している。パターン検出部73は、入力された
クラスタップのパターンを検出し、検出結果をクラスコ
ード決定部74に出力する。クラスコード決定部74
は、入力されたパターンに対応するクラスを決定し、そ
のクラスコードを正規方程式生成部76に出力してい
る。
Next, a method of obtaining a prediction coefficient to be stored in the coefficient memory 54 of FIG. 2 will be described. FIG. 8 shows a configuration example for obtaining such a prediction coefficient. The NTSC encoder 71 receives a component signal including a luminance signal Y and color difference signals RY and BY as teacher signals. The encoder 71 generates an NTSC composite video signal as a student signal from the input component signal, and outputs it to the region extracting unit 72 and the region extracting unit 75. The region extraction unit 72 extracts a class tap from the input composite video signal, and
3 is output. The pattern detection unit 73 detects the input pattern of the class tap, and outputs the detection result to the class code determination unit 74. Class code determination unit 74
Determines the class corresponding to the input pattern, and outputs the class code to the normal equation generating unit 76.

【0052】領域抽出部75は、エンコーダ71より入
力されたコンポジット映像信号から予測タップを抽出
し、正規方程式生成部76に出力している。以上の領域
抽出部72、パターン検出部73、クラスコード決定部
74、および領域抽出部75は、図2のクラス分類適応
処理回路11の領域抽出部51、パターン検出部52、
クラスコード決定部53、および領域抽出部55と、基
本的に同様の構成と機能を有するものである。
The area extracting section 75 extracts prediction taps from the composite video signal input from the encoder 71 and outputs the extracted taps to the normal equation generating section 76. The above-described region extraction unit 72, pattern detection unit 73, class code determination unit 74, and region extraction unit 75 are the region extraction unit 51, pattern detection unit 52,
It has basically the same configuration and function as the class code determination unit 53 and the area extraction unit 55.

【0053】正規方程式生成部76は、クラスコード決
定部74より入力された全てのクラスに対して、クラス
毎に、領域抽出部75より入力される予測タップの画素
データ(学習データ)と、教師信号としてのコンポーネ
ント信号の輝度信号Yとから正規方程式を生成し、係数
決定部77に出力する。係数決定部77は、必要な数の
正規方程式が正規方程式生成部76より供給されてきた
とき、例えば最小自乗法を用いて正規方程式を解き、予
測係数を演算する。係数決定部77は、演算により求め
た予測係数をメモリ78に供給し、記憶させるようにな
されている。
The normal equation generation unit 76 calculates, for each class, pixel data (learning data) of a prediction tap input from the region extraction unit 75 and a teacher for all classes input from the class code determination unit 74. A normal equation is generated from the luminance signal Y of the component signal as a signal and output to the coefficient determination unit 77. When a required number of normal equations are supplied from the normal equation generation section 76, the coefficient determination section 77 solves the normal equations using, for example, the least squares method, and calculates prediction coefficients. The coefficient determining unit 77 supplies the prediction coefficient obtained by the calculation to the memory 78 and stores it.

【0054】次に、その動作について説明する。NTSCエ
ンコーダ71は、入力された教師信号としてのコンポー
ネント信号から、生徒信号としてのコンポジット映像信
号を生成し、領域抽出部72と領域抽出部75に出力す
る。領域抽出部72は、入力されたコンポジット映像信
号から、図3に示したクラスタップを抽出し、パターン
検出部73に出力する。パターン検出部73は、図2の
パターン検出部52における場合と同様の規則に従っ
て、クラスタップのドット妨害の大きさを求め、その大
きさからクラスタップのパターンを検出し、検出結果を
クラスコード決定部74に出力する。クラスコード決定
部74は、入力されたパターンに対応するクラスを決定
し、そのクラスに対応するクラスコードを正規方程式生
成部76に出力する。
Next, the operation will be described. The NTSC encoder 71 generates a composite video signal as a student signal from the input component signal as a teacher signal, and outputs the composite video signal to the region extracting unit 72 and the region extracting unit 75. The area extracting unit 72 extracts the class tap shown in FIG. 3 from the input composite video signal, and outputs the extracted class tap to the pattern detecting unit 73. The pattern detecting section 73 obtains the magnitude of the dot disturbance of the class tap according to the same rule as in the pattern detecting section 52 of FIG. 2, detects the class tap pattern from the magnitude, and determines the detection result as the class code Output to the unit 74. The class code determination unit 74 determines a class corresponding to the input pattern, and outputs a class code corresponding to the class to the normal equation generation unit 76.

【0055】領域抽出部75は、入力されたコンポジッ
ト映像信号から、図4に示した予測タップを抽出し、正
規方程式生成部76に出力する。正規方程式生成部76
にはまた、教師信号の輝度信号Yがそのまま供給されて
いる。正規方程式生成部76は、クラスコード決定部7
4より入力されたクラスにおける正規方程式を、輝度信
号Yと予測タップのコンポジット映像信号(学習デー
タ)に基づいて生成し、生成した正規方程式を係数決定
部77に出力する。以上の処理が入力される様々な教師
信号に対応して行われ、係数決定部77には、各クラス
毎に必要な数の正規方程式が供給される。
The area extracting section 75 extracts the prediction tap shown in FIG. 4 from the input composite video signal, and outputs it to the normal equation generating section 76. Normal equation generator 76
Is supplied with the luminance signal Y of the teacher signal as it is. The normal equation generation unit 76 includes the class code determination unit 7
The normal equation in the class input from 4 is generated based on the luminance signal Y and the composite video signal (learning data) of the prediction tap, and the generated normal equation is output to the coefficient determination unit 77. The above processing is performed in response to various input teacher signals, and the coefficient determination unit 77 is supplied with a necessary number of normal equations for each class.

【0056】係数決定部77は、各クラス毎に正規方程
式を解き、各クラスについて、いまの場合23個の予測
係数を求め、これをメモリ78に供給し、記憶させる。
メモリ78に記憶された予測係数が、図2の係数メモリ
54に記憶されることになる。
The coefficient determining unit 77 solves a normal equation for each class, obtains 23 prediction coefficients in this case for each class, supplies the prediction coefficients to the memory 78, and stores them.
The prediction coefficients stored in the memory 78 will be stored in the coefficient memory 54 of FIG.

【0057】以上においては、輝度信号Yの予測係数を
生成する場合について説明したが、色差信号R−Y,B
−Yについても、図8に示した場合と同様に求められ
る。
In the above, the case where the prediction coefficient of the luminance signal Y is generated has been described, but the color difference signals RY, B
-Y is obtained in the same manner as in the case shown in FIG.

【0058】以上においては、コンポジット映像信号か
らコンポーネント映像信号を生成するようにしたが、例
えば図9に示すようにクラス分類適応処理回路11を構
成し、VIF3の出力するコンポジット映像信号から、原
色RGB信号を直接生成するようにすることもできる。
In the above description, the component video signal is generated from the composite video signal. For example, as shown in FIG. 9, a class classification adaptive processing circuit 11 is formed, and the primary color RGB is output from the composite video signal output from the VIF 3. The signal can be directly generated.

【0059】なお、上記したような処理を行うコンピュ
ータプログラムをユーザに提供する提供媒体としては、
磁気ディスク、CD-ROM、固体メモリなどの記録媒体の
他、ネットワーク、衛星などの通信媒体を利用すること
ができる。
Note that a providing medium for providing a user with a computer program for performing the above-described processing includes:
In addition to recording media such as magnetic disks, CD-ROMs, and solid-state memories, communication media such as networks and satellites can be used.

【0060】[0060]

【発明の効果】以上の如く、請求項1に記載の映像信号
変換装置、請求項5に記載の映像信号変換方法、および
請求項6に記載の提供媒体によれば、分類されたクラス
に対応する予測係数に基づき、ベースバンドの映像信号
を予測生成するようにしたので、Y/C分離エラー、特
に、ドット妨害を抑制したベースバンド映像信号を、簡
単な構成で、安価に生成することが可能となる。また、
回路規模も小さくなり、小型化、かつ、低コスト化が可
能となる。
As described above, according to the video signal converter according to the first aspect, the video signal conversion method according to the fifth aspect, and the providing medium according to the sixth aspect, it is possible to correspond to the classified class. Since the baseband video signal is predicted and generated based on the prediction coefficient, the baseband video signal with suppressed Y / C separation error, in particular, dot disturbance, can be generated at a low cost with a simple configuration. It becomes possible. Also,
The circuit scale can be reduced, and the size and cost can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したテレビジョン受像機の構成例
を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration example of a television receiver to which the present invention has been applied.

【図2】図1のクラス分類適応処理回路11の構成例を
示すブロック図である。
FIG. 2 is a block diagram showing a configuration example of a class classification adaptive processing circuit 11 of FIG. 1;

【図3】クラスタップを説明する図である。FIG. 3 is a diagram illustrating a class tap.

【図4】予測タップを説明する図である。FIG. 4 is a diagram illustrating a prediction tap.

【図5】図2のパターン検出部52の構成例を示すブロ
ック図である。
FIG. 5 is a block diagram illustrating a configuration example of a pattern detection unit 52 in FIG. 2;

【図6】図2のパターン検出部52の他の構成例を示す
ブロック図である。
FIG. 6 is a block diagram illustrating another configuration example of the pattern detection unit 52 in FIG. 2;

【図7】図2のパターン検出部52のさらに他の構成例
を示すブロック図である。
FIG. 7 is a block diagram showing still another configuration example of the pattern detection unit 52 of FIG. 2;

【図8】予測係数を決定する回路の構成例を示すブロッ
ク図である。
FIG. 8 is a block diagram illustrating a configuration example of a circuit that determines a prediction coefficient.

【図9】本発明を適用した他のテレビジョン受像機の構
成例を示すブロック図である。
FIG. 9 is a block diagram illustrating a configuration example of another television receiver to which the present invention has been applied.

【図10】従来のテレビジョン受像機の構成例を示すブ
ロック図である。
FIG. 10 is a block diagram illustrating a configuration example of a conventional television receiver.

【符号の説明】[Explanation of symbols]

1 アンテナ, 2 チューナ, 3 VIF, 4 Y
/C分離回路, 5クロマ復調回路, 6 マトリクス
回路, 7 CRT, 11 クラス分類適応処理回路,
21−1乃至21−5 加算器, 22−1乃至22
−5 ドット妨害成分検出回路, 23−1乃至23−
5 BPF, 24−1乃至24−5振幅検出回路, 2
5−1乃至25−5 ABS, 26−1乃至26−5 L
PF,31−1乃至31−10 大小比較回路
1 antenna, 2 tuners, 3 VIF, 4Y
/ C separation circuit, 5 chroma demodulation circuit, 6 matrix circuit, 7 CRT, 11 class classification adaptive processing circuit,
21-1 to 21-5 adders, 22-1 to 22
-5 dot interference component detection circuits, 23-1 to 23-
5 BPF, 24-1 to 24-5 amplitude detection circuits, 2
5-1 to 25-5 ABS, 26-1 to 26-5 L
PF, 31-1 to 31-10 Large / Small comparison circuit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中屋 秀雄 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 西片 丈晴 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 井上 賢 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小林 直樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小久保 哲志 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C066 AA03 BA02 CA07 EC13 EC14 EF03 GA01 GA02 GA04 GA05 KC02 KC04 KD02 KD06 KD08 KE01 KE02 KE04 KE07 KE17 KF05 KM12  ────────────────────────────────────────────────── ─── Continued on the front page (72) Hideo Nakaya, Inventor 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Takeharu Nishikata 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo No. 72 Inside Sony Corporation (72) Inventor Ken Ken Inoue 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Naoki Kobayashi 6-35, 7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni -In-house (72) Inventor Tetsushi Kokubo 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F-term (reference) 5C066 AA03 BA02 CA07 EC13 EC14 EF03 GA01 GA02 GA04 GA05 KC02 KC04 KD02 KD06 KD08 KE01 KE02 KE04 KE07 KE17 KF05 KM12

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力されたコンポジット映像信号をクラ
ス分類する分類手段と、 予測係数を記憶する記憶手段と、 前記分類手段により分類された前記クラスに対応する前
記予測係数に基づき、ベースバンドの映像信号を予測生
成する生成手段とを備えることを特徴とする映像信号変
換装置。
1. Classification means for classifying an input composite video signal into classes; storage means for storing prediction coefficients; and baseband video based on the prediction coefficients corresponding to the classes classified by the classification means. A video signal conversion device comprising: a generation unit that predictively generates a signal.
【請求項2】 前記ベースバンドの映像信号は、コンポ
ーネント信号またはRGB信号であることを特徴とする請
求項1に記載の映像信号変換装置。
2. The video signal conversion device according to claim 1, wherein the baseband video signal is a component signal or an RGB signal.
【請求項3】 前記分類手段は、 ドット妨害成分を検出する検出手段と、 前記検出手段により検出されたドット妨害成分の大きさ
に基づいて前記クラスを判定する判定手段とを備えるこ
とを特徴とする請求項1に記載の映像信号変換装置。
3. The method according to claim 2, wherein the classifying unit includes a detecting unit configured to detect a dot interfering component, and a determining unit configured to determine the class based on a size of the dot interfering component detected by the detecting unit. The video signal conversion device according to claim 1.
【請求項4】 前記検出手段は、 複数の画素の値を加算して輝度信号成分を演算する演算
手段と、 前記演算手段による演算結果から色信号成分を抽出する
抽出手段と、 前記抽出手段により抽出された色信号成分の振幅を検出
する振幅検出手段とを備え、 前記判定手段は、前記振幅検出手段により検出された複
数の色信号成分の大きさを比較して、前記クラスを判定
することを特徴とする請求項3に記載の映像信号変換装
置。
4. An arithmetic unit for calculating a luminance signal component by adding values of a plurality of pixels; an extracting unit for extracting a color signal component from a calculation result by the arithmetic unit; Amplitude detecting means for detecting the amplitude of the extracted color signal component, wherein the determining means determines the class by comparing the magnitudes of the plurality of color signal components detected by the amplitude detecting means. The video signal conversion device according to claim 3, wherein:
【請求項5】 入力されたコンポジット映像信号をクラ
ス分類する分類ステップと、 予測係数を記憶する記憶ステップと、 前記分類ステップで分類された前記クラスに対応する前
記予測係数に基づき、ベースバンドの映像信号を予測生
成する生成ステップとを含むことを特徴とする映像信号
変換方法。
5. A classification step of classifying an input composite video signal, a storage step of storing a prediction coefficient, and a baseband video based on the prediction coefficient corresponding to the class classified in the classification step. And a generating step of predictively generating a signal.
【請求項6】 入力されたコンポジット映像信号をクラ
ス分類する分類ステップと、 予測係数を記憶する記憶ステップと、 前記分類ステップで分類された前記クラスに対応する前
記予測係数に基づき、ベースバンドの映像信号を予測生
成する生成ステップとを含む処理を映像信号変換装置に
実行させるコンピュータが読みとり可能なプログラムを
提供することを特徴とする提供媒体。
6. A classification step of classifying an input composite video signal into a class, a storage step of storing a prediction coefficient, and a baseband video based on the prediction coefficient corresponding to the class classified in the classification step. A providing medium for providing a computer-readable program for causing a video signal converter to execute a process including a generation step of predictively generating a signal.
JP17238798A 1998-06-19 1998-06-19 Video signal conversion apparatus and method Expired - Fee Related JP4062714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17238798A JP4062714B2 (en) 1998-06-19 1998-06-19 Video signal conversion apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17238798A JP4062714B2 (en) 1998-06-19 1998-06-19 Video signal conversion apparatus and method

Publications (2)

Publication Number Publication Date
JP2000013816A true JP2000013816A (en) 2000-01-14
JP4062714B2 JP4062714B2 (en) 2008-03-19

Family

ID=15940991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17238798A Expired - Fee Related JP4062714B2 (en) 1998-06-19 1998-06-19 Video signal conversion apparatus and method

Country Status (1)

Country Link
JP (1) JP4062714B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335541A (en) * 2001-05-10 2002-11-22 Sony Corp Equipment and method of processing image, recording medium, and program
JP2011041028A (en) * 2009-08-11 2011-02-24 Sony Corp Video signal processing apparatus, dot disturbance detection method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335541A (en) * 2001-05-10 2002-11-22 Sony Corp Equipment and method of processing image, recording medium, and program
JP2011041028A (en) * 2009-08-11 2011-02-24 Sony Corp Video signal processing apparatus, dot disturbance detection method and program

Also Published As

Publication number Publication date
JP4062714B2 (en) 2008-03-19

Similar Documents

Publication Publication Date Title
US5325186A (en) Motion adaptive luminance signal and color signal separating filter
JPH0591533A (en) Movement adaptive type brightness signal/ chrominance signal separating filter
JPH10112845A (en) Interlaced progressive scan conversion method and circuit for image signal
US5475445A (en) Motion adaptive luminance signal and color signal separation filter
JP3231309B2 (en) Motion information signal detection circuit
JP4062714B2 (en) Video signal conversion apparatus and method
US7061538B2 (en) Image-information converting apparatus and method, image displaying apparatus and method, coefficient calculating apparatus and method, coefficient-data storing apparatus, apparatus and method for detecting part where picture quality is degraded, recording medium, and program
JP2003324752A (en) Signal processing apparatus and method, recording medium, and program
JP3663613B2 (en) Video signal processing apparatus and method
JPH01277092A (en) motion detection circuit
JP4752130B2 (en) Image processing apparatus and method, recording medium, and program
JP2000138949A (en) Image information conversion device and conversion method
JP3195943B2 (en) Motion adaptive luminance signal / color signal separation filter
KR0167999B1 (en) Luminance and Color Signal Separation Circuit
JPS6346090A (en) television receiver
US20060125966A1 (en) Luminance and color separation
JP2786304B2 (en) Motion adaptive luminance signal color signal separation filter
JPH0884274A (en) Video image noise eliminating circuit
JP2757495B2 (en) Motion adaptive luminance signal color signal separation filter
JPH10150674A (en) Receiver and its method
JP2002354499A (en) Video signal processor
JPH03274888A (en) Motion adaptive type luminance signal/chrominance signal separating filter
JPH04351090A (en) Y/c separation device
JPH05219531A (en) Motion signal generating circuit
JPH08149503A (en) Separation filter for motion adaptive luminance signal chrominance signal and television signal reception circuit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070425

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070625

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070717

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071223

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees