[go: up one dir, main page]

JP2010114529A - Video processor, and method therefor - Google Patents

Video processor, and method therefor Download PDF

Info

Publication number
JP2010114529A
JP2010114529A JP2008283727A JP2008283727A JP2010114529A JP 2010114529 A JP2010114529 A JP 2010114529A JP 2008283727 A JP2008283727 A JP 2008283727A JP 2008283727 A JP2008283727 A JP 2008283727A JP 2010114529 A JP2010114529 A JP 2010114529A
Authority
JP
Japan
Prior art keywords
field
frame
combing degree
combing
caption
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008283727A
Other languages
Japanese (ja)
Other versions
JP2010114529A5 (en
JP5288997B2 (en
Inventor
Hironori Aokage
弘典 青景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008283727A priority Critical patent/JP5288997B2/en
Publication of JP2010114529A publication Critical patent/JP2010114529A/en
Publication of JP2010114529A5 publication Critical patent/JP2010114529A5/ja
Application granted granted Critical
Publication of JP5288997B2 publication Critical patent/JP5288997B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To highly accurately determine whether or not telecine video images include closed captions. <P>SOLUTION: A combing degree detection part 15 calculates the combing degree c1 of a frame generated from an attention field C and a succeeding field N. A combing degree detection part 16 calculates the combing degree c2 of a frame generated from the attention field C by intra-field interpolation, A combing degree detection part 17 calculates the combing degree c3 of a frame generated from the attention field C and a previous field P. An optimum frame detection part 18 calculates an evaluation value indicating the field to generate the frame corresponding to the attention field on the basis of the combing degree. A state machine part 19 determines whether or not the attention field C includes the closed caption on the basis of the evaluation value. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、インタレース走査の映像信号をプログレッシブ走査の映像信号に変換する映像処理に関する。   The present invention relates to video processing for converting an interlaced scanning video signal into a progressive scanning video signal.

例えばテレビジョンなど、動画像データを伝送、蓄積する際の形式として、毎秒60フィールドのインタレース走査画像が用いられている。ディジタル放送や、DVDによるディジタル動画の蓄積には、MPEG-2動画符号化により、インタレース走査画像を圧縮する。また、ビデオカメラによる撮影においても、毎秒60フィールドのインタレース走査による撮影が一般的である。   For example, an interlaced scanned image of 60 fields per second is used as a format for transmitting and storing moving image data such as a television. For storing digital moving images by digital broadcasting or DVD, interlaced scanned images are compressed by MPEG-2 moving image encoding. Further, even with video camera photography, photography by interlaced scanning at 60 fields per second is common.

一方、フィルム映画の撮影、上映においては、毎秒24フレームの画像が用いられる。従って、映画をテレビジョン放送したり、DVDに記録する場合は、毎秒24フレームのプログレッシブ走査画像を毎秒60フィールドのインタレース走査画像に変換する作業が必要になり、この変換は一般に2-3プルダウンと呼ばれている。   On the other hand, images of 24 frames per second are used in film movie shooting and screening. Therefore, when a movie is broadcast on television or recorded on a DVD, it is necessary to convert a progressive scan image of 24 frames per second into an interlaced scan image of 60 fields per second, and this conversion is generally 2-3 pulldown. is called.

また、映画には、台詞が字幕で入る場面がある。この字幕は、毎秒30フレームで作成されている。映画をテレビジョン放送したり、DVDに記録する場合は、毎秒30フレームの字幕画像(プログレッシブ走査画像)を毎秒60フィールドのインタレース走査画像に変換する、一般に2-2プルダウンと呼ばれる変換が行われる。   Also, there are scenes where the dialogue is entered in subtitles in the movie. This subtitle is created at 30 frames per second. When a movie is broadcast on television or recorded on a DVD, a conversion called 30-frame subtitle image (progressive scan image) is converted to an interlaced scan image of 60 fields per second, generally called 2-2 pulldown. .

図1はフィルム映画をテレビジョン信号に変換するテレシネを説明する図である。   FIG. 1 is a diagram for explaining telecine for converting a film movie into a television signal.

図1に示す(24p)は映画のフレーム(毎秒24フレーム)を示し、(60i)はインタレース走査のフィールド(毎秒60フィールド)を示す。2-3プルダウンは、A、B、C、Dと連続する映画の4フレームを、Ao、Ae、Bo、Be、Bo、Ce、Co、De、Do、Deのように、交互に2フィールドと3フィールドのインタレース走査画像に変換する。つまり、映画の4フレームを10フィールド(5フレーム)のテレビジョン信号に変換する。   In FIG. 1, (24p) indicates a frame of a movie (24 frames per second), and (60i) indicates a field of interlace scanning (60 fields per second). 2-3 pull-down shows four frames of a movie that are continuous with A, B, C, D, and two fields alternately like Ao, Ae, Bo, Be, Bo, Ce, Co, De, Do, De. Convert to 3-field interlaced scanned image. That is, 4 frames of a movie are converted into a television signal of 10 fields (5 frames).

図2は字幕画像をテレビジョン信号に変換するテレシネを説明する図である。   FIG. 2 is a diagram for explaining telecine for converting a caption image into a television signal.

図2に示す(30p)は字幕のフレーム(毎秒30フレーム)を示し、(60i)はインタレース走査のフィールド(毎秒60フィールド)を示す。2-2プルダウンは、A、B、C、D、Eと連続する字幕の5フレームを、Ao、Ae、Bo、Be、Co、Ce、Do、De、Eo、Eeのように、2フィールドのインタレース走査画像に変換する。つまり、字幕の5フレームを10フィールド(5フレーム)のテレビジョン信号に変換する。   In FIG. 2, (30p) indicates a subtitle frame (30 frames per second), and (60i) indicates an interlaced scanning field (60 fields per second). 2-2 pulldown is a 5-field subtitle sequence consisting of A, B, C, D, E, 2 fields like Ao, Ae, Bo, Be, Co, Ce, Do, De, Eo, Ee. Convert to interlaced scanned image. That is, 5 frames of subtitles are converted into a television signal of 10 fields (5 frames).

図1や図2の(60i)に示す、交互に2フィールドと3フィールドを繰り返すパターンや、2フィールドを繰り返すパターンの検出には、ステートマシン(状態遷移装置)を用いる手法が知られている(特許文献1参照)。ステートマシンは、詳細は特許文献1の図4に記載されているが、予め決められた状態を、決められた条件に従って、決められた順番に遷移する装置のことである。   A method using a state machine (state transition device) is known to detect patterns that repeat 2 fields and 3 fields alternately and patterns that repeat 2 fields as shown in (60i) of FIG. 1 and FIG. 2 ( (See Patent Document 1). The details of the state machine, which is described in FIG. 4 of Patent Document 1, is a device that changes a predetermined state in a predetermined order according to a predetermined condition.

テレビジョン信号を表示する装置は、古くはCRTを用い、インタレース走査画像をそのまま表示していた。しかし、近年、LCD、プラズマなどに代表されるプログレッシブ走査の表示デバイスが普及し、インタレース走査画像をプログレッシブ走査画像に変換して表示する方式が普及した。   In the past, devices that displayed television signals used CRTs to display interlaced scanned images as they were. However, in recent years, progressive scanning display devices such as LCD and plasma have become widespread, and a method of converting an interlaced scanned image into a progressive scanned image for display has become widespread.

2-3プルダウン、または、2-2プルダウンされたインタレース走査画像をプログレッシブ走査画像に変換(以下、IP変換: interlace to progressive conversion)する手法としてWeave処理が知られている。Weave処理は、前後の2フィールドを合成することによりプログレッシブ画像を生成する処理である(例えば、特許文献2参照)。   Weave processing is known as a method of converting a 2-3 pulldown or 2-2 pulldown interlaced scan image into a progressive scan image (hereinafter referred to as IP conversion: interlace to progressive conversion). The Weave process is a process for generating a progressive image by combining two fields before and after (see, for example, Patent Document 2).

図1の(60p)は2-3プルダウンされたインタレース走査画像をWeave処理したプログレッシブ走査画像を示し、図2の(60p)は2-2プルダウンされたインタレース走査画像をWeave処理したプログレッシブ画像を示している。   (60p) in Fig. 1 shows a progressive scan image obtained by Weave processing on a 2-3 pulldown interlaced scan image, and (60p) in Fig. 2 shows a progressive image obtained by Weave processing on an interlaced scan image pulled down 2-2. Is shown.

2-3プルダウンされたインタレース走査画像からIP変換されるプログレッシブ走査画像の各フレームを補間処理する場合の参照フィールド(以下、補間相手)は、A1フレームの場合は後続のフィールド(以下、後フィールド)であるAeフィールドである。また、A2フレームの場合は先行するフィールド(以下、前フィールド)であるAoフィールドである。各フレームの補間相手の関係を抽出すると「後、前、後、前、前」というパターンが繰り返される。   The reference field (hereinafter referred to as the interpolation partner) when interpolating each frame of the progressive scanned image that is IP-converted from the 2-3 pull-down interlaced scanned image is the subsequent field (hereinafter referred to as the following field) in the case of the A1 frame. ) Is an Ae field. In the case of an A2 frame, the Ao field is a preceding field (hereinafter referred to as the previous field). When the relationship between the interpolation partners of each frame is extracted, the pattern “back, front, back, front, front” is repeated.

一方、2-2プルダウンされたインタレース走査画像からIP変換されるプログレッシブ走査画像の各フレームを補間相手を抽出すると「後、前」が繰り返される。ただし、2-3プルダウンされたインタレース走査画像からIP変換されるプログレッシブ走査画像との対応を考えると、図2に示すように「後、前、後、前、後」と「前、後、前、後、前」というパターンの繰り返しになる。   On the other hand, when the interpolation partner is extracted from each frame of the progressive scan image that is IP-converted from the interlaced scan image that has been pulled down 2-2, “after, before” is repeated. However, considering the correspondence with the progressive scan image that is IP-converted from the 2-3 pull-down interlaced scan image, as shown in FIG. 2, “back, front, back, front, back” and “front, back, The pattern of “before, after, before” is repeated.

従って、映像に字幕がある場合、これら二つの繰り返しパターンが混在することになり、字幕が入ったり消えたりする瞬間、字幕部分に走査線方向の櫛状ノイズが生じる場合がある。また、字幕は正常に表示されるが、映像が走査線方向に櫛状に乱れる現象が生じる場合もある。このようなノイズや乱れはコーミング(combing)ノイズと呼ばれる。   Therefore, when there are subtitles in the video, these two repeated patterns are mixed, and at the moment when the subtitles enter or disappear, comb noise in the scanning line direction may occur in the subtitle portion. In addition, although the subtitles are normally displayed, there may be a phenomenon that the video is disturbed in a comb shape in the scanning line direction. Such noise and disturbance are called combing noise.

例えば、特許文献3は、周辺画素との間の高周波成分から字幕を検出して、字幕部分とそれ以外の部分は別のIP変換を行う手法を提案する。しかし、このような手法は、字幕ではない部分も字幕として検出する可能性があり、字幕ではない部分に字幕用のIP変換を行えば、映画の画質劣化が生じる。   For example, Patent Document 3 proposes a method of detecting subtitles from high-frequency components between peripheral pixels and performing separate IP conversion on the subtitle portion and other portions. However, such a method may detect a portion that is not a subtitle as a subtitle. If subtitle IP conversion is performed on a portion that is not a subtitle, image quality degradation of the movie occurs.

このように、IP変換において、2-3プルダウンされたインタレース走査画像を入力して高画質なプログレッシブ走査画像(映像)を得ることはできるが、映像に字幕が入る場合、高画質な映像が得られるとは限らない。   In this way, in IP conversion, it is possible to obtain a high-quality progressive scan image (video) by inputting a 2-3 pull-down interlaced scan image, but when subtitles are included in the video, It is not necessarily obtained.

特開平10-065964号公報Japanese Patent Laid-Open No. 10-065964 特開平11-088845号公報Japanese Patent Laid-Open No. 11-088845 特開2007-074439公報JP2007-074439

本発明は、テレシネ映像が字幕を含むか否かを高精度に判定することを目的とする。   An object of the present invention is to determine with high accuracy whether or not a telecine video includes subtitles.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明は、インタレース走査の映像信号をプログレッシブ走査の映像信号に変換する際に、注目フィールドと後フィールドから生成したフレームのコーミング度、フィールド内補間により、前記注目フィールドから生成したフレームのコーミング度、並びに、前記注目フィールドと前フィールドから生成したフレームのコーミング度を算出し、前記コーミング度に基づき、前記注目フィールドに対応するフレームを生成すべきフィールドを示す評価値を算出し、前記評価値に基づき、前記注目フィールドが字幕を含むか否かを判定することを特徴とする。   The present invention provides a combing degree of a frame generated from a field of interest and a subsequent field, and a combing degree of a frame generated from the field of interest by intra-field interpolation when an interlaced scanning video signal is converted into a video signal of progressive scanning. In addition, a combing degree of a frame generated from the attention field and the previous field is calculated, and an evaluation value indicating a field in which a frame corresponding to the attention field is to be generated is calculated based on the combing degree. Based on this, it is determined whether or not the field of interest includes a caption.

本発明によれば、テレシネ映像が字幕を含むか否かを高精度に判定することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can be determined with high precision whether a telecine image | video contains a caption.

以下、本発明にかかる実施例の映像信号処理を図面を参照して詳細に説明する。   Hereinafter, video signal processing according to an embodiment of the present invention will be described in detail with reference to the drawings.

映画の字幕位置は、画面の下端や右端と様々である。しかし、一本の映画において、字幕位置はほぼ不変である。実施例は、この字幕位置の特性を利用して字幕部分を高精度に検出する。   Movie subtitle positions vary from the lower and right edges of the screen. However, the caption position in a single movie is almost unchanged. In the embodiment, the subtitle portion is detected with high accuracy using the characteristic of the subtitle position.

[装置の構成]
図3は実施例の映像信号処理装置の構成例を示すブロック図である。なお、説明を簡単にするため、処理対象を映像信号の輝度信号とする例を説明するが、これに限定されるものではない。
[Device configuration]
FIG. 3 is a block diagram illustrating a configuration example of the video signal processing apparatus according to the embodiment. In order to simplify the description, an example in which the processing target is a luminance signal of a video signal will be described, but the present invention is not limited to this.

入力端子11に入力されるインタレース走査の映像信号(なお、説明を簡単なものとするため、色成分がない輝度信号とする)は、フィールドメモリ12、コーミング度検出部15、画素補正部22に供給される。   An interlaced scanning video signal input to the input terminal 11 (in order to simplify the explanation, a luminance signal having no color component) is used as a field memory 12, a combing degree detection unit 15, and a pixel correction unit 22. To be supplied.

フィールドメモリ12、13は、インタレース走査の映像信号の1フィールド分を格納するメモリ容量を備える。フィールドメモリ12は、映像信号を1フィールド時間分遅延して、遅延した映像信号をフィールドメモリ13、フィールド内補間部14、コーミング度検出部15、17、字幕エリア検出部20へ出力する。フィールドメモリ13は、映像信号をさらに1フィールド時間分遅延して、2フィールド(1フレーム)時間分遅延した映像信号をコーミング度検出部17、画素補正部22へ出力する。   The field memories 12 and 13 have a memory capacity for storing one field of interlaced scanning video signals. The field memory 12 delays the video signal by one field time, and outputs the delayed video signal to the field memory 13, the intra-field interpolation unit 14, the combing degree detection units 15 and 17, and the caption area detection unit 20. The field memory 13 further delays the video signal by one field time, and outputs the video signal delayed by two fields (one frame) time to the combing degree detection unit 17 and the pixel correction unit 22.

以下では、2フィールド時間分遅延したフィールドを前フィールドP、1フィールド時間分遅延したフィールドを注目フィールドC、入力端子11に入力されたフィールドを後フィールドNとする。   In the following, a field delayed by two field times is referred to as a previous field P, a field delayed by one field time is referred to as a target field C, and a field input to the input terminal 11 is referred to as a subsequent field N.

フィールド内補間部14は、注目フィールドCの画素が存在しないライン(注目ライン)を、注目ラインに隣接する二つのライン(隣接ライン)のデータを用いて、例えばバイキュービック法などにより補間してフレーム画像Fcを生成する。そして、フレーム画像Fcをコーミング度検出部16と画素補正部22に出力する。   The intra-field interpolation unit 14 interpolates a line in which the pixel of the target field C does not exist (target line) by using data of two lines (adjacent lines) adjacent to the target line, for example, by a bicubic method. An image Fc is generated. The frame image Fc is output to the combing degree detection unit 16 and the pixel correction unit 22.

コーミング度検出部15、16、17はそれぞれ、詳細は後述するが、入力されるフレームのコーミングノイズの量を示す指標(以下、コーミング度)を検出する。コーミング度検出部15は、注目フィールドCと後フィールドNを合成して作成したフレーム画像Fcnのコーミング度c1を検出する。コーミング度検出部16は、フィールド内補間されたフレーム画像Fcのコーミング度c2を検出する。コーミング度検出部17は、前フィールドPと注目フィールドCを合成して作成したフレーム画像Fpcのコーミング度c3を検出する。そして、各コーミング度検出部の検出結果は、最適フレーム検出部18に入力される。   Although described in detail later, each of the combing degree detection units 15, 16, and 17 detects an index (hereinafter referred to as a “combing degree”) indicating the amount of combing noise of an input frame. The combing degree detection unit 15 detects the combing degree c1 of the frame image Fcn created by combining the target field C and the subsequent field N. The combing degree detection unit 16 detects the combing degree c2 of the frame image Fc interpolated in the field. The combing degree detection unit 17 detects the combing degree c3 of the frame image Fpc created by combining the previous field P and the target field C. The detection result of each combing degree detection unit is input to the optimum frame detection unit 18.

最適フレーム検出部18は、詳細は後述するが、コーミング度を基にフレームを生成する場合のフィールドの組み合わせを仮に決定する。つまり、注目フィールドCと、前後何れかのフィールドを合成してフレームを生成するのがよいか、あるいは、何れのフィールドとも合成せずに注目フォールドCだけからフレームを生成した方がよいか、を仮決定する。   Although the details will be described later, the optimal frame detection unit 18 temporarily determines a combination of fields when generating a frame based on the combing degree. In other words, whether to generate a frame by combining the field of interest C and any of the fields before and after, or whether it is better to generate a frame from only the field of interest C without combining with any field. Make a provisional decision.

ステートマシン部19は、詳細は後述するが、最適フレーム検出部18が仮決定したフレーム生成情報に基づき、フィールド内に字幕があるか否かの判定と、フィールドがテレシネにより生成されたものか否かの判定を行う。   Although the details will be described later, the state machine unit 19 determines whether there is a caption in the field based on the frame generation information provisionally determined by the optimum frame detection unit 18, and whether the field is generated by telecine. Judgment is made.

字幕エリア検出部20は、注目フィールドCのフィールド情報と、ステートマシン部19が出力する情報に基づき、注目フィールドCの字幕が存在するエリア(以下、字幕エリア)を大まかに検出する。字幕特定部21は、字幕エリアから字幕位置を特定する。画素補正部22は、ステートマシン部19が出力する情報と、字幕特定部21の特定結果に基づき、画素を補正して、補正結果の映像信号を出力端子23に出力する。   The subtitle area detection unit 20 roughly detects an area where the subtitle of the field of interest C exists (hereinafter, a subtitle area) based on the field information of the field of interest C and the information output by the state machine unit 19. The caption identifying unit 21 identifies the caption position from the caption area. The pixel correction unit 22 corrects the pixel based on the information output from the state machine unit 19 and the specification result of the caption specifying unit 21, and outputs a video signal of the correction result to the output terminal 23.

●コーミング度検出部15
図4はコーミング度検出部15によるフレーム画像Fcnの生成を示す図である。
● Combing degree detector 15
FIG. 4 is a diagram illustrating generation of the frame image Fcn by the combing degree detection unit 15.

図4に示すように、コーミング度検出部15は、注目フィールドCと後フィールドNを合成してフレーム画像Fcnを生成し、ブロック単位にコーミング度を算出してコーミング度が高いブロック(以下、コーミングブロック)か否かを判定する。そして、フレーム画像Fcnの全体におけるコーミングブロックの数をカウントして、フレーム画像Fcnのコーミング度c1を算出する。   As shown in FIG. 4, the combing degree detection unit 15 generates a frame image Fcn by synthesizing the field of interest C and the post field N, calculates the combing degree in units of blocks (hereinafter referred to as combing degree). Block). Then, the number of combing blocks in the entire frame image Fcn is counted, and the combing degree c1 of the frame image Fcn is calculated.

図5はコーミング度を算出するブロックを構成する画素を説明する図である。例えば、図5に示すように、注目フィールドCの3×2画素Cij(i=0, 1、j=0〜2)と、後フィールドNの3×3画素Nij(i, j=0〜2)からなるフレーム画像Fcnの3×5画素をブロックにする。   FIG. 5 is a diagram for explaining pixels constituting a block for calculating the combing degree. For example, as shown in FIG. 5, 3 × 2 pixels Cij (i = 0, 1, j = 0 to 2) in the field of interest C and 3 × 3 pixels Nij (i, j = 0 to 2) in the subsequent field N The 3 × 5 pixels of the frame image Fcn consisting of

コーミング度検出部15は、図6に示すように、ブロックを構成する注目フィールドCの画素と後フィールドNの画素を用いて三つのフレーム構造(それぞれサブブロックと呼ぶ)を構成する。そして、図6に示すサブブロックA、サブブロックB、サブブロックCにおいて次の演算を行う。
if (サブブロックA) {
A1 = min(|N00-C00|, |N01-C01|, |N02-C02|);
A2 = min(|C00-N10|, |C01-N11|, |C02-N12|);
A3 = min(|N00-N10|, |N01-N11|, |N02-N12|);
SA = A1 + A2 - A3;
}
if (サブブロックB) {
B1 = min(|C00-N10|, |C01-N11|, |C02-N12|);
B2 = min(|N10-C10|, |N11-C11|, |N12-C12|);
B3 = min(|C00-C10|, |C01-C11|, |C02-C12|);
SB = B1 + B2 - B3;
}
if (サブブロックC) {
C1 = min(|N10-C10|, |N11-C11|, |N12-C12|);
C2 = min(|C10-N20|, |C11-N21|, |C12-N22|);
C3 = min(|N10-N20|, |N11-N21|, |N12-N22|);
SC = C1 + C2 - C3;
} …(1)
ここで、min( )は最小の値を出力する関数。
As shown in FIG. 6, the combing degree detection unit 15 forms three frame structures (each referred to as a sub-block) using the pixel of the field of interest C and the pixel of the subsequent field N constituting the block. Then, the following calculation is performed in sub-block A, sub-block B, and sub-block C shown in FIG.
if (Subblock A) {
A1 = min (| N00-C00 |, | N01-C01 |, | N02-C02 |);
A2 = min (| C00-N10 |, | C01-N11 |, | C02-N12 |);
A3 = min (| N00-N10 |, | N01-N11 |, | N02-N12 |);
SA = A1 + A2-A3;
}
if (Subblock B) {
B1 = min (| C00-N10 |, | C01-N11 |, | C02-N12 |);
B2 = min (| N10-C10 |, | N11-C11 |, | N12-C12 |);
B3 = min (| C00-C10 |, | C01-C11 |, | C02-C12 |);
SB = B1 + B2-B3;
}
if (Subblock C) {
C1 = min (| N10-C10 |, | N11-C11 |, | N12-C12 |);
C2 = min (| C10-N20 |, | C11-N21 |, | C12-N22 |);
C3 = min (| N10-N20 |, | N11-N21 |, | N12-N22 |);
SC = C1 + C2-C3;
}… (1)
Where min () is a function that outputs the minimum value.

さらに、各サブブロックの演算結果を基に、次式に従い、ブロックのスコアSを算出する。
M1 = min(SA, SB);
M2 = min(SB, SC);
S = max(M1, M2); …(2)
ここで、max( )は最大の値を出力する関数。
Further, based on the calculation result of each sub-block, the block score S is calculated according to the following equation.
M1 = min (SA, SB);
M2 = min (SB, SC);
S = max (M1, M2);… (2)
Here, max () is a function that outputs the maximum value.

そして、スコアSと所定の閾値Cthを比較してS>Cthならば、当該ブロックをコーミングブロックと判定する。   Then, when the score S is compared with a predetermined threshold Cth and S> Cth, the block is determined as a combing block.

コーミング度検出部15、上記の処理をフレーム画像Fcnの全体に亘って行い、フレーム画像Fcnにおけるコーミングブロックの数C_countを計数する。そして、次式によりコーミング度c1を計算する。
c1 = C_count/C_count_max1 …(3)
The combing degree detection unit 15 performs the above processing over the entire frame image Fcn, and counts the number C_count of combing blocks in the frame image Fcn. Then, the combing degree c1 is calculated by the following equation.
c1 = C_count / C_count_max1 (3)

●コーミング度検出部17
図7はコーミング度検出部17によるフレーム画像Fpcの生成を示す図である。
● Combing degree detector 17
FIG. 7 is a diagram showing the generation of the frame image Fpc by the combing degree detection unit 17.

図7に示すように、コーミング度検出部15は、前フィールドPと注目フィールドCを合成してフレーム画像Fpcを生成し、ブロック単位にコーミング度を算出してコーミングブロックか否かを判定する。そして、フレーム画像Fpcの全体におけるコーミングブロックの数をカウントして、フレーム画像Fpcのコーミング度c3を算出する。   As shown in FIG. 7, the combing degree detection unit 15 combines the previous field P and the field of interest C to generate a frame image Fpc, calculates the combing degree for each block, and determines whether or not it is a combing block. Then, the number of combing blocks in the entire frame image Fpc is counted to calculate the combing degree c3 of the frame image Fpc.

図8はコーミング度を算出するブロックを構成する画素を説明する図である。例えば、図8に示すように、前フィールドPの3×3画素Pij(i, j=0〜2)と、注目フィールドCの3×2画素Cij(i=0, 1、j=0〜2)からなるフレーム画像Fpcの3×5画素をブロックにする。   FIG. 8 is a diagram for explaining pixels constituting a block for calculating the combing degree. For example, as shown in FIG. 8, 3 × 3 pixels Pij (i, j = 0 to 2) of the previous field P and 3 × 2 pixels Cij (i = 0, 1, j = 0 to 2) of the field of interest C The 3 × 5 pixels of the frame image Fpc consisting of

コーミング度検出部17は、図9に示すように、ブロックを構成する前フィールドPの画素と注目フィールドCの画素を用いてサブブロックを構成する。そして、図9に示すサブブロックD、サブブロックE、サブブロックFにおいて次の演算を行う。
if (サブブロックD) {
D1 = min(|P00-C00|, |P01-C01|, |P02-C02|);
D2 = min(|C00-P10|, |C01-P11|, |C02-P12|);
D3 = min(|P00-P10|, |P01-P11|, |P02-P12|);
SD = D1 + D2 - D3;
}
if (サブブロックE) {
E1 = min(|C00-P10|, |C01-P11|, |C02-P12|);
E2 = min(|P10-C10|, |P11-C11|, |P12-C12|);
E3 = min(|C00-C10|, |C01-C11|, |C02-C12|);
SE = E1 + E2 - E3;
}
if (サブブロックF) {
F1 = min(|P10-C10|, |P11-C11|, |P12-C12|);
F2 = min(|C10-P20|, |C11-P21|, |C12-P22|);
F3 = min(|P10-P20|, |P11-P21|, |P12-P22|);
SF = F1 + F2 - F3;
} …(4)
As shown in FIG. 9, the combing degree detection unit 17 forms a sub-block using the pixels in the previous field P and the pixel in the field of interest C that form the block. Then, the following calculation is performed in sub-block D, sub-block E, and sub-block F shown in FIG.
if (Subblock D) {
D1 = min (| P00-C00 |, | P01-C01 |, | P02-C02 |);
D2 = min (| C00-P10 |, | C01-P11 |, | C02-P12 |);
D3 = min (| P00-P10 |, | P01-P11 |, | P02-P12 |);
SD = D1 + D2-D3;
}
if (Subblock E) {
E1 = min (| C00-P10 |, | C01-P11 |, | C02-P12 |);
E2 = min (| P10-C10 |, | P11-C11 |, | P12-C12 |);
E3 = min (| C00-C10 |, | C01-C11 |, | C02-C12 |);
SE = E1 + E2-E3;
}
if (Subblock F) {
F1 = min (| P10-C10 |, | P11-C11 |, | P12-C12 |);
F2 = min (| C10-P20 |, | C11-P21 |, | C12-P22 |);
F3 = min (| P10-P20 |, | P11-P21 |, | P12-P22 |);
SF = F1 + F2-F3;
} …(Four)

さらに、各サブブロックの演算結果を基に、次式に従い、ブロックのスコアSを算出する。
M3 = min(SD, SE);
M4 = min(SE, SF);
S = max(M3, M4); …(5)
Further, based on the calculation result of each sub-block, the block score S is calculated according to the following equation.
M3 = min (SD, SE);
M4 = min (SE, SF);
S = max (M3, M4);… (5)

そして、スコアSと所定の閾値Cthを比較してS>Cthならば、当該ブロックをコーミングブロックと判定する。   Then, when the score S is compared with a predetermined threshold Cth and S> Cth, the block is determined as a combing block.

コーミング度検出部17、上記の処理をフレーム画像Fpcの全体に亘って行い、フレーム画像Fpcにおけるコーミングブロックの数C_countを計数する。そして、次式によりコーミング度c3を計算する。
c3 = C_count/C_count_max3 …(6)
The combing degree detection unit 17 performs the above processing over the entire frame image Fpc, and counts the number C_count of combing blocks in the frame image Fpc. Then, the combing degree c3 is calculated by the following equation.
c3 = C_count / C_count_max3… (6)

●コーミング度検出部16
図10はコーミング度検出部16が入力するフレーム画像Fcを示す図である。
● Combing degree detector 16
FIG. 10 is a diagram illustrating the frame image Fc input by the combing degree detection unit 16.

図10に示すように、コーミング度検出部16は、注目フィールドCから補間されたフレーム画像Fcを入力し、ブロック単位にコーミング度を算出してコーミングブロックか否かを判定する。そして、フレーム画像Fcの全体におけるコーミングブロックの数をカウントして、フレーム画像Fcのコーミング度c2を算出する。   As shown in FIG. 10, the combing degree detection unit 16 inputs the frame image Fc interpolated from the field of interest C, calculates the combing degree for each block, and determines whether or not it is a combing block. Then, the number of combing blocks in the entire frame image Fc is counted, and the combing degree c2 of the frame image Fc is calculated.

図11はコーミング度を算出するブロックを構成する画素を説明する図である。例えば、図11に示すように、注目フィールドCの3×2画素Cij(i=0, 1、j=0〜2)と、注目フィールドCから補間された3×3画素Iij(i, j=0〜2)からなるフレーム画像Fcの3×5画素をブロックにする。   FIG. 11 is a diagram for explaining pixels constituting a block for calculating the combing degree. For example, as shown in FIG. 11, 3 × 2 pixels Cij (i = 0, 1, j = 0 to 2) in the field of interest C and 3 × 3 pixels Iij (i, j = interpolated from the field of interest C) A 3 × 5 pixel of the frame image Fc consisting of 0 to 2) is made into a block.

コーミング度検出部16は、図12に示すように、ブロックを構成する注目フィールドCの画素と、注目フィールドCから補間された画素を用いてサブブロックを構成する。そして、図12に示すサブブロックG、サブブロックH、サブブロックJにおいて次の演算を行う。
if (サブブロックG) {
G1 = min(|I00-C00|, |I01-C01|, |I02-C02|);
G2 = min(|C00-I10|, |C01-I11|, |C02-I12|);
G3 = min(|I00-I10|, |I01-I11|, |I02-I12|);
SG = G1 + G2 - G3;
}
if (サブブロックH) {
H1 = min(|C00-I10|, |C01-I11|, |C02-I12|);
H2 = min(|I10-C10|, |I11-C11|, |I12-C12|);
H3 = min(|C00-C10|, |C01-C11|, |C02-C12|);
SH = H1 + H2 - H3;
}
if (サブブロックJ) {
J1 = min(|P10-C10|, |P11-C11|, |P12-C12|);
J2 = min(|C10-P20|, |C11-P21|, |C12-P22|);
J3 = min(|P10-P20|, |P11-P21|, |P12-P22|);
SJ = J1 + J2 - J3;
} …(7)
As shown in FIG. 12, the combing degree detection unit 16 configures a sub-block using a pixel in the field of interest C constituting the block and a pixel interpolated from the field of interest C. Then, the following calculation is performed in sub-block G, sub-block H, and sub-block J shown in FIG.
if (Subblock G) {
G1 = min (| I00-C00 |, | I01-C01 |, | I02-C02 |);
G2 = min (| C00-I10 |, | C01-I11 |, | C02-I12 |);
G3 = min (| I00-I10 |, | I01-I11 |, | I02-I12 |);
SG = G1 + G2-G3;
}
if (Subblock H) {
H1 = min (| C00-I10 |, | C01-I11 |, | C02-I12 |);
H2 = min (| I10-C10 |, | I11-C11 |, | I12-C12 |);
H3 = min (| C00-C10 |, | C01-C11 |, | C02-C12 |);
SH = H1 + H2-H3;
}
if (subblock J) {
J1 = min (| P10-C10 |, | P11-C11 |, | P12-C12 |);
J2 = min (| C10-P20 |, | C11-P21 |, | C12-P22 |);
J3 = min (| P10-P20 |, | P11-P21 |, | P12-P22 |);
SJ = J1 + J2-J3;
}… (7)

さらに、各サブブロックの演算結果を基に、次式に従い、ブロックのスコアSを算出する。
M5 = min(SG, SH);
M6 = min(SH, SJ);
S = max(M5, M6); …(8)
Further, based on the calculation result of each sub-block, the block score S is calculated according to the following equation.
M5 = min (SG, SH);
M6 = min (SH, SJ);
S = max (M5, M6);… (8)

そして、スコアSと所定の閾値Cthを比較してS>Cthならば、当該ブロックをコーミングブロックと判定する。   Then, when the score S is compared with a predetermined threshold Cth and S> Cth, the block is determined as a combing block.

コーミング度検出部16、上記の処理をフレーム画像Fcの全体に亘って行い、フレーム画像Fcにおけるコーミングブロックの数C_countを計数する。そして、次式によりコーミング度c2を計算する。
c2 = C_count/C_count_max2 …(9)
The combing degree detection unit 16 performs the above processing over the entire frame image Fc, and counts the number C_count of combing blocks in the frame image Fc. Then, the combing degree c2 is calculated by the following equation.
c2 = C_count / C_count_max2 (9)

このように、コーミング度検出部15〜17は、所定のサイズのフレーム構造を作成し、フレーム構造に生じるアーティファクトの強度をコーミング度として算出する。   As described above, the combing degree detection units 15 to 17 create a frame structure having a predetermined size, and calculate the strength of the artifact generated in the frame structure as the combing degree.

●最適フレーム検出部
最適フレーム検出部18は、コーミング度c1からc3に基づき、フレーム画像を生成するフィールドの組み合わせを示す信号fp(評価値)を出力する。
if (fp==p1) 注目フィールドCと後フィールドNの合成が最適;
if (fp==p2) 前フィールドPと注目フィールドCの合成が最適;
if (fp==p3) 何れの組み合わせも最適ではない;
if (fp==p4) 何れの組み合わせも最適ではないが、過去のパターン情報によって注目フィールドCと何れかのフィールドの組み合わせが適切;
Optimal Frame Detection Unit The optimal frame detection unit 18 outputs a signal fp (evaluation value) indicating a combination of fields for generating frame images based on the combing degrees c1 to c3.
if (fp == p1) Combining field of interest C and back field N is optimal;
if (fp == p2) Optimal combination of previous field P and field of interest C;
if (fp == p3) Neither combination is optimal;
if (fp == p4) Any combination is not optimal, but the combination of field of interest C and any field is appropriate according to past pattern information;

信号fpがp4の場合、最適フレーム検出部18は、ステートマシン部19の情報を用いて、最終的に信号fpとしてp1、p2、p3の何れかを出力する。   When the signal fp is p4, the optimum frame detection unit 18 finally outputs one of p1, p2, and p3 as the signal fp using the information of the state machine unit 19.

図13は最適フレーム検出部18の処理を説明するフローチャートである。   FIG. 13 is a flowchart for explaining the process of the optimum frame detection unit 18.

最適フレーム検出部18、カウンタnを0に初期化する(S101)。   The optimum frame detector 18 and the counter n are initialized to 0 (S101).

次に、最適フレーム検出部18は、コーミング度c1と、min(c1, c2, c3)の差分絶対値|Δc1|を算出し(S102)、差分絶対値|Δc1|と閾値mb_thを比較する(S103)。そして、|Δc1|≧mb_thならばカウンタnをインクリメントする(S104)。   Next, the optimal frame detection unit 18 calculates the combing degree c1 and the absolute difference value | Δc1 | of min (c1, c2, c3) (S102), and compares the absolute difference value | Δc1 | with the threshold mb_th ( S103). If | Δc1 | ≧ mb_th, the counter n is incremented (S104).

次に、最適フレーム検出部18は、コーミング度c3と、min(c1, c2, c3)の差分絶対値|Δc3|を算出し(S105)、差分絶対値|Δc3|と閾値mb_thを比較する(S106)。そして、|Δc3|≧mb_thならばカウンタnをインクリメントする(S107)。   Next, the optimal frame detection unit 18 calculates the combing degree c3 and the absolute difference value | Δc3 | of min (c1, c2, c3) (S105), and compares the absolute difference value | Δc3 | with the threshold mb_th ( S106). If | Δc3 | ≧ mb_th, the counter n is incremented (S107).

次に、最適フレーム検出部18は、カウンタnの値に応じて処理を分岐する(S108)。   Next, the optimum frame detection unit 18 branches the process according to the value of the counter n (S108).

カウンタn=1は、c1またはc3が他のコーミング度に比べて大きな値を有することを意味する。例えば、注目フィールドCと前フィールドPを合成したフレーム画像にコーミングが生じ、注目フィールドCと後フィールドNを合成したフレーム画像にはコーミングが生じていないことを示す(勿論、前後が逆の場合もある)。つまり、注目フィールドCとコーミングが生じないフィールドを合成してフレーム画像を生成することが最適と言える。そこで、n=1の場合、最適フレーム検出部18は、c1とc3を比較して(S109)、c1<c3ならば信号fp=p1を出力し(S110)、c1>c3ならば信号fp=p2を出力する(S111)。   Counter n = 1 means that c1 or c3 has a larger value than other combing degrees. For example, it indicates that combing has occurred in the frame image obtained by combining the attention field C and the previous field P, and no combing has occurred in the frame image obtained by combining the attention field C and the subsequent field N (of course, the case where the front and back are reversed) is there). In other words, it can be said that it is optimal to generate a frame image by combining the field of interest C and a field that does not cause combing. Therefore, when n = 1, the optimum frame detection unit 18 compares c1 and c3 (S109), and outputs signal fp = p1 if c1 <c3 (S110), and signal fp = if c1> c3. p2 is output (S111).

また、カウンタn=2は、コーミング度c1とc2が伴に大きな値を有することを意味する。つまり、注目フィールドCと前または後フィールドを合成したフレーム画像にコーミングが生じていることを示し、何れのフィールドとの合成も適さない。そこで、n=2の場合、最適フレーム検出部18は、信号fp=p3を出力する(S112)。   The counter n = 2 means that the combing degrees c1 and c2 have a large value. That is, it indicates that combing has occurred in the frame image obtained by combining the target field C and the previous or subsequent field, and combining with any field is not suitable. Therefore, when n = 2, the optimum frame detection unit 18 outputs the signal fp = p3 (S112).

また、カウンタn=0は、動画像に動きが少ない状況、または、2-3プルダウンされた3フィールド(図1のB1からB3フィールドなど)の中央のフィールド(図1のB2フィールドなど)である。従って、注目フィールドCに合成する最適なフィールドを判断することができない。そこで、n=0の場合、最適フレーム検出部18は、信号fp=p4を出力する(S113)。なお、上述したように、信号fp=p4の場合は、最適フレーム検出部18は、ステートマシン部19において検出されている蓄積パターンに基づき、注目フィールドCに合成する最適なフィールドを最終的に判断する。   The counter n = 0 is a situation where there is little motion in the moving image, or a central field (such as the B2 field in FIG. 1) of the 3 fields pulled down 2-3 (such as the B1 to B3 fields in FIG. 1). . Therefore, the optimum field to be combined with the field of interest C cannot be determined. Therefore, when n = 0, the optimal frame detection unit 18 outputs the signal fp = p4 (S113). As described above, when the signal fp = p4, the optimum frame detection unit 18 finally determines the optimum field to be combined with the field of interest C based on the accumulation pattern detected by the state machine unit 19. To do.

●ステートマシン部
図14はテレシネにおいて字幕が出るプロセスを説明する図であり、一つの番組(映画)のテレシネをテレビジョン放送する場合のタイムチャートを示している。
State Machine Unit FIG. 14 is a diagram for explaining the process of producing subtitles in telecine, and shows a time chart when a telecine of one program (movie) is broadcasted on television.

まず、映画の本編が始まる前にCMなどが入る。CMには色々なプルダウンパターンが入っていることが予測されるが、基本的に、通常の60iの映像、言い換えればテレシネではないと考えて問題ない。   First of all, commercials etc. enter before the main part of the movie starts. CMs are expected to contain various pull-down patterns, but basically there is no problem considering that it is not a normal 60i video, in other words, a telecine.

CMが終了すると映画の本編がスタートする。映画のスタート時は字幕が入らないため、2-3プルダウンされた映像のみが放送される。続いて、字幕が現れると、2-3プルダウンされた映像に2-2プルダウンされた映像が重畳された状況になる。その後、映画の本編の途中でCMが入ると、再び通常の60iの映像になる。   The main part of the movie starts when the commercial ends. Since no subtitles are entered at the start of the movie, only the 2-3 pull-down video is broadcast. Subsequently, when subtitles appear, the video that has been pulled down 2-2 is superimposed on the video that has been pulled down 2-3. Later, if a commercial enters the middle of the movie, it will become a normal 60i video again.

前述したように、字幕位置は、画面の下端であったり、右端であったりと様々であるが「一本の映画において、字幕位置はほぼ不変である」と言える。つまり、映画の本編において、最初に字幕が現れた際に字幕エリアを調べれば、ある程度、字幕位置を特定することができる。   As described above, the subtitle position varies depending on whether it is the lower end or the right end of the screen, but it can be said that “the subtitle position is almost unchanged in one movie”. That is, in the main part of the movie, the subtitle position can be specified to some extent by examining the subtitle area when the subtitle appears for the first time.

そこで、ステートマシン部19は、セレクタ901により、24p+30p検出用のステートマシン902と、24p検出用のステートマシン903を適宜切り替えて、最初に字幕が現れるフィールドを検出する。   Therefore, the state machine unit 19 switches the state machine 902 for 24p + 30p detection and the state machine 903 for 24p detection appropriately by the selector 901, and detects the field in which the caption appears first.

24p+30p検出用のステートマシン902は、2-3プルダウンされた映像パターンと、2-2プルダウンされた映像パターンを検出する。大別すると、2-3プルダウンを検出した状態、2-2プルダウンを検出した状態、何も検出しない状態の三状態があり、1フィールドに三つの状態が混在することはあり得ない。   The state machine 902 for detecting 24p + 30p detects a 2-3 pull-down video pattern and a 2-2 pull-down video pattern. Broadly speaking, there are three states: a state in which 2-3 pull-down is detected, a state in which 2-2 pull-down is detected, and a state in which nothing is detected. Three states cannot be mixed in one field.

セレクタ901によって選択されたステートマシン902は、最適フレーム検出部18が出力する信号fpを入力する。ステートマシン902の状態は、信号fp=p1またはp2が入力された場合は遷移規則に従い遷移し、信号fp=p3が入力された場合は初期状態に戻る。   The state machine 902 selected by the selector 901 receives the signal fp output from the optimum frame detection unit 18. The state machine 902 transitions according to the transition rule when the signal fp = p1 or p2 is input, and returns to the initial state when the signal fp = p3 is input.

例えば、初期状態からp1→p2→p1→p2の順に信号fpが入力された場合、ステートマシン902の状態は1→2→1→2(以下、1212と表記する)と遷移する。2-3プルダウンを検出した遷移状態は112121、121121、121211、211212、212112の五つであり、2-2プルダウンを検出した遷移状態は212121と121212の二つである。これら以外の遷移状態は、何も検出していない状態である。   For example, when the signal fp is input in the order of p1 → p2 → p1 → p2 from the initial state, the state of the state machine 902 changes from 1 → 2 → 1 → 2 (hereinafter referred to as 1212). There are five transition states 112121, 121121, 121211, 2111212, and 212112 in which 2-3 pulldown is detected, and two transition states 212121 and 121212 in which 2-2 pulldown is detected. Transition states other than these are states in which nothing is detected.

ステートマシン902は、2-3プルダウンを検出している場合は画素補正部22へ信号を出力し、2-2プルダウンを検出した場合はセレクタ901と字幕エリア検出部10へ信号を出力する。   The state machine 902 outputs a signal to the pixel correction unit 22 when 2-3 pulldown is detected, and outputs a signal to the selector 901 and the caption area detection unit 10 when 2-2 pulldown is detected.

一方、24p検出用のステートマシン903は、2-3プルダウンされた映像パターンのみを検出する。大別すると、2-3プルダウンを検出した状態、何も検出しない状態の二状態があり、1フィールドに二つの状態が混在することはあり得ない。   On the other hand, the state machine 903 for detecting 24p detects only the 2-3 pull-down video pattern. Broadly speaking, there are two states, a state in which 2-3 pull-down is detected and a state in which nothing is detected, and two states cannot be mixed in one field.

セレクタ901によって選択されたステートマシン903は、最適フレーム検出部18が出力する信号fpを入力する。ステートマシン903の状態は、信号fp=p1またはp2が入力された場合は遷移規則に従い遷移し、信号fp=p3が入力された場合は初期状態に戻る。   The state machine 903 selected by the selector 901 inputs the signal fp output from the optimum frame detection unit 18. The state machine 903 transitions according to the transition rule when the signal fp = p1 or p2 is input, and returns to the initial state when the signal fp = p3 is input.

例えば、初期状態からp1→p2→p1→p2の順に信号fpが入力された場合、ステートマシン903の状態は1212と遷移する。2-3プルダウンを検出した遷移状態は11212、12112、12121、21121、21211の五つであり、これら以外の遷移状態は、何も検出していない状態である。   For example, when the signal fp is input in the order of p1 → p2 → p1 → p2 from the initial state, the state of the state machine 903 transitions to 1212. There are five transition states 11212, 12112, 12121, 21121, and 21211 in which 2-3 pull-down is detected, and other transition states are states in which nothing is detected.

ただし、12121の遷移は、2-3プルダウンを検出した12121以外の四つの遷移状態から遷移するのみとし、2-3プルダウンが検出されていない状態で1212の遷移に続いて信号fp=p1が入力されても、12121へは遷移しないようにする。これは、12121は2-2プルダウンにおいても存在するパターンであり、2-2プルダウンを2-3プルダウンと誤検出しないようにするためである。   However, the transition of 12121 is made only from four transition states other than 12121 where 2-3 pull-down is detected, and signal fp = p1 is input following the transition of 1212 when 2-3 pull-down is not detected. Even if it is done, the transition to 12121 is prevented. This is because 12121 is a pattern that also exists in 2-2 pulldown, so that 2-2 pulldown is not erroneously detected as 2-3 pulldown.

ステートマシン903は、2-3プルダウンを検出している場合はセレクタ901と画素補正部22へ信号を出力する。   The state machine 903 outputs a signal to the selector 901 and the pixel correction unit 22 when 2-3 pulldown is detected.

図14において、SM1は24p+30p検出用のステートマシン902、SM2は24p検出用のステートマシン903を表す。なお、SM1は、2-3プルダウンと2-2プルダウンを検出するが、両方を同時に検出することはできない。さらに、字幕が現れた場合、字幕付近の垂直方向の空間周波数は周辺画素と比較して高くなり、かなり高い確率で2-2プルダウンが検出される傾向にある。また、SM2は、たとえ字幕が現れても、それに影響されることなく、2-3プルダウンを検出することが可能である。   In FIG. 14, SM1 represents a state machine 902 for detecting 24p + 30p, and SM2 represents a state machine 903 for detecting 24p. SM1 detects 2-3 pulldown and 2-2 pulldown, but cannot detect both simultaneously. Furthermore, when a caption appears, the vertical spatial frequency near the caption is higher than that of surrounding pixels, and 2-2 pulldown tends to be detected with a fairly high probability. Moreover, even if subtitles appear, SM2 can detect 2-3 pulldown without being affected by it.

図14に示すように、まず、セレクタ901によってSM1が選択される。CM中は、基本的に、SM1(SM2)は何も検出していない状態になる。映画が始まると、SM1は2-3プルダウンを検出する。続いて、字幕が現れると、SM1は2-2プルダウンを検出する。字幕の出現が検出(2-2プルダウンが検出)されると、セレクタ901によってSM2が選択され、SM2は2-3プルダウンを検出する。再び、CMになると、SM2が何も検出していない状態になるので、セレクタ901によってSM1が選択される。以降は、上記の動作を繰り返す。   As shown in FIG. 14, first, SM1 is selected by the selector 901. During CM, SM1 (SM2) is basically not detecting anything. When the movie starts, SM1 detects 2-3 pulldown. Subsequently, when subtitles appear, SM1 detects 2-2 pulldown. When subtitle appearance is detected (2-2 pull-down is detected), SM2 is selected by the selector 901, and SM2 detects 2-3 pull-down. When it becomes CM again, since SM2 is in a state where nothing is detected, SM1 is selected by the selector 901. Thereafter, the above operation is repeated.

結果的に、ステートマシン部19は、2-3プルダウンを検出していることを示す信号を画素補正部22へ出力し、字幕の出現を検出した瞬間を示す信号を字幕エリア検出部20へ出力することになる。   As a result, the state machine unit 19 outputs a signal indicating that 2-3 pulldown is detected to the pixel correction unit 22, and outputs a signal indicating the moment when the appearance of the caption is detected to the caption area detection unit 20. Will do.

●字幕エリア検出部
字幕エリア検出部20は、ステートマシン部19から字幕が出現した瞬間を示す信号を入力する。字幕エリア検出部20は、当該信号が入力されると、注目フィールドCにおいて、周囲の画素との輝度差が非常に大きい画素(字幕画素候補)を探索する。そして、字幕画素候補がある領域に集中していれば、その領域を字幕エリアと判定する。
Subtitle Area Detection Unit The subtitle area detection unit 20 inputs a signal indicating the moment when a subtitle appears from the state machine unit 19. When the signal is input, the caption area detection unit 20 searches for a pixel (subtitle pixel candidate) having a very large luminance difference from surrounding pixels in the field of interest C. If the subtitle pixel candidates are concentrated in a certain area, the area is determined as a subtitle area.

字幕エリアを判定するには、例えば、字幕が入る領域を考慮して画面を幾つかのブロックに分割し、各ブロックにおいて字幕画素候補の数を計数する。そして、他のブロックと比較して計数値が非常に大きいブロックを字幕エリアと判定する。字幕エリア検出部20は、字幕エリアを判定すると、字幕エリアの検出を示す信号をステートマシン部19のセレクタ901に出力し、再び、24p+30p検出用のステートマシン902が選択されるまで、当該信号を維持する。   In order to determine the caption area, for example, the screen is divided into several blocks in consideration of the area where the caption is entered, and the number of caption pixel candidates is counted in each block. Then, a block whose count value is very large compared to other blocks is determined as a caption area. When the caption area detection unit 20 determines the caption area, the caption area detection unit 20 outputs a signal indicating the detection of the caption area to the selector 901 of the state machine unit 19 until the state machine 902 for 24p + 30p detection is selected again. maintain.

また、字幕エリア検出部20は、字幕画素候補が集中するブロックがない場合は字幕エリアを判定せずに、字幕エリアが未検出を示す信号をステートマシン部19に出力する。この信号に応じて、セレクタ901は、再び、24p+30p検出用のステートマシン902を選択する。   Also, the subtitle area detection unit 20 outputs a signal indicating that the subtitle area is not detected to the state machine unit 19 without determining the subtitle area when there is no block in which subtitle pixel candidates are concentrated. In response to this signal, the selector 901 again selects the state machine 902 for detecting 24p + 30p.

こうすれば、字幕エリアを特定することができる上、字幕以外で2-2プルダウンパターンが検出された場合に、字幕エリアを判定しないため、誤検出を防ぐことができる。   In this way, the subtitle area can be specified, and when the 2-2 pull-down pattern is detected in a place other than the subtitle, the subtitle area is not determined, and thus erroneous detection can be prevented.

●字幕特定部
字幕特定部21は、字幕エリア検出部20から字幕エリアの画像を入力し、字幕エリア内において、周囲の画素との輝度差が非常に大きい画素(字幕画素)を探索し、字幕画素の位置情報を出力する。
● Subtitle Identification Unit The subtitle identification unit 21 inputs the image of the subtitle area from the subtitle area detection unit 20, searches the subtitle area for a pixel (subtitle pixel) that has a very large luminance difference from surrounding pixels, Outputs pixel position information.

●画素補正部
画素補正部22は、ステートマシン部19から2-3プルダウンの検出を示す信号が入力されていない場合、例えば動き適応型順次走査変換や、動き補償型順次走査変換といった方法によりIP変換を行う。
● Pixel Correction Unit When the signal indicating 2-3 pulldown detection is not input from the state machine unit 19, the pixel correction unit 22 performs IP, for example, by a method such as motion adaptive progressive scan conversion or motion compensated sequential scan conversion. Perform conversion.

画素補正部22は、2-3プルダウンの検出を示す信号が入力されると、字幕特定部21から入力される字幕画素の位置情報により、注目フレームを2-3プルダウン領域と、字幕領域に分割する。そして、2-3プルダウン領域(字幕領域以外)は、信号fpに従いWeave処理による補間を行う。   When a signal indicating 2-3 pulldown detection is input, the pixel correction unit 22 divides the frame of interest into a 2-3 pulldown region and a caption region based on the position information of the caption pixel input from the caption specifying unit 21. To do. Then, in the 2-3 pull-down area (other than the caption area), interpolation by Weave processing is performed according to the signal fp.

また、字幕領域は、注目フレームの補間ラインの補間画素の上下に位置する二画素(隣接画素、注目フィールドに現存する画素)の平均値を計算する。そして、平均値と、補間画素に対応する前後フィールドの画素(対応画素)の値との差分絶対値を計算する。そして、差分絶対値が小さい方の画素値(前または後フィールドの画素の値)を補間画素の値にする。   In the caption area, an average value of two pixels (adjacent pixels and pixels existing in the field of interest) positioned above and below the interpolation pixel of the interpolation line of the frame of interest is calculated. Then, an absolute difference value between the average value and the values of the pixels (corresponding pixels) in the preceding and following fields corresponding to the interpolation pixel is calculated. Then, the pixel value having the smaller difference absolute value (the value of the pixel in the previous or subsequent field) is set as the value of the interpolation pixel.

このように、二つのステートマシンを切り替えて、精度よく字幕を検出して、字幕領域と他の領域で異なる種類のIP変換を行うことにより、字幕が入っても高精彩なプログレッシブ画像を得ることができる。   In this way, by switching between the two state machines, subtitles are detected accurately, and different types of IP conversion are performed in the subtitle area and other areas, so that a high-quality progressive image can be obtained even if subtitles are entered. Can do.

以下、本発明にかかる実施例2の映像信号処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。   The video signal processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.

パーソナルコンピュータなどの汎用の情報処理装置にコンピュータプログラムを供給して実施例1の映像信号処理装置を実現することができる。実施例2では、そのような実装を説明する。   The video signal processing apparatus of the first embodiment can be realized by supplying a computer program to a general-purpose information processing apparatus such as a personal computer. Example 2 describes such an implementation.

[装置の構成]
図15は実施例2の情報処理装置の構成例を示すブロック図である。
[Device configuration]
FIG. 15 is a block diagram illustrating a configuration example of the information processing apparatus according to the second embodiment.

CPU101は、メインメモリ102のRAMをワークメモリとして、メインメモリ102のROMおよびハードディスクドライブ(HDD)105に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、PCI (peripheral component interconnect)バスなどのシステムバス114を介して各構成を制御する。さらに、後述する映像信号処理アプリケーションを含む各種プログラムを実行する。   The CPU 101 executes an operating system (OS) and various programs stored in the ROM of the main memory 102 and the hard disk drive (HDD) 105 using the RAM of the main memory 102 as a work memory. Each component is controlled via a system bus 114 such as a PCI (peripheral component interconnect) bus. Further, various programs including a video signal processing application described later are executed.

CPU101は、システムバス114およびシリアルATAインタフェイス(SATA I/F)103を介してHDD105にアクセスする。また、通信I/F104を介してローカルエリアネットワーク(LAN)などのネットワーク113にアクセスする。なお、通信I/F104は、ネットワーク113だけに接続するとは限らず、公衆回線や無線回線への接続、放送電波の受信なども可能である。   The CPU 101 accesses the HDD 105 via the system bus 114 and the serial ATA interface (SATA I / F) 103. Further, a network 113 such as a local area network (LAN) is accessed via the communication I / F 104. Note that the communication I / F 104 is not necessarily connected to the network 113 alone, but can be connected to a public line or a wireless line, or can receive broadcast radio waves.

以下では、プログラムや各種データをHDD105から読み出すとして説明するが、ネットワーク113上のサーバ装置から読み出すこともできる。   In the following description, the program and various data are described as being read from the HDD 105, but can be read from a server device on the network 113.

また、CPU101は、ユーザインタフェイス(UI)や処理結果をグラフィックアクセラレータ106を介してモニタ107に表示し、ユーザ指示をキーボード/マウスコントローラ110に接続されたキーボード111、マウス112を介して入力する。なお、モニタ107は、プログレッシブ走査の表示装置である。   Further, the CPU 101 displays a user interface (UI) and a processing result on the monitor 107 via the graphic accelerator 106, and inputs a user instruction via the keyboard 111 and the mouse 112 connected to the keyboard / mouse controller 110. The monitor 107 is a progressive scanning display device.

また、CPU101は、例えばUSB (Universal Serial Bus)コントローラ108とシリアルバスを介して接続されたチューナ109などからフィールド単位の映像信号を入力する。なお、チューナの代わりにビデオ再生機からフィールド単位の映像信号を入力してもよい。   Further, the CPU 101 inputs a video signal in field units from, for example, a tuner 109 connected to a USB (Universal Serial Bus) controller 108 via a serial bus. Note that a field unit video signal may be input from a video player instead of the tuner.

[映像信号処理]
ユーザは、UIを操作して、チューナ109から映像信号を入力し、撮影信号が表す動画像のモニタ107への表示を指示する。CPU101は、ユーザ指示に応じて、HDD105から映像信号処理アプリケーションのプログラムをメインメモリ102にロードし、映像信号処理を実行する。
[Video signal processing]
The user operates the UI, inputs a video signal from the tuner 109, and instructs the monitor 107 to display a moving image represented by the shooting signal. In response to a user instruction, the CPU 101 loads a video signal processing application program from the HDD 105 into the main memory 102 and executes video signal processing.

図16は情報処理装置が映像信号処理を行う際のメインメモリ102のメモリマップ例を示す図である。   FIG. 16 is a diagram illustrating a memory map example of the main memory 102 when the information processing apparatus performs video signal processing.

メインメモリ102のRAM領域の先頭部にはOSが存在する。その後に、IP変換処理を含む映像信号処理を行う映像信号処理ソフトウェア、画像入力ソフトウェア、動画像をモニタ107に表示する画像表示ソフトウェアなどが存在する。なお、画像入力ソフトウェアは、USBコントローラ108を制御して映像信号を1フィールドずつ入力(キャプチャ)する。さらに、動画像データを格納する画像エリア、各種演算パラメータなどを格納しておくワーキングエリアが存在する。   An OS exists at the beginning of the RAM area of the main memory 102. Thereafter, there are video signal processing software for performing video signal processing including IP conversion processing, image input software, image display software for displaying a moving image on the monitor 107, and the like. The image input software controls the USB controller 108 to input (capture) video signals field by field. Furthermore, there is an image area for storing moving image data and a working area for storing various calculation parameters.

図17はCPU101が実行する映像信号処理を説明するフローチャートである。   FIG. 17 is a flowchart for explaining video signal processing executed by the CPU 101.

CPU101は、映像信号処理ソフトウェアを実行し、画像エリアや各種演算パラメータなどを初期化する(S11)。そして、映像信号処理を終了するか否かを判定する(S12)。ユーザが、UIを操作して、映像信号処理の終了を指示した場合、CPU101は、映像信号処理を終了する。   The CPU 101 executes the video signal processing software, and initializes the image area and various calculation parameters (S11). Then, it is determined whether or not to end the video signal processing (S12). When the user operates the UI to instruct the end of the video signal processing, the CPU 101 ends the video signal processing.

映像信号処理を継続する場合、CPU101は、フィールド単位に、チューナ109から映像信号を入力し画像エリアに格納する(S13)。そして、画像エリアに格納した映像信号から字幕を検出し(S14)、字幕の検出などに応じて補間処理を行い、IP変換処理結果の映像信号を画像エリアに格納する(S15)。そして、処理をステップS12に戻す。   When the video signal processing is continued, the CPU 101 inputs the video signal from the tuner 109 and stores it in the image area for each field (S13). Then, a caption is detected from the video signal stored in the image area (S14), interpolation processing is performed according to the detection of the caption, and the video signal resulting from the IP conversion process is stored in the image area (S15). Then, the process returns to step S12.

また、CPU101は、画像表示ソフトウェアを実行して、画像エリアに格納したIP変換処理結果の映像信号をモニタ107に表示する。   Further, the CPU 101 executes image display software and displays the video signal of the IP conversion processing result stored in the image area on the monitor 107.

図18は字幕の検出(S14)の詳細を示すフローチャートである。   FIG. 18 is a flowchart showing details of subtitle detection (S14).

CPU101は、画像エリアに格納した映像信号から、前フィールドPと注目フィールドCの合成によりフレームFpcを、注目フィールドC内補間によりフレームFcを、注目フィールドCと後フィールドNの合成によりフレームFcnを作成する。そして、各フレームのコーミング度c1〜c3を算出する(S400)。   The CPU 101 creates a frame Fpc by combining the previous field P and the target field C, a frame Fc by interpolation within the target field C, and a frame Fcn by combining the target field C and the subsequent field N from the video signal stored in the image area. To do. Then, the combing degrees c1 to c3 of each frame are calculated (S400).

次に、CPU101は、三つのコーミング度c1〜c3を基に評価値(fp)を算出し(S401)、評価値を基に二つのステートを更新、切り替えることにより、現在のステートを決定する(ステートマシン処理)(S402)。そして、ステート情報に基づき字幕が出現したか否かを判定し(S403)、字幕が出現した場合は字幕エリアを検出し(S404)、字幕エリアから字幕画素の位置を特定する(S405)。   Next, the CPU 101 calculates an evaluation value (fp) based on the three combing degrees c1 to c3 (S401), and determines the current state by updating and switching the two states based on the evaluation value ( State machine processing (S402). Then, it is determined whether or not a caption has appeared based on the state information (S403). When a caption appears, a caption area is detected (S404), and the position of the caption pixel is specified from the caption area (S405).

[変形例]
上記では、説明を簡単にするため、映像信号の輝度信号を例に説明したが、RGBなどの信号でも構わないし、色度信号を対象にしても構わない。
[Modification]
In the above, for the sake of simplicity, the luminance signal of the video signal has been described as an example. However, the signal may be an RGB signal or a chromaticity signal.

また、1:2のインタレース走査画像を例に説明したが、これに限定されず、各算出部を調整することで他の比率のインタレース走査画像に対応することができる。   In addition, although an example of an interlaced scanned image of 1: 2 has been described, the present invention is not limited to this, and it is possible to deal with interlaced scanned images of other ratios by adjusting each calculation unit.

[他の実施例]
なお、本発明は、複数の機器(例えばコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置、制御装置など)に適用してもよい。
[Other embodiments]
Note that the present invention can be applied to a system constituted by a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.), but an apparatus (for example, a copier, a facsimile machine, a control device) composed of a single device. Etc.).

また、本発明の目的は、上記実施例の機能を実現するコンピュータプログラムを記録した記録媒体または記憶媒体をシステムまたは装置に供給する。そして、そのシステムまたは装置のコンピュータ(CPUやMPU)が前記コンピュータプログラムを実行することでも達成される。この場合、記録媒体から読み出されたソフトウェア自体が上記実施例の機能を実現することになり、そのコンピュータプログラムと、そのコンピュータプログラムを記憶する、コンピュータが読み取り可能な記録媒体は本発明を構成する。   Another object of the present invention is to supply a recording medium or a recording medium recording a computer program for realizing the functions of the above embodiments to a system or apparatus. This can also be achieved by the computer (CPU or MPU) of the system or apparatus executing the computer program. In this case, the software read from the recording medium itself realizes the functions of the above embodiments, and the computer program and the computer-readable recording medium storing the computer program constitute the present invention. .

また、前記コンピュータプログラムの実行により上記機能が実現されるだけではない。つまり、そのコンピュータプログラムの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)および/または第一の、第二の、第三の、…プログラムなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   Further, the above functions are not only realized by the execution of the computer program. That is, according to the instruction of the computer program, the operating system (OS) and / or the first, second, third,... This includes the case where the above function is realized.

また、前記コンピュータプログラムがコンピュータに接続された機能拡張カードやユニットなどのデバイスのメモリに書き込まれていてもよい。つまり、そのコンピュータプログラムの指示により、第一の、第二の、第三の、…デバイスのCPUなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   The computer program may be written in a memory of a device such as a function expansion card or unit connected to the computer. That is, it includes the case where the CPU of the first, second, third,... Device performs part or all of the actual processing according to the instructions of the computer program, thereby realizing the above functions.

本発明を前記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応または関連するコンピュータプログラムが格納される。   When the present invention is applied to the recording medium, the recording medium stores a computer program corresponding to or related to the flowchart described above.

フィルム映画をテレビジョン信号に変換するテレシネを説明する図、The figure explaining the telecine which converts the film movie into the television signal, 字幕画像をテレビジョン信号に変換するテレシネを説明する図、The figure explaining the telecine which converts a subtitle picture into a television signal, 実施例の映像信号処理装置の構成例を示すブロック図、Block diagram showing a configuration example of a video signal processing apparatus of an embodiment, コーミング度検出部15によるフレーム画像Fcnの生成を示す図、The figure which shows the production | generation of the frame image Fcn by the combing degree detection part 15; コーミング度を算出するブロックを構成する画素を説明する図、The figure explaining the pixel which comprises the block which calculates a combing degree, コーミング度の算出を説明する図、The figure explaining calculation of the combing degree, コーミング度検出部17によるフレーム画像Fpcの生成を示す図、The figure which shows the production | generation of the frame image Fpc by the combing degree detection part 17, コーミング度を算出するブロックを構成する画素を説明する図、The figure explaining the pixel which comprises the block which calculates a combing degree, コーミング度の算出を説明する図、The figure explaining calculation of the combing degree, コーミング度検出部16が入力するフレーム画像Fcを示す図、The figure which shows the frame image Fc which the combing degree detection part 16 inputs, コーミング度を算出するブロックを構成する画素を説明する図、The figure explaining the pixel which comprises the block which calculates a combing degree, コーミング度の算出を説明する図、The figure explaining calculation of the combing degree, 最適フレーム検出部の処理を説明するフローチャート、A flowchart for explaining processing of the optimum frame detection unit; テレシネにおいて字幕が出るプロセスを説明する図、Diagram explaining the process of subtitles in telecine 実施例2の情報処理装置の構成例を示すブロック図、Block diagram showing a configuration example of the information processing apparatus of Example 2, 情報処理装置が映像信号処理を行う際のメインメモリのメモリマップ例を示す図、The figure which shows the memory map example of the main memory at the time of an information processing apparatus performing video signal processing, CPUが実行する映像信号処理を説明するフローチャート、A flowchart for explaining video signal processing executed by the CPU; 字幕の検出の詳細を示すフローチャートである。It is a flowchart which shows the detail of the detection of a caption.

Claims (11)

インタレース走査の映像信号をプログレッシブ走査の映像信号に変換する映像処理装置であって、
注目フィールドと後フィールドから生成したフレームのコーミング度、フィールド内補間により、前記注目フィールドから生成したフレームのコーミング度、並びに、前記注目フィールドと前フィールドから生成したフレームのコーミング度を算出するコーミング度の算出手段と、
前記コーミング度に基づき、前記注目フィールドに対応するフレームを生成すべきフィールドを示す評価値を算出する評価値の算出手段と、
前記評価値に基づき、前記注目フィールドが字幕を含むか否かを判定する判定手段とを有することを特徴とする映像処理装置。
A video processing device that converts an interlaced scanning video signal into a progressive scanning video signal,
The combing degree of the frame generated from the attention field and the subsequent field, the combing degree of the frame generated from the attention field and the preceding field, and the combing degree of the frame generated from the attention field and the previous field by intra-field interpolation. A calculation means;
An evaluation value calculating means for calculating an evaluation value indicating a field in which a frame corresponding to the field of interest is to be generated based on the combing degree;
A video processing apparatus comprising: determination means for determining whether or not the field of interest includes a caption based on the evaluation value.
さらに、前記注目フィールドが含む字幕の位置を検出する検出手段を有することを特徴とする請求項1に記載された映像処理装置。   2. The video processing apparatus according to claim 1, further comprising detection means for detecting a position of a subtitle included in the field of interest. さらに、前記字幕の位置情報と、前記評価値に基づき、前記注目フィールドに対応するフレームを生成する生成手段を有することを特徴とする請求項2に記載された映像処理装置。   3. The video processing apparatus according to claim 2, further comprising generating means for generating a frame corresponding to the field of interest based on the position information of the caption and the evaluation value. 前記生成手段は、前記字幕の位置情報に基づき字幕画素を含む字幕領域を抽出し、前記字幕領域の補間画素を前記注目フィールドの隣接画素の値と、前記補間画素に対応する前記前フィールドまたは前記後フィールドの画素の値から補間して、前記フレームを生成することを特徴とする請求項3に記載された映像処理装置。   The generating unit extracts a caption area including a caption pixel based on position information of the caption, and sets an interpolation pixel of the caption area as a value of an adjacent pixel of the field of interest and the previous field corresponding to the interpolation pixel or the 4. The video processing apparatus according to claim 3, wherein the frame is generated by interpolating from a value of a pixel in a subsequent field. 前記生成手段は、前記注目フィールドと、前記評価値に基づくフィールドから前記字幕領域以外を合成して、前記フレームを生成することを特徴とする請求項4に記載された映像処理装置。   5. The video processing apparatus according to claim 4, wherein the generation unit generates the frame by synthesizing a region other than the caption area from the field of interest and a field based on the evaluation value. 前記コーミング度の算出手段は、前記フレームから所定のサイズのフレーム構造を生成し、前記フレーム構造に生じるアーティファクトの強度をコーミング度として算出することを特徴とする請求項1に記載された映像処理装置。   2. The video processing apparatus according to claim 1, wherein the combing degree calculation unit generates a frame structure of a predetermined size from the frame, and calculates the strength of an artifact generated in the frame structure as a combing degree. . 前記判定手段は、前記評価値に基づき、2-3プルダウンされた映像パターンを検出し、さらに、2-2プルダウンされた映像パターンを検出した場合、前記注目フィールドが前記字幕を含むと判定することを特徴とする請求項1に記載された映像処理装置。   The determination means detects a 2-3 pull-down video pattern based on the evaluation value, and further determines that the field of interest includes the subtitle when a 2-2 pull-down video pattern is detected. 2. The video processing apparatus according to claim 1, wherein 前記判定手段は、前記字幕を含むと判定した後、前記2-3プルダウンされた映像パターンが検出されなくなると、前記注目フィールドが前記字幕を含まないと判定することを特徴とする請求項7に記載された映像処理装置。   8. The determination unit according to claim 7, wherein after determining that the subtitle is included, the determination unit determines that the target field does not include the subtitle when the 2-3 pull-down video pattern is not detected. The described video processing device. インタレース走査の映像信号をプログレッシブ走査の映像信号に変換する映像処理方法であって、
注目フィールドと後フィールドから生成したフレームのコーミング度、フィールド内補間により、前記注目フィールドから生成したフレームのコーミング度、並びに、前記注目フィールドと前フィールドから生成したフレームのコーミング度を算出し、
前記コーミング度に基づき、前記注目フィールドに対応するフレームを生成すべきフィールドを示す評価値を算出し、
前記評価値に基づき、前記注目フィールドが字幕を含むか否かを判定することを特徴とする映像処理方法。
A video processing method for converting an interlaced scanning video signal into a progressive scanning video signal,
The combing degree of the frame generated from the attention field and the previous field is calculated by the combing degree of the frame generated from the attention field and the subsequent field, and the intra-field interpolation, the combing degree of the frame generated from the attention field and the previous field,
Based on the combing degree, an evaluation value indicating a field in which a frame corresponding to the field of interest is to be generated is calculated,
A video processing method characterized by determining whether or not the field of interest includes a caption based on the evaluation value.
コンピュータ装置を制御して、請求項1から請求項8の何れか一項に記載された映像処理装置の各手段として機能させることを特徴とするプログラム。   9. A non-transitory computer-readable storage medium storing a program for controlling a computer device to function as each unit of the video processing device according to claim 1. 請求項10に記載されたプログラムが記録されたことを特徴とするコンピュータが読み取り可能な記録媒体。   11. A computer-readable recording medium on which the program according to claim 10 is recorded.
JP2008283727A 2008-11-04 2008-11-04 Video processing apparatus and method Expired - Fee Related JP5288997B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008283727A JP5288997B2 (en) 2008-11-04 2008-11-04 Video processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008283727A JP5288997B2 (en) 2008-11-04 2008-11-04 Video processing apparatus and method

Publications (3)

Publication Number Publication Date
JP2010114529A true JP2010114529A (en) 2010-05-20
JP2010114529A5 JP2010114529A5 (en) 2011-12-15
JP5288997B2 JP5288997B2 (en) 2013-09-11

Family

ID=42302771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008283727A Expired - Fee Related JP5288997B2 (en) 2008-11-04 2008-11-04 Video processing apparatus and method

Country Status (1)

Country Link
JP (1) JP5288997B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010278993A (en) * 2009-06-01 2010-12-09 Canon Inc Image processing device, and method thereof
JP2011101128A (en) * 2009-11-04 2011-05-19 Canon Inc Video processing apparatus, video processing method, program and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3199720B2 (en) * 1990-07-13 2001-08-20 株式会社日立製作所 Television receiver and signal detection circuit
JP2002057993A (en) * 2000-08-09 2002-02-22 Nec Corp Interlace.progressive converter, interlace.progressive conversion method and recording medium
JP2007259314A (en) * 2006-03-24 2007-10-04 Toshiba Corp Caption detecting apparatus and caption detecting method, and pull-down signal detector
JP2010093730A (en) * 2008-10-10 2010-04-22 Canon Inc Apparatus and method for processing video signal, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3199720B2 (en) * 1990-07-13 2001-08-20 株式会社日立製作所 Television receiver and signal detection circuit
JP2002057993A (en) * 2000-08-09 2002-02-22 Nec Corp Interlace.progressive converter, interlace.progressive conversion method and recording medium
JP2007259314A (en) * 2006-03-24 2007-10-04 Toshiba Corp Caption detecting apparatus and caption detecting method, and pull-down signal detector
JP2010093730A (en) * 2008-10-10 2010-04-22 Canon Inc Apparatus and method for processing video signal, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010278993A (en) * 2009-06-01 2010-12-09 Canon Inc Image processing device, and method thereof
JP2011101128A (en) * 2009-11-04 2011-05-19 Canon Inc Video processing apparatus, video processing method, program and storage medium

Also Published As

Publication number Publication date
JP5288997B2 (en) 2013-09-11

Similar Documents

Publication Publication Date Title
JP4350742B2 (en) Video processing apparatus and video processing apparatus control method
KR100303728B1 (en) Deinterlacing method of interlaced scanning video
JP4521468B1 (en) Image processing apparatus and image processing method
US20090103630A1 (en) Image processing device
WO2003017649A1 (en) Image size extension
JP2010041336A (en) Image processing unit and image processing method
US20080239151A1 (en) Video signal processing apparatus, video display apparatus and video signal processing method
US8134643B2 (en) Synthesized image detection unit
EP1501298A1 (en) Method and apparatus of identifying a telecine portion and bad-edits in a video sequence
USRE45306E1 (en) Image processing method and device thereof
JP5288997B2 (en) Video processing apparatus and method
US8203650B2 (en) Pull-down signal detecting apparatus, pull-down signal detecting method, and video-signal converting apparatus
JP5178579B2 (en) Image processing device
JP5107179B2 (en) Frame rate conversion device, video conversion device, control program, computer-readable recording medium, and frame rate conversion method
JP2010103940A (en) Combing noise detecting apparatus, and combing noise detecting method
US7796189B2 (en) 2-2 pulldown signal detection device and a 2-2 pulldown signal detection method
JP4298743B2 (en) Image display device
JP5300600B2 (en) Video processing apparatus and method
JP2005318623A (en) Film mode extrapolation method, film mode detector and motion compensator
JP5305822B2 (en) Video signal processing apparatus, method, and program
CN102308576A (en) Video processing device
JP2005026885A (en) Television receiver and its control method
JP4991884B2 (en) Image processing apparatus and image processing method
KR20100111467A (en) Video apparatus for detecting type of video data and method for processing video applying thereto
JP4845569B2 (en) Signal processing apparatus and signal processing method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111101

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130604

R151 Written notification of patent or utility model registration

Ref document number: 5288997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees