[go: up one dir, main page]

JP2006279982A - Motion vector detecting method, frame interpolation image creating method and apparatus - Google Patents

Motion vector detecting method, frame interpolation image creating method and apparatus Download PDF

Info

Publication number
JP2006279982A
JP2006279982A JP2006135871A JP2006135871A JP2006279982A JP 2006279982 A JP2006279982 A JP 2006279982A JP 2006135871 A JP2006135871 A JP 2006135871A JP 2006135871 A JP2006135871 A JP 2006135871A JP 2006279982 A JP2006279982 A JP 2006279982A
Authority
JP
Japan
Prior art keywords
block
frame
motion vector
pixel
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2006135871A
Other languages
Japanese (ja)
Inventor
Takeshi Ito
伊藤  剛
Sunao Mishima
直 三島
Haruhiko Okumura
治彦 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006135871A priority Critical patent/JP2006279982A/en
Publication of JP2006279982A publication Critical patent/JP2006279982A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable accurate motion vector detection suitable for creating an interpolation image. <P>SOLUTION: The method for detecting a motion vector between an m-th frame ((m) is an arbitrary integer) and an (m+n)th frame ((n) is an integer of ≥1) of an image includes: extracting a plurality of first blocks of a predetermined size and a predetermined shape from the m-th frame (S101); extracting a plurality of second blocks of the same size and the same shape as the first blocks from the (m+n)th frame (S102); determining a differential absolute value for each of images corresponding to each other between the first blocks and the second blocks (S103); counting the number of pixels with the differential absolute value equal to or less than a threshold, to determine a count value (S104); extracting a pair of blocks each including a pixel of the maximum count value from the first blocks and the second blocks and selecting a vector between such block pairs as a motion vector between the m-th frame and the (m+n)th frame (S105). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、動きベクトル検出方法と動きベクトルを用いた動き補償によるフレーム補間画像作成方法及び画像表示システムに関する。   The present invention relates to a motion vector detection method, a frame interpolation image creation method by motion compensation using a motion vector, and an image display system.

一般に、画像表示装置としては画像の書き込み後、蛍光体の残光時間のみ発光し続けるインパルス型表示装置(例えばCRTやフィールドエミッション型表示装置(FED)と、新たに画像の書き込みが行われるまで前フレームの表示を保持し続けるホールド型表示装置(例えば液晶表示装置(LCD)、エレクトロルミネッセンスディスプレイ(ELD)など)の2種類がある。   In general, as an image display device, an impulse display device (for example, a CRT or a field emission display device (FED) that continues to emit light only after the phosphor afterglow time after image writing, and before the image writing is newly performed. There are two types of hold-type display devices (for example, a liquid crystal display device (LCD), an electroluminescence display (ELD), etc.) that keeps displaying the frame.

ホールド型表示装置の問題点の一つは、動画表示に生じるボケ現象である。ボケ現象の発生は、図28(a)に示ように複数フレームにわたる画像中に動体(楕円で示される)が存在し、その動体の動きに観察者の眼が追随した場合、図28(b)に示されるように複数フレームの画像が重なって網膜上に映し出されることに起因する。表示画像が前フレームから次のフレームへ切り換わる期間までは、同じ前フレームの画像が表示され続けられているにもかかわらず、眼は次フレームの画像の表示を予測して、前フレーム画像上を動体の移動方向に移動しながら観察してしまう。すなわち、眼の追随運動は連続性があり、フレーム間隔より細かいサンプリングを行うため、結果として隣接する二つのフレームの間の画像を埋めるように視認することで、ボケとして観察される。
ホールド型表示装置のもう一つの問題点、コマ数の少ない動画を表示する場合に不自然な動きが生じることである。
One of the problems with the hold-type display device is a blurring phenomenon that occurs in moving image display. As shown in FIG. 28 (a), the occurrence of the blur phenomenon occurs when a moving object (indicated by an ellipse) exists in an image extending over a plurality of frames, and the observer's eyes follow the movement of the moving object. This is because the images of a plurality of frames are superimposed and projected on the retina as shown in FIG. Until the period when the display image switches from the previous frame to the next frame, the eye predicts the display of the image of the next frame even though the image of the same previous frame continues to be displayed. Is observed while moving in the moving direction of the moving object. In other words, the following movement of the eye is continuous, and sampling is performed finer than the frame interval. As a result, it is observed as blurring by visually recognizing an image between two adjacent frames.
Another problem with the hold-type display device is that an unnatural movement occurs when a moving image with a small number of frames is displayed.

これらの問題を解決するためには、表示のフレーム間隔を短くすればよい。その具体的な手法として、MPEG(Motion Picture Experts Group phase2)で用いられている動き補償を利用して補間画像を作成し、隣接するフレーム間で補間を行うことが考えられる。動き補償では、ブロックマッチングによって検出される動きベクトルが用いられる。しかし、MPEG2ではブロック単位で画像を作成するため、ブロック内で相関のある部分と相関のない部分が発生し、相関のない部分によりブロック歪が生じる。   In order to solve these problems, the display frame interval may be shortened. As a specific method, it is conceivable to create an interpolated image using motion compensation used in MPEG (Motion Picture Experts Group phase 2) and perform interpolation between adjacent frames. In motion compensation, a motion vector detected by block matching is used. However, in MPEG2, since an image is created in units of blocks, a correlated portion and a non-correlated portion occur in the block, and block distortion occurs due to the uncorrelated portion.

特開2000−224593(特許文献1)には、この問題を解決するフレーム間補間方法が開示されている。特開2000−224593では、補間フレームにおける補間ブロックの画素値を定める際に、復号対象小ブロックの2フレーム間の動き補償フレーム間差分絶対値を相対応する画素毎に閾値と比較し、閾値以下の差分絶対値を持つ第1画素領域と閾値以上の差分絶対値を持つ第2画素領域に分割する。第1画素領域については、該領域の画素値と2フレーム間の動きベクトルで指し示される参照ブロック内の対応する画素値との平均値を求めて補間フレームを作成する。第2画素領域については、復号対象フレームにおける陰面関係を判定し、その判定結果に基づき2フレーム間の動きベクトル探索方向を設定し直して第2動きベクトルを検出し、これをスケール変換した動きベクトルで指し示される際探索参照フレーム上の画素値を補間フレームにコピーする。
特開2000−224593号公報。
Japanese Patent Laid-Open No. 2000-224593 (Patent Document 1) discloses an inter-frame interpolation method that solves this problem. In Japanese Patent Laid-Open No. 2000-224593, when determining the pixel value of the interpolation block in the interpolation frame, the motion compensation interframe difference absolute value between the two frames of the small block to be decoded is compared with the threshold value for each corresponding pixel, and below the threshold value Are divided into a first pixel region having a difference absolute value of 2 and a second pixel region having a difference absolute value equal to or greater than a threshold value. For the first pixel area, an average value of the pixel value of the area and the corresponding pixel value in the reference block indicated by the motion vector between the two frames is obtained to create an interpolation frame. For the second pixel region, the hidden surface relationship in the decoding target frame is determined, the motion vector search direction between the two frames is reset based on the determination result, the second motion vector is detected, and the motion vector obtained by scaling this is detected. When it is pointed to, the pixel value on the search reference frame is copied to the interpolation frame.
JP 2000-224593 A.

特開2000−224593においては、動きベクトルの検出方法について特に記述がないが、通常のMPEG2と同様の動きベクトル検出方法を採用しているとすると、誤った動きベクトルが使われやすい。MPEG2では基本的に圧縮率を上げることを前提においており、動きベクトルの誤差は動き補償により作成される予測信号の誤差がDCTにより符号化されるため、動きベクトルが実際の動きを正確に再現しているかどうかは、あまり問題にならないためである。   In Japanese Patent Laid-Open No. 2000-224593, there is no particular description about a motion vector detection method, but if a motion vector detection method similar to that of normal MPEG2 is adopted, an erroneous motion vector is likely to be used. MPEG2 is basically premised on increasing the compression rate, and motion vector errors are generated by motion compensation so that the motion vector error accurately reproduces the actual motion. This is because it does not matter much.

また、特開2000−224593では第2画素領域の補間において第2画素領域が必ずしも陰面関係にあるとは限らないので、判定により誤った領域を抽出する可能性がある。さらに、補間画像作成に際して第1画素領域は平均値化された画素データをスケール変換後のベクトルを用いて補間フレームメモリ上のアドレス位置に格納する方法によって補間がなされるため、補間画像に隙間や重なりが生じる可能性がある。第2画素領域についても、同様の手法を用いた場合は補間画像に隙間や重なりが生じ得る。   In Japanese Patent Laid-Open No. 2000-224593, since the second pixel area is not necessarily in the hidden surface relationship in the interpolation of the second pixel area, there is a possibility that an erroneous area is extracted by the determination. Further, when the interpolation image is created, the first pixel region is interpolated by a method in which the averaged pixel data is stored at the address position on the interpolation frame memory using the scale-converted vector. Overlap can occur. As for the second pixel region, when the same method is used, a gap or an overlap may occur in the interpolation image.

本発明の目的は、補間画像の作成に適した正確な動きベクトル検出を可能とすることにある。
より具体的には、閾値によるブロック内での領域分割に適し、領域分割後の画素ブロックに対しても領域毎に最適な動きベクトルを検出できるようにすることにある。
さらに、本発明はホールド型表示装置に起因するボケや、コマ数の少ない動画における不自然な動きを改善するため補間画像を作成する場合に、領域分割後の各画素ブロックに対して隙間や重なりの発生がなく、表示画質をよりリアルにできるフレーム補間画像作成方法及びこれを用いた画像表示システムを提供することを目的とする。
An object of the present invention is to enable accurate motion vector detection suitable for creating an interpolation image.
More specifically, the present invention is suitable for area division within a block based on a threshold value, and an optimal motion vector can be detected for each area for a pixel block after area division.
Furthermore, the present invention provides a gap or overlap for each pixel block after segmentation when creating an interpolated image to improve blur caused by the hold-type display device and unnatural motion in a moving image with a small number of frames. It is an object of the present invention to provide a frame interpolation image creation method and an image display system using the frame interpolation image creation method that can make the display image quality more realistic.

上記課題を解決するため、本発明の第1の視点では、複数の画素からなる画像の第mフレーム(mは任意の整数)と第m+nフレーム(nは1以上の整数)間の動きベクトルを検出する動きベクトル検出方法において、(a)第mフレームから該第mフレームを分割した所定サイズかつ所定形状の複数の第1ブロックを抽出し、(b)第m+nフレームから第1ブロックと同サイズかつ同形状の複数の第2ブロックを抽出し、(c)第1ブロックと第2ブロック間の相対応する画素毎の差分絶対値を求め、該差分絶対値が閾値以下となる画素の数をカウントしてカウント値を求め、(d)第1ブロック及び第2ブロックからカウント値が最大となる画素をそれぞれ含むブロック対を抽出し、(e)該ブロック対間のベクトルを第mフレームと第m+nフレーム間の動きベクトルとして選択することを基本とする。   In order to solve the above problems, in the first aspect of the present invention, a motion vector between an mth frame (m is an arbitrary integer) and an m + n frame (n is an integer of 1 or more) of an image composed of a plurality of pixels. In the motion vector detection method to detect, (a) a plurality of first blocks having a predetermined size and a predetermined shape obtained by dividing the m-th frame are extracted from the m-th frame, and (b) the same size as the first block from the m + n frame. In addition, a plurality of second blocks having the same shape are extracted, and (c) a difference absolute value for each corresponding pixel between the first block and the second block is obtained, and the number of pixels for which the difference absolute value is equal to or less than a threshold is calculated. (D) extracting block pairs each including a pixel having the maximum count value from the first block and the second block, and (e) calculating a vector between the block pairs as the m-th frame. And then selecting a motion vector between m + n frames.

本発明の第2の視点では、第1の視点に従う動きベクトル検出方法に対して、第m+nフレームから第mフレームへの動きベクトルを求める方法を加えた双方向動きベクトル検出によって、より正確な動きベクトルを求める。   In the second viewpoint of the present invention, more accurate motion is obtained by bidirectional motion vector detection in which a method for obtaining a motion vector from the m + n frame to the mth frame is added to the motion vector detection method according to the first viewpoint. Find a vector.

本発明の第3の視点では、第mフレームと第m+nフレームとの間に第m+kフレーム(kはn−1以下の整数、kは1以上の任意の実数)を仮定し、この仮想フレームである第m+kフレームを支点として第mフレームと第m+nフレーム間で閾値以下となる画素数が最大となるブロック対を抽出し、そのブロック対を結ぶベクトルを動きベクトルとして選択する。   In the third aspect of the present invention, an m + k frame (k is an integer of n−1 or less, k is an arbitrary real number of 1 or more) is assumed between the mth frame and the m + n frame. Using a certain m + k frame as a fulcrum, a block pair having the maximum number of pixels equal to or smaller than the threshold between the mth frame and the m + n frame is extracted, and a vector connecting the block pairs is selected as a motion vector.

本発明の第4の視点では、第mフレームと第m+nフレーム間で閾値以下となる画素数が多くなる複数のブロック対に対して複数の動きベクトルを求め、それらの動きベクトルをスケール変換した後、画像の実フレームである第m+k(kはn−1以下の整数、kは1以上の整数)フレームと第m+nフレーム間にそれらの動きベクトルを当てはめてブロック対をそれぞれ抽出し、各ブロック対間の差分絶対値が閾値以下となる画素数をカウントし、カウント値が閾値以下となる画素数が最大となる動きベクトルを選択する。   In the fourth aspect of the present invention, after obtaining a plurality of motion vectors for a plurality of block pairs having a number of pixels that is equal to or smaller than a threshold value between the m-th frame and the m + n-th frame, and scaling the motion vectors. , A block pair is extracted by fitting these motion vectors between the m + k (k is an integer of n−1 or less, k is an integer of 1 or more) frame and the m + n frame, which are actual frames of the image, The number of pixels for which the absolute value of the difference is less than or equal to the threshold is counted, and the motion vector that maximizes the number of pixels for which the count value is less than or equal to the threshold is selected.

本発明の第5の視点では、1ブロック内を複数の領域に分割し、それぞれの領域に対して動きベクトルを求める。   In the fifth aspect of the present invention, one block is divided into a plurality of areas, and a motion vector is obtained for each area.

本発明の第6の視点では、領域分割後に画素数が1乃至2程度の少数の領域に分割された部分がノイズとなりうるエラーを改善するために、領域の大きさを確保するため空間領域のローパスフィルタを通した後に、領域毎に動きベクトルを検出する。   According to a sixth aspect of the present invention, in order to improve the error that can be caused by a portion that is divided into a small number of regions having about 1 to 2 pixels after the region is divided, a space region is secured in order to secure the size of the region. After passing through the low-pass filter, a motion vector is detected for each region.

本発明の第7の視点では、領域分割後に画素数が1乃至2つ程度の小領域に分割された部分がノイズとなり得るエラーを改善するために、第1動きベクトルを検出する方法の冗長性を高めるように、輝度のみならず色差についても閾値処理を行う。   According to a seventh aspect of the present invention, the redundancy of the method for detecting the first motion vector in order to improve an error in which a portion divided into small regions having about one or two pixels after region division may become noise. Threshold processing is performed not only for luminance but also for color differences.

本発明の第8の視点では、領域分割後に各領域の画素数が少なくることによるデータ不足を補うために、隣接ブロックを連結させて各小領域を空間方向に拡張し、動きベクトル検出精度を高める。   In an eighth aspect of the present invention, in order to compensate for a lack of data due to a decrease in the number of pixels in each area after area division, adjacent blocks are connected to expand each small area in the spatial direction, and motion vector detection accuracy is improved. Increase.

本発明の第9の視点では、領域分割後に各領域の画素数が少なくることによるデータ不足を補うために、動きベクトルの探索範囲を隣接フレーム間に拡張することで、小領域における動きベクトル検出精度を高め、且つ陰面関係を持つ物体間の検出精度も高める。   According to a ninth aspect of the present invention, motion vector detection in a small region is performed by extending a motion vector search range between adjacent frames in order to compensate for a lack of data due to a decrease in the number of pixels in each region after region division. The accuracy is improved and the detection accuracy between objects having a hidden surface relationship is also increased.

本発明の第10の視点では、ブロック内の複雑な動きを再現するために、領域分割を繰り返すとともに、各領域の動きベクトル検出も繰り返し行う。   In the 10th viewpoint of this invention, in order to reproduce the complicated motion in a block, while dividing an area | region, the motion vector detection of each area | region is also repeatedly performed.

本発明の第11の視点では、原画像の第mフレーム(mは任意の整数)と第m+nフレーム(nは1以上の整数)間のフレーム画像のない時間的位置、すなわち第m+kフレーム(kは任意の実数)の時間的位置に補間すべき補間画像を作成する補間画像作成方法において、(a)第1〜第4の視点のいずれかの動きベクトル検出方法により求められた第mフレームと第m+nフレーム間の動きベクトル、及び第5〜第10の視点のいずれかの動きベクトル検出方法により求められた領域別動きベクトルを第m+kフレ−ムの時間的位置に応じてスケール変換し、(b)第m+nフレームからスケール変換後の動きベクトルに従って、第mフレーム上のブロックと空間的同位置にある第m+kフレーム上の補間ブロック、及び第mフレーム上の領域分割後の画素ブロックと空間的同位置にある第m+kフレーム上の領域別補間ブロックの移動先である第5ブロックを抽出し、(c)第m+kフレームの補間ブロック及び領域別補間ブロックへ第5ブロックを割り当てることにより補間画像を作成する。   In the eleventh aspect of the present invention, a temporal position without a frame image between the mth frame (m is an arbitrary integer) and the m + n frame (n is an integer of 1 or more) of the original image, that is, the m + k frame (k In an interpolation image creation method for creating an interpolation image to be interpolated at a temporal position of (any real number), (a) the m-th frame obtained by the motion vector detection method of any of the first to fourth viewpoints; The motion vector between the m + n frames and the region-specific motion vector obtained by the motion vector detection method of any of the fifth to tenth viewpoints are scale-converted according to the temporal position of the m + k frame, ( b) According to the motion vector after the scale conversion from the (m + n) th frame, the interpolation block on the (m + k) th frame that is in the same spatial position as the block on the (m + th) frame, and Extract a fifth block that is a destination of the inter-region interpolation block on the (m + k) -th frame at the same spatial position as the pixel block after the region division, and (c) change the block to the (m + k) -th interpolation block and the inter-region interpolation block. An interpolation image is created by assigning 5 blocks.

本発明によれば画像の形状に重点をおいた動きベクトル検出手法により正確な動きベクトルを検出でき、さらにはブロック内を領域分割した領域別の動きベクトルも検出することができる。従って、ブロック歪や補間誤りの生じない補間画像を作成でき、動画においてはよりリアルな画像を再生表示することが可能となる。   According to the present invention, an accurate motion vector can be detected by a motion vector detection method focusing on the shape of an image, and further, a motion vector for each region obtained by dividing a block into regions can also be detected. Therefore, it is possible to create an interpolated image that does not cause block distortion or interpolation error, and it is possible to reproduce and display a more realistic image in a moving image.

以下、図面を参照して本発明の実施の形態を説明する。
(第1の実施形態)
図1に示すように、原画像の第mフレーム(mは任意の整数)1と第m+nフレーム(nは1以上の整数)2間の動きベクトルを検出するために、本発明の第1の実施形態では図2に示すような手順を用いる。以下、図1及び図2を用いて本実施形態の処理手順を説明する。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
As shown in FIG. 1, in order to detect a motion vector between an mth frame (m is an arbitrary integer) 1 and an m + n frame (n is an integer of 1 or more) 2 of the original image, In the embodiment, a procedure as shown in FIG. 2 is used. Hereinafter, the processing procedure of this embodiment will be described with reference to FIGS. 1 and 2.

まず、第mフレーム1の画像データを複数の第1ブロック11に分割し、各々の第1ブロック11を順次抽出する(ステップS101)。
次に、第m+nフレーム2の画像データから、ステップS101で抽出された第1ブロック11と同サイズかつ同形状の第2ブロック12を抽出する(ステップS102)。
次に、ステップS101で抽出された第1ブロック11と、ステップS102で抽出された第2ブロック12との相対応する画素毎の差分絶対値を求める(ステップS103)。従って、差分絶対値はブロック内の画素数だけ求められることになる。
次に、各々の差分絶対値を予め定められた共通の閾値と比較し、差分絶対値が閾値以下となる画素の数をカウントして、カウント値p(pは0以上の整数)を求める(ステップS104)。
First, the image data of the m-th frame 1 is divided into a plurality of first blocks 11, and each first block 11 is sequentially extracted (step S101).
Next, the second block 12 having the same size and shape as the first block 11 extracted in step S101 is extracted from the image data of the (m + n) th frame 2 (step S102).
Next, an absolute difference value for each pixel corresponding to the first block 11 extracted in step S101 and the second block 12 extracted in step S102 is obtained (step S103). Therefore, the absolute difference value is obtained by the number of pixels in the block.
Next, each difference absolute value is compared with a predetermined common threshold value, and the number of pixels whose difference absolute value is less than or equal to the threshold value is counted to obtain a count value p (p is an integer greater than or equal to 0) ( Step S104).

次に、ステップS101で抽出された第1ブロック11毎に、ステップS104で求められるカウント値pが最大となる第1ブロック11と第2ブロック12の対を求め、そのブロック対間を結ぶベクトルを動きベクトルとして選択する(ステップS105)。   Next, for each first block 11 extracted in step S101, a pair of the first block 11 and the second block 12 having the maximum count value p obtained in step S104 is obtained, and a vector connecting the block pairs is obtained. It selects as a motion vector (step S105).

図3は、動きベクトルの検出結果により、補間画像が変化する様子を示している。第1ブロック11に対して検出される動きベクトルがAの場合、動きベクトルAによって指し示される第2ブロック12Aから画像3Aが作成される。第1ブロック11に対して検出される動きベクトルがBの場合、動きベクトルBによって指し示される第2ブロック12Bから画像3Bが作成される。この例では動きベクトルAが正しく、動きベクトルBが誤っている。   FIG. 3 shows how the interpolated image changes depending on the motion vector detection result. When the motion vector detected for the first block 11 is A, an image 3A is created from the second block 12A indicated by the motion vector A. When the motion vector detected for the first block 11 is B, an image 3B is created from the second block 12B indicated by the motion vector B. In this example, the motion vector A is correct and the motion vector B is incorrect.

本実施形態の目的である補間画像を作成においては、原画像のない所に補間画像を作成するため、動きベクトルの精度によって補間画像の画質がほぼ決定されてしまう。図3のように誤った動きベクトルBが検出されると、画像3Bのように補間画像の画質が大幅に劣化する。   In creating an interpolated image, which is the object of the present embodiment, an interpolated image is created where there is no original image, so the image quality of the interpolated image is almost determined by the accuracy of the motion vector. When an erroneous motion vector B is detected as shown in FIG. 3, the image quality of the interpolated image is greatly degraded as in the image 3B.

図4は、図3に対応する画像データの例を示している。図4(a)に示す第mフレーム1の第1ブロック11に対して、図3に示した動きベクトルA及び動きベクトルBが検出され、第m+nフレーム2から動きベクトルA及び動きベクトルBによって指し示される第2ブロック12A,12Bが図4(b)及び図4(c)のようにそれぞれ抽出されたとする。   FIG. 4 shows an example of image data corresponding to FIG. The motion vector A and the motion vector B shown in FIG. 3 are detected for the first block 11 of the m-th frame 1 shown in FIG. 4A, and are indicated by the motion vector A and the motion vector B from the m + n frame 2. Assume that the second blocks 12A and 12B shown are extracted as shown in FIGS. 4B and 4C, respectively.

図4(a)に示されるように、第m+nフレーム2の画像は明るさがわずかに変化している。正しい動きベクトルAによって指し示される第2ブロック12Aは、図4(b)のように第4図(a)に対して全体的に輝度が明るくなっているが、形状は変化していないことが重要である。一方、誤った動きベクトルBによって指し示される第2ブロック12Bである図4(c)は、全面ラスタ画像の部分であり、形状そのものが図4(a)とは異なっている。   As shown in FIG. 4A, the brightness of the m + n frame 2 image is slightly changed. The second block 12A pointed to by the correct motion vector A is generally brighter than FIG. 4A as shown in FIG. 4B, but the shape is not changed. is important. On the other hand, FIG. 4C, which is the second block 12B pointed to by the wrong motion vector B, is a part of the entire raster image, and the shape itself is different from FIG.

次に、MPEG2で行われているブロックマッチング法によって、第1ブロックと第2ブロックのブロック対、すなわち図4(a)と(b)間及び図4(a)と(c)間の画素値の差分絶対値和(以下、単に差分絶対値和という)をそれぞれ求める。図4(a)と(b)間の差分絶対値和は、図4(d)に示すように「180」であるのに対して、図4(a)と(c)間の差分絶対値和は、図4(e)に示すように「150」となる。差分絶対値和の小さい方が選択されるとすると、図4(a)と(c)のブロック対が選択され、対応する動きベクトルBが選択される。しかし、エッジなどの形状から判定すると、より相関が高いのは図4(a)と(b)のブロック対である。   Next, block pairs of the first block and the second block, that is, pixel values between FIG. 4 (a) and FIG. 4 (b) and between FIG. 4 (a) and FIG. Are obtained, respectively (hereinafter simply referred to as difference sum sum). The difference absolute value sum between FIGS. 4 (a) and 4 (b) is “180” as shown in FIG. 4 (d), whereas the difference absolute value between FIGS. 4 (a) and 4 (c). The sum is “150” as shown in FIG. If the smaller sum of absolute differences is selected, the block pairs in FIGS. 4A and 4C are selected, and the corresponding motion vector B is selected. However, when judged from the shape of an edge or the like, the block pair shown in FIGS. 4A and 4B has a higher correlation.

図5は、本実施形態に従う図3に対応する画像データの例であり、図5(a)(b)(c)は図4(a)(b)(c)と同じである。本実施形態に従い、閾値を例えば「20」と設定し、第1及び第2ブロック間で画素毎の差分絶対値が閾値以下の画素の数をカウントして、カウント値pを求める。この場合、第1ブロック11である図5(a)と動きベクトルAによって指し示される第2ブロック12Aである図5(b)間の差分絶対値和が閾値以下の画素数のカウント値は「9」となる。図5(a)と動きベクトルBによって指し示される第2ブロック12Bである図5(c)間の差分絶対値和が閾値以下の画素数のカウント値は「6」となる。   FIG. 5 is an example of image data corresponding to FIG. 3 according to the present embodiment, and FIGS. 5A, 5B, and 5C are the same as FIGS. 4A, 4B, and 4C. According to the present embodiment, the threshold value is set to “20”, for example, and the count value p is obtained by counting the number of pixels whose difference absolute value for each pixel is equal to or less than the threshold value between the first and second blocks. In this case, the count value of the number of pixels for which the sum of absolute differences between the first block 11 shown in FIG. 5A and the second block 12A indicated by the motion vector A is equal to or less than the threshold is “ 9 ". The count value of the number of pixels whose sum of absolute differences is equal to or less than the threshold value between FIG. 5A and FIG. 5C which is the second block 12B indicated by the motion vector B is “6”.

本実施形態によると、カウント値pが大きい方のブロック対間の動きベクトルが選択されるので、図5(a)と(b)のブロック対間の動きベクトルAが選択される。発明者らの行った実験からも、画像の平均画素値(輝度値)の3%前後となるように上記の閾値を設定することで、誤った動きベクトルの検出が減少することが確認された。簡単には、例えば256階調の画像においては閾値を5レベルとすることで、その効果を確認できた。   According to the present embodiment, since the motion vector between the block pairs with the larger count value p is selected, the motion vector A between the block pairs in FIGS. 5A and 5B is selected. From experiments conducted by the inventors, it was confirmed that the detection of erroneous motion vectors is reduced by setting the above threshold value so that it is about 3% of the average pixel value (luminance value) of the image. . For example, in an image with 256 gradations, the effect can be confirmed by setting the threshold value to 5 levels.

次に、本実施形態に係る上述の動きベクトル検出処理を実施する動きベクトル検出装置の構成を図6に示す。ここでは説明を簡略化するためにn=1とする。入力画像信号31は第m+1フレームメモリ32及び第mフレームメモリ33に順次入力され、これらのフレームメモリ32及び33から、第m+1フレーム及び第mフレームの画像信号34及び35がそれぞれ読み出される。   Next, FIG. 6 shows a configuration of a motion vector detection apparatus that performs the above-described motion vector detection processing according to the present embodiment. Here, n = 1 is assumed to simplify the description. The input image signal 31 is sequentially input to the (m + 1) th frame memory 32 and the mth frame memory 33, and the (m + 1) th and mth frame image signals 34 and 35 are read from the frame memories 32 and 33, respectively.

第1ブロック抽出部41において図2中のステップS101の処理、すなわち第mフレームからの第1ブロック抽出を行い、第2ブロック抽出部42においてステップS102の処理、すなわち第m+1フレームからの第2ブロック抽出を行う。第1ブロックの画像信号と第2ブロックの画像信号をブロック間差分絶対値算出部51に入力し、ステップS103の処理、すなわち相対応する画素毎の差分絶対値E1の計算を行う。差分絶対値E1は、以下の式により算出される。   The first block extraction unit 41 performs the process of step S101 in FIG. 2, that is, the first block extraction from the mth frame, and the second block extraction unit 42 performs the process of step S102, that is, the second block from the m + 1th frame. Perform extraction. The image signal of the first block and the image signal of the second block are input to the inter-block difference absolute value calculation unit 51, and the process of step S103, that is, the calculation of the difference absolute value E1 for each corresponding pixel is performed. The difference absolute value E1 is calculated by the following equation.

Figure 2006279982
Figure 2006279982

ここで、Dは動きベクトル、Xはブロックの位置ベクトル、f(X,m)は各ブロックの位置(X)及びフレーム(m)に対応する画素データを表している。これについては、後述する他の実施形態においても適用される。   Here, D represents a motion vector, X represents a block position vector, and f (X, m) represents pixel data corresponding to the position (X) and frame (m) of each block. This also applies to other embodiments described later.

差分絶対値算出部51により得られた差分絶対値E1は、閾値以下となる画素数のカウント部52に入力され、ステップS104の処理、すなわち差分絶対値E1を閾値と比較し、閾値以下となる画素のカウント値pを求める計算が第1及び第2ブロックのブロック対毎に行われる。カウント値pは動きベクトル選択部53へ入力され、ステップS105の処理、すなわちカウント値pが最大となるブロック対の抽出と動きベクトルの検出・選択が行われる。   The difference absolute value E1 obtained by the difference absolute value calculation unit 51 is input to the count unit 52 of the number of pixels that is equal to or smaller than the threshold value, and the process of step S104, that is, the difference absolute value E1 is compared with the threshold value to be equal to or smaller than the threshold value. A calculation for obtaining the pixel count value p is performed for each block pair of the first and second blocks. The count value p is input to the motion vector selection unit 53, and the process of step S105, that is, the extraction of the block pair having the maximum count value p and the detection / selection of the motion vector are performed.

このように本実施形態では、第mフレームと第m+nフレーム間で形状に重点をおいた動きベクトル検出を行うことができる。   As described above, in this embodiment, motion vector detection can be performed with emphasis on the shape between the m-th frame and the m + n frame.

(第2の実施形態)
図7に示すように、原画像の第mフレーム(mは任意の整数)から第m+nフレーム(nは1以上の整数)への動きベクトルを検出するとともに、第m+nフレームから第mフレームへの動きベクトルを検出する。本発明の第2の実施形態では、図8に示すような手順に従って、このような双方向の動きベクトルを検出する。以下、図7及び図8を用いて本実施形態の処理手順を説明する。図8において、ステップS201〜S205の処理は、図2のステップS101〜S105と同様である。
(Second Embodiment)
As shown in FIG. 7, a motion vector from the mth frame (m is an arbitrary integer) of the original image to the m + n frame (n is an integer of 1 or more) is detected, and the m + n frame to the mth frame is detected. Detect motion vectors. In the second embodiment of the present invention, such a bidirectional motion vector is detected according to the procedure shown in FIG. Hereinafter, the processing procedure of this embodiment will be described with reference to FIGS. 7 and 8. In FIG. 8, the processes of steps S201 to S205 are the same as steps S101 to S105 of FIG.

すなわち、まず第mフレーム1の画像データを複数の第1ブロック11に分割し、各々の第1ブロック11を順次抽出する(ステップS101)。
次に、第m+nフレーム2の画像データから、ステップS201で抽出された第1ブロック11と同サイズかつ同形状の第2ブロック12を抽出する(ステップS202)。
次に、ステップS201で抽出された第1ブロック11と、ステップS202で抽出された第2ブロック12との相対応する画素毎の差分絶対値(第1差分絶対値和)を求める(ステップS203)。
次に、各々の第1差分絶対値を予め定められた共通の第1閾値と比較し、第1差分絶対値が第1閾値以下となる画素の数をカウントして、第1カウント値p(pは0以上の整数)を求める(ステップS204)。
次に、ステップS201で抽出された第1ブロック11毎に、ステップS204で求められる第1カウント値pが最大となる第1ブロック11と第2ブロック12の対を求め、そのブロック対間を結ぶベクトルを第1動きベクトル候補Dとして選択する(ステップS205)。
That is, first, the image data of the m-th frame 1 is divided into a plurality of first blocks 11, and each first block 11 is sequentially extracted (step S101).
Next, the second block 12 having the same size and shape as the first block 11 extracted in step S201 is extracted from the image data of the m + n frame 2 (step S202).
Next, a difference absolute value (first difference absolute value sum) for each corresponding pixel between the first block 11 extracted in step S201 and the second block 12 extracted in step S202 is obtained (step S203). .
Next, each first difference absolute value is compared with a predetermined common first threshold value, the number of pixels whose first difference absolute value is equal to or less than the first threshold value is counted, and a first count value p ( p is an integer greater than or equal to 0) (step S204).
Next, for each first block 11 extracted in step S201, a pair of the first block 11 and the second block 12 having the maximum first count value p obtained in step S204 is obtained, and the block pairs are connected. A vector is selected as the first motion vector candidate D (step S205).

次に、第m+nフレーム2の画像データを複数の第3ブロック13に分割し、各々の第3ブロック13を順次抽出する(ステップS206)。
次に、第mフレーム1の画像データから、ステップS206で抽出された第3ブロック13と同サイズかつ同形状の第4ブロック14を抽出する(ステップS207)。
次に、ステップS206で抽出された第3ブロック13と、ステップS207で抽出された第4ブロック14との相対応する画素毎の差分絶対値(第2差分絶対値和)を求める(ステップS208)。
次に、各々の第2差分絶対値を予め定められた共通の第2閾値と比較し、第2差分絶対値が第2閾値以下となる画素の数をカウントして、第2カウント値q(qは0以上の整数)を求める(ステップS209)。
Next, the image data of the (m + n) th frame 2 is divided into a plurality of third blocks 13, and each third block 13 is sequentially extracted (step S206).
Next, the fourth block 14 having the same size and shape as the third block 13 extracted in step S206 is extracted from the image data of the mth frame 1 (step S207).
Next, a difference absolute value (second difference absolute value sum) for each corresponding pixel between the third block 13 extracted in step S206 and the fourth block 14 extracted in step S207 is obtained (step S208). .
Next, each second difference absolute value is compared with a predetermined common second threshold value, the number of pixels whose second difference absolute value is equal to or less than the second threshold value is counted, and a second count value q ( q is an integer greater than or equal to 0) (step S209).

次に、ステップS206で抽出された第3ブロック13毎に、ステップS209で求められる第2カウント値qが最大となる第3ブロック13と第4ブロック14の対を求め、そのブロック対間を結ぶベクトルを第2動きベクトル候補Eとして選択する(ステップS210)。   Next, for each third block 13 extracted in step S206, a pair of the third block 13 and the fourth block 14 having the maximum second count value q obtained in step S209 is obtained, and the block pairs are connected. A vector is selected as the second motion vector candidate E (step S210).

次に、カウント値pとqの大小比較を行い(ステップS211)、この比較結果に応じて、pがq以上の場合には第1ベクトル候補Dを動きベクトルとして選択し(ステップS212)、pがqより小さい場合には第2ベクトル候補Eを動きベクトルとして選択する(ステップS213)。
なお、上記第1、第2の閾値は適宜選択される値であり、異なっていてもよいし、同じ値であってもよい。
Next, the count values p and q are compared (step S211). If p is equal to or greater than q, the first vector candidate D is selected as a motion vector according to the comparison result (step S212). If is smaller than q, the second vector candidate E is selected as a motion vector (step S213).
Note that the first and second threshold values are appropriately selected values, and may be different or the same value.

次に、本実施形態に係る動きベクトル検出方法を実施する動きベクトル検出装置の構成を図9に示す。ここでは説明を簡略化するためにn=1とする。図9では、図5に示した第1の実施形態に係る動きベクトル検出装置に、第3及び第4ブロック抽出部43,44が追加されている。また、図5に示したブロック間差分絶対値誤差算出部51に相当する第1ブロックと第2ブロック間差分絶対値誤差算出部51Aに加えて、第3ブロックと第4ブロック間差分絶対値誤差算出部51Bが追加され、さらに図5に示したカウント部52に相当する画素数pのカウント部52Aに加えて、画素数qのカウント部52Bが追加されている。   Next, FIG. 9 shows the configuration of a motion vector detection apparatus that implements the motion vector detection method according to this embodiment. Here, n = 1 is assumed to simplify the description. In FIG. 9, third and fourth block extraction units 43 and 44 are added to the motion vector detection device according to the first embodiment shown in FIG. Further, in addition to the first block and second block difference absolute value error calculation unit 51A corresponding to the inter-block difference absolute value error calculation unit 51 shown in FIG. 5, the third block and fourth block difference absolute value error. A calculation unit 51B is added, and a count unit 52B for the number of pixels q is added to the count unit 52A for the number of pixels p corresponding to the count unit 52 shown in FIG.

第1動きベクトル候補を求める処理は、第1の実施形態における動きベクトルDを求める処理と同様に行う。第1ブロック抽出部41において図8中のステップS201の処理、すなわち第mフレームからの第1ブロック抽出を行い、第2ブロック抽出部42においてステップS202の処理、すなわち第m+1フレームからの第2ブロック抽出を行う。   The process for obtaining the first motion vector candidate is performed in the same manner as the process for obtaining the motion vector D in the first embodiment. The first block extraction unit 41 performs the process of step S201 in FIG. 8, that is, the first block extraction from the mth frame, and the second block extraction unit 42 performs the process of step S202, that is, the second block from the m + 1th frame. Perform extraction.

第1ブロックの画像信号と第2ブロックの画像信号をブロック間差分絶対値算出部51Aに入力し、ステップS203の処理、すなわち相対応する画素毎の差分絶対値E1の計算を式(1)に従って行う。差分絶対値算出部51Aにより得られた差分絶対値E1は、閾値以下となる画素数Pのカウント部52Aに入力され、ステップS204の処理、すなわち差分絶対値E1を閾値と比較し、閾値以下となる画素のカウント値pを求める計算が第1及び第2ブロックのブロック対毎に行われる。カウント値pは動きベクトル選択部53へ入力され、ステップS205の処理、すなわちカウント値pが最大となるブロック対の抽出とそれに基づく第1動きベクトル候補Dの検出・選択が行われる。   The image signal of the first block and the image signal of the second block are input to the inter-block difference absolute value calculation unit 51A, and the processing of step S203, that is, the calculation of the difference absolute value E1 for each corresponding pixel is performed according to equation (1). Do. The difference absolute value E1 obtained by the difference absolute value calculation unit 51A is input to the count unit 52A for the number of pixels P that is equal to or less than the threshold, and the process of step S204, that is, the difference absolute value E1 is compared with the threshold, The calculation for obtaining the count value p of the pixel is performed for each block pair of the first and second blocks. The count value p is input to the motion vector selection unit 53, and the process of step S205, that is, the extraction of the block pair that maximizes the count value p and the detection / selection of the first motion vector candidate D based thereon are performed.

一方、第2動きベクトル候補Eを検出する処理は、まず第3ブロック抽出部43において図8中のステップS206の処理、すなわち第m+1フレームからの第3ブロック抽出を行い、第4ブロック抽出部44においてステップS207の処理、すなわち第mフレームからの第4ブロック抽出を行う。第3ブロックの画像信号と第4ブロックの画像信号をブロック間差分絶対値算出部51Bに入力し、ステップS208の処理、すなわち相対応する画素毎の差分絶対値E2の計算を行う。差分絶対値E2は、以下の式により算出される。ここで、Eは第2動きベクトル候補を表す。   On the other hand, in the process of detecting the second motion vector candidate E, first, the third block extraction unit 43 performs the process of step S206 in FIG. 8, that is, the third block extraction from the (m + 1) th frame, and the fourth block extraction unit 44. In step S207, the fourth block extraction from the m-th frame is performed. The image signal of the third block and the image signal of the fourth block are input to the inter-block difference absolute value calculation unit 51B, and the process of step S208, that is, the calculation of the difference absolute value E2 for each corresponding pixel is performed. The absolute difference value E2 is calculated by the following equation. Here, E represents the second motion vector candidate.

Figure 2006279982
Figure 2006279982

差分絶対値算出部51Bにより得られた差分絶対値E2は、閾値以下となる画素数のカウント部52Bに入力され、ステップS209の処理、すなわち差分絶対値E2を閾値と比較し、閾値以下となる画素のカウント値qを求める計算が第3及び第4ブロックのブロック対毎に行われる。カウント値qは動きベクトル選択部53へ入力され、ステップ210の処理、すなわちカウント値qが最大となるブロック対の抽出とそれに基づく第2動きベクトル候補Eの検出・選択が行われる。   The difference absolute value E2 obtained by the difference absolute value calculation unit 51B is input to the count unit 52B of the number of pixels that is equal to or less than the threshold value, and the process of step S209, that is, the difference absolute value E2 is compared with the threshold value to be equal to or less than the threshold value. The calculation for obtaining the pixel count value q is performed for each block pair of the third and fourth blocks. The count value q is input to the motion vector selection unit 53, and the processing of step 210, that is, the extraction of the block pair that maximizes the count value q and the detection / selection of the second motion vector candidate E based on the extraction.

次に、ステップ211の処理、すなわち第1動きベクトルを検出した場合に求められたカウント値pとカウント値qの大小関係を比較し、pがq以上の場合には第1動きベクトル候補Dを、pがqより小さい場合には第2動きベクトルEをそれぞれ動きベクトルとして最終的に選択する処理が行われる。   Next, in step 211, that is, when the first motion vector is detected, the magnitude relationship between the count value p and the count value q is compared. If p is greater than or equal to q, the first motion vector candidate D is selected. When p is smaller than q, the second motion vector E is finally selected as a motion vector.

このように本実施形態では、第mフレームから第m+nフレームへの動きベクトル検出と第m+nフレームから第mフレームへの動きベクトル検出の両方を行い、これらのうちで信頼性の高い方を選択することによって、より精度の高い動きベクトル検出を行うことができる。   As described above, in this embodiment, both the motion vector detection from the m-th frame to the m + n frame and the motion vector detection from the m + n frame to the m-th frame are performed, and the more reliable one is selected. Thus, motion vector detection with higher accuracy can be performed.

(第3の実施形態)
図10に示すように、原画像の第mフレーム(mは任意の整数)1と第m+nフレーム(nはk+1以上の整数,kは任意の実数)2間の動きベクトルFを検出するために、第mフレーム1と第m+nフレーム2の間に第m+k(kは任意の実数)フレーム4を仮定し、第m+kフレーム4を中心として第mフレーム1及び第m+nフレーム2に対して方向が互いに逆向きのベクトル(第3動きベクトル及び第4動きベクトル)を想定する。
(Third embodiment)
As shown in FIG. 10, in order to detect the motion vector F between the mth frame (m is an arbitrary integer) 1 and the m + n frame (n is an integer equal to or greater than k + 1, k is an arbitrary real number) 2 of the original image. Assuming an m + k (k is an arbitrary real number) frame 4 between the mth frame 1 and the m + n frame 2, the directions with respect to the mth frame 1 and the m + n frame 2 are centered on the m + k frame 4. Assume reverse vectors (third motion vector and fourth motion vector).

ここで、第m+kフレーム4は上述のように第mフレーム1と第m+nフレーム2の間に仮定した、原画像の存在しない仮想フレームであり、原画像を基に新たに構成され得る画像データの集まりである。本発明の第3の実施形態では、図11に示すような手順を用いる。以下、図10及び図11を用いて本実施形態の処理手順を説明する。   Here, the m + k frame 4 is a virtual frame in which the original image does not exist, which is assumed between the mth frame 1 and the m + n frame 2 as described above, and image data that can be newly constructed based on the original image. It is a gathering. In the third embodiment of the present invention, a procedure as shown in FIG. 11 is used. Hereinafter, the processing procedure of this embodiment will be described with reference to FIGS. 10 and 11.

まず、第m+kフレーム4の画像データを複数の第5ブロック15に分割し、それぞれの第5ブロック15を抽出する(ステップS301)。
次に、第mフレーム1の画像データから第5ブロック15と同サイズかつ同形状の第6ブロック16を抽出する(ステップS302)。
次に、第5ブロック15と第6ブロック16とを結ぶベクトルを第3動きベクトルとして求める(ステップS303)。第mフレーム1と第m+nフレーム2間の動きベクトルをFとすれば、これに対応する第3動きベクトルは、Fを第m+kフレーム4と第mフレーム1間のベクトルにスケーリングした動きベクトルであるので、図10中に示されるように−F・k/nとなる。
次に、第3動きベクトルの−(n−k)/k倍である第4動きベクトルを算出する(ステップS304)。上述したように、第mフレーム1と第m+nフレーム2間の動きベクトルFに対応する第3動きベクトルを−F・k/nとすれば、第4動きベクトルはF(n−k)/nであり、これはFを第m+nフレーム1と第m+kフレーム4間のベクトルにスケーリングした動きベクトルとなる。
次に、第4動きベクトルに従って第m+nフレーム2から第5ブロック15の移動先となる第7ブロック17を抽出する(ステップS305)。
次に、第6ブロック16と第7ブロック17との相対応する画素毎の差分絶対値E3を求める(ステップS306)。
次に、ステップS306で求められた差分絶対値E3と予め定められた閾値とを比較し、閾値以下となる画素数をカウントし、カウント値r(rは0以上の整数)をを求める(ステップS307)。
次に、第6ブロック16及び第7ブロック17からカウント値rが最大となるブロック対を求め、そのブロック対間を結ぶベクトルを動きベクトルFとして選択する(ステップS308)。
First, the image data of the m + k frame 4 is divided into a plurality of fifth blocks 15, and each fifth block 15 is extracted (step S301).
Next, the sixth block 16 having the same size and shape as the fifth block 15 is extracted from the image data of the mth frame 1 (step S302).
Next, a vector connecting the fifth block 15 and the sixth block 16 is obtained as a third motion vector (step S303). If the motion vector between the mth frame 1 and the m + n frame 2 is F, the corresponding third motion vector is a motion vector obtained by scaling F to a vector between the m + k frame 4 and the mth frame 1. Therefore, as shown in FIG. 10, −F · k / n.
Next, a fourth motion vector that is − (n−k) / k times the third motion vector is calculated (step S304). As described above, if the third motion vector corresponding to the motion vector F between the mth frame 1 and the m + n frame 2 is −F · k / n, the fourth motion vector is F (n−k) / n. This is a motion vector obtained by scaling F to a vector between the m + n frame 1 and the m + k frame 4.
Next, in accordance with the fourth motion vector, the seventh block 17 that is the movement destination of the fifth block 15 is extracted from the m + n frame 2 (step S305).
Next, an absolute difference value E3 for each pixel corresponding to the sixth block 16 and the seventh block 17 is obtained (step S306).
Next, the difference absolute value E3 obtained in step S306 is compared with a predetermined threshold value, the number of pixels that are less than or equal to the threshold value is counted, and a count value r (r is an integer greater than or equal to 0) is obtained (step step). S307).
Next, a block pair having the maximum count value r is obtained from the sixth block 16 and the seventh block 17, and a vector connecting the block pairs is selected as the motion vector F (step S308).

本実施形態に係る動きベクトル検出処理を実施する動きベクトル検出装置の構成は基本的に図6と同じであり、時間的に任意の位置に設定された第m+kフレーム4の時間的に前後の画像データをフレームメモリ32,33に保存する。ここで、差分絶対値E3は以下の式により計算される。   The configuration of the motion vector detection apparatus that performs the motion vector detection processing according to the present embodiment is basically the same as that in FIG. 6, and the temporally preceding and following images of the m + k frame 4 set at an arbitrary position in time. Data is stored in the frame memories 32 and 33. Here, the absolute difference value E3 is calculated by the following equation.

Figure 2006279982
Figure 2006279982

(第4の実施形態)
次に、本発明の第4の実施形態として、ベクトルの正誤判定機能を付加した例について説明する。本実施形態においては、第m+kフレーム4は第3の実施形態とは異なり、原画像が存在するフレームであることが条件になる。図12に示すように、原画像の第m+kフレーム4を挟むように、第mフレーム(mは任意の整数)1と第m+nフレーム(nはk+1以上の整数,kは1以上の整数)2間の動きベクトルを検出する。
(Fourth embodiment)
Next, as a fourth embodiment of the present invention, an example in which a vector correctness determination function is added will be described. In this embodiment, unlike the third embodiment, the m + k frame 4 is a frame in which an original image exists. As shown in FIG. 12, the mth frame (m is an arbitrary integer) 1 and the m + n frame (n is an integer equal to or greater than k + 1 and k is an integer equal to or greater than 1) 2 so as to sandwich the m + k frame 4 of the original image. The motion vector between is detected.

ここで、本実施形態における第m+kフレーム4は上述のように原画像が存在する実フレームであり、第3の実施形態で述べた仮想フレームとしての第m+kフレームとは異なるが、時間軸上で同じ位置であっても構わない。本実施形態では、図13に示すような手順を用いて動きベクトルの検出を行う。以下、図12及び図13を用いて本実施形態の処理手順を説明する。   Here, the m + k frame 4 in the present embodiment is an actual frame in which the original image exists as described above, and is different from the m + k frame as the virtual frame described in the third embodiment, but on the time axis. The same position may be used. In the present embodiment, motion vectors are detected using a procedure as shown in FIG. Hereinafter, the processing procedure of this embodiment will be described with reference to FIGS. 12 and 13.

まず、第mフレーム1の画像データを複数の第5ブロック15に分割し、それぞれの第5ブロック15を抽出する(ステップS401)。
次に、第m+nフレーム2の画像データから第5ブロック15と同サイズかつ同形状の第6ブロック16を抽出する(ステップS402)。
次に、第5ブロック15と第6ブロック16とを結ぶベクトルを第1動きベクトルFとして求める(ステップS403)。
次に、第5ブロックと第6ブロックとの相対応する画素毎の差分絶対値E4を求める(ステップS404)。
次に、ステップS404で求められた差分絶対値E4と予め定められた閾値とを比較し、閾値以下となる画素数をカウントしてカウント値p(pは0以上の整数)を求める(ステップS405)。
次に、第1動きベクトルFのそれぞれに対応して、第1動きベクトルFのk/n倍である第2動きベクトルF・k/nを算出する(ステップS406)。
次に、第2動きベクトルF・k/nに従って第m+kフレーム2から第5ブロック15の移動先となる第7ブロック17を抽出する(ステップS407)。
次に、第5ブロック15と第7ブロック17との相対応する画素毎の差分絶対値E5を求める(ステップS408)。
次に、ステップS407で求められた差分絶対値E5と予め定められた閾値とを比較し、閾値以下となる画素数をカウントしてカウント値q(qは0以上の整数)を求める(ステップS409)。
次に、カウント値p及びカウント値qから重み付け加算値r(r=x×p+(1−x)r;xは0以上1以下の実数)を求める(ステップS410)。
次に、第5ブロック15と第6ブロック16から重み付け加算値rが最大となるベクトル対を求め、そのブロック対間を結ぶ第1ベクトルFを第mフレーム1と第m+nフレーム2間の動きベクトルとして選択する(ステップS411)。
First, the image data of the m-th frame 1 is divided into a plurality of fifth blocks 15, and each fifth block 15 is extracted (step S401).
Next, the sixth block 16 having the same size and shape as the fifth block 15 is extracted from the image data of the m + n frame 2 (step S402).
Next, a vector connecting the fifth block 15 and the sixth block 16 is obtained as the first motion vector F (step S403).
Next, a difference absolute value E4 for each pixel corresponding to the fifth block and the sixth block is obtained (step S404).
Next, the difference absolute value E4 obtained in step S404 is compared with a predetermined threshold value, and the number of pixels equal to or smaller than the threshold value is counted to obtain a count value p (p is an integer of 0 or more) (step S405). ).
Next, the second motion vector F · k / n, which is k / n times the first motion vector F, is calculated corresponding to each of the first motion vectors F (step S406).
Next, in accordance with the second motion vector F · k / n, the seventh block 17 that is the movement destination of the fifth block 15 is extracted from the m + k frame 2 (step S407).
Next, a difference absolute value E5 for each pixel corresponding to the fifth block 15 and the seventh block 17 is obtained (step S408).
Next, the difference absolute value E5 obtained in step S407 is compared with a predetermined threshold, and the number of pixels equal to or smaller than the threshold is counted to obtain a count value q (q is an integer of 0 or more) (step S409). ).
Next, a weighted addition value r (r = x × p + (1−x) r; x is a real number between 0 and 1) is obtained from the count value p and the count value q (step S410).
Next, a vector pair maximizing the weighted addition value r is obtained from the fifth block 15 and the sixth block 16, and the first vector F connecting the block pairs is determined as the motion vector between the mth frame 1 and the m + n frame 2. (Step S411).

次に、本実施形態に係る動きベクトル検出処理を実施する動きベクトル検出装置の構成を図14に示す。ここでは説明を簡略化するためにn=2,k=1とする。入力画像信号30は第mフレームメモリ31、第m+1フレームメモリ32及び第m+2フレームメモリ33に順次入力され、これらのメモリ31,32,33から第mフレーム、第m+1フレーム及び第m+2フレームの画像信号が読み出される。   Next, FIG. 14 shows a configuration of a motion vector detection apparatus that performs motion vector detection processing according to the present embodiment. Here, in order to simplify the description, n = 2 and k = 1. The input image signal 30 is sequentially input to the m-th frame memory 31, the (m + 1) th frame memory 32, and the (m + 2) th frame memory 33, and the mth, m + 1th, and m + 2th frame image signals are input from these memories 31, 32, and 33. Is read out.

第5ブロック抽出部45において、第mフレームから第5ブロックの抽出を行い、第6ブロック抽出部46において、第m+1フレームから第6ブロックの抽出を行う。第1動きベクトル算出部61では、第5ブロックと第6ブロックを結ぶ第1動きベクトルFを算出し、第5ブロックの画像信号と第6ブロック間差分絶対値の算出部51Cでは、相対応する画素毎に第5ブロックの画像信号と第6ブロックの画像信号の差分絶対値E4を求める。差分絶対値E4は閾値以下となる画素数のカウント部52Aに入力され、ここで閾値と比較されて閾値以下となる画素のカウント値pが求められる。カウント値pはブロック対毎に求められ、動きベクトル選択部53へ入力される。   The fifth block extraction unit 45 extracts the fifth block from the m-th frame, and the sixth block extraction unit 46 extracts the sixth block from the m + 1-th frame. The first motion vector calculation unit 61 calculates a first motion vector F connecting the fifth block and the sixth block, and the image signal of the fifth block and the sixth block difference absolute value calculation unit 51C correspond to each other. A difference absolute value E4 between the image signal of the fifth block and the image signal of the sixth block is obtained for each pixel. The difference absolute value E4 is input to the counting unit 52A for the number of pixels that are equal to or smaller than the threshold value, and is compared with the threshold value to obtain the count value p of the pixels that are equal to or smaller than the threshold value. The count value p is obtained for each block pair and input to the motion vector selection unit 53.

次に、第2動きベクトル生成部62へ第1動きベクトルFを入力し、第1動きベクトルFのk/n倍である第2動きベクトルF・k/nを算出する。第7ブロック抽出部47では、第2動きベクトルF・k/nに従って第m+1フレームから第5ブロックの移動先となる第7ブロックを抽出する。第5ブロックの画像信号と第7ブロック間差分絶対値の算出部51Dでは、相対応する画素毎に第5ブロックの画像信号と第7ブロックの画像信号の差分絶対値E5を求める。差分絶対値E5は閾値以下となる画素数のカウント部52Bに入力され、ここで閾値と比較されて閾値以下となる画素のカウント値qが求められる。カウント値qはブロック対毎に求められ、動きベクトル選択部53へ入力される。   Next, the first motion vector F is input to the second motion vector generation unit 62, and a second motion vector F · k / n that is k / n times the first motion vector F is calculated. The seventh block extraction unit 47 extracts the seventh block that is the movement destination of the fifth block from the (m + 1) th frame according to the second motion vector F · k / n. The fifth block image signal and seventh inter-block difference absolute value calculation unit 51D obtains the absolute difference value E5 between the fifth block image signal and the seventh block image signal for each corresponding pixel. The absolute difference value E5 is input to the count unit 52B for the number of pixels that are equal to or less than the threshold value, and is compared with the threshold value to obtain the count value q of the pixels that are equal to or less than the threshold value. The count value q is obtained for each block pair and input to the motion vector selection unit 53.

最後に、動きベクトル選択部53ではカウント値p及びカウント値qから重み付け加算値r(r=x×p+(1−x)r;xは0以上1以下の実数)を求め、重み付け加算値rが最大となる第5ブロックと第6ブロックとを結ぶ第1動きベクトルFを第mフレームと第m+nフレーム間の動きベクトルとして選択する動きベクトルとして選択する。   Finally, the motion vector selection unit 53 obtains a weighted addition value r (r = x × p + (1−x) r; x is a real number between 0 and 1) from the count value p and the count value q, and the weighted addition value r. The first motion vector F connecting the fifth block and the sixth block with the largest value is selected as the motion vector selected as the motion vector between the mth frame and the m + n frame.

ここで、第5ブロックと第6ブロックの差分絶対値E4は、以下の式により計算される。   Here, the absolute difference E4 between the fifth block and the sixth block is calculated by the following equation.

Figure 2006279982
Figure 2006279982

また、第5ブロックと第7ブロックの差分絶対値E5は、以下の式により計算される。   The difference absolute value E5 between the fifth block and the seventh block is calculated by the following equation.

Figure 2006279982
Figure 2006279982

(第5の実施形態)
第5の実施形態では、図15に示すように例えば原画像の第mフレーム(mは任意の整数)1と第m+nフレーム(nは1以上の整数)2間の動きベクトルを検出する際、各フレームにおける各ブロックを更に複数の領域に分割して、各領域毎に動きベクトルを検出する機能が付加される。本実施形態では、図16に示すような手順を用いる。以下、図15及び図16を用いて本実施形態の処理手順を説明する。また、ここでは説明を簡略化するためにn=1とし、ブロック内を2つの領域に分割する。
(Fifth embodiment)
In the fifth embodiment, as shown in FIG. 15, for example, when detecting a motion vector between the mth frame (m is an arbitrary integer) 1 and the m + n frame (n is an integer of 1 or more) 2 of the original image, Each block in each frame is further divided into a plurality of regions, and a function of detecting a motion vector for each region is added. In this embodiment, a procedure as shown in FIG. 16 is used. Hereinafter, the processing procedure of this embodiment will be described with reference to FIGS. 15 and 16. Here, for simplification of explanation, n = 1 and the block is divided into two areas.

まず、第mフレーム1の画像データを複数の第1ブロック11に分割し、それぞれの第1ブロック11を順次抽出する(ステップS501)。
次に、第m+1フレーム2の画像データから第1ブロック11と同サイズかつ同形状の第2ブロック12を抽出する(ステップS502)。
次に、第1ブロック11と第2ブロック12との相対応する画素毎の差分絶対値E1を求める(ステップS503)。
次に、差分絶対値E1と予め定められた第1閾値とを比較し、差分絶対値E1が第1閾値以下となる画素数をカウントしてカウント値p(pは0以上の整数)を求める(ステップS504)。
次に、カウント値pが最大となる第1ブロック11と第2ブロック12とを結ぶベクトルを、第1領域と第m+1フレーム間の動きベクトル(第1領域別動きベクトル)Eとする(ステップS505)。
次に、差分絶対値E1と定められた第2閾値とを比較し、差分絶対値E1が第2閾値以下となる第1ブロック11内の画素を第1領域の画素ブロック21として抽出し(ステップS506)、差分絶対値E1が第2閾値より大きくなる第1ブロック11内の画素を第2領域の画素ブロック22として抽出する(ステップS507)。
次に、第2領域の画素ブロック22に対して第m+1フレーム2の画像データから第2領域の画素ブロック22と同サイズ及び形状の第3ブロック13を抽出する(ステップS508)。
First, the image data of the mth frame 1 is divided into a plurality of first blocks 11, and each of the first blocks 11 is sequentially extracted (step S501).
Next, the second block 12 having the same size and shape as the first block 11 is extracted from the image data of the (m + 1) th frame 2 (step S502).
Next, a difference absolute value E1 for each pixel corresponding to the first block 11 and the second block 12 is obtained (step S503).
Next, the difference absolute value E1 is compared with a predetermined first threshold, and the number of pixels for which the difference absolute value E1 is less than or equal to the first threshold is counted to obtain a count value p (p is an integer greater than or equal to 0). (Step S504).
Next, a vector connecting the first block 11 and the second block 12 having the maximum count value p is set as a motion vector (first region-specific motion vector) E between the first region and the (m + 1) th frame (step S505). ).
Next, the difference absolute value E1 is compared with the determined second threshold value, and the pixels in the first block 11 in which the difference absolute value E1 is equal to or less than the second threshold value are extracted as the pixel block 21 in the first region (step). S506), the pixels in the first block 11 where the difference absolute value E1 is larger than the second threshold value are extracted as the pixel blocks 22 in the second region (step S507).
Next, the third block 13 having the same size and shape as the pixel block 22 in the second area is extracted from the image data of the (m + 1) th frame 2 for the pixel block 22 in the second area (step S508).

次に、第2領域の画素ブロック22と第3ブロック13との相対応する画素毎の差分絶対値E6を求める(ステップS509)。   Next, a difference absolute value E6 for each pixel corresponding to the pixel block 22 and the third block 13 in the second region is obtained (step S509).

次に、差分絶対値E6と予め定められた第3閾値とを比較し、第3閾値以下となる画素数をカウントしてカウント値s(sは0以上の整数)を求める(ステップS510)。   Next, the difference absolute value E6 is compared with a predetermined third threshold, and the number of pixels that are equal to or smaller than the third threshold is counted to obtain a count value s (s is an integer equal to or greater than 0) (step S510).

最後に、カウント値sが最大となる第2領域の画素ブロック22と第3ブロック13とを結ぶベクトルを、第2領域と第m+1フレーム間の動きベクトル(第2の領域別動きベクトル)として選択する(ステップS511)。
なお、上記第1〜第3の閾値は適宜選択される値であり、全て異なっていてもよいし、これらの2つ以上が同じ値であってもよい。
Finally, a vector connecting the pixel block 22 and the third block 13 in the second area where the count value s is maximum is selected as a motion vector (second area-specific motion vector) between the second area and the (m + 1) th frame. (Step S511).
The first to third thresholds are values that are appropriately selected, and may be all different or two or more of them may be the same value.

図17には、第mフレーム1と、第m+nフレーム2の原画像、及び領域分割をしなかった場合に第1領域の動きベクトルEから第mフレーム1を再生したフレーム5の画像を示している。ここではオブジェクトO1が右方向へ移動、オブジェクトO2が下方向へ移動、オブジェクトO3が静止している。第1領域の動きベクトルEはオブジェクトO1の成分により求められるが、第m+nフレーム2ではオブジェクトO3がブロック内に入り込んでいる。そのブロックを第mフレーム1の再生フレーム5の画像に取り込むと、再生フレーム5の当該ブロック内に誤り部分が再現されてしまい、いわゆるブロック歪となる。これは特に差分信号を使わない補間画像生成時に問題となる。   FIG. 17 shows the original image of the mth frame 1 and the m + n frame 2, and the image of the frame 5 in which the mth frame 1 is reproduced from the motion vector E of the first region when the region is not divided. Yes. Here, the object O1 moves rightward, the object O2 moves downward, and the object O3 is stationary. The motion vector E of the first area is obtained from the component of the object O1, but the object O3 enters the block in the m + n frame 2. If the block is captured in the image of the reproduction frame 5 of the m-th frame 1, an error part is reproduced in the block of the reproduction frame 5, which is a so-called block distortion. This is particularly problematic when generating an interpolated image that does not use a difference signal.

これに対し、本実施形態によれば、ブロックをさらに領域分割して領域別の動きベクトルを検出することにより、このようなブロック歪の発生を防止することができる。   On the other hand, according to the present embodiment, such block distortion can be prevented by further dividing the block into regions and detecting motion vectors for each region.

次に、本実施形態に係る上述の動きベクトル検出処理を実施する動きベクトル検出装置の構成を図18に示す。入力画像信号30は、第m+1フレームメモリ32及び第mフレームメモリ33に順次入力され、これらのフレームメモリ32及び33から第m+1フレーム及び第mフレームの画像信号がそれぞれ読み出される。   Next, FIG. 18 shows a configuration of a motion vector detection apparatus that performs the above-described motion vector detection processing according to the present embodiment. The input image signal 30 is sequentially input to the (m + 1) th frame memory 32 and the mth frame memory 33, and the (m + 1) th frame image signal and the mth frame image signal are read from these frame memories 32 and 33, respectively.

第1ブロック抽出部41において、第mフレームから第1ブロックの抽出を行い、第2ブロック抽出部42において、第m+1フレームから第2ブロックの抽出を行う。第1ブロックの画像信号と第2ブロックの画像信号をブロック間差分絶対値の算出部51Aに入力し、相対応する画素毎の差分絶対値E1を求める。ここで、差分絶対値E1は式(1)により求められる。差分絶対値E1は閾値以下となる画素数のカウント部52Aに入力され、ここで閾値と比較されて閾値以下となる画素のカウント値pが求められる。カウント値pはブロック対毎に求められ、第1領域の動きベクトル選択部53Aへ入力されることにより、カウント値pが最大となるブロック対の抽出及び第1領域の動きベクトルの検出・選択が行われる。   The first block extraction unit 41 extracts the first block from the mth frame, and the second block extraction unit 42 extracts the second block from the m + 1th frame. The image signal of the first block and the image signal of the second block are input to the inter-block difference absolute value calculation unit 51A, and the difference absolute value E1 for each corresponding pixel is obtained. Here, the difference absolute value E1 is obtained by the equation (1). The difference absolute value E1 is input to the count unit 52A for the number of pixels that are equal to or smaller than the threshold value, and is compared with the threshold value to obtain the count value p of the pixels that are equal to or smaller than the threshold value. The count value p is obtained for each block pair, and input to the motion vector selection unit 53A in the first area, so that the extraction of the block pair having the maximum count value p and the detection / selection of the motion vector in the first area are performed. Done.

次に、第1領域の画素ブロック抽出部55Aにおいて、閾値以下となる第1ブロック内の画素を抽出し、さらに第2領域の画素ブロック抽出部55Bにおいて、閾値より大きくなる第1ブロック内の画素を抽出する。第2領域の画素ブロック抽出部55Bからは、第2領域の画素のアドレス信号が第m+1フレ−ムメモリ32へ入力され、フレームメモリ32から第3ブロック抽出部43において第3ブロックが抽出される。   Next, the pixel block extraction unit 55A in the first region extracts pixels in the first block that are equal to or lower than the threshold value, and the pixel block extraction unit 55B in the second region further extracts pixels in the first block that are larger than the threshold value. To extract. From the pixel block extractor 55B in the second area, the address signal of the pixel in the second area is input to the (m + 1) th frame memory 32, and the third block is extracted in the third block extractor 43 from the frame memory 32.

抽出された第2領域の画素ブロックと第3ブロックは、第2領域の画素ブロックと第3ブロック間差分絶対値の算出部51Eにおいて、相対応する画素毎の差分絶対値E6が求められる。ここで差分絶対値E6は、式(1)の差分絶対値E1を求める計算と同様の計算で求められる。差分絶対値E3は閾値以下となる画素数のカウント部52Bに入力されて閾値と比較され、閾値以下となる画素数のカウント値qが求められる。カウント値qはブロック対毎に求められ、第2領域の動きベクトル選択部53Bへ入力されることにより、カウント値qが最大となるブロック対の抽出及び第2領域の動きベクトルの検出・選択が行われる。   For the extracted pixel block and third block in the second area, the difference absolute value E6 for each corresponding pixel is obtained in the difference absolute value calculation unit 51E between the pixel block in the second area and the third block. Here, the difference absolute value E6 is obtained by a calculation similar to the calculation for obtaining the difference absolute value E1 of the equation (1). The difference absolute value E3 is input to the count unit 52B for the number of pixels that are equal to or less than the threshold value and is compared with the threshold value, and a count value q for the number of pixels that is equal to or less than the threshold value is obtained. The count value q is obtained for each block pair, and input to the motion vector selection unit 53B in the second area, so that the block pair with the maximum count value q is extracted and the motion vector in the second area is detected and selected. Done.

(第6の実施形態)
次に、本発明の第6の実施形態として、第5の実施形態における第1領域の画素ブロック及び第2領域の画素ブロックの抽出方法を改良した実施形態について図19を用いて説明する。
(Sixth embodiment)
Next, as a sixth embodiment of the present invention, an embodiment in which the extraction method of the pixel block in the first area and the pixel block in the second area in the fifth embodiment is improved will be described with reference to FIG.

発明者らの実験から、第2領域の画素ブロックを抽出する場合に、画素数が1〜2程度の少数の画素の領域に分割された部分がノイズとなり得ることが分かった。本実施形態では、このようなノイズの発生を抑制するために、第2領域の画素ブロックを抽出する前段階として、第1領域の画素ブロックのサイズをある程度制約するために、空間方向のローパスフィルタリングを行うローパスフィルタ(空間領域のローパスフィルタ)を通す。この様子を図19に示す。   From the experiments by the inventors, it has been found that when a pixel block in the second region is extracted, a portion divided into a small number of pixel regions having the number of pixels of about 1 to 2 can be noise. In the present embodiment, in order to suppress the occurrence of such noise, as a step before extracting the pixel blocks in the second region, low-pass filtering in the spatial direction is performed to restrict the size of the pixel blocks in the first region to some extent. Through a low-pass filter (spatial domain low-pass filter). This is shown in FIG.

すなわち、第5の実施形態で説明した図18中の第1領域の画素ブロック抽出部55A内に空間領域のローパスフィルタ6を設けるか、あるいは図17のステップS506に空間領域のローパスフィルタ処理を追加する。第1領域の画素ブロック11を空間領域のローパスフィルタ6に通すことにより、小領域の画素ブロックを除去し、第1ブロックの画素ブロックのうち除去されたブロックを最終的な第1領域の画素ブロックとして設定する。   That is, the low-pass filter 6 in the spatial region is provided in the pixel block extraction unit 55A in the first region in FIG. 18 described in the fifth embodiment, or the low-pass filter processing in the spatial region is added to step S506 in FIG. To do. By passing the pixel block 11 in the first area through the low-pass filter 6 in the spatial area, the pixel block in the small area is removed, and the removed block among the pixel blocks in the first block is the final pixel block in the first area. Set as.

空間領域のローパスフィルタ6としては色々なものが考えられるが、例えばメディアンフィルタ(Median Filter)を用いることができる。メディアンフィルタでは、対象画素の隣接画素が第1領域に属するかどうかを例えば対象画素を含めて隣接8画素について判定し、5画素以上が第1領域に属する場合は対象画素を第1領域とし、4画素以下の場合には対象画素を第2領域と判定する。このような処理を繰り返すことにより、全画素に対して空間領域のローパスフィルタリングを行うことが可能となる。この他にも、第1領域と第2領域を色分けしたモノクロ画像(以下、領域マップと呼ぶ)を作成後、その画像に対してフーリエ変換を行って低域成分を取り出し、逆フーリエ変換により領域マップを再生する方法を用いてもよい。   Various types of low-pass filter 6 in the spatial domain are conceivable. For example, a median filter can be used. In the median filter, whether or not adjacent pixels of the target pixel belong to the first area is determined for the adjacent eight pixels including the target pixel, for example, and when five or more pixels belong to the first area, the target pixel is set as the first area, In the case of 4 pixels or less, the target pixel is determined as the second region. By repeating such processing, it is possible to perform low-pass filtering of the spatial domain for all pixels. In addition to this, after creating a monochrome image (hereinafter referred to as a region map) in which the first region and the second region are color-coded, a Fourier transform is performed on the image to extract low-frequency components, and a region is obtained by inverse Fourier transform. A method of reproducing a map may be used.

(第7の実施形態)
次に、本発明の第7の実施形態として、第6の実施形態と同様に、第5の実施形態における第1領域の画素ブロック及び第2領域の画素ブロックの抽出方法を改良した例について図20を用いて説明する。
(Seventh embodiment)
Next, as a seventh embodiment of the present invention, similarly to the sixth embodiment, an example in which the extraction method of the pixel block of the first region and the pixel block of the second region in the fifth embodiment is improved is illustrated. 20 will be described.

本実施形態では、画素数が1〜2程度の少数の画素の領域に分割された部分に起因するノイズの発生を抑制するために、第2領域の画素ブロックを抽出する前段階として、第1領域の画素ブロックの抽出処理に通常のブロックマッチング方法において使われている輝度成分についての閾値判定処理に加えて、色差成分についての閾値判定処理を追加する。具体的には、例えば図20のフローチャートに示すように、図16のステップS503及びS504に代えて、以下の処理を行う。   In the present embodiment, in order to suppress the occurrence of noise due to a portion divided into a small number of pixel regions having about 1 to 2 pixels, the first step is to extract the pixel blocks in the second region. In addition to the threshold determination process for the luminance component used in the normal block matching method in the pixel block extraction process for the region, a threshold determination process for the color difference component is added. Specifically, as shown in the flowchart of FIG. 20, for example, the following processing is performed instead of steps S503 and S504 of FIG.

すなわち、第1ブロックの輝度情報を持つ第1輝度ブロックと第2ブロックの輝度情報を有する第2輝度ブロックとの相対応する画素毎の輝度についての差分絶対値(第1差分絶対値)E11を求める(ステップS512)。
次に、第1差分絶対値E11と予め定められた輝度についての第1閾値とを比較し、第1差分絶対値E11が第1閾値以下となる画素を求める(ステップS513)。
次に、第1ブロック及び第2ブロックの第1差分絶対値E11が第1閾値以下となる画素について、第1ブロックの色差情報を有する第1色差ブロックと第2ブロックの色差情報を有する第2色差ブロックをそれぞれ抽出する(ステップS514)。
次に、第1差分値E11が第1閾値以下となる画素毎に第1色差ブロックと第2色差ブロックとの色差についての差分絶対値(第2差分絶対値)E12を求めるステップ(ステップS515)。
次に、第2差分絶対値E12と予め定められた色差についての第2閾値とを比較し、第2差分絶対値E12が第2閾値以下となる画像の数をカウントしてカウント値p(pは0以上の整数)を求める(ステップS516)。
ステップS516以降の処理は、第1領域の画素ブロックが色差についても閾値以下としている点を除くと、図16におけるステップS505〜S511と同様の処理でよい。すなわち、ステップS505ではカウント値pが最大となる第1ブロック11と第2ブロック12とを結ぶベクトルを第1領域と第m+1フレーム間の動きベクトル(第1領域別動きベクトル)とする。
次に、ステップS506では、第2差分絶対値E12と定められた第2閾値とを比較し、第2差分絶対値E12が第2閾値以下となる第1ブロック11内の画素を第1領域の画素ブロック21とする。
次に、ステップS507では、第2差分絶対値E12と予め定められた第2閾値とを比較し、第2閾値より大きくなる第1ブロック11内の画素を第2領域の画素ブロック22とする。
次に、ステップS508では、第m+1フレーム2の画像データから第2領域の画素ブロック22と同サイズ及び形状の第3ブロック13を抽出する。
次に、ステップS509では、第2領域の画素ブロック22と第3ブロック13との相対応する画素毎の輝度についての第3差分絶対値E13を求める。
次に、ステップS510では、第3差分絶対値E13と予め定められた第3閾値とを比較し、第3閾値以下となる画素数をカウントしてカウント値s(sは0以上の整数)を求める。
最後に、ステップS511では、カウント値sが最大となる第2領域の画素ブロック22と第3ブロック13とを結ぶベクトルを第2領域と第m+1フレーム間の動きベクトル(第2領域別動きベクトル)として選択する。
なお、上記第1〜第3の閾値は適宜選択される値であり、全て異なっていてもよいし、これらの2つ以上が同じ値であってもよい。
That is, the difference absolute value (first difference absolute value) E11 for the luminance of each corresponding pixel between the first luminance block having the luminance information of the first block and the second luminance block having the luminance information of the second block is set to Obtained (step S512).
Next, the first difference absolute value E11 is compared with a first threshold value for a predetermined luminance, and a pixel having the first difference absolute value E11 equal to or less than the first threshold value is obtained (step S513).
Next, for the pixels having the first difference absolute value E11 of the first block and the second block equal to or lower than the first threshold, the second color difference information of the first color difference block having the color difference information of the first block and the second color difference information of the second block. Each color difference block is extracted (step S514).
Next, a step of obtaining a difference absolute value (second difference absolute value) E12 for the color difference between the first color difference block and the second color difference block for each pixel for which the first difference value E11 is equal to or less than the first threshold (step S515). .
Next, the second difference absolute value E12 is compared with a second threshold value for a predetermined color difference, and the number of images for which the second difference absolute value E12 is equal to or less than the second threshold value is counted to obtain a count value p (p Is an integer greater than or equal to 0) (step S516).
The processing after Step S516 may be the same processing as Steps S505 to S511 in FIG. 16 except that the pixel block in the first region also has a color difference equal to or less than the threshold value. That is, in step S505, a vector connecting the first block 11 and the second block 12 having the maximum count value p is set as a motion vector (first region-specific motion vector) between the first region and the (m + 1) th frame.
Next, in step S506, the second difference absolute value E12 is compared with the determined second threshold value, and the pixels in the first block 11 in which the second difference absolute value E12 is equal to or less than the second threshold value are determined in the first area. Let it be a pixel block 21.
Next, in step S507, the second difference absolute value E12 is compared with a predetermined second threshold value, and a pixel in the first block 11 that is larger than the second threshold value is set as a pixel block 22 in the second region.
In step S508, the third block 13 having the same size and shape as the pixel block 22 in the second area is extracted from the image data of the (m + 1) th frame 2.
Next, in step S509, a third difference absolute value E13 is obtained for the luminance of each pixel corresponding to the pixel block 22 and the third block 13 in the second region.
Next, in step S510, the third difference absolute value E13 is compared with a predetermined third threshold, the number of pixels that are equal to or smaller than the third threshold is counted, and a count value s (s is an integer equal to or greater than 0) is obtained. Ask.
Finally, in step S511, a vector connecting the pixel block 22 and the third block 13 in the second area where the count value s is maximum is a motion vector between the second area and the (m + 1) th frame (second area-specific motion vector). Choose as.
The first to third thresholds are values that are appropriately selected, and may be all different or two or more of them may be the same value.

(第8の実施形態)
次に、本発明の第8の実施形態として、第5の実施形態における第2領域の画素ブロックの抽出方法を改良した例について説明する。第5の実施形態と異なる点は、第2領域の画素ブロックを抽出する場合に、隣接する第2領域の画素ブロックを連結させて動きベクトル検索を行う点である。
(Eighth embodiment)
Next, as an eighth embodiment of the present invention, an example in which the pixel block extraction method for the second region in the fifth embodiment is improved will be described. The difference from the fifth embodiment is that when extracting the pixel blocks in the second area, the pixel blocks in the adjacent second area are connected to perform a motion vector search.

例えば、図21に示すように第mフレーム1のある第1ブロックの第2領域と隣接する第1ブロックの第2領域を空間的に連結し、第2空間拡張領域23の画素ブロックとする。次に、第2空間拡張領域の画素ブロック23に対して、第m+nフレーム2の画像データから第2空間拡張領域の画素ブロック23と同サイズ及び同形状の第3空間拡張領域の画素ブロック24を抽出する。
次に、第2空間拡張領域の画素ブロック23と第3空間拡張領域の画素ブロック24との相対応する画素毎の差分絶対値を求める。
次に、該差分絶対値と予め定められた閾値とを比較し、閾値以下となる画素の数をカウントしてカウント値s(sは0以上の整数)を求める。
次に、カウント値sが最大となる第2空間拡張領域の画素ブロック23と第3空間拡張領域の画素ブロック24とを結ぶベクトルを第2空間拡張領域の動きベクトルとして選択する。
For example, as shown in FIG. 21, the second area of the first block adjacent to the second area of the first block in the m-th frame 1 is spatially connected to form a pixel block of the second spatial expansion area 23. Next, with respect to the pixel block 23 in the second spatial expansion region, a pixel block 24 in the third spatial expansion region having the same size and shape as the pixel block 23 in the second spatial expansion region is obtained from the image data of the m + n frame 2. Extract.
Next, an absolute difference value for each corresponding pixel between the pixel block 23 in the second space expansion region and the pixel block 24 in the third space expansion region is obtained.
Next, the difference absolute value is compared with a predetermined threshold, and the number of pixels that are equal to or smaller than the threshold is counted to obtain a count value s (s is an integer equal to or greater than 0).
Next, a vector connecting the pixel block 23 in the second spatial extension region and the pixel block 24 in the third spatial extension region that maximizes the count value s is selected as the motion vector of the second spatial extension region.

(第9の実施形態)
次に、本発明の第9の実施形態として、第5の実施形態における第2領域の画素ブロックの抽出方法を改良した他の例について説明する。第5の実施形態と異なる点は、第2領域の画素ブロックを抽出する場合に、時間方向に探索領域を拡張する点である。
(Ninth embodiment)
Next, as a ninth embodiment of the present invention, another example in which the pixel block extraction method for the second region in the fifth embodiment is improved will be described. The difference from the fifth embodiment is that when a pixel block in the second area is extracted, the search area is expanded in the time direction.

例えば、図22は第m−2フレーム7から第m+2フレーム9までの5つのフレーム上に、静止オブジェクトO1及びO2と画面右下から左上へ移動するオブジェクトO3がある例について示している。オブジェクトO3は、オブジェクトO1の背面にあって第mフレーム1で出現し、第m+1フレーム2以降はオブジェクトO2の前面にあるため、オブジェクトO2を覆い隠すように移動する。すなわち、オブジェクトO2はオブジェクトO1により、第m+1フレーム2及びm+2フレーム9では消滅する。   For example, FIG. 22 shows an example in which there are still objects O1 and O2 and an object O3 moving from the lower right to the upper left of the screen on five frames from the (m-2) th frame 7 to the (m + 2) th frame 9. The object O3 appears on the back of the object O1 and appears at the m-th frame 1, and since the m + 1-th frame 2 and thereafter are on the front of the object O2, it moves so as to cover the object O2. That is, the object O2 disappears in the (m + 1) th frame 2 and the (m + 2) frame 9 due to the object O1.

図22から分かるように、第mフレーム1の第1領域の画素ブロック21については、第mフレーム1と第m−1フレーム8間では動き探索を行うことができるが、第mフレーム1と第m+1フレーム2間では第m+1フレーム2上のオブジェクトO3により第1領域の画素ブロック21が消滅してしまうため、動き探索を行うことができない。同様に、第mフレーム1の第2領域の画素ブロック22については、第mフレーム1と第m−1フレーム8間では第2領域の画素ブロック22が出現していないため、動き探索を行うことができない。   As can be seen from FIG. 22, a motion search can be performed between the mth frame 1 and the m−1th frame 8 for the pixel block 21 in the first region of the mth frame 1, but Since the pixel block 21 in the first area disappears between the m + 1 frame 2 and the object O3 on the m + 1 frame 2, the motion search cannot be performed. Similarly, for the pixel block 22 in the second area of the m-th frame 1, a motion search is performed because the pixel block 22 in the second area does not appear between the m-th frame 1 and the m-1 frame 8. I can't.

このようにオブジェクトの陰面関係によって、第1領域の画素ブロック21及び第2領域の画素ブロック22の動き探索をできない場合が起こり得る。このような陰面関係を解決する方法として、時間方向に探索領域を拡張することが有効となる。   As described above, there may be a case where the motion search of the pixel block 21 in the first area and the pixel block 22 in the second area cannot be performed due to the hidden surface relationship of the object. As a method for solving such a hidden surface relationship, it is effective to extend the search area in the time direction.

そこで本実施形態では、第mフレーム(mは任意の整数)1と第m+n(nは1以上の整数)フレーム2間の動きベクトルを求める際に、時間軸方向に拡張してブロック対を探索する方法を採用する。特に第2領域の画素ブロック22の探索を時間方向へ拡張することで、画素数が少なくなった第2領域の動き探索を精度良く実施できる。ここで説明を簡単にするために、n=1,k=−2,−1,2とする。   Therefore, in this embodiment, when a motion vector between the m-th frame (m is an arbitrary integer) 1 and the m + n (n is an integer of 1 or more) frame 2 is obtained, the block pair is searched by expanding in the time axis direction. Adopt the method to do. In particular, by expanding the search for the pixel block 22 in the second region in the time direction, the motion search in the second region with a reduced number of pixels can be performed with high accuracy. Here, for simplicity of explanation, it is assumed that n = 1, k = −2, −1, 2.

まず、第6の実施形態と同様に第mフレーム1から第1領域の画素ブロック21及び第2領域の画素ブロック22を抽出した後、第m+1フレーム2の画像データから第2領域の画素ブロック22と同サイズ及び形状の第3ブロックを抽出する。
次に、第2領域の画素ブロック22と第3ブロックとを結ぶベクトルを第3動きベクトルとして求める。第3動きベクトルをFとすると、Fを第m+2フレーム4と第mフレーム1間のベクトルにスケーリングした動きベクトルは2Fとなる。
次に、動きベクトル2Fに従って第m+2フレームから画素ブロック22の移動先となる第4ブロック17を抽出する。
次に、第m−1フレーム2の画像データから第2領域の画素ブロック22と同サイズ及び形状の第5ブロック18を抽出する。
次に、第2領域の画素ブロック22と第5ブロックとを結ぶベクトルを第4動きベクトルとして求める。前記第4動きベクトルをGとすると、Gを第m−2フレームと第mフレーム1間のベクトルにスケーリングした動きベクトルは2Gとなる。
次に、動きベクトル2Gに従って第m−2フレームから画素ブロック22の移動先となる第6ブロック19を抽出する。
次に、第2領域の画素ブロック22と第3、第4、第5及び第6ブロックとの相対応する画素毎の差分絶対値をそれぞれ求める。
次に、各差分絶対値と予め定められた閾値とを比較し、閾値以下となる画素の数をカウントしてカウント値s(sは0以上の整数)を夫々求める。ここで、画素ブロック22と第3とのカウント値をS3、画素ブロック22と第4とのカウント値をS4、画素ブロック22と第5とのカウント値をS5、画素ブロック22と第6とのカウント値をS6とする。
次に、カウント値S3とカウント値S4の和とカウント値S5とカウント値S6の和を比較し、大きい方の組み合わせを選択する。つまり、S3とS4の和がS5とS6の和より大きい場合は、画素ブロック22と第3ブロックを結ぶ第3動きベクトルを第2領域の画素ブロック22の動きベクトルとして選択する。
First, the pixel block 21 in the first area and the pixel block 22 in the second area are extracted from the m-th frame 1 as in the sixth embodiment, and then the pixel block 22 in the second area is extracted from the image data in the (m + 1) -th frame 2. Extract a third block of the same size and shape.
Next, a vector connecting the pixel block 22 and the third block in the second region is obtained as a third motion vector. Assuming that the third motion vector is F, the motion vector obtained by scaling F to the vector between the (m + 2) th frame 4 and the mth frame 1 is 2F.
Next, the fourth block 17 that is the movement destination of the pixel block 22 is extracted from the (m + 2) th frame according to the motion vector 2F.
Next, the fifth block 18 having the same size and shape as the pixel block 22 in the second area is extracted from the image data of the (m−1) th frame 2.
Next, a vector connecting the pixel block 22 and the fifth block in the second area is obtained as a fourth motion vector. When the fourth motion vector is G, a motion vector obtained by scaling G to a vector between the m-2th frame and the mth frame 1 is 2G.
Next, the sixth block 19 that is the movement destination of the pixel block 22 is extracted from the (m-2) th frame according to the motion vector 2G.
Next, an absolute difference value for each pixel corresponding to the pixel block 22 in the second region and the third, fourth, fifth, and sixth blocks is obtained.
Next, each absolute difference value is compared with a predetermined threshold value, and the number of pixels that are equal to or smaller than the threshold value is counted to obtain a count value s (s is an integer equal to or larger than 0). Here, the count value of the pixel block 22 and the third is S3, the count value of the pixel block 22 and the fourth is S4, the count value of the pixel block 22 and the fifth is S5, and the count value of the pixel block 22 and the sixth is The count value is S6.
Next, the sum of the count value S3 and the count value S4 and the sum of the count value S5 and the count value S6 are compared, and the larger combination is selected. That is, when the sum of S3 and S4 is larger than the sum of S5 and S6, the third motion vector connecting the pixel block 22 and the third block is selected as the motion vector of the pixel block 22 in the second region.

(第10の実施形態)
次に、本発明の第10の実施形態として、ブロック内の領域分割を繰り返し行って分割数を増やし、各領域の画素ブロックについての複数の動きベクトルを求める実施形態について図23を用いて説明する。本実施形態に動きベクトル検出及び領域分割後の動きベクトル検出は、第1の実施形態から第9の実施形態のいずれの方法を用いることができ、異なる点は領域分割数を増やすために反復して行う点にある。
(Tenth embodiment)
Next, as a tenth embodiment of the present invention, an embodiment in which the number of divisions is increased by repeatedly dividing a region in a block to obtain a plurality of motion vectors for pixel blocks in each region will be described with reference to FIG. . In this embodiment, the motion vector detection and the motion vector detection after area division can use any of the methods of the first embodiment to the ninth embodiment, and different points are repeated to increase the number of area divisions. It is in the point to do.

すなわち、第2領域の画素ブロック以降は、まず第i+1領域の画素ブロックに対して第m+1フレームの画像データから第i+1領域の画素ブロックと同サイズ及び形状の第i+2ブロックを抽出する(ステップS517)。
次に、第i+1領域の画素ブロックと第i+2ブロックとの相対応する画素毎の差分絶対値を求める(ステップS518)。
次に、ステップS518で求められた差分絶対値と予め定められた閾値とを比較し、閾値以下となる画素の数をカウントしてカウント値si+1(si+1は0以上の整数;下付のi+1は領域番号)を求める(ステップS519)。
次に、カウント値sが最大となる第i+1領域の画素ブロックと第i+1ブロックとを結ぶベクトルを第i+1領域の動きベクトルとして選択する(ステップS520)。
最後に、反復継続判定処理(ステップS521)を行い、継続する判断した場合にはステップS517からS520までの処理を再度繰り返し、継続終了と判断した場合には終了処理に移る。
That is, after the pixel block in the second area, first, the i + 2 block having the same size and shape as the pixel block in the i + 1 area is extracted from the image data in the m + 1 frame for the pixel block in the i + 1 area (step S517). .
Next, the absolute difference value for each pixel corresponding to the pixel block in the i + 1 region and the i + 2 block is obtained (step S518).
Next, the absolute difference value obtained in step S518 is compared with a predetermined threshold value, and the number of pixels that are less than or equal to the threshold value is counted, and the count value s i + 1 (s i + 1 is an integer greater than or equal to 0). The subscript i + 1 is an area number) (step S519).
Next, a vector connecting the pixel block in the (i + 1) th region and the (i + 1) th block having the maximum count value s is selected as a motion vector in the (i + 1) th region (step S520).
Finally, an iterative continuation determination process (step S521) is performed. If it is determined to continue, the processes from step S517 to S520 are repeated again. If it is determined that the continuation is completed, the process proceeds to an end process.

反復継続判定処理ステップS521での処理は、どのような方法であってもよいが、例えば閾値より大きくなる画素数が少なくなった場合(例えば、第1ブロック内の画素数の5%以下)に継続を終了する方法が考えられる。また、領域マップから反復継続判定処理ステップS521での処理を行ってもよい。例えば、閾値より大きくなる画素数が少なく(例えば第1ブロック内の画素数の10%以下)、且つ領域マップの空間周波数が高い場合には、領域マップ上に1つまたは2つ程度の画素が散在していると考えられるため、これ以上の動きベクトル検索を行うとかえってエラーが多くなるので、反復を終了する。   The processing in the repeated continuation determination processing step S521 may be any method. For example, when the number of pixels larger than the threshold value decreases (for example, 5% or less of the number of pixels in the first block). A method of terminating the continuation can be considered. Moreover, you may perform the process by iterative continuation determination process step S521 from an area map. For example, when the number of pixels larger than the threshold is small (for example, 10% or less of the number of pixels in the first block) and the spatial frequency of the region map is high, about one or two pixels are present on the region map. Since it is considered scattered, if more motion vector searches are performed, the number of errors increases. Therefore, the iteration is terminated.

(第11の実施形態)
次に、本発明の第11の実施形態として原画像の第mフレーム(mは任意の整数)と第m+nフレーム(nは1以上の整数)間の第m+kフレーム(kは任意の実数)の時間的位置に補間すべき補間画像を作成する補間画像作成方法の実施形態について、図24を用いて説明する。本実施形態では、図25に示すような手順を用いる。以下、図24及び図25を用いて本実施形態の処理手順を説明する。また、ここでは説明を簡略化するためにn=1,k=0.5とし、第mフレーム1と第m+1フレーム2の中間、すなわち第m+0.5フレーム10の位置に補間画像を作成する。
(Eleventh embodiment)
Next, as an eleventh embodiment of the present invention, an m + k frame (k is an arbitrary real number) between an mth frame (m is an arbitrary integer) and an m + n frame (n is an integer of 1 or more) of the original image. An embodiment of an interpolation image creation method for creating an interpolation image to be interpolated at a temporal position will be described with reference to FIG. In this embodiment, a procedure as shown in FIG. 25 is used. Hereinafter, the processing procedure of this embodiment will be described with reference to FIGS. 24 and 25. Here, for simplification of explanation, n = 1 and k = 0.5, and an interpolated image is created in the middle of the mth frame 1 and the m + 1th frame 2, that is, the position of the m + 0.5th frame 10.

第1領域の画素ブロックの検出方法は、第5の実施形態と同じ方法でよく、また動きベクトルの検出方法についても、第1〜第4の実施形態のいずれかの方法を用いることができる。すなわち、図16中のステップS501〜S506を用いて第1ブロック11内の第1領域の画素ブロック21の抽出及び第1領域の動きベクトルEの検出を行う。   The method for detecting the pixel block in the first region may be the same as that in the fifth embodiment, and any one of the methods in the first to fourth embodiments may be used as the motion vector detection method. That is, the extraction of the pixel block 21 of the first area in the first block 11 and the detection of the motion vector E of the first area are performed using steps S501 to S506 in FIG.

次に、第1領域の動きベクトルEを第m+0.5フレ−ム10の時間的位置に応じてスケール変換する(ステップS522)。この場合、スケール変換後の動きベクトルはE/2となる。
次に、第m+1フレーム2から、ステップS522によるスケール変換後の動きベクトルE/2に従って、第mフレーム1上の第1ブロック11と空間的同位置にある第m+0.5フレーム10上の第1領域の補間ブロック25の移動先である第4ブロック14を抽出する(ステップS523)。
次に、第m+0.5フレーム10上の第1領域の補間ブロック25へ、第4ブロック14を割り当てる(ステップS524)。
次に、第5の実施形態と同様の方法、つまり図16中のステップS507〜S511を用いて、第1ブロック11から第2領域の画素ブロック22の抽出及び第2領域の動きベクトルFの検出を行う。
次に、第2領域の動きベクトルFを第m+0.5フレ−ム10の時間的位置に応じてスケール変換する(ステップS525)。この場合、スケール変換後の動きベクトルはF/2となる。
次に、第m+1フレーム2から、ステップS525によるスケール変換後の動きベクトルF/2に従って、第mフレーム1上の第2領域の画素ブロック21と空間的同位置にある第m+0.5フレーム10上の第2領域の補間ブロック26の移動先である第5ブロック15を抽出する(ステップS526)。
最後に、第m+0.5フレーム10の第2領域の補間ブロック25へ第5ブロック15を割り当てる(ステップS527)。
Next, the motion vector E of the first region is scale-converted according to the temporal position of the m + 0.5 frame 10 (step S522). In this case, the motion vector after the scale conversion is E / 2.
Next, from the (m + 1) th frame 2, the first on the (m + 0.5) th frame 10 that is in the same spatial position as the first block 11 on the mth frame 1 according to the motion vector E / 2 after the scale conversion in step S522. The fourth block 14 that is the movement destination of the interpolation block 25 in the region is extracted (step S523).
Next, the fourth block 14 is assigned to the interpolation block 25 in the first region on the m + 0.5 frame 10 (step S524).
Next, extraction of the pixel block 22 in the second area from the first block 11 and detection of the motion vector F in the second area using the same method as in the fifth embodiment, that is, steps S507 to S511 in FIG. I do.
Next, the motion vector F in the second region is scale-converted according to the temporal position of the m + 0.5 frame 10 (step S525). In this case, the motion vector after the scale conversion is F / 2.
Next, from the (m + 1) th frame 2, on the (m + 0.5) th frame 10 at the same spatial position as the pixel block 21 in the second area on the mth frame 1 according to the motion vector F / 2 after the scale conversion in step S525. The fifth block 15 that is the movement destination of the interpolation block 26 in the second area is extracted (step S526).
Finally, the fifth block 15 is assigned to the interpolation block 25 in the second area of the (m + 0.5) th frame 10 (step S527).

次に、本実施形態に係る上述の補間画像作成処理を実施する補間画像作成装置の構成を図26に示す。ただし、ここでは第5の実施形態に従う第1領域及び第2領域の動きベクトルが検出された後に付加される部分のみを記している。第1領域の動きベクトル信号54Aを第1領域の動きベクトルスケール変換部61Aに入力して動きベクトルをスケール変換し、このスケール変換後の動きベクトルを用いて第m+1フレームメモリ32から第1領域の補間ブロック62Aを抽出し、補間フレーム生成部63へ出力する。   Next, FIG. 26 shows a configuration of an interpolated image creating apparatus that performs the above-described interpolated image creating process according to the present embodiment. However, only the part added after the motion vector of the 1st area | region and 2nd area | region according to 5th Embodiment is detected is described here. The motion vector signal 54A of the first area is input to the motion vector scale converter 61A of the first area to scale the motion vector, and the scaled motion vector is used to convert the motion vector from the m + 1 frame memory 32 to the first area. The interpolation block 62A is extracted and output to the interpolation frame generation unit 63.

同様に、第2領域の動きベクトル信号54Bを第2領域の動きベクトルスケール変換部61Bに入力して動きベクトルをスケール変換し、このスケール変換後の動きベクトルを用いて第m+1フレームから第2領域の補間ブロックを抽出し、補間フレーム生成部63へ出力する。補間フレーム生成部63では、補間ブロックを補間フレームに割り当てていき、補間フレームの画像データを作成する。   Similarly, the motion vector signal 54B of the second area is input to the motion vector scale converter 61B of the second area to scale the motion vector, and the scaled motion vector is used to convert the motion vector from the m + 1 frame to the second area. Are extracted and output to the interpolation frame generation unit 63. The interpolation frame generation unit 63 assigns the interpolation block to the interpolation frame and creates image data of the interpolation frame.

(第12の実施形態)
最後に、本発明の第12の実施形態として、これまでの各実施形態で説明した動きベクトル検出方法及びこれに基づく第11の実施形態に係る補間画像の作成方法を用いた画像表示システムについて説明する。
(Twelfth embodiment)
Finally, as a twelfth embodiment of the present invention, an image display system using the motion vector detection method described in each of the previous embodiments and the method of creating an interpolated image according to the eleventh embodiment based thereon will be described. To do.

図27は、画像表示システムの概略構成を示しており、入力画像信号101は補間フレーム画像作成部102及び画像切替部104に入力される。補間フレーム画像作成部102では、第11の実施形態で説明した補間画像信号103がこれまで述べた手順によって作成され、補間画像信号103は画像切替部104へ出力される。画像切替部104では、入力画像信号101をそのまま出力するか、補間画像信号104を出力するかの制御が行われる。画像切替部104からの出力画像信号105は、ホールド型表示装置である高速リフレッシュ表示装置106へ出力される。表示装置106では、出力画像信号105に含まれる同期信号に対応して、リフレッシュレートを変えて画像の表示が行われる。   FIG. 27 shows a schematic configuration of the image display system, and an input image signal 101 is input to the interpolated frame image creation unit 102 and the image switching unit 104. In the interpolated frame image creating unit 102, the interpolated image signal 103 described in the eleventh embodiment is created by the procedure described so far, and the interpolated image signal 103 is output to the image switching unit 104. The image switching unit 104 controls whether the input image signal 101 is output as it is or whether the interpolated image signal 104 is output. An output image signal 105 from the image switching unit 104 is output to a high-speed refresh display device 106 that is a hold-type display device. The display device 106 displays an image at a different refresh rate in response to the synchronization signal included in the output image signal 105.

本発明の第1の実施形態に係る動きベクトル検出方法を説明する図The figure explaining the motion vector detection method which concerns on the 1st Embodiment of this invention. 同の実施形態に係る動きベクトル検出手順を示すフローチャートA flowchart showing a motion vector detection procedure according to the embodiment 同実施形態の作成画像出力結果とその効果を示す図The figure which shows the creation image output result and the effect of the same embodiment 誤った動きベクトルが検出される画像の例を示す図The figure which shows the example of the image from which an incorrect motion vector is detected 同実施形態の方法により検出されるブロックの判定方法を説明する図The figure explaining the determination method of the block detected by the method of the embodiment 同実施形態に係る動きベクトル検出装置の構成を示すブロック図The block diagram which shows the structure of the motion vector detection apparatus which concerns on the same embodiment 本発明の第2の実施形態に係る動きベクトル検出方法を説明する図The figure explaining the motion vector detection method which concerns on the 2nd Embodiment of this invention. 同実施形態に係る動きベクトル検出手順を示すフローチャートA flowchart showing a motion vector detection procedure according to the embodiment. 同実施形態に係る動きベクトル検出装置の構成を示すブロック図The block diagram which shows the structure of the motion vector detection apparatus which concerns on the same embodiment 本発明の第3の実施形態に係る動きベクトル検出方法を説明する図The figure explaining the motion vector detection method which concerns on the 3rd Embodiment of this invention. 同実施形態に係る動きベクトル検出手順を示すフローチャートA flowchart showing a motion vector detection procedure according to the embodiment. 本発明の第4の実施形態に係る動きベクトル検出方法を説明する図The figure explaining the motion vector detection method which concerns on the 4th Embodiment of this invention. 同実施形態に係る動きベクトル検出手順を示すフローチャートA flowchart showing a motion vector detection procedure according to the embodiment. 同実施形態に係る動きベクトル検出装置の構成を示すブロック図The block diagram which shows the structure of the motion vector detection apparatus which concerns on the same embodiment 本発明の第5の実施形態に係る領域分割及び動きベクトル検出方法を説明する図The figure explaining the area division | segmentation and motion vector detection method which concern on the 5th Embodiment of this invention. 同実施形態に係る領域分割及び動きベクトル検出手順を示すフローチャートFlowchart showing a region division and motion vector detection procedure according to the embodiment ブロック歪の発生原因を説明する図Diagram explaining the cause of block distortion 同実施形態に係る領域分割及び動きベクトル検出装置の構成を示すブロック図FIG. 3 is a block diagram showing a configuration of a region division and motion vector detection device according to the embodiment. 本発明の第6の実施形態に係る領域分割及び動きベクトル検出方法を説明する図The figure explaining the area division | segmentation and motion vector detection method which concern on the 6th Embodiment of this invention. 本発明の第7の実施形態に係る領域分割及び動きベクトル検出手順を示すフローチャートThe flowchart which shows the area division | segmentation and motion vector detection procedure based on the 7th Embodiment of this invention. 本発明の第8の実施形態に係る領域分割及び動きベクトル検出方法を説明する図The figure explaining the area division | segmentation and motion vector detection method which concern on the 8th Embodiment of this invention. 本発明の第9の実施形態に係る領域分割及び動きベクトル検出方法を説明する図The figure explaining the area division | segmentation and motion vector detection method which concern on the 9th Embodiment of this invention. 本発明の第10の実施形態に係る領域分割及び動きベクトル検出手順を示すフローチャートThe flowchart which shows the area | region division and motion vector detection procedure which concern on the 10th Embodiment of this invention. 本発明の第11の実施形態に係る領域分割及び動きベクトル検出方法を説明する図The figure explaining the area division | segmentation and motion vector detection method which concern on the 11th Embodiment of this invention. 同実施形態に係る領域分割及び動きベクトル検出手順を示すフローチャートFlowchart showing a region division and motion vector detection procedure according to the embodiment 同実施形態に係る補間画像作成装置の構成を示すブロック図The block diagram which shows the structure of the interpolation image production apparatus which concerns on the same embodiment 本発明の第12の実施形態に係る画像表示システムの構成を示すブロック図The block diagram which shows the structure of the image display system which concerns on the 12th Embodiment of this invention. 従来のホールド型表示装置におけるボケ現象について説明する図The figure explaining the blurring phenomenon in the conventional hold type display device

符号の説明Explanation of symbols

1…第mフレーム
2…第m+nフレーム
4…第m+kフレーム
11〜17…第1〜第7ブロック
21…第1領域の画素ブロック
22…第2領域の画素ブロック
23…第2空間拡張領域の画素ブロック
24…第3空間拡張領域の画素ブロック
25…第1領域の補間ブロック
26…第2領域の補間ブロック
DESCRIPTION OF SYMBOLS 1 ... mth frame 2 ... m + n frame 4 ... m + k frame 11-17 ... 1st-7th block 21 ... 1st area pixel block 22 ... 2nd area pixel block 23 ... 2nd space expansion area pixel Block 24 ... Pixel block in the third space expansion area 25 ... Interpolation block in the first area 26 ... Interpolation block in the second area

Claims (10)

複数の画素からなる画像の第mフレーム(mは任意の整数)から該第mフレームを分割した所定サイズかつ所定形状の複数の第1ブロックを抽出するステップと、
前記画像の第m+nフレーム(nは1以上の整数)から前記第1ブロックと同サイズかつ同形状の複数の第2ブロックを抽出するステップと、
前記第1ブロックと前記第2ブロック間の相対応する画素毎の差分絶対値を求めるステップと、
前記差分絶対値が閾値以下となる画素の数をカウントしてカウント値を求めるステップと、
前記第1ブロック及び第2ブロックから前記カウント値が最大となる画素をそれぞれ含むブロック対を抽出し、該ブロック対間のベクトルを前記第mフレームと第m+nフレーム間の動きベクトルとして選択するステップと
を具備する動きベクトル検出方法。
Extracting a plurality of first blocks having a predetermined size and a predetermined shape obtained by dividing the m-th frame from an m-th frame (m is an arbitrary integer) of an image composed of a plurality of pixels;
Extracting a plurality of second blocks having the same size and shape as the first block from m + n frames (n is an integer of 1 or more) of the image;
Obtaining an absolute difference value for each corresponding pixel between the first block and the second block;
Counting the number of pixels where the absolute difference value is less than or equal to a threshold value to obtain a count value;
Extracting block pairs each including a pixel having the maximum count value from the first block and the second block, and selecting a vector between the block pairs as a motion vector between the m-th frame and the m + n frame; A motion vector detection method comprising:
複数の画素からなる画像の第mフレーム(mは任意の整数)から該第mフレームを分割した所定サイズかつ所定形状の複数の第1ブロックを抽出するステップと、
前記画像の第m+nフレーム(nは1以上の整数)から前記第1ブロックと同サイズかつ同形状の複数の第2ブロックを抽出するステップと、
前記第1ブロックと前記第2ブロック間の相対応する画素毎の第1差分絶対値を求めるステップと、
前記第1差分絶対値が第1閾値以下となる画素の数をカウントして第1カウント値を求めるステップと、
前記第1ブロック及び第2ブロックから前記第1カウント値が最大となるブロック対を抽出し、該ブロック対間のベクトルを第1動きベクトル候補として求めるステップと、
前記第m+nフレームから該第m+nフレームを分割した所定サイズかつ所定形状の複数の第3ブロックを抽出するステップと、
前記第mフレームから前記第3ブロックと同サイズかつ同形状の第4ブロックを抽出するステップと、
前記第3ブロックと前記第4ブロック間の相対応する画素毎の第2差分絶対値を求めるステップと、
前記第2差分絶対値が第2閾値以下となる画素の数をカウントして第2カウント値を求めるステップと、
前記第3ブロック及び第4ブロックから前記第2カウント値が最大となる画素をそれぞれ含むブロック対を抽出し、該ブロック対間のベクトルを第2動きベクトル候補として求めるステップと、
前記第1カウント値及び第2カウント値を比較し、第1カウント値が第2カウント値以上の場合には前記第1動きベクトル候補、第1カウント値が第2カウント値より小さい場合には前記第2動きベクトル候補をそれぞれ前記第mフレームと第m+nフレーム間の動きベクトルとして選択するステップと
を具備する動きベクトル検出方法。
Extracting a plurality of first blocks having a predetermined size and a predetermined shape obtained by dividing the m-th frame from an m-th frame (m is an arbitrary integer) of an image composed of a plurality of pixels;
Extracting a plurality of second blocks having the same size and shape as the first block from m + n frames (n is an integer of 1 or more) of the image;
Obtaining a first absolute difference value for each corresponding pixel between the first block and the second block;
Counting the number of pixels in which the first absolute difference value is equal to or less than a first threshold value to obtain a first count value;
Extracting a block pair having the maximum first count value from the first block and the second block, and obtaining a vector between the block pairs as a first motion vector candidate;
Extracting a plurality of third blocks having a predetermined size and a predetermined shape obtained by dividing the m + n frame from the m + n frame;
Extracting a fourth block having the same size and shape as the third block from the m-th frame;
Obtaining a second absolute difference value for each corresponding pixel between the third block and the fourth block;
Counting the number of pixels for which the second absolute difference value is equal to or less than a second threshold value to obtain a second count value;
Extracting block pairs each including a pixel having the maximum second count value from the third block and the fourth block, and obtaining a vector between the block pairs as a second motion vector candidate;
The first count value and the second count value are compared. When the first count value is greater than or equal to the second count value, the first motion vector candidate, and when the first count value is smaller than the second count value, Selecting a second motion vector candidate as a motion vector between the m-th frame and the (m + n) -th frame, respectively.
複数の画素からなる画像の第mフレーム(mは任意の整数)と第m+nフレーム(nはk+1以上の整数,kは任意の実数)間に仮定した第m+kフレームから、該第m+kフレームを分割した所定サイズかつ所定形状の複数の第5ブロックを抽出するステップと、
前記第mフレームから前記第5ブロックと同サイズかつ同形状の複数の第6ブロックを抽出するステップと、
前記第5ブロックと前記第6ブロック間のベクトルを第3動きベクトルとして求めるステップと、
前記第3動きベクトルの−(n−k)/kである第4動きベクトルを算出するステップと、
前記第4動きベクトルに従って前記第m+nフレームから前記第5ブロックの移動先となる第7ブロックを抽出するステップと、
前記第6ブロックと前記第7ブロック間の相対応する画素毎の差分絶対値を求めるステップと、
前記差分絶対値が閾値以下となる画素の数をカウントしてカウント値を求めるステップと、
前記第6ブロック及び第7ブロックから前記カウント値が最大となる画素をそれぞれ含むブロック対を抽出し、該ブロック対間のベクトルを前記第mフレームと第m+nフレーム間の動きベクトルとして選択するステップと
を具備する動きベクトル検出方法。
The m + k frame is divided from the m + k frame assumed between the m-th frame (m is an arbitrary integer) and the m + n frame (n is an integer not less than k + 1 and k is an arbitrary real number) of an image composed of a plurality of pixels. Extracting a plurality of fifth blocks having a predetermined size and a predetermined shape;
Extracting a plurality of sixth blocks having the same size and shape as the fifth block from the m-th frame;
Obtaining a vector between the fifth block and the sixth block as a third motion vector;
Calculating a fourth motion vector that is − (n−k) / k of the third motion vector;
Extracting a seventh block as a movement destination of the fifth block from the m + n frame according to the fourth motion vector;
Obtaining an absolute difference value for each corresponding pixel between the sixth block and the seventh block;
Counting the number of pixels where the absolute difference value is less than or equal to a threshold value to obtain a count value;
Extracting block pairs each including a pixel having the maximum count value from the sixth block and the seventh block, and selecting a vector between the block pairs as a motion vector between the m-th frame and the m + n frame; A motion vector detection method comprising:
複数の画素からなる画像の第mフレーム(mは任意の整数)から該第mフレームを分割した所定サイズかつ所定形状の複数の第5ブロックを抽出するステップと、
前記画像の第m+nフレーム(nはk+1以上の整数,kは整数)から前記第5ブロックと同サイズかつ同形状の複数の第6ブロックを抽出するステップと、
前記第5ブロックと前記第6ブロック間のベクトルを第1動きベクトルとして求めるステップと、
前記第5ブロックと前記第6ブロック間の相対応する画素毎の第1差分絶対値を求めるステップと、
前記第1差分絶対値が第1閾値以下となる画素の数をカウントして第1カウント値を求めるステップと、
前記画像の第m+kフレームから前記第5ブロックと同サイズかつ空間的同位置の第7ブロックを抽出するステップと、
前記第1動きベクトルの(n−k)/n倍である第2動きベクトルを算出するステップと、
前記第2動きベクトルに従って前記第m+nフレームから前記第7ブロックの移動先となる第8ブロックを抽出するステップと、
前記第7ブロックと前記第8ブロック間の相対応する画素毎の第2差分絶対値を求めるステップと、
前記第2差分絶対値が第2閾値以下となる画素の数をカウントして第2カウント値を求めるステップと、
前記第1及び第2カウント値をそれぞれp,qとしてr(r=x×p+(1−x)q;xは0以上1以下の実数)で表される重み付け加算値を求めるステップと、
前記第5ブロック及び第6ブロックから前記重み付け加算値が最大となる画素をそれぞれ含むブロック対を抽出し、該ブロック対間のベクトルを前記第mフレームと第m+nフレーム間の動きベクトルとして選択するステップと
を具備する動きベクトル検出方法。
Extracting a plurality of fifth blocks having a predetermined size and a predetermined shape obtained by dividing the m-th frame from an m-th frame (m is an arbitrary integer) of an image composed of a plurality of pixels;
Extracting a plurality of sixth blocks having the same size and shape as the fifth block from the m + n frame of the image (n is an integer equal to or greater than k + 1, k is an integer );
Obtaining a vector between the fifth block and the sixth block as a first motion vector;
Obtaining a first difference absolute value for each corresponding pixel between the fifth block and the sixth block;
Counting the number of pixels in which the first absolute difference value is equal to or less than a first threshold value to obtain a first count value;
Extracting a seventh block having the same size and the same spatial position as the fifth block from the m + k frame of the image;
Calculating a second motion vector that is (n−k) / n times the first motion vector;
Extracting an eighth block to be a destination of the seventh block from the m + n frame according to the second motion vector;
Obtaining a second difference absolute value for each corresponding pixel between the seventh block and the eighth block;
Counting the number of pixels for which the second absolute difference value is equal to or less than a second threshold value to obtain a second count value;
Obtaining a weighted addition value represented by r (r = x × p + (1−x) q; x is a real number from 0 to 1), where the first and second count values are p and q, respectively;
Extracting block pairs each including a pixel having the maximum weighted addition value from the fifth block and the sixth block, and selecting a vector between the block pairs as a motion vector between the m-th frame and the m + n frame. A motion vector detection method comprising:
複数の画素からなる画像の第mフレーム(mは任意の整数)から、該第mフレームを分割した所定サイズかつ所定形状の複数の第1ブロックを抽出するステップと、
前記画像の第m+nフレーム(nは1以上の整数)から前記第1ブロックと同サイズかつ同形状の第2ブロックを抽出するステップと、
前記第1ブロックと前記第2ブロック間の相対応する画素毎の第1差分絶対値を求めるステップと、
前記第1差分絶対値が第1閾値以下となる画素の数をカウントして第1カウント値を求めるステップと、
前記第1ブロック及び第2ブロックから前記第1カウント値が最大となる画素をそれぞれ含むブロック対を抽出し、該ブロック対間のベクトルを前記第1ブロック内の第1領域と前記第m+nフレーム間の第1領域別動きベクトルとして選択するステップと、
前記第1差分絶対値が第2閾値以下となる前記第1ブロック内の画素を前記第1領域の画素ブロックとして抽出するステップと、
前記第1差分絶対値が前記第2閾値より大きくなる前記第1ブロック内の画素を第2領域の画素ブロックとして抽出するステップと、
第m+nフレームから前記第2領域の画素ブロックと同サイズかつ同形状の第3ブロックを抽出するステップと、
前記第2領域の画素ブロックと前記第3ブロック間の相対応する画素毎の第2差分絶対値を求めるステップと、
前記第2差分絶対値が第3閾値以下となる画素の数をカウントして第2カウント値を求めるステップと、
前記第2領域の画素ブロックと前記第3ブロックから前記第2カウント値が最大となる画素をそれぞれ含むブロック対を抽出し、該ブロック対間のベクトルを前記第2領域と前記第m+nフレーム間の第2領域別動きベクトルとして選択するステップと
を具備する動きベクトル検出方法。
Extracting a plurality of first blocks having a predetermined size and a predetermined shape obtained by dividing the m-th frame from an m-th frame (m is an arbitrary integer) of an image composed of a plurality of pixels;
Extracting a second block having the same size and shape as the first block from m + n frames (n is an integer of 1 or more) of the image;
Obtaining a first absolute difference value for each corresponding pixel between the first block and the second block;
Counting the number of pixels in which the first absolute difference value is equal to or less than a first threshold value to obtain a first count value;
A block pair including each pixel having the maximum first count value is extracted from the first block and the second block, and a vector between the block pair is determined between the first area in the first block and the m + n frame. Selecting as a first region-specific motion vector,
Extracting the pixels in the first block whose first difference absolute value is equal to or less than a second threshold as pixel blocks in the first region;
Extracting a pixel in the first block in which the first absolute difference value is larger than the second threshold as a pixel block of a second region;
Extracting a third block having the same size and shape as the pixel block of the second region from the m + n frame;
Obtaining a second absolute difference value for each corresponding pixel between the pixel block of the second region and the third block;
Counting the number of pixels for which the second absolute difference value is equal to or less than a third threshold to obtain a second count value;
A block pair including the pixel having the maximum second count value is extracted from the pixel block and the third block in the second area, and a vector between the block pair is defined between the second area and the m + n frame. Selecting a motion vector as a second region-specific motion vector.
複数の画素からなる画像の第mフレーム(mは任意の整数)から、該第mフレームを分割した、輝度情報及び色差情報を有する複数の第1ブロックを抽出するステップと、
前記画像の第m+nフレーム(nは1以上の整数)から前記第1ブロックと同サイズかつ同形状の、輝度情報及び色差情報を有する第2ブロックを抽出するステップと、
前記第1ブロックの輝度情報を有する第1輝度ブロックと前記第2ブロックの輝度情報を有する第2輝度ブロック間の相対応する画素毎の第1差分絶対値を求めるステップと、
前記第1ブロック及び第2ブロックの前記第1差分絶対値が第1閾値以下となる画素について、前記第1ブロックの色差情報を有する第1色差ブロックと前記第2ブロックの色差情報を有する第2色差ブロック間の相対応する画素毎の第2差分絶対値を求めるステップと、
前記第2差分絶対値が第2閾値以下となる画素の数をカウントして第1カウント値を求めるステップと、
前記第1ブロック及び第2ブロックから前記第1カウント値が最大となる画素をそれぞれ含むブロック対を抽出し、該ブロック対間のベクトルを前記第1ブロック内の第1領域と前記第m+nフレーム間の第1領域別動きベクトルとして選択するステップと、
前記第2差分絶対値が前記第2閾値以下となる前記第1ブロック内の画素を前記第1領域の画素ブロックとして抽出するステップと、
前記第2差分絶対値が第2閾値より大きくなる前記第1ブロック内の画素を第2領域の画素ブロックとして抽出するステップと、
前記第m+nフレームから前記第2領域の画素ブロックと同サイズかつ同形状の第3ブロックを抽出するステップと、
前記第2領域の画素ブロックと前記第3ブロック間の相対応する画素毎の輝度についての第3差分絶対値を求めるステップと、
前記第3差分絶対値が第3閾値以下となる画素の数をカウントして第2カウント値を求めるステップと、
前記第2領域の画素ブロックと前記第3ブロックから前記第2カウント値が最大となる画素をそれぞれ含むブロック対を抽出し、該ブロック対間のベクトルを前記第2領域と前記第m+nフレーム間の第2領域別動きベクトルとして選択するステップと
を具備する動きベクトル検出方法。
Extracting a plurality of first blocks having luminance information and color difference information obtained by dividing the m-th frame from an m-th frame (m is an arbitrary integer) of an image including a plurality of pixels;
Extracting a second block having luminance information and color difference information having the same size and shape as the first block from the m + n frame (n is an integer of 1 or more) of the image;
Obtaining a first absolute difference value for each corresponding pixel between a first luminance block having luminance information of the first block and a second luminance block having luminance information of the second block;
Second pixels having color difference information of the first color difference block and the second block having color difference information of the first block for pixels whose first difference absolute value of the first block and second block is equal to or less than a first threshold value. Obtaining a second absolute difference value for each corresponding pixel between color difference blocks;
Counting the number of pixels for which the second absolute difference value is equal to or less than a second threshold value to obtain a first count value;
A block pair including each pixel having the maximum first count value is extracted from the first block and the second block, and a vector between the block pair is determined between the first area in the first block and the m + n frame. Selecting as a first region-specific motion vector,
Extracting a pixel in the first block in which the second difference absolute value is equal to or less than the second threshold as a pixel block of the first region;
Extracting the pixels in the first block where the second absolute difference value is greater than a second threshold as pixel blocks in a second region;
Extracting a third block having the same size and shape as the pixel block of the second region from the m + n frame;
Obtaining a third difference absolute value for the brightness of each corresponding pixel between the pixel block of the second region and the third block;
Counting the number of pixels for which the third absolute difference value is equal to or less than a third threshold value to obtain a second count value;
A block pair including the pixel having the maximum second count value is extracted from the pixel block and the third block in the second area, and a vector between the block pair is defined between the second area and the m + n frame. Selecting a motion vector as a second region-specific motion vector.
複数の画素からなる画像の第mフレーム(mは任意の整数)から、該第mフレームを分割した所定サイズかつ所定形状の複数の第1ブロックを抽出するステップと、
前記画像の第m+nフレーム(nは1以上の整数)から前記第1ブロックと同サイズかつ同形状の第2ブロックを抽出するステップと、
前記第1ブロックと前記第2ブロック間の相対応する画素毎の第1差分絶対値を求めるステップと、
前記第1差分絶対値が第1閾値以下となる画素の数をカウントして第1カウント値を求めるステップと、
前記第1ブロック及び第2ブロックから前記第1カウント値が最大となる画素をそれぞれ含むブロック対を抽出し、該ブロック対間のベクトルを前記第1ブロック内の第1領域と前記第m+nフレーム間の第1領域別動きベクトルとして選択するステップと、
前記第1差分絶対値が第2閾値以下となる前記第1ブロック内の画素を前記第1領域の画素ブロックとして抽出するステップと、
前記第1差分絶対値が前記第2閾値より大きくなる前記第1ブロック内の画素を第2領域の画素ブロックとして抽出するステップと、
前記第m+nフレームから、前記第1ブロック内の隣接する前記第2領域を空間的に連結した第1空間拡張領域と同サイズかつ同形状の第2空間拡張領域の画素ブロックを抽出するステップと、
前記第1空間拡張領域の画素ブロックと前記第2空間拡張領域の画素ブロック間の相対応する画素毎の第2差分絶対値を求めるステップと、
前記第2差分絶対値が第3閾値以下となる画素の数をカウントして第2カウント値を求めるステップと、
前記第1空間拡張領域と前記第2空間拡張領域から前記第2カウント値が最大となる画素をそれぞれ含む画素ブロック対を抽出し、該画素ブロック対間のベクトルを前記第1空間拡張領域と前記m+nフレーム間の第2領域別動きベクトルとして選択するステップと
を具備する動きベクトル検出方法。
Extracting a plurality of first blocks having a predetermined size and a predetermined shape obtained by dividing the m-th frame from an m-th frame (m is an arbitrary integer) of an image composed of a plurality of pixels;
Extracting a second block having the same size and shape as the first block from m + n frames (n is an integer of 1 or more) of the image;
Obtaining a first absolute difference value for each corresponding pixel between the first block and the second block;
Counting the number of pixels in which the first absolute difference value is equal to or less than a first threshold value to obtain a first count value;
A block pair including each pixel having the maximum first count value is extracted from the first block and the second block, and a vector between the block pair is determined between the first area in the first block and the m + n frame. Selecting as a first region-specific motion vector,
Extracting the pixels in the first block whose first difference absolute value is equal to or less than a second threshold as pixel blocks in the first region;
Extracting a pixel in the first block in which the first absolute difference value is larger than the second threshold as a pixel block of a second region;
Extracting, from the m + n frame, a pixel block of a second spatial expansion region having the same size and shape as a first spatial expansion region obtained by spatially connecting the adjacent second regions in the first block;
Obtaining a second difference absolute value for each corresponding pixel between the pixel block of the first spatial extension region and the pixel block of the second spatial extension region;
Counting the number of pixels for which the second absolute difference value is equal to or less than a third threshold to obtain a second count value;
Pixel block pairs each including a pixel having the maximum second count value are extracted from the first space extension region and the second space extension region, and a vector between the pixel block pairs is extracted from the first space extension region and the second space extension region. selecting as a second region-specific motion vector between m + n frames.
複数の画素からなる画像の第mフレーム(mは任意の整数)から、該第mフレームを分割した所定サイズかつ所定形状の複数の第1ブロックを抽出するステップと、
前記画像の第m+nフレーム(nは1以上または−1以下の整数)から前記第1ブロックと同サイズかつ同形状の第2ブロックを抽出するステップと、
前記第1ブロックと前記第2ブロック間の相対応する画素毎の第1差分絶対値を求めるステップと、
前記第1差分絶対値が第1閾値以下となる画素の数をカウントして第1カウント値を求めるステップと、
前記第1ブロック及び第2ブロックから前記第1カウント値が最大となる画素をそれぞれ含むブロック対を抽出し、該ブロック対間のベクトルを前記第1ブロック内の第1領域と前記第m+nフレーム間の第1領域別動きベクトルとして選択するステップと、
前記第1差分絶対値が第2閾値以下となる前記第1ブロック内の画素を前記第1領域の画素ブロックとして抽出するステップと、
前記第1差分絶対値が前記第2閾値より大きくなる前記第1ブロック内の画素を第2領域の画素ブロックとして抽出するステップと、
前記第m+nフレームから前記第2領域と同サイズかつ同形状の第3ブロックを抽出するステップと、
前記第2領域の画素ブロックと前記第3ブロック間の相対応する画素毎の第2差分絶対値を求めるステップと、
前記第2差分絶対値が第2閾値以下となる画素数をカウントして第2カウント値を求めるステップと、
前記第2領域の画素ブロックと前記第3ブロック間のベクトルを第3動きベクトルとして求めるステップと、
前記第3動きベクトルのk/n(kはn及び0以外の整数)である第4動きベクトルを算出するステップと、
前記第4動きベクトルに従って前記第m+kフレームから前記第2領域の画素ブロックの移動先となる第4ブロックを抽出するステップと、
前記第2領域の画素ブロックと前記第4ブロック間の相対応する画素毎の第3差分絶対値を求めるステップと、
前記第3差分絶対値が第2閾値以下となる画素数をカウントして第3カウント値を求めるステップと、
前記第2カウンタ値と前記第3カウント値の和が最大となる画素をそれぞれ含むブロック対を抽出し、該ブロック対間のベクトルを前記第2領域と前記m+nフレーム間の第2領域別動きベクトルとして選択するステップと
を具備する動きベクトル検出方法。
Extracting a plurality of first blocks having a predetermined size and a predetermined shape obtained by dividing the m-th frame from an m-th frame (m is an arbitrary integer) of an image composed of a plurality of pixels;
Extracting a second block having the same size and shape as the first block from the m + n frames of the image (n is an integer of 1 or more or -1 or less);
Obtaining a first absolute difference value for each corresponding pixel between the first block and the second block;
Counting the number of pixels in which the first absolute difference value is equal to or less than a first threshold value to obtain a first count value;
A block pair including each pixel having the maximum first count value is extracted from the first block and the second block, and a vector between the block pair is determined between the first area in the first block and the m + n frame. Selecting as a first region-specific motion vector,
Extracting the pixels in the first block whose first difference absolute value is equal to or less than a second threshold as pixel blocks in the first region;
Extracting a pixel in the first block in which the first absolute difference value is larger than the second threshold as a pixel block of a second region;
Extracting a third block having the same size and shape as the second region from the m + n frame;
Obtaining a second absolute difference value for each corresponding pixel between the pixel block of the second region and the third block;
Counting the number of pixels for which the second absolute difference value is less than or equal to a second threshold value to obtain a second count value;
Obtaining a vector between the pixel block of the second region and the third block as a third motion vector;
Calculating a fourth motion vector that is k / n of the third motion vector (k is an integer other than n and 0);
Extracting a fourth block, which is a movement destination of the pixel block of the second area, from the m + k frame according to the fourth motion vector;
Obtaining a third absolute difference value for each corresponding pixel between the pixel block of the second region and the fourth block;
Counting the number of pixels for which the third difference absolute value is less than or equal to a second threshold value to obtain a third count value;
A block pair including pixels each having the maximum sum of the second counter value and the third count value is extracted, and a vector between the block pairs is a motion vector for each second area between the second area and the m + n frame. A motion vector detection method comprising the steps of:
原画像の第mフレーム(mは任意の整数)と第m+nフレーム(nは1以上の整数)間の第m+kフレーム(kは任意の実数)の時間的位置に補間すべき補間画像を作成するフレーム補間画像作成方法において、
請求項1乃至4のいずれか1項記載の動きベクトル検出方法により求められた前記第mフレームと第m+nフレーム間の動きベクトル、及び請求項5乃至9のいずれか1項記載の動きベクトル検出方法により求められた領域別動きベクトルを前記第m+kフレ−ムの時間的位置に応じてスケール変換するステップと、
前記第m+nフレームから前記スケール変換後の動きベクトルに従って、前記第mフレーム上のブロックと空間的同位置にある前記第m+kフレーム上の補間ブロック、及び前記第mフレーム上の領域分割後の画素ブロックと空間的同位置にある前記第m+kフレーム上の領域別補間ブロックの移動先である第5ブロックを抽出するステップと、
前記第m+kフレームの前記補間ブロック及び前記領域別補間ブロックへ前記第5ブロックを割り当てることにより前記補間画像を作成するステップと
を具備するフレーム補間画像作成方法。
An interpolation image to be interpolated is created at a temporal position of the m + k frame (k is an arbitrary real number) between the mth frame (m is an arbitrary integer) and the m + n frame (n is an integer of 1 or more) of the original image. In the frame interpolation image creation method,
The motion vector detection method according to any one of claims 5 to 9, and the motion vector between the m-th frame and the m + n frame obtained by the motion vector detection method according to any one of claims 1 to 4. Scaling the region-specific motion vector determined in accordance with the temporal position of the m + k frame;
According to the motion vector after the scale conversion from the m + n frame, the interpolation block on the m + k frame and the pixel block after the area division on the m frame, which are in the same spatial position as the block on the m frame. Extracting a fifth block that is a movement destination of the inter-region interpolation block on the m + k frame at the same spatial position;
A frame interpolation image creating method comprising: creating the interpolation image by assigning the fifth block to the interpolation block and the inter-region interpolation block of the m + k frame.
請求項9記載のフレーム補間画像作成方法により作成された前記補間画像及び前記原画像を表示する画像表示システム。   An image display system for displaying the interpolated image and the original image created by the frame interpolated image creating method according to claim 9.
JP2006135871A 2006-05-15 2006-05-15 Motion vector detecting method, frame interpolation image creating method and apparatus Abandoned JP2006279982A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006135871A JP2006279982A (en) 2006-05-15 2006-05-15 Motion vector detecting method, frame interpolation image creating method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006135871A JP2006279982A (en) 2006-05-15 2006-05-15 Motion vector detecting method, frame interpolation image creating method and apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002266642A Division JP3898606B2 (en) 2002-09-12 2002-09-12 Motion vector detection method and apparatus, and frame interpolation image creation method and apparatus

Publications (1)

Publication Number Publication Date
JP2006279982A true JP2006279982A (en) 2006-10-12

Family

ID=37214135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006135871A Abandoned JP2006279982A (en) 2006-05-15 2006-05-15 Motion vector detecting method, frame interpolation image creating method and apparatus

Country Status (1)

Country Link
JP (1) JP2006279982A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8159605B2 (en) 2007-07-13 2012-04-17 Fujitsu Limited Frame interpolating apparatus and method
CN119125672A (en) * 2024-11-14 2024-12-13 中国计量大学 A method for implementing multi-channel parallel persistence display technology based on FPGA

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8159605B2 (en) 2007-07-13 2012-04-17 Fujitsu Limited Frame interpolating apparatus and method
CN119125672A (en) * 2024-11-14 2024-12-13 中国计量大学 A method for implementing multi-channel parallel persistence display technology based on FPGA

Similar Documents

Publication Publication Date Title
JP3898606B2 (en) Motion vector detection method and apparatus, and frame interpolation image creation method and apparatus
JP4198608B2 (en) Interpolated image generation method and apparatus
JP4398925B2 (en) Interpolation frame generation method, interpolation frame generation apparatus, and interpolation frame generation program
JP4157579B2 (en) Image display apparatus and method, image processing apparatus and method
US7936950B2 (en) Apparatus for creating interpolation frame
JP4053490B2 (en) Interpolated image creation method for frame interpolation, image display system using the same, and interpolated image creation apparatus
JP3840129B2 (en) Motion vector detection method and apparatus, interpolation image generation method and apparatus, and image display system
JP2008244687A (en) Image processing apparatus and image processing method
JP4991360B2 (en) Frame rate conversion device and video display device
CN103369208A (en) Self-adaptive de-interlacing method and device
US8385430B2 (en) Video signal processing apparatus and video signal processing method
JP2006279982A (en) Motion vector detecting method, frame interpolation image creating method and apparatus
JP5377649B2 (en) Image processing apparatus and video reproduction apparatus
JP5164716B2 (en) Video processing device and video display device
JP4355347B2 (en) Image display apparatus and method, image processing apparatus and method
JP2008193730A (en) Image display device and method, and image processing device and method
JP4181189B2 (en) Motion vector detection method and apparatus, interpolation image generation method and apparatus, and image display system
JP2007060192A (en) Interpolating frame generator, its method, image display system and program and recording medium
RU2308817C1 (en) Method and device for scaling a dynamic video-image
JP2008109628A (en) Image display apparatus and method, image processor and method
JP2018157299A (en) Image processing apparatus, image processing method, and image processing system
JP4181190B2 (en) Motion vector detection method and apparatus, interpolation image generation method and apparatus, and image display system
JP4917867B2 (en) Telop detection apparatus and method, and image display apparatus and method
JP2014007658A (en) Motion vector derivation device, method and program
JP4157586B2 (en) Image display apparatus and method, image processing apparatus and method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090127

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20090313