[go: up one dir, main page]

JP2012050005A - Image processing device, image processing method and image processing program - Google Patents

Image processing device, image processing method and image processing program Download PDF

Info

Publication number
JP2012050005A
JP2012050005A JP2010192649A JP2010192649A JP2012050005A JP 2012050005 A JP2012050005 A JP 2012050005A JP 2010192649 A JP2010192649 A JP 2010192649A JP 2010192649 A JP2010192649 A JP 2010192649A JP 2012050005 A JP2012050005 A JP 2012050005A
Authority
JP
Japan
Prior art keywords
image
image data
data
processed
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010192649A
Other languages
Japanese (ja)
Inventor
Sunao Yamamoto
直 山本
Kenji Tanaka
健次 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2010192649A priority Critical patent/JP2012050005A/en
Publication of JP2012050005A publication Critical patent/JP2012050005A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Systems (AREA)

Abstract

【課題】立体映像用の画像データ間を補間する補間画像データを正しく生成することができる画像処理装置、画像処理方法及び画像処理プログラムを提供すること。
【解決手段】本発明にかかる画像処理装置は、立体画像データから立体画像を表示する第1の画像と第2の画像間に1ブロック以上のブランク画像を含めた画像を示す加工画像データを生成するデータ加工部と、複数の加工画像データ間を補間する加工補間画像データが示す画像が含む第1のブロックから所定の範囲内の複数の第2のブロックの動きベクトルを、第1のブロックの動きベクトルの候補ベクトルとして決定する候補ベクトル決定部と、候補ベクトルから第1のブロックの動きベクトルを決定する動きベクトル決定部と、動きベクトルに基づいて加工補間画像データを生成する画像補間部と、加工補間画像データに基づいて複数の立体画像データ間を補間する補間画像データを出力する出力部を備える。
【選択図】図1
An image processing apparatus, an image processing method, and an image processing program capable of correctly generating interpolated image data for interpolating between image data for stereoscopic video are provided.
An image processing apparatus according to the present invention generates processed image data indicating an image including a blank image of one block or more between a first image for displaying a stereoscopic image and a second image from the stereoscopic image data. The motion vectors of the plurality of second blocks within a predetermined range from the first block included in the image indicated by the data processing unit that performs processing and the processing interpolation image data that interpolates between the plurality of processing image data. A candidate vector determination unit that determines a candidate vector of a motion vector, a motion vector determination unit that determines a motion vector of the first block from the candidate vector, an image interpolation unit that generates processed interpolation image data based on the motion vector, An output unit is provided that outputs interpolated image data for interpolating between a plurality of stereoscopic image data based on the processed interpolated image data.
[Selection] Figure 1

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関し、特に立体映像用画像データを処理する技術に関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program, and more particularly to a technique for processing image data for stereoscopic video.

近年、テレビは、ディスプレイ部がブラウン管から液晶ディスプレイ、プラズマディスプレイ及び有機ELディスプレイ等のフラットパネルディスプレイに移行してきている。家庭用映像機器分野においては、地上デジタル放送対応テレビに、フラットパネルディスプレイが採用されている。そして、フラットパネルディスプレイの表示特定上、IP(Interlace/Progressive)変換技術は、必須となってきている。   In recent years, televisions have been shifted from CRTs to flat panel displays such as liquid crystal displays, plasma displays, and organic EL displays. In the field of home video equipment, flat panel displays are adopted for terrestrial digital broadcasting-compatible televisions. And IP (Interlace / Progressive) conversion technology has become indispensable for the display specification of a flat panel display.

ここで、図10〜図12を参照して、特許文献1に開示のIP変換処理における動きベクトル検出方法について説明する。図10は、特許文献1にかかる動きベクトル検出の概念図である。図11は、特許文献1にかかる動き補償型IP変換処理装置の構成図である。図12は、特許文献1にかかる候補ベクトルとするブロックの説明図である。   Here, a motion vector detection method in the IP conversion process disclosed in Patent Literature 1 will be described with reference to FIGS. FIG. 10 is a conceptual diagram of motion vector detection according to Patent Document 1. FIG. 11 is a configuration diagram of a motion-compensated IP conversion processing device according to Patent Document 1. FIG. 12 is an explanatory diagram of blocks used as candidate vectors according to Patent Document 1. In FIG.

図10に示すように、特許文献1にかかるIP変換処理は、フィールドn画像1002と、フィールドn画像1002から2フィールド離れたフィールドn−2画像1000との間に、フィールドn−1画像1001を補間する。なお、フィールドn画像1002、フィールドn−2画像1000及びフィールドn−1画像1001は、インタレース画像である。IP変換処理は、補間フィールド画像1001を生成するときに、動きベクトルを使用する。   As shown in FIG. 10, in the IP conversion processing according to Patent Document 1, a field n-1 image 1001 is placed between a field n image 1002 and a field n-2 image 1000 that is two fields away from the field n image 1002. Interpolate. Note that the field n image 1002, the field n-2 image 1000, and the field n-1 image 1001 are interlaced images. The IP conversion process uses a motion vector when generating the interpolation field image 1001.

続いて、図10を参照して、特許文献1にかかるIP変換処理における動きベクトル検出処理について説明する。特許文献1にかかる動きベクトル検出処理は、補間フィールド画像1001を生成するために、1フィールド画面をM×Nの画素ブロック1007に分割する。そして、特許文献1にかかる動きベクトル検出処理は、通常の走査線方式の通りに、画面の左上から右下に向かって、ブロック単位で処理をしていく。   Next, a motion vector detection process in the IP conversion process according to Patent Document 1 will be described with reference to FIG. In the motion vector detection process according to Patent Document 1, one field screen is divided into M × N pixel blocks 1007 in order to generate an interpolation field image 1001. And the motion vector detection process concerning patent document 1 is processed per block from the upper left of a screen to the lower right like a normal scanning line system.

特許文献1にかかる動きベクトル検出処理は、補間フィールド画像(フィールドn−1画像)1001を生成する過程において、現在処理中のブロック1004に対して、候補ベクトル1006によって参照される1フィールド前の画像(フィールドn−2画像)1000の参照ブロック1(1003)と、1フィールド後の画像(フィールドn画像)1002の参照ブロック2(1005)との差分を計算する。この差分は、参照ブロック1(1003)と参照ブロック2(1005)のそれぞれの画素の差分絶対値和(以下、「SAD(Sum Of Absolute Difference)」とする)として計算される。特許文献1にかかる動きベクトル検出処理は、全ての候補ベクトルについてSADを計算して、SADが最小値を示す候補ベクトルを現在処理ブロック1004の動きベクトルとして決定する。   In the motion vector detection process according to Patent Document 1, in the process of generating an interpolation field image (field n-1 image) 1001, an image one field before that is referred to by a candidate vector 1006 with respect to a block 1004 currently being processed. The difference between the reference block 1 (1003) of the (field n-2 image) 1000 and the reference block 2 (1005) of the image (field n image) 1002 after one field is calculated. This difference is calculated as the sum of absolute differences of the pixels of the reference block 1 (1003) and the reference block 2 (1005) (hereinafter referred to as “SAD (Sum Of Absolute Difference)”). In the motion vector detection processing according to Patent Document 1, SAD is calculated for all candidate vectors, and a candidate vector having a minimum value for SAD is determined as a motion vector of the current processing block 1004.

続いて、図11を参照して、特許文献1にかかる動きベクトル検出処理について説明する。SAD演算部900には、補間フィールド画像の1フィールド前の画像データ910と、補間フィールド画像の1フィールド後の画像データ911が入力される。SAD演算部900は、候補ベクトル生成部902から出力される候補ベクトル913が指し示す参照ブロック1と参照ブロック2の間のSADを計算する。SAD演算部900は、候補ベクトルの全てに対して、同様の演算を行う。SAD最小値判定部901は、SAD演算部900による演算結果912の中から、SADの最小値を判定する。動きベクトル決定部903は、SAD最小値判定部901による判定結果914に基づいて、候補ベクトル913の中から現在処理中のブロックの動きベクトル915を決定する。   Next, a motion vector detection process according to Patent Document 1 will be described with reference to FIG. The SAD calculation unit 900 receives image data 910 one field before the interpolation field image and image data 911 one field after the interpolation field image. The SAD calculation unit 900 calculates the SAD between the reference block 1 and the reference block 2 indicated by the candidate vector 913 output from the candidate vector generation unit 902. The SAD operation unit 900 performs the same operation on all candidate vectors. The SAD minimum value determination unit 901 determines the minimum value of SAD from the calculation result 912 by the SAD calculation unit 900. The motion vector determination unit 903 determines the motion vector 915 of the block currently being processed from the candidate vectors 913 based on the determination result 914 by the SAD minimum value determination unit 901.

続いて、図12を参照して、動きベクトル検出処理について説明する。図12に示すように、1フィールド画面1100内において、現在処理ブロック1102の周辺には、現在処理ブロック1102と相関が高い周辺ブロック1103が存在する。図12は、補間フィールド画像を生成する処理がある程度進んだ状態を示す。図11において示すように、動きベクトル915は、メモリ904に保存される。メモリ904に保存された既検出ベクトル916は、次期処理ブロックにおける処理で候補ベクトルとして使用される。ここで、周辺ブロック1103のブロック1104、1105、1106、1107は、現在処理ブロック1102と相関が高く、動きベクトルを検出済みのブロックである。つまり、ブロック1104、1105、1106、1107における検出済み動きベクトルを候補ベクトルして使用する。これによれば、全探索方式に比べて、動きベクトル検出のための演算処理量を低減することができる。   Next, the motion vector detection process will be described with reference to FIG. As shown in FIG. 12, a peripheral block 1103 having a high correlation with the current processing block 1102 exists around the current processing block 1102 in the 1-field screen 1100. FIG. 12 shows a state where the process of generating the interpolation field image has progressed to some extent. As shown in FIG. 11, the motion vector 915 is stored in the memory 904. The already detected vector 916 stored in the memory 904 is used as a candidate vector in processing in the next processing block. Here, blocks 1104, 1105, 1106, and 1107 of the peripheral block 1103 are blocks that have a high correlation with the current processing block 1102 and have already detected a motion vector. That is, the detected motion vectors in the blocks 1104, 1105, 1106, and 1107 are used as candidate vectors. According to this, it is possible to reduce the amount of calculation processing for motion vector detection compared to the full search method.

他方、家庭用映像機器分野における立体映像規格が確立したことにより、その規格を満足するテレビの実装が求められている。それに伴い、立体映像用の画像データに対してもIP変換を行うことができるようにする必要がでてきた。しかし、特許文献1に開示されている技術は、立体映像用の画像データに対応したIP変換方法ではない。そのため、立体映像用の画像データに対してIP変換を行うと、誤変換を起こしてしまうという問題がある。   On the other hand, the establishment of a stereoscopic video standard in the field of home video equipment has led to a demand for mounting a television that satisfies the standard. Accordingly, it has become necessary to perform IP conversion on stereoscopic image data. However, the technique disclosed in Patent Document 1 is not an IP conversion method corresponding to image data for stereoscopic video. Therefore, when IP conversion is performed on image data for stereoscopic video, there is a problem that erroneous conversion occurs.

以下、その問題について具体的に説明する。上述したように、特許文献1にかかるIP変換処理は、動き補償型IP変換処理装置に入力される画像データのそれぞれが、全て同じ種類の画像を表示することを前提として、1フィールド前の画像データ及び1フィールド後の画像データを使用してIP変換を行っている。また、特許文献1にかかるIP変換処理は、動き補償型IP変換処理装置に入力される画像データによって表示される画像が、同じ種類の画像のみを含んでいることを前提として、現在処理中のブロックと相関が高い周辺ブロックにおける検出済み動きベクトルを候補ベクトルとして使用してIP変換を行っている。   The problem will be specifically described below. As described above, the IP conversion process according to Patent Document 1 is based on the premise that all the image data input to the motion-compensated IP conversion processing apparatus displays the same type of image. IP conversion is performed using the data and image data after one field. Further, the IP conversion processing according to Patent Document 1 is currently being processed on the assumption that the image displayed by the image data input to the motion compensation IP conversion processing device includes only the same type of image. The IP conversion is performed using the detected motion vector in the peripheral block having a high correlation with the block as a candidate vector.

それに対して、図13に示すように、立体映像のデータ構成方式の1つであるFrameSequentialフォーマットでは、左目用画像(以下、「L画像」とする)と、右目用画像(以下、「R画像」とする)が時系列に沿って、交互に存在している。つまり、FrameSequentialフォーマットは、L画像とR画像が1フィールド毎に交互に入力されるフォーマットである。また、図14及び図15に示すように、SideBySideフォーマット及びTopAndBottomフォーマットの画像は、画像内にL画像とR画像が左右又は上下に並んで配置されている。つまり、SideBySideフォーマット及びTopAndBottomフォーマットは、同一のフィールドにおいて、L画像とR画像が同時に入力されるフォーマットである。   On the other hand, as shown in FIG. 13, in the FrameSequential format, which is one of the data configuration methods of stereoscopic video, an image for left eye (hereinafter referred to as “L image”) and an image for right eye (hereinafter referred to as “R image”). ”) Alternately exist along the time series. That is, the FrameSequential format is a format in which L images and R images are alternately input for each field. As shown in FIGS. 14 and 15, in the SideBySide format and TopAndBottom format images, an L image and an R image are arranged side by side on the left and right or top and bottom. That is, the SideBySide format and the TopAndBottom format are formats in which an L image and an R image are input simultaneously in the same field.

このため、これらの立体映像用の画像データを、特許文献1にかかるIP変換処理によって変換した場合、次に述べるような問題が発生する。   For this reason, when the image data for stereoscopic video is converted by the IP conversion processing according to Patent Document 1, the following problems occur.

図16を参照して、特許文献1にかかる動き補償型IP変換処理装置に対して、FrameSequentialフォーマットの立体映像用の画像データが入力された場合について説明する。   With reference to FIG. 16, a case where image data for stereoscopic video in the FrameSequential format is input to the motion compensated IP conversion processing device according to Patent Document 1 will be described.

動き補償型IP変換処理装置は、補間フィールド画像(フィールドn−1画像)1301を生成するために、1フィールド画面をM×Nの画素ブロック1307に分割する。そして、動き補償型IP変換処理装置は、通常の走査線方式の通りに、画面の左上から右下に向かって、ブロック単位で処理をしていく。   The motion compensation IP conversion processing apparatus divides one field screen into M × N pixel blocks 1307 in order to generate an interpolation field image (field n−1 image) 1301. The motion-compensated IP conversion processing apparatus performs processing in units of blocks from the upper left to the lower right of the screen as in a normal scanning line method.

動き補償型IP変換処理装置は、補間フィールド画像(フィールドn−1画像)1301を生成する過程において、現在処理ブロック1304に対して、候補ベクトル1306によって参照される1フィールド前の画像(フィールドn−2画像)1300の参照ブロック1(1303)と、1フィールド後の画像(フィールドn画像)1302の参照ブロック2(1305)との差分を計算する。ここで、動き補償型IP変換処理装置に入力された画像データは、FrameSequentialフォーマットの立体映像用の画像データである。そのため、1フィールド前の画像1300をL画像とした場合、R画像である補間フィールド画像1301の現在処理ブロック1304に対する処理において、L画像である1フィールド前の画像1300の参照ブロック1(1303)、及び、L画像である1フィールド後の画像1302の参照ブロック2(1305)が使用されてしまう。その結果、L画像とR画像を混合してIP変換を行ってしまい、誤ったIP変換結果が生成されてしまうという問題がある。   In the process of generating the interpolation field image (field n−1 image) 1301, the motion compensated IP conversion processing device, with respect to the current processing block 1304, the image (field n− The difference between the reference block 1 (1303) of (2 images) 1300 and the reference block 2 (1305) of the image (field n image) 1302 after one field is calculated. Here, the image data input to the motion-compensated IP conversion processing device is image data for stereoscopic video in the FrameSequential format. Therefore, when the image 1300 one field before is an L image, the reference block 1 (1303) of the image 1300 one field before the L image in the process for the current processing block 1304 of the interpolation field image 1301 which is the R image, In addition, the reference block 2 (1305) of the image 1302 after one field, which is an L image, is used. As a result, there is a problem that IP conversion is performed by mixing the L image and the R image, and an incorrect IP conversion result is generated.

続いて、図17を参照して、特許文献1にかかる動き補償型IP変換処理装置に対して、SideBySideフォーマットの立体映像用画像データが入力された場合について説明する。   Next, with reference to FIG. 17, a case will be described in which stereoscopic video image data in SideBySide format is input to the motion compensated IP conversion processing device according to Patent Document 1.

図14に示すように、SydeBySideフォーマットの立体映像用の画像データによって表示される画像は、1フィールド画面の左側にL画像、右側にR画像が配置されている。図17において、L画像とR画像の境界を画像境界1408として示す。L画像とR画像の画像境界1408は、通常、1フィールド画面1400の中央に存在する。図17では、現在処理ブロック1402と、候補ベクトルとして使用される動きベクトルを検出済みのブロック1406とは、画像境界1408をはさんで存在する。言い換えると、現在処理ブロック1402は、L画像の右端に存在し、動きベクトルを検出済みのブロック1406は、R画像の左端に存在する。   As shown in FIG. 14, an L image is arranged on the left side of the one-field screen and an R image is arranged on the right side of the image displayed by the stereoscopic video image data in the SydeBySide format. In FIG. 17, the boundary between the L image and the R image is shown as an image boundary 1408. The image boundary 1408 between the L image and the R image normally exists in the center of the one-field screen 1400. In FIG. 17, the current processing block 1402 and the block 1406 for which a motion vector used as a candidate vector has already been detected exist across the image boundary 1408. In other words, the current processing block 1402 exists at the right end of the L image, and the block 1406 for which a motion vector has been detected exists at the left end of the R image.

図17に示すように、動き補償型IP変換処理装置は、1フィールド画面1400をM×Nのブロック1401に分割する。また、現在処理ブロック1402の周辺には、現在処理ブロック1402と相関が高い周辺ブロック1403が存在する。なお、図17は、補間フィールド画像を生成する処理がある程度進んだ状態を示す。この場合、現在処理ブロック1402と相関が高い周辺ブロック1403のうち、動きベクトルを検出済みのブロック1404、1405、1406、1407の動きベクトルが候補ベクトルとして使用される。つまり、L画像に含まれる現在処理ブロック1402の動きベクトルを検出する処理において、同じL画像に含まれるブロック1404、1405、1407のみならず、R画像に含まれるブロック1406まで使用されてしまう。このように、L画像に存在する現在処理ブロック1402の動きベクトルを検出する場合に、候補ベクトルにR画像に存在するブロック1406の動きベクトルが混入してしまう。   As shown in FIG. 17, the motion compensation IP conversion processing device divides a one-field screen 1400 into M × N blocks 1401. In addition, a peripheral block 1403 having a high correlation with the current processing block 1402 exists around the current processing block 1402. FIG. 17 shows a state in which the process of generating the interpolation field image has progressed to some extent. In this case, the motion vectors of the blocks 1404, 1405, 1406, and 1407 in which motion vectors have been detected among the peripheral blocks 1403 having a high correlation with the current processing block 1402 are used as candidate vectors. That is, in the process of detecting the motion vector of the current processing block 1402 included in the L image, not only the blocks 1404, 1405, and 1407 included in the same L image but also the block 1406 included in the R image is used. As described above, when the motion vector of the current processing block 1402 existing in the L image is detected, the motion vector of the block 1406 existing in the R image is mixed into the candidate vector.

そのため、現在処理ブロック1402の動きベクトルとして誤った動きベクトルを検出してしまい、誤ったIP変換結果が生成されてしまうという問題がある。例えば、ブロック1406の候補ベクトルの向きが、現在処理ブロック1402における本来の動きベクトルと異なる場合であっても、ブロック1404〜1407のうち、ブロック1406の候補ベクトルのSADが偶然最小値となってしまう場合がある。この場合、現在処理ブロック1402の動きベクトルが正しく検出されず、IP変換において誤変換を起こしてしまう。   Therefore, there is a problem that an incorrect motion vector is detected as the motion vector of the current processing block 1402, and an incorrect IP conversion result is generated. For example, even if the orientation of the candidate vector of the block 1406 is different from the original motion vector in the current processing block 1402, the SAD of the candidate vector of the block 1406 out of the blocks 1404 to 1407 happens to be the minimum value. There is a case. In this case, the motion vector of the current processing block 1402 is not correctly detected, and erroneous conversion occurs in IP conversion.

また、現在処理ブロックがR画像の左端に移った場合にも、候補ベクトルにL画像の右端のブロックの動きベクトルが混入してしまう。よって、この場合にも、誤ったIP変換結果が生成されてしまうという問題がある。   Even when the current processing block moves to the left end of the R image, the motion vector of the right end block of the L image is mixed in the candidate vector. Therefore, even in this case, there is a problem that an incorrect IP conversion result is generated.

このように特許文献1に開示の技術では、SideBySideフォーマットの立体映像用画像データをIP変換した場合、L画像とR画像の境界部分において、L画像はR画像のデータを参照し、R画像はL画像のデータを参照してIP変換を行ってしまう。そのため、誤ったIP変換結果が生成されてしまうという問題がある。   As described above, in the technique disclosed in Patent Document 1, when the 3D image data in SideBySide format is IP-converted, the L image refers to the R image data at the boundary portion between the L image and the R image, and the R image is IP conversion is performed with reference to L image data. Therefore, there is a problem that an incorrect IP conversion result is generated.

さらに、図示及び詳細な説明を省略するが、図15に示すTopAndBottomフォーマットの立体映像用画像データをIP変換する場合においても、L画像下端とR画像上端の境界部分において、SideBySideフォーマットの立体映像用画像データと同様に誤ったIP変換結果を生成してしまうという問題があることは明らかである。   Further, although illustration and detailed description are omitted, even when the TopAndBottom format stereoscopic image data shown in FIG. 15 is IP-converted, at the boundary between the lower end of the L image and the upper end of the R image, for stereoscopic video in the SideBySide format It is clear that there is a problem that an incorrect IP conversion result is generated as in the case of image data.

つまり、特許文献1に開示の技術では、L画像とR画像の境界部分において、動きベクトルを正しく検出することができないため、立体映像用の画像データ間を補間する補間画像データを正しく生成することができなくなってしまう問題がある。   In other words, the technique disclosed in Patent Document 1 cannot correctly detect a motion vector at the boundary between the L image and the R image, and therefore correctly generates interpolated image data that interpolates between image data for stereoscopic video. There is a problem that cannot be done.

特開2006−217486号公報JP 2006-217486 A

背景技術として説明したように、特許文献1に開示の技術では、立体映像用の画像データ間を補間する補間画像データを正しく生成することができなくなってしまうという問題がある。   As described in the background art, the technique disclosed in Patent Document 1 has a problem that interpolation image data for interpolating between image data for stereoscopic video cannot be generated correctly.

本発明の第1の態様にかかる画像処理装置は、立体画像を表示する第1の画像及び第2の画像を含む画像を示す立体画像データから、前記第1の画像と前記第2の画像との間に1ブロック以上のブランク画像を含めた画像を示す加工画像データを生成するデータ加工部と、複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定する候補ベクトル決定部と、前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定する動きベクトル決定部と、前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成する画像補間部と、前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力する出力部と、を備えたものである。   An image processing apparatus according to a first aspect of the present invention includes: a first image that displays a stereoscopic image; a stereoscopic image data that indicates an image including a second image; the first image and the second image; A first data processing unit that generates processed image data indicating an image including a blank image of one block or more and a processed interpolation image indicated by the processed interpolation image data that interpolates between the plurality of processed image data. A candidate vector determining unit that determines motion vectors of a plurality of second blocks that are included in a predetermined range from the block of which the motion vectors have been detected as candidate vectors of motion vectors of the first block; Based on the determined motion vector, a motion vector determination unit that determines a motion vector of the first block from the determined plurality of candidate vectors. An image interpolation unit that interpolates an image in the lock and generates the processed interpolated image data, and a plurality of stereoscopic image data used to generate the plurality of processed image data based on the generated processed interpolated image data And an output unit that outputs stereoscopic interpolation image data for interpolating between them.

本発明の第2の態様にかかる画像処理方法は、立体画像を表示する第1の画像及び第2の画像を含む画像を示す立体画像データから、前記第1の画像と前記第2の画像との間に1ブロック以上のブランク画像を含めた画像を示す加工画像データを生成し、複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定し、前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定し、前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成し、前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力するものである。   The image processing method according to the second aspect of the present invention includes a first image that displays a stereoscopic image and a stereoscopic image data that indicates an image including the second image, and the first image and the second image. Processed image data indicating an image including a blank image of one block or more is generated between the first blocks included in the processed interpolation image indicated by the processed interpolation image data for interpolating between the plurality of processed image data. The motion vectors of a plurality of second blocks that have been detected within the range of the first block are determined as candidate vectors of motion vector candidates of the first block, and from the determined plurality of candidate vectors , Determining a motion vector of the first block, and interpolating an image in the first block based on the determined motion vector to generate the processed interpolated image data Based on said generated processed interpolated image data, and outputs the three-dimensional interpolation image data to a plurality of interpolating between stereoscopic image data used to generate the plurality of processed image data.

本発明の第3の態様にかかる画像処理プログラムは、立体画像を表示する第1の画像及び第2の画像を含む画像を示す立体画像データから、前記第1の画像と前記第2の画像との間に1ブロック以上のブランク画像を含めた画像を示す加工画像データを生成する処理と、複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定する処理と、前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定する処理と、前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成する処理と、前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力する処理と、をコンピュータに実行させるものである。   An image processing program according to a third aspect of the present invention includes: a first image that displays a stereoscopic image; a stereoscopic image data indicating an image including a second image; the first image and the second image; Processing for generating processed image data indicating an image including one or more blank images in between, and a first block included in the processed interpolation image indicated by the processed interpolation image data for interpolating between the plurality of processed image data A process of determining motion vectors of a plurality of second blocks included in a predetermined range from which motion vectors have been detected as candidate vectors of motion vector candidates of the first block; A process for determining a motion vector of the first block from the candidate vectors, and interpolating an image in the first block based on the determined motion vector Processing for generating the processed interpolated image data, and output of the interpolated image data for interpolating between the plurality of stereoscopic image data used for generating the plurality of processed image data based on the generated processed interpolated image data Processing to be executed by a computer.

上述した本発明の各態様によれば、第1の画像と第2の画像の間にブランク画像を含めるようにしているため、第1の画像と第2の画像の境界付近において、第1のブロックの動きベクトルを決定する場合に、第1の画像及び第2の画像のうち、第1のブロックが含まれていない画像に含まれる第2のブロックが動きベクトルとして決定されることを防ぐことができる。   According to each aspect of the present invention described above, since the blank image is included between the first image and the second image, the first image is near the boundary between the first image and the second image. When determining a motion vector of a block, the second block included in an image that does not include the first block among the first image and the second image is prevented from being determined as a motion vector. Can do.

上述した本発明の各態様によれば、立体映像用の画像データ間を補間する補間画像データを正しく生成することができる画像処理装置、画像処理方法及び画像処理プログラムを提供することができる。   According to each aspect of the present invention described above, it is possible to provide an image processing apparatus, an image processing method, and an image processing program that can correctly generate interpolated image data for interpolating between image data for stereoscopic video.

本発明の実施の形態1にかかる立体映像表示システムの構成図である。1 is a configuration diagram of a stereoscopic video display system according to a first exemplary embodiment of the present invention. 本発明の実施の形態1にかかるデータ加工部の処理を示す動作フロー図である。It is an operation | movement flowchart which shows the process of the data processing part concerning Embodiment 1 of this invention. SideBySideフォーマットの画像データを処理する場合におけるブランクデータ合成処理を示す動作フロー図である。It is an operation | movement flowchart which shows the blank data synthetic | combination process in the case of processing the image data of SideBySide format. SideBySideフォーマットの画像データに対するブランクデータ合成処理後の画像データによって表示される画像の構成図である。It is a block diagram of the image displayed by the image data after the blank data synthetic | combination process with respect to the image data of SideBySide format. TopAndBottomフォーマットの画像データを処理する場合におけるブランクデータ合成処理を示す動作フロー図である。It is an operation | movement flowchart which shows the blank data synthetic | combination process in the case of processing the image data of a TopAndBottom format. TopAndBottomフォーマットの画像データに対するブランクデータ合成処理後の画像データによって表示される画像の構成図である。It is a block diagram of the image displayed by the image data after the blank data synthetic | combination process with respect to the image data of TopAndBottom format. 本発明の実施の形態1にかかる動きベクトル検出の概念図である。It is a conceptual diagram of the motion vector detection concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる候補ベクトルとするブロックの説明図である。It is explanatory drawing of the block made into the candidate vector concerning Embodiment 1 of this invention. 本発明の実施の形態2にかかる立体映像表示システムの構成図である。It is a block diagram of the three-dimensional video display system concerning Embodiment 2 of this invention. 特許文献1にかかる動きベクトル検出方法の概念図である。It is a conceptual diagram of the motion vector detection method concerning patent document 1. FIG. 特許文献1にかかる動き補償型IP変換処理装置の構成図である。1 is a configuration diagram of a motion compensated IP conversion processing device according to Patent Document 1. FIG. 特許文献1にかかる候補ベクトルとするブロックの説明図である。It is explanatory drawing of the block made into the candidate vector concerning patent document 1. FIG. FrameSequentialフォーマットの画像を示す図である。It is a figure which shows the image of FrameSequential format. SideBySideフォーマットの画像を示す図である。It is a figure which shows the image of SideBySide format. TopAndBottomフォーマットの画像を示す図である。It is a figure which shows the image of TopAndBottom format. 特許文献1にかかる技術に立体映像用画像データを用いた際の問題点を説明するための図である。It is a figure for demonstrating the problem at the time of using the image data for stereoscopic images for the technique concerning patent document 1. FIG. 特許文献1にかかる技術に立体映像用画像データを用いた際の問題点を説明するための図である。It is a figure for demonstrating the problem at the time of using the image data for stereoscopic images for the technique concerning patent document 1. FIG.

本発明の実施の形態1.
図1を参照して、本発明の実施の形態1にかかる立体映像表示システムの構成について説明する。図1は、本発明の実施の形態1にかかる立体映像表示システムの構成図である。
Embodiment 1 of the present invention.
With reference to FIG. 1, the structure of the three-dimensional-video display system concerning Embodiment 1 of this invention is demonstrated. FIG. 1 is a configuration diagram of a stereoscopic video display system according to Embodiment 1 of the present invention.

立体映像表示システム10は、画像生成部101、データ処理情報記憶部102、データ加工部103、IP変換処理部104及び画像出力部105を有する。   The stereoscopic video display system 10 includes an image generation unit 101, a data processing information storage unit 102, a data processing unit 103, an IP conversion processing unit 104, and an image output unit 105.

画像生成部101は、外部から入力された入力データ106から、立体映像を示す立体映像型画像データ(以下、「画像データ」とする)を生成する。画像生成部101は、データ処理情報記憶部102から取得した情報に基づいて、画像データを生成する。   The image generation unit 101 generates stereoscopic video image data (hereinafter referred to as “image data”) indicating stereoscopic video from input data 106 input from the outside. The image generation unit 101 generates image data based on information acquired from the data processing information storage unit 102.

データ処理情報記憶部102は、フォーマット情報、画像サイズ及びブランクデータ情報等が格納される。フォーマット情報は、例えば、画像生成部101から出力される画像データのフォーマットを示す情報である。画像サイズは、例えば、画像生成部101から出力される画像データによって表示される画像の全体サイズ、L画像及びR画像のそれぞれのサイズ、及び、画像に付加するブランクデータ画像のサイズ等を示す情報である。言い換えると、画像サイズは、画像データの全体サイズと、画像データのうちのL画像データ部、R画像データ部及びブランクデータ部のサイズとを示す情報である。ブランクデータ情報は、画像データに付加するブランクデータを示す情報である。ブランクデータは、ブランクデータ画像の画素値を示す情報である。データ処理情報記憶部102に格納される情報は、例えば、ユーザによって入力装置(図示せず)を介して任意の内容で入力される。入力装置は、例えば、リモコンや、マウス及びキーボード等である。データ処理情報記憶部102に格納される情報はまた、入力データ106を解析して抽出される場合もある。この場合、データ処理情報記憶部102に格納される情報は、入力データ解析部(図示せず)や画像生成部101などから入力される。   The data processing information storage unit 102 stores format information, image size, blank data information, and the like. The format information is information indicating the format of image data output from the image generation unit 101, for example. The image size is, for example, information indicating the overall size of the image displayed by the image data output from the image generation unit 101, the size of each of the L image and the R image, the size of the blank data image to be added to the image, and the like. It is. In other words, the image size is information indicating the overall size of the image data and the sizes of the L image data portion, the R image data portion, and the blank data portion of the image data. Blank data information is information indicating blank data to be added to image data. Blank data is information indicating a pixel value of a blank data image. The information stored in the data processing information storage unit 102 is input with arbitrary contents by an user via an input device (not shown), for example. The input device is, for example, a remote controller, a mouse, a keyboard, or the like. Information stored in the data processing information storage unit 102 may also be extracted by analyzing the input data 106. In this case, information stored in the data processing information storage unit 102 is input from an input data analysis unit (not shown), the image generation unit 101, or the like.

データ加工部103は、内部バッファ(図示せず)を利用して、画像生成部101が生成した画像データにブランクデータを付加する。内部バッファは、例えば、レジスタ及びメモリ等の記憶装置である。データ加工部103は、データ処理情報記憶部102から取得した情報に基づいて、画像データにブランクデータを付加する。   The data processing unit 103 adds blank data to the image data generated by the image generation unit 101 using an internal buffer (not shown). The internal buffer is a storage device such as a register and a memory. The data processing unit 103 adds blank data to the image data based on the information acquired from the data processing information storage unit 102.

IP変換処理部104は、データ加工部103によってブランクデータが付加された画像データをIP変換する。IP変換処理部104は、IP変換処理を行うために必要な複数のフィールド分の画像データが格納される内部メモリ(図示せず)を有する。IP変換処理部104は、ベクトル決定部及び画像補間部として機能する。   The IP conversion processing unit 104 performs IP conversion on the image data to which the blank data is added by the data processing unit 103. The IP conversion processing unit 104 has an internal memory (not shown) in which image data for a plurality of fields necessary for performing IP conversion processing is stored. The IP conversion processing unit 104 functions as a vector determination unit and an image interpolation unit.

画像出力部105は、IP変換処理部104によってIP変換された画像データのうち、L画像データ部及びR画像データ部の画像データに基づいて、L画像及びR画像を出力画像107として表示装置(図示せず)に出力する。画像出力部105は、例えば、出力画像107を表示する画像データを表示装置に出力することによって、表示装置に画像データを表示する。表示装置は、例えば、液晶ディスプレイ、プラズマディスプレイ及び有機ELディスプレイ等のフラットパネルディスプレイである。画像出力部105は、出力部として機能する。   The image output unit 105 displays the L image and the R image as the output image 107 based on the image data of the L image data unit and the R image data unit among the image data IP converted by the IP conversion processing unit 104 ( (Not shown). The image output unit 105 displays the image data on the display device by, for example, outputting image data for displaying the output image 107 to the display device. The display device is, for example, a flat panel display such as a liquid crystal display, a plasma display, and an organic EL display. The image output unit 105 functions as an output unit.

続いて、図1を参照して、本発明の実施の形態1にかかる立体映像表示システム10の処理について説明する。   Then, with reference to FIG. 1, the process of the three-dimensional-video display system 10 concerning Embodiment 1 of this invention is demonstrated.

画像生成部101は、外部から入力された入力データ106から、画像データを生成する。ここで、入力データ106は、例えば、地上波デジタル放送信号のデータや、HDMI(High Definition Multimedia Interface)による外部システムからの画像信号のデータ等である。入力データ106は、任意のコーディックによってエンコードされた画像データを含む。画像データは、例えば、MPEG(Moving Picture Expert Group)フォーマットによってエンコードされている。画像生成部101は、データ処理情報記憶部102から取得したエンコード情報に基づいて、入力データ106に含まれる画像データをデコードする。エンコード情報は、例えば、エンコードするための計算式等を含む情報である。画像生成部101は、デコードによって生成した画像データをデータ加工部103に出力する。なお、画像生成部101によって生成される画像データは、インタレース画像を表示する画像データである。   The image generation unit 101 generates image data from input data 106 input from the outside. Here, the input data 106 is, for example, terrestrial digital broadcast signal data, image signal data from an external system based on HDMI (High Definition Multimedia Interface), or the like. The input data 106 includes image data encoded by an arbitrary codec. The image data is encoded by, for example, MPEG (Moving Picture Expert Group) format. The image generation unit 101 decodes the image data included in the input data 106 based on the encoding information acquired from the data processing information storage unit 102. The encoding information is information including a calculation formula for encoding, for example. The image generation unit 101 outputs the image data generated by decoding to the data processing unit 103. Note that the image data generated by the image generation unit 101 is image data for displaying an interlaced image.

データ加工部103は、画像生成部101から出力された画像データによって表示される画像に含まれるL画像とR画像との間に、IP変換処理部104において処理する際の処理単位となる1ブロック分の幅のブランクデータ画像を付加した画像を表示する画像データを生成する。ブロックは、後述するように、複数の画像データ間を補間する補間画像データを生成する場合に、動きベクトルを検出する単位のことである。なお、データ加工部103は、データ処理情報記憶部102から取得したフォーマット情報、画像サイズ及びブランクデータ情報に基づいて、画像データにブランクデータを付加する。なお、データ加工部103は、ブランクデータ画像に含まれる全てのブロックの画素値の差分が同一となるように、ブランクデータを付加する。   The data processing unit 103 is one block that is a processing unit when the IP conversion processing unit 104 performs processing between the L image and the R image included in the image displayed by the image data output from the image generation unit 101. Image data for displaying an image to which a blank data image having a width of one minute is added is generated. A block is a unit for detecting a motion vector when generating interpolated image data for interpolating between a plurality of image data, as will be described later. The data processing unit 103 adds blank data to the image data based on the format information, image size, and blank data information acquired from the data processing information storage unit 102. The data processing unit 103 adds blank data so that the pixel value differences of all blocks included in the blank data image are the same.

データ加工部103は、ブランクデータを付加した画像データをIP変換処理部104に出力する。データ加工部103は、ブランクデータ画像を付加した後の画像の全体サイズ、及び、その画像のうちのブランクデータ画像を除いたL画像及びR画像の位置を特定する画像位置情報を画像情報記憶部(図示せず)に記憶する。言い換えると、画像位置情報は、ブランクデータを付加した画像データの全体サイズ、及び、その画像データのうちのブランクデータ部を除いたL画像データ部及びR画像データ部の位置を特定する情報である。画像位置情報記憶部は、例えば、レジスタ、メモリ及びハードディスク等の記憶装置である。   The data processing unit 103 outputs the image data with the blank data added to the IP conversion processing unit 104. The data processing unit 103 stores the image size information for specifying the overall size of the image after adding the blank data image and the positions of the L image and the R image excluding the blank data image of the image. (Not shown). In other words, the image position information is information for specifying the overall size of the image data to which blank data is added and the positions of the L image data portion and the R image data portion excluding the blank data portion of the image data. . The image position information storage unit is a storage device such as a register, a memory, and a hard disk.

IP変換処理部104は、データ加工部103から出力された画像データを、内部メモリに記憶する。IP変換処理部104は、画像情報記憶部に記憶された画像サイズに基づいて、フィールド毎の画像データを識別する。IP変換処理部104は、IP変換に必要なフィールド数分の画像データが内部メモリに記憶されて、IP変換可能となったフィールドから順にIP変換を行う。IP変換処理部104は、IP変換後の画像データを画像出力部105に出力する。   The IP conversion processing unit 104 stores the image data output from the data processing unit 103 in an internal memory. The IP conversion processing unit 104 identifies image data for each field based on the image size stored in the image information storage unit. The IP conversion processing unit 104 stores image data for the number of fields necessary for IP conversion in the internal memory, and performs IP conversion in order from the field where IP conversion is possible. The IP conversion processing unit 104 outputs the image data after IP conversion to the image output unit 105.

画像出力部105は、IP変換処理部104から出力された画像データのうち、ブランクデータ部を除いたL画像データ部及びR画像データ部の画像データに基づいて、L画像及びR画像を表示装置に出力する。なお、画像出力部105は、データ処理情報記憶部102及び画像情報記憶部から取得した画像位置特定情報に基づいて、画像データからブランクデータ部を除いたL画像データ部及びR画像データ部の位置を特定する。また、画像出力部105は、データ処理情報記憶部102から取得した画像サイズに基づいて、画像データからブランクデータ部を除いたL画像データ部及びR画像データ部の位置を特定するようにしてもよい。   The image output unit 105 displays an L image and an R image based on the image data of the L image data unit and the R image data unit, excluding the blank data unit, of the image data output from the IP conversion processing unit 104. Output to. Note that the image output unit 105 determines the positions of the L image data unit and the R image data unit obtained by removing the blank data unit from the image data based on the image position specifying information acquired from the data processing information storage unit 102 and the image information storage unit. Is identified. Further, the image output unit 105 may specify the positions of the L image data unit and the R image data unit obtained by removing the blank data unit from the image data based on the image size acquired from the data processing information storage unit 102. Good.

続いて、図2を参照して、データ加工部103の処理について説明する。図2は、本発明の実施の形態1にかかるデータ加工部103の処理を示す動作フロー図である。   Next, the processing of the data processing unit 103 will be described with reference to FIG. FIG. 2 is an operation flowchart showing processing of the data processing unit 103 according to the first embodiment of the present invention.

データ加工部103は、データ処理情報記憶部102から、フォーマット情報、画像サイズ及びブランクデータ情報等を取得する(S001)。データ加工部103は、画像生成部101から出力された画像データを取得する(S002)。データ加工部103は、データ処理情報記憶部102から取得したフォーマット情報、画像サイズ及びブランクデータ情報に基づいて、画像データにブランクデータを付加する(S003)。データ加工部103は、例えば、フォーマット情報に基づいて、入力される画像データのフォーマットを特定する。そして、データ加工部103は、特定したフォーマットに応じたブランクデータ合成処理を実行する。   The data processing unit 103 acquires format information, image size, blank data information, and the like from the data processing information storage unit 102 (S001). The data processing unit 103 acquires the image data output from the image generation unit 101 (S002). The data processing unit 103 adds blank data to the image data based on the format information, image size, and blank data information acquired from the data processing information storage unit 102 (S003). For example, the data processing unit 103 specifies the format of the input image data based on the format information. Then, the data processing unit 103 executes blank data synthesis processing according to the specified format.

ここで、図3〜6を参照して、ステップS003におけるブランクデータ合成処理について詳細に説明する。まず、図3を参照して、SideBySideフォーマットの画像データを処理する場合におけるブランクデータ合成処理について説明する。図3は、SideBySideフォーマットの画像データを処理する場合におけるブランクデータ合成処理を示す動作フロー図である。   Here, with reference to FIGS. 3 to 6, the blank data synthesis process in step S <b> 003 will be described in detail. First, with reference to FIG. 3, a blank data composition process in the case of processing image data in SideBySide format will be described. FIG. 3 is an operation flowchart showing blank data synthesis processing when processing image data in SideBySide format.

SideBySideフォーマットの画像データを処理する場合、データ加工部103は、データ処理情報記憶部102から取得した画像サイズに基づいて、画像データのL画像データ部のうちの1ライン目のデータをIP変換処理部104に出力する(S201)。つまり、データ処理情報記憶部102に格納される画像サイズは、1ラインにおけるL画像データ部、R画像データ部及びブランクデータ部の幅を特定可能な情報を含む。次に、データ加工部103は、データ処理情報記憶部102から取得した画像サイズに基づいて、1ライン目のブランクデータをIP変換処理部104に出力する(S202)。ここでは、1ブロック幅のブランクデータが1ライン分出力される。次に、データ加工部103は、画像データのR画像データ部のうちの1ライン目のデータをIP変換処理部104に出力する(S203)。   When processing the image data in SideBySide format, the data processing unit 103 performs IP conversion processing on the first line data in the L image data portion of the image data based on the image size acquired from the data processing information storage unit 102. The data is output to the unit 104 (S201). That is, the image size stored in the data processing information storage unit 102 includes information that can specify the widths of the L image data unit, the R image data unit, and the blank data unit in one line. Next, the data processing unit 103 outputs blank data for the first line to the IP conversion processing unit 104 based on the image size acquired from the data processing information storage unit 102 (S202). Here, one block of blank data is output for one line. Next, the data processing unit 103 outputs the data of the first line in the R image data portion of the image data to the IP conversion processing unit 104 (S203).

次に、データ加工部103は、画像データの全ラインを出力したか否かを判定する(S204)。ここで、画像データは、3ライン以上あるものとすると、データ加工部103は、画像データの全ラインを出力していないと判定する(S204:No)。そのように判定した場合、データ加工部103は、ステップS201〜203と同様の処理を、2ライン目、3ライン目の順に、全ラインの画像データを出力するまで繰り返す。IP変換処理部104は、データ加工部103から入力された画像データを内部メモリに格納する。   Next, the data processing unit 103 determines whether or not all lines of image data have been output (S204). Here, assuming that there are three or more lines of image data, the data processing unit 103 determines that all lines of the image data have not been output (S204: No). If so, the data processing unit 103 repeats the same processing as steps S201 to S203 until the image data of all lines is output in the order of the second line and the third line. The IP conversion processing unit 104 stores the image data input from the data processing unit 103 in the internal memory.

データ加工部103は、画像データの全ラインを出力したと判定した場合(S204:Yes)、その画像データに対する処理を終了する。   If the data processing unit 103 determines that all the lines of the image data have been output (S204: Yes), the process for the image data ends.

ここで、図4に、図3に示す処理によって、IP変換処理部104に出力される画像データによって表示される画像を示す。図4に示すように、SideBySideフォーマットの画像データは、その画像データによって表示される画像が、L画像301とR画像302の間に1ブロック幅のブランクデータ画像303が付加された形となるように加工される。   Here, FIG. 4 shows an image displayed by the image data output to the IP conversion processing unit 104 by the processing shown in FIG. As shown in FIG. 4, the image data in the SideBySide format is such that the image displayed by the image data has a blank data image 303 having a width of 1 block added between the L image 301 and the R image 302. To be processed.

続いて、図5を参照して、TopAndBottomフォーマットの画像データを処理する場合におけるブランクデータ合成処理について説明する。図5は、TopAndBottomフォーマットの画像データを処理する場合におけるブランクデータ合成処理を示す動作フロー図である。   Next, with reference to FIG. 5, a blank data composition process in the case of processing image data in the TopAndBottom format will be described. FIG. 5 is an operation flowchart showing blank data synthesis processing when processing image data in the TopAndBottom format.

TopAndBottomフォーマットの画像データを処理する場合、データ加工部103は、画像データのうち、L画像データ部の全ラインをIP変換処理部104に出力する(S401)。なお、データ加工部103は、データ処理情報記憶部102から取得した画像サイズに基づいて、L画像データ部の全ラインのサイズを認識する。次に、データ加工部103は、1ブロック幅分のライン数のブランクデータをIP変換処理部104に出力する(S402)。次に、データ加工部103は、R画像データ部の全ラインをIP変換処理部104に出力する(S403)。なお、データ加工部103は、データ処理情報記憶部102から取得した画像サイズに基づいて、R画像データ部の全ラインを認識する。   When processing the image data in the TopAndBottom format, the data processing unit 103 outputs all lines of the L image data portion of the image data to the IP conversion processing unit 104 (S401). The data processing unit 103 recognizes the sizes of all lines in the L image data unit based on the image size acquired from the data processing information storage unit 102. Next, the data processing unit 103 outputs blank data of the number of lines corresponding to one block width to the IP conversion processing unit 104 (S402). Next, the data processing unit 103 outputs all lines of the R image data unit to the IP conversion processing unit 104 (S403). The data processing unit 103 recognizes all lines in the R image data unit based on the image size acquired from the data processing information storage unit 102.

ここで、図6に、図5に示す処理によって、IP変換処理部104に入力される画像データによって表示される画像を示す。図6に示すように、TopAndBottomフォーマットの画像データは、その画像データによって表示される画像が、L画像501とR画像502の間にブランクデータ画像503が付加された形となるように加工される。   Here, FIG. 6 shows an image displayed by the image data input to the IP conversion processing unit 104 by the processing shown in FIG. As shown in FIG. 6, the image data in the TopAndBottom format is processed so that the image displayed by the image data has a shape in which a blank data image 503 is added between the L image 501 and the R image 502. .

続いて、FremeSequentialフォーマットの画像データを処理する場合におけるブランクデータ合成処理について説明する。
FremeSequentialフォーマットの画像データを処理する場合、データ加工部103は、L画像を表示する画像データとR画像を表示する画像データとを1つの画像データとして処理すること以外は、図3又は図5を参照して説明した処理と同様の処理をする。つまり、データ加工部103は、図4及び図6におけるL画像301、501及びR画像302、502のそれぞれのサイズが1インタレース画像分のサイズとなる1つの画像を表示する画像データ生成する。
Next, a blank data composition process when processing image data in the FrameSequential format will be described.
When processing the image data in the FrameSequential format, the data processing unit 103 does not process the image data for displaying the L image and the image data for displaying the R image as one image data, except that FIG. 3 or FIG. The same processing as that described with reference to FIG. That is, the data processing unit 103 generates image data for displaying one image in which each of the L images 301 and 501 and the R images 302 and 502 in FIGS. 4 and 6 has a size corresponding to one interlaced image.

具体的には、次のように処理してもよい。データ加工部103は、L画像を表示する画像データが画像生成部101から入力された場合、その画像データを内部バッファに格納する。その後、R画像を表示する画像データの入力が開始された場合に、図3又は図5における処理を開始する。なお、図3又は図5に示す処理のうち、どちらの処理を行うかは、任意に選択可能とする。   Specifically, the following processing may be performed. When image data for displaying an L image is input from the image generation unit 101, the data processing unit 103 stores the image data in an internal buffer. Thereafter, when input of image data for displaying an R image is started, the processing in FIG. 3 or FIG. 5 is started. Note that it is possible to arbitrarily select which of the processes shown in FIG. 3 or FIG. 5 is to be performed.

続いて、図7及び図8を参照して、IP変換処理部104における処理について説明する。まず、図7を参照して、FreamSequentialフォーマットの画像データに、図3に示す処理によってブランクデータを付加した場合における動きベクトル検出処理について説明する。図7は、本発明の実施の形態1にかかる動きベクトル検出の概念図である。   Next, processing in the IP conversion processing unit 104 will be described with reference to FIGS. 7 and 8. First, a motion vector detection process when blank data is added to the image data in the FrameSequential format by the process shown in FIG. 3 will be described with reference to FIG. FIG. 7 is a conceptual diagram of motion vector detection according to the first exemplary embodiment of the present invention.

ここで、本実施の形態におけるFrameSequentialフォーマットは、時系列に沿って、奇数ラインのインタレース画像と、偶数ラインのインタレース画像と、が2つずつ交互に並んでいるものとする。ここでは、フィールドm〜m+5の順に、奇数ラインのL画像、奇数ラインのR画像、偶数ラインのL画像、偶数ラインのR画像、奇数ラインのL画像、奇数ラインのR画像が並んでいる場合について例示する(mは、任意の正整数)。   Here, in the FrameSequential format in the present embodiment, it is assumed that two lines of odd-numbered interlaced images and even-numbered interlaced images are alternately arranged in time series. In this case, when an odd line L image, an odd line R image, an even line L image, an even line R image, an odd line L image, and an odd line R image are arranged in the order of fields m to m + 5. (M is an arbitrary positive integer).

この場合、図7に示すように、データ加工部103によって、L画像とR画像の間にブランクデータ画像が付加された画像データが生成される。つまり、図7では、フィールドm及びフィールドm+1の画像データから生成された画像データによって表示される画像600と、フィールドm+4及びフィールドm+5の画像データから生成された画像データによって表示される画像602を示している。なお、図7では、図3に示す処理によって、図4に示すような1つの画像データに変換した場合について例示している。例えば、IP変換処理部104は、フィールドm+2における奇数ラインのL画像を表示する画像データと、フィールドm+3における奇数ラインのR画像を表示する画像データとを補間する場合、画像600の画像データ及び画像602の画像データに基づいて、補間画像601の補間画像データを生成することになる。   In this case, as shown in FIG. 7, the data processing unit 103 generates image data in which a blank data image is added between the L image and the R image. That is, FIG. 7 shows an image 600 displayed by the image data generated from the image data of the field m and the field m + 1 and an image 602 displayed by the image data generated from the image data of the field m + 4 and the field m + 5. ing. Note that FIG. 7 illustrates the case where the image data is converted into one image data as shown in FIG. 4 by the process shown in FIG. For example, when the IP conversion processing unit 104 interpolates the image data that displays the odd-line L image in the field m + 2 and the image data that displays the odd-line R image in the field m + 3, the image data and the image of the image 600 Based on the image data 602, the interpolated image data of the interpolated image 601 is generated.

IP変換処理部104は、補間画像601を表示する画像データを生成する場合、画像データによって表示される画像を、それぞれがM×N画素の複数のブロック607に分割する。ここで、M及びNのそれぞれは、任意の正整数である。そして、IP変換処理部104は、通常の走査線方式の通りに、画面の左上から右下に向かって、ブロック単位で処理をしていく。   When generating image data for displaying the interpolated image 601, the IP conversion processing unit 104 divides the image displayed by the image data into a plurality of blocks 607 each having M × N pixels. Here, each of M and N is an arbitrary positive integer. Then, the IP conversion processing unit 104 performs processing in block units from the upper left to the lower right of the screen as in the normal scanning line method.

IP変換処理部104は、補間画像601を表示する画像データを生成する過程において、現在処理ブロック604に対して、候補ベクトル606によって参照される画像600の参照ブロック1(603)と、画像602の参照ブロック2(605)とのSADを計算する。   In the process of generating image data for displaying the interpolated image 601, the IP conversion processing unit 104 compares the current processing block 604 with reference block 1 (603) of the image 600 referred to by the candidate vector 606 and the image 602. SAD with reference block 2 (605) is calculated.

このとき、時間軸上、補間画像601から、1つ前となる画像600も、1つ後となる画像602も、図4に示すような補間画像601と同じ構成の画像となる。つまり、1つ前の画像600の任意のブロックと、1つ後の画像602のその任意のブロックと同じ位置のブロックは、L画像及びR画像のうち、同一の画像に含まれるようになる。よって、1つ前の画像600の参照ブロック1(603)と1つ後の画像602の参照ブロック2(605)を使用しても、L画像とR画像を混合してIP変換を行ってしまうことがなくなる。その結果、正しくIP変換を行うことができるようになる。   At this time, the previous image 600 and the next image 602 from the interpolation image 601 on the time axis have the same configuration as the interpolation image 601 as shown in FIG. That is, an arbitrary block of the previous image 600 and a block at the same position as the arbitrary block of the subsequent image 602 are included in the same image of the L image and the R image. Therefore, even if the reference block 1 (603) of the previous image 600 and the reference block 2 (605) of the next image 602 are used, the L image and the R image are mixed and IP conversion is performed. Nothing will happen. As a result, IP conversion can be performed correctly.

また、FreamSequentialフォーマットの画像データを、図5に示す処理によってブランクデータを付加した場合も、上述と同様に、1つ前の画像の任意のブロックと、1つ後の画像のその任意のブロックと同じ位置のブロックは、L画像及びR画像のうち、同一の画像に含まれることになることは明白である。そのため、詳細な説明は省略する。つまり、図5に示す処理によって、図6に示すようにブランクデータを付加した画像データを生成した場合であっても、L画像とR画像を混合してIP変換を行ってしまうことがなくなるため、正しくIP変換を行うことができるようになる。   Also, when blank data is added to the image data in the FrameSequential format by the process shown in FIG. 5, as described above, an arbitrary block of the previous image and an arbitrary block of the subsequent image It is obvious that the block at the same position is included in the same image of the L image and the R image. Therefore, detailed description is omitted. In other words, even when image data with blank data added as shown in FIG. 6 is generated by the processing shown in FIG. 5, the L image and the R image are not mixed to perform IP conversion. IP conversion can be performed correctly.

続いて、図8を参照して、SideBySideフォーマットの画像データに、図3に示す処理によってブランクデータを付加した場合における動きベクトル検出処理について説明する。図8は、本発明の実施の形態1にかかる候補ベクトルとするブロックの説明図である。   Next, a motion vector detection process when blank data is added to the image data in SideBySide format by the process shown in FIG. 3 will be described with reference to FIG. FIG. 8 is an explanatory diagram of blocks as candidate vectors according to the first embodiment of the present invention.

なお、ここでは、フィールドn−2におけるインタレース画像を表示する画像データと、フィールドnにおけるインタレース画像を表示する画像データに基づいて、フィールドn−1におけるインタレース画像を表示する補間画像データを補間する場合について説明する(nは、任意の正整数)。つまり、フィールドn−1におけるプログレッシブ画像を生成するために、フィールドn−1におけるインタレース画像に合成されるインタレース画像を表示する補間画像データを生成する場合について説明する。例えば、フィールドn、n−2におけるインタレース画像が奇数ラインに表示される画像であり、フィールドn−1におけるインタレース画像が偶数ラインに表示される画像である。   Here, the interpolated image data for displaying the interlaced image in the field n-1 based on the image data for displaying the interlaced image in the field n-2 and the image data for displaying the interlaced image in the field n is shown here. The case of interpolation will be described (n is an arbitrary positive integer). That is, a case will be described in which interpolated image data for displaying an interlaced image combined with an interlaced image in field n-1 is generated in order to generate a progressive image in field n-1. For example, an interlaced image in fields n and n-2 is an image displayed on odd lines, and an interlaced image in field n-1 is an image displayed on even lines.

IP変換処理部104は、補間フィールド画像(フィールドn−1画像)700を表示する補間画像データを生成するために、1フィールドにおける画像700を、M×N画素の複数のブロック701に分割する。また、現在処理ブロック702の周辺には、現在処理ブロック702と相関が高い8個の周辺ブロック703が存在する。なお、図8は、補間フィールド画像700を生成する処理がある程度進んだ状態を示す。この場合、IP変換処理部104は、現在処理ブロック702と相関が高い周辺ブロック703における動きベクトルを検出済みのブロック704、705、706、707の動きベクトルを候補ベクトルにする。   The IP conversion processing unit 104 divides the image 700 in one field into a plurality of blocks 701 of M × N pixels in order to generate interpolation image data for displaying the interpolation field image (field n−1 image) 700. Further, eight peripheral blocks 703 having a high correlation with the current processing block 702 exist around the current processing block 702. FIG. 8 shows a state where the process of generating the interpolation field image 700 has progressed to some extent. In this case, the IP conversion processing unit 104 sets the motion vectors of the detected blocks 704, 705, 706, and 707 in the peripheral block 703 having a high correlation with the current processing block 702 as candidate vectors.

つまり、図8に示すように、R画像に含まれるブロックの動きベクトルが候補ベクトルとして使用されることはなく、ブランクデータ上に存在するブロック706の動きベクトルが候補ベクトルとして使用される。ここで、補間フィールド画像700においてブランクデータ上に存在するブロック706と、1フィールド前の画像(フィールドn−2画像)及び1フィールド後の画像(フィールドn画像)においてブロック706と同位置のブロックとは、それらのブロックに含まれる画素値が常に同一の値となっている。そのため、ブロック706において、動きベクトルが検出されることはない。よって、ブロック706の候補ベクトルは、現在処理ブロック702のIP変換処理に悪影響を及ぼすことはない。   That is, as shown in FIG. 8, the motion vector of the block included in the R image is not used as the candidate vector, and the motion vector of the block 706 existing on the blank data is used as the candidate vector. Here, the block 706 existing on the blank data in the interpolation field image 700, the block at the same position as the block 706 in the image before one field (field n-2 image) and the image after one field (field n image), The pixel values included in these blocks are always the same value. Therefore, no motion vector is detected at block 706. Therefore, the candidate vector in block 706 does not adversely affect the IP conversion process in current processing block 702.

次に、その理由について具体的に説明する。上述したように、ブロック706における候補ベクトルは0である。そのため、例えば、現在処理ブロック702に本来動きベクトルがある場合には、ブロック706の候補ベクトルによって計算したSADが最小値となることはない。そのため、この場合は、ブロック706の候補ベクトルではなく、ブロック704、705、707の候補ベクトルのうちのいずれかが、現在処理ブロック702の動きベクトルとして検出されるようになる。   Next, the reason will be specifically described. As described above, the candidate vector in block 706 is zero. Therefore, for example, when the current processing block 702 originally has a motion vector, the SAD calculated using the candidate vector in the block 706 does not become the minimum value. Therefore, in this case, not the candidate vector of the block 706 but any of the candidate vectors of the blocks 704, 705, and 707 is detected as the motion vector of the current processing block 702.

つまり、L画像に含まれるブロックの候補ベクトルのうちのいずれかが、現在処理ブロック702の動きベクトルとして検出されることになる。よって、背景技術として説明したように、R画像に含まれるブロックの候補ベクトルが動きベクトルとして検出されなくなる。その結果、現在処理ブロック702の動きベクトルとして、SADが偶然最小値となるが本来と異なる向きの候補ベクトルを動きベクトルとして決定することがなくなる。つまり、L画像右端とR画像左端の境界部分において、誤ったIP変換結果が生成されないようにすることができる。   That is, one of the candidate vectors of the block included in the L image is detected as the motion vector of the current processing block 702. Therefore, as described in the background art, the block candidate vectors included in the R image are not detected as motion vectors. As a result, as a motion vector of the current processing block 702, the SAD accidentally has a minimum value, but a candidate vector in a direction different from the original is not determined as a motion vector. That is, it is possible to prevent an erroneous IP conversion result from being generated at the boundary between the right end of the L image and the left end of the R image.

一方、ブロック706の候補ベクトルに基づいて計算したSADが最小値となることも考えられる。しかし、この場合は、ブロック706の候補ベクトルは0である。そのため、ブロック706の候補ベクトルは、SADが偶然最小値となるが本来と異なる向きの動きベクトルとなることはない。したがって、この場合におけるブロック706の候補ベクトルは、妥当な動きベクトルであるため、動きベクトルとして検出されても問題となることはない。つまり、この場合は、現在処理ブロック702と相関が高いブロック704、705、707における動きベクトルもほぼ0に近い値になっていると考えられる。   On the other hand, it is also conceivable that the SAD calculated based on the candidate vector of the block 706 becomes the minimum value. However, in this case, the candidate vector of block 706 is zero. Therefore, the candidate vector of the block 706 does not become a motion vector in the direction different from the original although the SAD accidentally becomes the minimum value. Therefore, since the candidate vector of the block 706 in this case is a valid motion vector, there is no problem even if it is detected as a motion vector. In other words, in this case, it is considered that the motion vectors in the blocks 704, 705, and 707 having a high correlation with the current processing block 702 are also close to zero.

IP変換処理部104は、候補ベクトルの中から、SADが最小値となる候補ベクトルを、現在処理ブロック702の動きベクトルとして決定する。IP変換処理部104は、決定した動きベクトルに基づいて、現在処理ブロック702の画素値を算出して、現在処理ブロック702における画像を補間する。このようにして、IP変換処理部104は、補間フィールド画像700に含まれる全てのブロックにおける画像を補間して、補間フィールド画像700を表示する補間画像データを生成する。IP変換処理部104は、生成した補間画像データと、その補間画像データと同一フィールドの画像データを合成して、プログレッシブ画像を表示する画像データを生成する。ここで、IP変換処理部104は、例えば、補間画像データによって表示されるインタレース画像によって補間されるインタレース画像を表示する画像データをデータ加工部103から取得しておく。そして、IP変換処理部104は、プログレッシブ画像の画像データを画像出力部105に出力する。   The IP conversion processing unit 104 determines a candidate vector having a minimum SAD as a motion vector of the current processing block 702 from among the candidate vectors. The IP conversion processing unit 104 calculates the pixel value of the current processing block 702 based on the determined motion vector, and interpolates the image in the current processing block 702. In this way, the IP conversion processing unit 104 interpolates the images in all the blocks included in the interpolation field image 700, and generates interpolation image data for displaying the interpolation field image 700. The IP conversion processing unit 104 combines the generated interpolated image data with the image data in the same field as the interpolated image data, and generates image data for displaying a progressive image. Here, for example, the IP conversion processing unit 104 acquires, from the data processing unit 103, image data for displaying an interlaced image interpolated by an interlaced image displayed by the interpolated image data. Then, the IP conversion processing unit 104 outputs the image data of the progressive image to the image output unit 105.

画像出力部105は、IP変換処理部104から出力された画像データによって表示される画像のうち、ブランク画像を除くR画像及びL画像を1画像として表示装置に出力する。これによって、補間画像データによって表示されるインタレース画像と、このインタレース画像によって補間されるインタレース画像のうち、ブランク画像を除くR画像及びL画像が1つのプログレッシブ画像として出力される。   The image output unit 105 outputs, as one image, an R image and an L image excluding a blank image among images displayed by the image data output from the IP conversion processing unit 104 to the display device. As a result, among the interlaced image displayed by the interpolated image data and the interlaced image interpolated by the interlaced image, the R image and the L image excluding the blank image are output as one progressive image.

なお、上述した本実施の形態によれば、TopAndBottomフォーマットの画像データに、図5に示すブランクデータを付加した場合でも、L画像下端とR画像上端の境界部分において、誤ったIP変換結果が生成されないことは明白である。そのため、詳細な説明は省略する。   According to the above-described embodiment, even when blank data shown in FIG. 5 is added to the image data in the TopAndBottom format, an incorrect IP conversion result is generated at the boundary between the lower end of the L image and the upper end of the R image. Obviously not. Therefore, detailed description is omitted.

以上に説明したように、本実施の形態1では、データ加工部103は、複数の立体画像データ間を補間する補間画像データを生成する場合に、立体画像を表示するL画像及びR画像を含む画像を示す立体画像データから、L画像とR画像との間に1ブロック以上のブランクデータ画像を含めた画像を示す加工画像データを生成するようにしている。IP変換処理部104は、複数の加工画像データ間を補間する加工補間画像データが示す画像に含まれる現在処理ブロックから所定の範囲に含まれ、動きベクトルを検出済みの複数のブロックの動きベクトルを、現在処理ブロックの動きベクトルの候補ベクトルとして決定するようにしている。IP変換処理部104は、決定した動きベクトルに基づいて、現在処理ブロックにおける画像を補間して、加工補間画像データを生成するようにしている。そして、画像出力部105は、加工補間画像データに基づいて、複数の加工画像データの生成に用いられた複数の画像データ間を補間する補間画像データを出力するようにしている。   As described above, in the first embodiment, the data processing unit 103 includes an L image and an R image that display a stereoscopic image when generating interpolated image data that interpolates between a plurality of stereoscopic image data. Processed image data indicating an image including one or more blank data images between the L image and the R image is generated from the stereoscopic image data indicating the image. The IP conversion processing unit 104 includes motion vectors of a plurality of blocks that are included in a predetermined range from the current processing block included in the image indicated by the processed interpolated image data that interpolates between the plurality of processed image data, and for which the motion vectors have been detected. Thus, it is determined as a candidate vector for the motion vector of the current processing block. The IP conversion processing unit 104 interpolates the image in the current processing block based on the determined motion vector so as to generate processed interpolation image data. Then, the image output unit 105 outputs interpolated image data for interpolating between a plurality of image data used to generate a plurality of processed image data based on the processed interpolated image data.

これによれば、L画像とR画像の間にブランクデータ画像を含めるようにしているため、L画像とR画像の境界付近において、現在処理ブロックの動きベクトルを決定する場合に、L画像及びR画像のうち、現在処理ブロックが含まれていない画像に含まれる候補ブロックが動きベクトルとして決定されることを防ぐことができる。そのため、立体映像用の画像データ間を補間する補間画像データを正しく生成することができる。   According to this, since the blank data image is included between the L image and the R image, the L image and the R image are determined when determining the motion vector of the current processing block in the vicinity of the boundary between the L image and the R image. It is possible to prevent a candidate block included in an image that does not currently include a processing block from being determined as a motion vector. Therefore, it is possible to correctly generate interpolated image data that interpolates between image data for stereoscopic video.

また、本実施の形態1では、データ加工部103は、FreamSequentialフォーマットのように、第1のフィールドにおけるL画像を示す画像データと、第1のフィールドに後続する第2のフィールドにおけるR画像を示す画像データとから、1つの画像を示す加工画像データを生成するようにしている。   In the first embodiment, the data processing unit 103 indicates image data indicating the L image in the first field and the R image in the second field subsequent to the first field, as in the FrameSequential format. Processed image data indicating one image is generated from the image data.

これによれば、時間軸上で、加工補間画像データから、1つ前の加工画像データが示す画像における任意のブロックと、1つ後の加工画像データが示す画像においてその任意のブロックと同じ位置のブロックは、L画像及びR画像のうち、同一の画像に含まれるようになる。そのため、FreamSequentialフォーマットのように、時系列にそって、L画像とR画像が交互に存在する場合であっても、L画像とR画像を混合して現在処理ブロックの画像を補間することがなくなる。つまり、補間画像データを正しく生成することができる。   According to this, on the time axis, from the processed interpolation image data, an arbitrary block in the image indicated by the previous processed image data and the same position as the arbitrary block in the image indicated by the subsequent processed image data These blocks are included in the same image of the L image and the R image. Therefore, even when the L image and the R image exist alternately along the time series as in the FrameSequential format, the L image and the R image are not mixed to interpolate the image of the current processing block. . That is, the interpolation image data can be generated correctly.

本発明の実施の形態2.
図9を参照して、本発明の実施の形態2にかかる立体映像表示システムの構成について説明する。図9は、本発明の実施の形態2にかかる立体映像表示システムの構成図である。
Embodiment 2 of the present invention.
With reference to FIG. 9, the structure of the three-dimensional-video display system concerning Embodiment 2 of this invention is demonstrated. FIG. 9 is a configuration diagram of a stereoscopic video display system according to the second embodiment of the present invention.

立体映像表示システム80は、画像生成部801、データ処理情報記憶部802、データ加工部803、IP変換処理部804、画像出力部805及び画像データメモリ806を有する。   The stereoscopic video display system 80 includes an image generation unit 801, a data processing information storage unit 802, a data processing unit 803, an IP conversion processing unit 804, an image output unit 805, and an image data memory 806.

画像生成部801は、生成した画像データを画像データメモリ806に格納する点、及び、画像データを生成したときに画像生成完了通知をデータ加工部803に出力する点、が、実施の形態1にかかる画像生成部101と異なる。
データ処理情報記憶部802は、実施の形態1にかかるデータ処理情報記憶部102と同様に機能する。
The point that the image generation unit 801 stores the generated image data in the image data memory 806 and the point that the image generation completion notification is output to the data processing unit 803 when the image data is generated are described in the first embodiment. Different from the image generation unit 101.
The data processing information storage unit 802 functions in the same manner as the data processing information storage unit 102 according to the first embodiment.

データ加工部803は、画像データを画像データメモリ806から取得して、取得した画像データにブランクデータを付加する点、ブランクデータを付加した画像データをデータ処理情報記憶部802に格納する点、及び、ブランクデータを付加した画像データを生成したときにデータ加工完了通知をIP変換処理部804に出力する点が、実施の形態1にかかるデータ加工部103と異なる。   The data processing unit 803 acquires image data from the image data memory 806, adds blank data to the acquired image data, stores image data with the blank data added thereto in the data processing information storage unit 802, and The difference from the data processing unit 103 according to the first embodiment is that a data processing completion notification is output to the IP conversion processing unit 804 when image data with blank data added is generated.

IP変換処理部804は、ブランクデータが付加された画像データを画像データメモリ806から取得して、取得した画像データをIP変換した画像データを画像データメモリ806に格納する点が、実施の形態1にかかるIP変換処理部104と異なる。
画像出力部805は、IP変換された画像データを画像データメモリ806から取得する点が、実施の形態1にかかる画像出力部105と異なる。
Embodiment 1 is that the IP conversion processing unit 804 acquires image data with blank data added from the image data memory 806 and stores the image data obtained by IP conversion of the acquired image data in the image data memory 806. Different from the IP conversion processing unit 104 according to the above.
The image output unit 805 is different from the image output unit 105 according to the first embodiment in that the IP-converted image data is acquired from the image data memory 806.

画像データメモリ806は、画像データが格納される。画像データメモリ806は、メモリに限定されない。例えば、画像データメモリ806は、メモリ及びハードディスク等の他の記憶装置であってもよい。なお、本実施の形態2では、画像データが画像データメモリ806に格納されるため、データ加工部803の内部バッファ及びIP変換処理部804の内部メモリは不要となる。   The image data memory 806 stores image data. The image data memory 806 is not limited to a memory. For example, the image data memory 806 may be another storage device such as a memory and a hard disk. In the second embodiment, since the image data is stored in the image data memory 806, the internal buffer of the data processing unit 803 and the internal memory of the IP conversion processing unit 804 are not necessary.

続いて、図9を参照して、本発明の実施の形態2にかかる立体映像表示システム80の処理について説明する。   Next, with reference to FIG. 9, processing of the stereoscopic video display system 80 according to the second embodiment of the present invention will be described.

画像生成部801は、外部からの入力された入力データ106から、画像データを生成する。画像生成部801は、生成した画像データを画像データメモリ806に格納する。画像生成部801は、画像データメモリ806上の画像データを格納したアドレスを画像情報記憶部に格納する。そして、画像生成部801は、画像生成完了通知をデータ加工部803に出力する。   The image generation unit 801 generates image data from input data 106 input from the outside. The image generation unit 801 stores the generated image data in the image data memory 806. The image generation unit 801 stores the address where the image data on the image data memory 806 is stored in the image information storage unit. Then, the image generation unit 801 outputs an image generation completion notification to the data processing unit 803.

データ加工部803は、画像生成部801から出力された画像生成完了通知に応じて、画像生成部801が生成した画像データを画像データメモリ806から取得する。なお、データ加工部803は、画像生成部801が画像情報記憶部に格納したアドレスから、画像データを取得する。データ加工部803は、取得した画像データにブランクデータを付加する。データ加工部803は、ブランクデータを加工した画像データを画像データメモリ806に格納する。データ加工部803は、画像データメモリ806上の画像データを格納したアドレスを画像情報記憶部に格納する。そして、データ加工部803は、データ加工完了通知をIP変換処理部804に出力する。   The data processing unit 803 acquires the image data generated by the image generation unit 801 from the image data memory 806 in response to the image generation completion notification output from the image generation unit 801. Note that the data processing unit 803 acquires image data from the address stored in the image information storage unit by the image generation unit 801. The data processing unit 803 adds blank data to the acquired image data. The data processing unit 803 stores the image data obtained by processing the blank data in the image data memory 806. The data processing unit 803 stores the address where the image data on the image data memory 806 is stored in the image information storage unit. Then, the data processing unit 803 outputs a data processing completion notification to the IP conversion processing unit 804.

IP変換処理部804は、データ加工部803から出力されたデータ加工完了通知に応じて、データ加工部803が生成した画像データを画像データメモリ806から取得する。なお、IP変換処理部804は、データ加工部803が画像情報記憶部に格納したアドレスから画像データを取得する。データ加工部803は、IP変換に必要なフィールド数の画像データを取得し、取得した画像データが格納されていた領域とは別の作業用領域に格納しなおす。IP変換処理部804は、IP変換に必要なフィールド数の画像データが作業用領域に記憶されて、IP変換可能となったフィールドから順にIP変換を行う。IP変換処理部804は、IP変換後の画像データを画像データメモリ806に格納する。IP変換処理部804は、画像データメモリ806上の画像データを格納したアドレスを画像情報記憶部に格納する。   The IP conversion processing unit 804 acquires the image data generated by the data processing unit 803 from the image data memory 806 in response to the data processing completion notification output from the data processing unit 803. Note that the IP conversion processing unit 804 acquires image data from the address stored in the image information storage unit by the data processing unit 803. The data processing unit 803 acquires image data of the number of fields necessary for IP conversion, and stores it again in a work area different from the area where the acquired image data is stored. The IP conversion processing unit 804 stores the image data of the number of fields necessary for IP conversion in the work area, and performs IP conversion in order from the field where IP conversion is possible. The IP conversion processing unit 804 stores the image data after IP conversion in the image data memory 806. The IP conversion processing unit 804 stores the address where the image data on the image data memory 806 is stored in the image information storage unit.

画像出力部805は、任意の出力タイミングで、IP変換処理部804が生成した画像データを画像データメモリ806から取得する。なお、画像出力部805は、IP変換処理部804が画像情報記憶部に格納したアドレスから画像データを取得する。画像出力部805は、取得した画像データからブランクデータ部を除いたL画像データ部及びR画像データ部の画像データに基づいて、L画像及びR画像を出力画像107として表示装置に出力する。   The image output unit 805 acquires the image data generated by the IP conversion processing unit 804 from the image data memory 806 at an arbitrary output timing. Note that the image output unit 805 acquires image data from the address stored in the image information storage unit by the IP conversion processing unit 804. The image output unit 805 outputs the L image and the R image as the output image 107 to the display device based on the image data of the L image data portion and the R image data portion obtained by removing the blank data portion from the acquired image data.

ここで、テレビ等の家庭用映像機器では、入力データが入力されてから画像を出力するまでのタイミングが調整されている。このタイミングは、入力データの入力から画像を出力するまでの間に画像データをメモリに一時的に格納することによって、IP変換後の画像データを任意のタイミングで出力することを可能となるように調整する方法が一般的となっている。   Here, in home video equipment such as a television, the timing from when input data is input to when an image is output is adjusted. This timing is such that the image data after the IP conversion can be output at an arbitrary timing by temporarily storing the image data in the memory between the input of the input data and the output of the image. The method of adjustment is common.

以上に説明したように、本実施の形態2では、IP変換処理部は、IP変換後の画像データを画像データメモリに格納するようにしている。そして、画像出力部は、画像データメモリに格納された画像データを取得して、取得した画像データに基づいて、出力画像を出力するようにしている。これによれば、IP変換後の画像を任意のタイミングで出力することができる。   As described above, in the second embodiment, the IP conversion processing unit stores the image data after IP conversion in the image data memory. The image output unit acquires image data stored in the image data memory, and outputs an output image based on the acquired image data. According to this, an image after IP conversion can be output at an arbitrary timing.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
本実施の形態では、IP変換において補間する画像データを生成する場合について例示したが、立体映像用画像データを補間する画像データを生成する場合であれば、これに限られない。例えば、IP変換をせずに、単純に複数の画像データ間に補間する画像データを追加する場合にも適用することができる。
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.
In the present embodiment, the case where image data to be interpolated in IP conversion is generated has been exemplified. However, the present invention is not limited to this as long as image data to be interpolated with stereoscopic video image data is generated. For example, the present invention can be applied to a case where image data to be simply interpolated between a plurality of image data is added without performing IP conversion.

本実施の形態では、L画像とR画像の間にブランクデータ画像を1ブロック分付加するようにしているが、付加するブランクデータのサイズはこれに限られない。つまり、L画像とR画像の間に1ブロック以上のサイズのブランクデータ画像を付加するようにしてもよい。   In this embodiment, one block of blank data image is added between the L image and the R image, but the size of the blank data to be added is not limited to this. That is, a blank data image having a size of one block or more may be added between the L image and the R image.

本実施の形態では、現在処理ブロックから1ブロック分の範囲内の8つのブロックから、候補ベクトルとするようにしているが、現在処理ブロックと相関が高くなる所定の範囲内であれば、これに限られない。例えば、現在処理ブロックから2ブロック分の範囲内のブロックまで現在処理ブロックと相関が高い場合は、現在処理ブロックから2ブロック分の範囲内の24つのブロックを候補ベクトルとしてもよい。この場合、例えば、2ブロック以上のサイズのブランクデータ画像を付加することによって、L画像及びR画像のうち、現在処理ブロックが含まれていない画像に含まれる候補ブロックが動きベクトルとして決定されることを防ぐことができる。   In the present embodiment, candidate vectors are selected from eight blocks within the range of one block from the current processing block. However, if they are within a predetermined range in which the correlation with the current processing block is high, Not limited. For example, when the correlation with the current processing block is high from the current processing block to the blocks within the range of 2 blocks, 24 blocks within the range of 2 blocks from the current processing block may be used as candidate vectors. In this case, for example, by adding a blank data image having a size of 2 blocks or more, a candidate block included in an image that does not include the current processing block among the L image and the R image is determined as a motion vector. Can be prevented.

本実施の形態では、SADを計算することによって、候補ベクトルから動きベクトルを検出するようにしているが、参照ブロック1と参照ブロック2との画素値の差分に基づいて、候補ベクトルを評価する方法であれば、これに限られない。例えば、差分二乗和(以下、「SSD(Sum Of Squared Difference)」とする)によって、候補ベクトルを評価するようにしてもよい。   In this embodiment, a motion vector is detected from a candidate vector by calculating SAD. However, a method for evaluating a candidate vector based on a difference in pixel values between reference block 1 and reference block 2 If so, it is not limited to this. For example, the candidate vector may be evaluated by a sum of squared differences (hereinafter referred to as “SSD (Sum Of Squared Difference)”).

本実施の形態2では、画像生成部801、データ加工部803、IP変換処理部804及び画像出力部805が、画像データメモリ806を使用しているが、これらの全てが画像データメモリ806を使用しなくてもよい。具体的には、本実施の形態2は、画像生成部801が画像データを格納するとともに、データ加工部803が画像データを取得する手段Aと、データ加工部803が画像データを格納するとともに、IP変換処理部804が画像データを取得する手段Bと、IP変換処理部804が画像データを格納するとともに、画像出力部805が画像データを取得する手段Cとを有している。これらの手段A〜Cのうち、任意の1つ又は2つの手段を実装するようにしてもよい。つまり、手段A〜Cのうち、任意の1つ又は2つの手段に対応する処理については、実施の形態1と同様に画像データメモリ806を使用しないよういしてもよい。例えば、手段A、Cのみを実装した場合、データ加工部803は画像データを画像データメモリ806に格納せずに、IP変換処理部804に直接出力する。   In the second embodiment, the image generation unit 801, the data processing unit 803, the IP conversion processing unit 804, and the image output unit 805 use the image data memory 806, but all of these use the image data memory 806. You don't have to. Specifically, in the second embodiment, the image generation unit 801 stores image data, the data processing unit 803 acquires image data, and the data processing unit 803 stores image data. The IP conversion processing unit 804 includes means B for acquiring image data, the IP conversion processing unit 804 stores image data, and the image output unit 805 includes means C for acquiring image data. Of these means A to C, any one or two means may be implemented. That is, for the processes corresponding to any one or two of the means A to C, the image data memory 806 may not be used as in the first embodiment. For example, when only the means A and C are mounted, the data processing unit 803 directly outputs the image data to the IP conversion processing unit 804 without storing the image data in the image data memory 806.

以上に説明した本発明にかかる立体映像表示システムは、上述の実施の形態の機能を実現するプログラムを、コンピュータ又はシステムが有するCPU(Central Processing Unit)、MPU(Micro Processing Unit)、MCU(Micro Control Unit)が実行することによって、構成することが可能である。   The stereoscopic video display system according to the present invention described above includes a program for realizing the functions of the above-described embodiments, a CPU (Central Processing Unit), MPU (Micro Processing Unit), MCU (Micro Control) included in a computer or system. Unit) can be configured by executing.

また、このプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   The program can be stored using various types of non-transitory computer readable media and supplied to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

また、コンピュータが上述の実施の形態の機能を実現するプログラムを実行することにより、上述の実施の形態の機能が実現される場合のみに限定されない。このプログラムが、コンピュータ上で稼動しているOS(Operating System)もしくはアプリケーションソフトウェアと共同して、上述の実施の形態の機能を実現する場合も、本発明の実施の形態に含まれる。さらに、このプログラムの処理の全てもしくは一部がコンピュータに挿入された機能拡張ボードや、コンピュータに接続された機能拡張ユニットによって行われて、上述の実施の形態の機能が実現される場合も、本発明の実施の形態に含まれる。   Further, the present invention is not limited to the case where the function of the above-described embodiment is realized by executing a program that realizes the function of the above-described embodiment. A case where this program realizes the functions of the above-described embodiment in cooperation with an OS (Operating System) or application software running on the computer is also included in the embodiment of the present invention. Further, when all or part of the processing of the program is performed by a function expansion board inserted into the computer or a function expansion unit connected to the computer, the functions of the above-described embodiment are realized. It is contained in embodiment of invention.

10、80 立体映像表示システム
101、801 画像生成部
102、802 データ処理情報記憶部
103、803 データ加工部
104、804 IP変換処理部
105、805 画像出力部
106、806 入力データ
107、807 出力画像
301、501 L画像
302、502 R画像
303、503 ブランクデータ画像
600、602 画像
601 補間画像
603、1003、1303 参照ブロック1
604、702 、1004、1102、1304、1402 現在処理ブロック
605、1005、1305 参照ブロック2
606、913、1006、1306 候補ベクトル
607、701、1101、1401 ブロック
700 1フィールド画像
808 画像データメモリ
703、1103、1403 周辺ブロック
704、705、706、707、1104、1105、1106、1107、1404、1405、1406、1407 候補ベクトルとするブロック
900 SAD演算部
901 SAD最小値判定部
902 候補ベクトル生成部
903 動きベクトル決定部
904 メモリ
910 1フィールド前画像データ
911 1フィールド後画像データ
912 演算結果
914 判定結果
915 動きベクトル
916 既検出ベクトル
1000 フィールドn−2画像
1001 フィールドn−1画像(補間)
1002 フィールドn画像
1007、1307 画素ブロック
1100、1400 1フィールド画面
1108 処理済みブロック
1300 1フィールド前の画像(フィールドn−2画像)
1301 補間フィールド画像(フィールドn−1画像)
1302 1フィールド後の画像(フィールドn画像)
1408 R画像とL画像の画像境界
10, 80 3D image display system 101, 801 Image generation unit 102, 802 Data processing information storage unit 103, 803 Data processing unit 104, 804 IP conversion processing unit 105, 805 Image output unit 106, 806 Input data 107, 807 Output image 301, 501 L image 302, 502 R image 303, 503 Blank data image 600, 602 Image 601 Interpolated image 603, 1003, 1303 Reference block 1
604, 702, 1004, 1102, 1304, 1402 Current processing block 605, 1005, 1305 Reference block 2
606, 913, 1006, 1306 Candidate vectors 607, 701, 1101, 1401 Block 700 One field image 808 Image data memory 703, 1103, 1403 Peripheral blocks 704, 705, 706, 707, 1104, 1105, 1106, 1107, 1404, 1405, 1406, 1407 Blocks used as candidate vectors 900 SAD operation unit 901 SAD minimum value determination unit 902 Candidate vector generation unit 903 Motion vector determination unit 904 Memory 910 One-field previous image data 911 One-field subsequent image data 912 Operation result 914 Determination result 915 motion vector 916 already detected vector 1000 field n-2 image 1001 field n-1 image (interpolation)
1002 Field n image 1007, 1307 Pixel block 1100, 1400 1 field screen 1108 Processed block 1300 Image before 1 field (field n-2 image)
1301 Interpolated field image (field n-1 image)
1302 Image after one field (field n image)
1408 Image boundary between R image and L image

Claims (10)

立体画像を表示する第1の画像及び第2の画像を示す立体画像データから、前記第1の画像と前記第2の画像との間に1ブロック以上のブランク画像を含めた画像を示す加工画像データを生成するデータ加工部と、
複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定する候補ベクトル決定部と、
前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定する動きベクトル決定部と、
前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成する画像補間部と、
前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力する出力部と、
を備えた画像処理装置。
A processed image showing an image including a blank image of one block or more between the first image and the second image from the stereoscopic image data indicating the first image and the second image displaying the stereoscopic image. A data processing unit for generating data;
Motion vectors of a plurality of second blocks included in a predetermined range from the first block included in the processed interpolation image indicated by the processed interpolation image data for interpolating between the plurality of processed image data A candidate vector determination unit that determines a candidate vector of motion vector candidates of the first block;
A motion vector determination unit that determines a motion vector of the first block from the determined plurality of candidate vectors;
An image interpolation unit that interpolates an image in the first block based on the determined motion vector and generates the processed interpolated image data;
Based on the generated processed interpolation image data, an output unit that outputs stereoscopic interpolation image data for interpolating between the plurality of stereoscopic image data used to generate the plurality of processed image data;
An image processing apparatus.
前記立体画像データは、第1のフィールドにおける前記第1の画像を示す第1の画像データと、前記第1のフィールドに後続する第2のフィールドにおける前記第2の画像を示す第2の画像データとを含み、
前記データ加工部は、第1の画像データ及び第2の画像データから、1つの画像を示す加工画像データを生成する請求項1に記載の画像処理装置。
The stereoscopic image data includes first image data indicating the first image in a first field and second image data indicating the second image in a second field subsequent to the first field. Including
The image processing apparatus according to claim 1, wherein the data processing unit generates processed image data indicating one image from the first image data and the second image data.
前記立体画像データは、同一のフィールドにおいて、前記第1の画像及び前記第2の画像を含む画像を示す画像データである請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the stereoscopic image data is image data indicating an image including the first image and the second image in the same field. 前記画像処理装置は、前記加工補間画像データを格納する画像データ記憶部をさらに備え、
前記画像補間部は、前記生成した加工補間画像データを前記画像データ記憶部に格納し、
前記出力部は、前記画像データ記憶部に格納された加工補間画像データを取得して、取得した加工補間画像データに基づいて、前記立体補間画像データを出力する請求項1乃至3のいずれか1項に記載の画像処理装置。
The image processing apparatus further includes an image data storage unit that stores the processed interpolation image data,
The image interpolation unit stores the generated processed interpolation image data in the image data storage unit,
The output unit acquires the processed interpolation image data stored in the image data storage unit, and outputs the stereoscopic interpolation image data based on the acquired processed interpolation image data. The image processing apparatus according to item.
前記画像処理装置は、前記加工補間画像のうち、前記第1の画像と前記第2の画像のそれぞれの位置を特定する位置特定情報が格納される画像情報記憶部をさらに備え、
前記画像補間部は、前記生成した加工補間画像データの位置特定情報を前記画像情報記憶部に格納し、
前記出力部は、前記画像情報記憶部に格納された位置特定情報に基づいて、前記生成された加工補間画像データのうち、前記第1の画像及び前記第2の画像を示す画像データを前記立体補間画像データとして出力する請求項1乃至3のいずれか1項に記載の画像処理装置。
The image processing apparatus further includes an image information storage unit that stores position specifying information for specifying the positions of the first image and the second image in the processed interpolation image,
The image interpolation unit stores position specifying information of the generated processed interpolation image data in the image information storage unit,
The output unit outputs image data indicating the first image and the second image from the generated processed interpolation image data based on the position specifying information stored in the image information storage unit. The image processing apparatus according to claim 1, wherein the image processing apparatus outputs the interpolated image data.
前記動きベクトル決定部は、前記候補ベクトルに基づいて特定され、前記複数の加工画像データが示す画像のそれぞれに含まれるブロック間の画素値の差分に基づいて、前記動きベクトルを決定する請求項1乃至5のいずれか1項に記載の画像処理装置。   The motion vector determination unit determines the motion vector based on a difference in pixel values between blocks specified based on the candidate vector and included in each of the images indicated by the plurality of processed image data. 6. The image processing apparatus according to any one of items 1 to 5. 前記第1の画像及び第2の画像は、左目用の画像及び右目用の画像であるか、又は、右目用の画像及び左目用の画像である請求項1乃至6のいずれか1項に記載の画像処理装置。   The first image and the second image are an image for the left eye and an image for the right eye, or are an image for the right eye and an image for the left eye, respectively. Image processing apparatus. 前記立体画像データは、インタレース画像を示す画像データであり、
前記立体補間画像データは、IP(Interlace/Progressive)変換において、立体画像データが示すインタレース画像をプログレッシブ画像にするために補間されるインタレース画像を示す画像データである請求項1乃至7のいずれか1項に記載の画像処理装置。
The stereoscopic image data is image data indicating an interlaced image,
8. The stereoscopic interpolated image data is image data indicating an interlaced image that is interpolated to convert the interlaced image indicated by the stereoscopic image data into a progressive image in IP (Interlace / Progressive) conversion. The image processing apparatus according to claim 1.
立体画像を表示する第1の画像及び第2の画像を含む画像を示す立体画像データから、前記第1の画像と前記第2の画像との間に1ブロック以上のブランク画像を含めた画像を示す加工画像データを生成し、
複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定し、
前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定し、
前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成し、
前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力する画像処理方法。
An image including a blank image of one block or more between the first image and the second image from stereoscopic image data indicating an image including a first image and a second image displaying a stereoscopic image. Generate processed image data to show
Motion vectors of a plurality of second blocks included in a predetermined range from the first block included in the processed interpolation image indicated by the processed interpolation image data for interpolating between the plurality of processed image data As a candidate vector of motion vector candidates of the first block,
Determining a motion vector of the first block from the determined plurality of candidate vectors;
Based on the determined motion vector, an image in the first block is interpolated to generate the processed interpolated image data,
An image processing method for outputting stereoscopic interpolation image data for interpolating between a plurality of stereoscopic image data used for generating the plurality of processed image data based on the generated processed interpolation image data.
立体画像を表示する第1の画像及び第2の画像を含む画像を示す立体画像データから、前記第1の画像と前記第2の画像との間に1ブロック以上のブランク画像を含めた画像を示す加工画像データを生成する処理と、
複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定する処理と、
前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定する処理と、
前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成する処理と、
前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力する処理と、
をコンピュータに実行させる画像処理プログラム。
An image including a blank image of one block or more between the first image and the second image from stereoscopic image data indicating an image including a first image and a second image displaying a stereoscopic image. Processing to generate processed image data to be shown;
Motion vectors of a plurality of second blocks included in a predetermined range from the first block included in the processed interpolation image indicated by the processed interpolation image data for interpolating between the plurality of processed image data Is determined as a candidate vector of motion vector candidates of the first block;
A process of determining a motion vector of the first block from the determined plurality of candidate vectors;
A process of interpolating an image in the first block based on the determined motion vector to generate the processed interpolated image data;
A process of outputting stereoscopic interpolation image data for interpolating between a plurality of stereoscopic image data used for generating the plurality of processed image data based on the generated processed interpolation image data;
An image processing program for causing a computer to execute.
JP2010192649A 2010-08-30 2010-08-30 Image processing device, image processing method and image processing program Pending JP2012050005A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010192649A JP2012050005A (en) 2010-08-30 2010-08-30 Image processing device, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010192649A JP2012050005A (en) 2010-08-30 2010-08-30 Image processing device, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2012050005A true JP2012050005A (en) 2012-03-08

Family

ID=45904321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010192649A Pending JP2012050005A (en) 2010-08-30 2010-08-30 Image processing device, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2012050005A (en)

Similar Documents

Publication Publication Date Title
US8284306B2 (en) Method and unit to process an image signal involving frame rate conversion to improve image quality
JP4869045B2 (en) Interpolation frame creation method and interpolation frame creation apparatus
US7321396B2 (en) Deinterlacing apparatus and method
CN101212593A (en) Image processing device and image display device including the image processing device
US8615036B2 (en) Generating interpolated frame of video signal with enhancement filter
JP2003274414A (en) Motion vector detecting method, interpolation image generating method, and image display system
CN101005567A (en) Edge area determining apparatus and edge area determining method
US20080002051A1 (en) Motion vector detecting apparatus, motion vector detecting method and interpolation frame creating apparatus
JP2013030862A (en) Image processing apparatus, image processing method, and image display apparatus
US8098327B2 (en) Moving image frame rate converting apparatus and moving image frame rate converting method
KR100813986B1 (en) Motion adaptive deinterlacing method and apparatus therefor
JP5241632B2 (en) Image processing circuit and image processing method
JP5015089B2 (en) Frame rate conversion device, frame rate conversion method, television receiver, frame rate conversion program, and recording medium recording the program
JP2003289511A (en) Image scan converting method and apparatus
JP2012050005A (en) Image processing device, image processing method and image processing program
JP2014138242A (en) Image processing device and image processing method
US8928814B2 (en) Method and apparatus for detecting motion vector
KR101331097B1 (en) Method and apparatus for converting film image into tv image
JP2011223086A (en) Resolution converting device and method, scanning line interpolating device and method, and video display device and method
US8494292B2 (en) Image processing apparatus
CN100474917C (en) Interpolating scanning apparatus
JP4181189B2 (en) Motion vector detection method and apparatus, interpolation image generation method and apparatus, and image display system
JP2007081500A (en) Image processing apparatus, method and program for deciding field order of moving image data
JP2013037286A (en) Video processing device, video processing method, and computer program
JP2013038706A (en) Video processing device, video processing method, and computer program