JP2012050005A - Image processing device, image processing method and image processing program - Google Patents
Image processing device, image processing method and image processing program Download PDFInfo
- Publication number
- JP2012050005A JP2012050005A JP2010192649A JP2010192649A JP2012050005A JP 2012050005 A JP2012050005 A JP 2012050005A JP 2010192649 A JP2010192649 A JP 2010192649A JP 2010192649 A JP2010192649 A JP 2010192649A JP 2012050005 A JP2012050005 A JP 2012050005A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- data
- processed
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Television Systems (AREA)
Abstract
【課題】立体映像用の画像データ間を補間する補間画像データを正しく生成することができる画像処理装置、画像処理方法及び画像処理プログラムを提供すること。
【解決手段】本発明にかかる画像処理装置は、立体画像データから立体画像を表示する第1の画像と第2の画像間に1ブロック以上のブランク画像を含めた画像を示す加工画像データを生成するデータ加工部と、複数の加工画像データ間を補間する加工補間画像データが示す画像が含む第1のブロックから所定の範囲内の複数の第2のブロックの動きベクトルを、第1のブロックの動きベクトルの候補ベクトルとして決定する候補ベクトル決定部と、候補ベクトルから第1のブロックの動きベクトルを決定する動きベクトル決定部と、動きベクトルに基づいて加工補間画像データを生成する画像補間部と、加工補間画像データに基づいて複数の立体画像データ間を補間する補間画像データを出力する出力部を備える。
【選択図】図1An image processing apparatus, an image processing method, and an image processing program capable of correctly generating interpolated image data for interpolating between image data for stereoscopic video are provided.
An image processing apparatus according to the present invention generates processed image data indicating an image including a blank image of one block or more between a first image for displaying a stereoscopic image and a second image from the stereoscopic image data. The motion vectors of the plurality of second blocks within a predetermined range from the first block included in the image indicated by the data processing unit that performs processing and the processing interpolation image data that interpolates between the plurality of processing image data. A candidate vector determination unit that determines a candidate vector of a motion vector, a motion vector determination unit that determines a motion vector of the first block from the candidate vector, an image interpolation unit that generates processed interpolation image data based on the motion vector, An output unit is provided that outputs interpolated image data for interpolating between a plurality of stereoscopic image data based on the processed interpolated image data.
[Selection] Figure 1
Description
本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関し、特に立体映像用画像データを処理する技術に関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program, and more particularly to a technique for processing image data for stereoscopic video.
近年、テレビは、ディスプレイ部がブラウン管から液晶ディスプレイ、プラズマディスプレイ及び有機ELディスプレイ等のフラットパネルディスプレイに移行してきている。家庭用映像機器分野においては、地上デジタル放送対応テレビに、フラットパネルディスプレイが採用されている。そして、フラットパネルディスプレイの表示特定上、IP(Interlace/Progressive)変換技術は、必須となってきている。 In recent years, televisions have been shifted from CRTs to flat panel displays such as liquid crystal displays, plasma displays, and organic EL displays. In the field of home video equipment, flat panel displays are adopted for terrestrial digital broadcasting-compatible televisions. And IP (Interlace / Progressive) conversion technology has become indispensable for the display specification of a flat panel display.
ここで、図10〜図12を参照して、特許文献1に開示のIP変換処理における動きベクトル検出方法について説明する。図10は、特許文献1にかかる動きベクトル検出の概念図である。図11は、特許文献1にかかる動き補償型IP変換処理装置の構成図である。図12は、特許文献1にかかる候補ベクトルとするブロックの説明図である。
Here, a motion vector detection method in the IP conversion process disclosed in
図10に示すように、特許文献1にかかるIP変換処理は、フィールドn画像1002と、フィールドn画像1002から2フィールド離れたフィールドn−2画像1000との間に、フィールドn−1画像1001を補間する。なお、フィールドn画像1002、フィールドn−2画像1000及びフィールドn−1画像1001は、インタレース画像である。IP変換処理は、補間フィールド画像1001を生成するときに、動きベクトルを使用する。
As shown in FIG. 10, in the IP conversion processing according to
続いて、図10を参照して、特許文献1にかかるIP変換処理における動きベクトル検出処理について説明する。特許文献1にかかる動きベクトル検出処理は、補間フィールド画像1001を生成するために、1フィールド画面をM×Nの画素ブロック1007に分割する。そして、特許文献1にかかる動きベクトル検出処理は、通常の走査線方式の通りに、画面の左上から右下に向かって、ブロック単位で処理をしていく。
Next, a motion vector detection process in the IP conversion process according to
特許文献1にかかる動きベクトル検出処理は、補間フィールド画像(フィールドn−1画像)1001を生成する過程において、現在処理中のブロック1004に対して、候補ベクトル1006によって参照される1フィールド前の画像(フィールドn−2画像)1000の参照ブロック1(1003)と、1フィールド後の画像(フィールドn画像)1002の参照ブロック2(1005)との差分を計算する。この差分は、参照ブロック1(1003)と参照ブロック2(1005)のそれぞれの画素の差分絶対値和(以下、「SAD(Sum Of Absolute Difference)」とする)として計算される。特許文献1にかかる動きベクトル検出処理は、全ての候補ベクトルについてSADを計算して、SADが最小値を示す候補ベクトルを現在処理ブロック1004の動きベクトルとして決定する。
In the motion vector detection process according to
続いて、図11を参照して、特許文献1にかかる動きベクトル検出処理について説明する。SAD演算部900には、補間フィールド画像の1フィールド前の画像データ910と、補間フィールド画像の1フィールド後の画像データ911が入力される。SAD演算部900は、候補ベクトル生成部902から出力される候補ベクトル913が指し示す参照ブロック1と参照ブロック2の間のSADを計算する。SAD演算部900は、候補ベクトルの全てに対して、同様の演算を行う。SAD最小値判定部901は、SAD演算部900による演算結果912の中から、SADの最小値を判定する。動きベクトル決定部903は、SAD最小値判定部901による判定結果914に基づいて、候補ベクトル913の中から現在処理中のブロックの動きベクトル915を決定する。
Next, a motion vector detection process according to
続いて、図12を参照して、動きベクトル検出処理について説明する。図12に示すように、1フィールド画面1100内において、現在処理ブロック1102の周辺には、現在処理ブロック1102と相関が高い周辺ブロック1103が存在する。図12は、補間フィールド画像を生成する処理がある程度進んだ状態を示す。図11において示すように、動きベクトル915は、メモリ904に保存される。メモリ904に保存された既検出ベクトル916は、次期処理ブロックにおける処理で候補ベクトルとして使用される。ここで、周辺ブロック1103のブロック1104、1105、1106、1107は、現在処理ブロック1102と相関が高く、動きベクトルを検出済みのブロックである。つまり、ブロック1104、1105、1106、1107における検出済み動きベクトルを候補ベクトルして使用する。これによれば、全探索方式に比べて、動きベクトル検出のための演算処理量を低減することができる。
Next, the motion vector detection process will be described with reference to FIG. As shown in FIG. 12, a
他方、家庭用映像機器分野における立体映像規格が確立したことにより、その規格を満足するテレビの実装が求められている。それに伴い、立体映像用の画像データに対してもIP変換を行うことができるようにする必要がでてきた。しかし、特許文献1に開示されている技術は、立体映像用の画像データに対応したIP変換方法ではない。そのため、立体映像用の画像データに対してIP変換を行うと、誤変換を起こしてしまうという問題がある。
On the other hand, the establishment of a stereoscopic video standard in the field of home video equipment has led to a demand for mounting a television that satisfies the standard. Accordingly, it has become necessary to perform IP conversion on stereoscopic image data. However, the technique disclosed in
以下、その問題について具体的に説明する。上述したように、特許文献1にかかるIP変換処理は、動き補償型IP変換処理装置に入力される画像データのそれぞれが、全て同じ種類の画像を表示することを前提として、1フィールド前の画像データ及び1フィールド後の画像データを使用してIP変換を行っている。また、特許文献1にかかるIP変換処理は、動き補償型IP変換処理装置に入力される画像データによって表示される画像が、同じ種類の画像のみを含んでいることを前提として、現在処理中のブロックと相関が高い周辺ブロックにおける検出済み動きベクトルを候補ベクトルとして使用してIP変換を行っている。
The problem will be specifically described below. As described above, the IP conversion process according to
それに対して、図13に示すように、立体映像のデータ構成方式の1つであるFrameSequentialフォーマットでは、左目用画像(以下、「L画像」とする)と、右目用画像(以下、「R画像」とする)が時系列に沿って、交互に存在している。つまり、FrameSequentialフォーマットは、L画像とR画像が1フィールド毎に交互に入力されるフォーマットである。また、図14及び図15に示すように、SideBySideフォーマット及びTopAndBottomフォーマットの画像は、画像内にL画像とR画像が左右又は上下に並んで配置されている。つまり、SideBySideフォーマット及びTopAndBottomフォーマットは、同一のフィールドにおいて、L画像とR画像が同時に入力されるフォーマットである。 On the other hand, as shown in FIG. 13, in the FrameSequential format, which is one of the data configuration methods of stereoscopic video, an image for left eye (hereinafter referred to as “L image”) and an image for right eye (hereinafter referred to as “R image”). ”) Alternately exist along the time series. That is, the FrameSequential format is a format in which L images and R images are alternately input for each field. As shown in FIGS. 14 and 15, in the SideBySide format and TopAndBottom format images, an L image and an R image are arranged side by side on the left and right or top and bottom. That is, the SideBySide format and the TopAndBottom format are formats in which an L image and an R image are input simultaneously in the same field.
このため、これらの立体映像用の画像データを、特許文献1にかかるIP変換処理によって変換した場合、次に述べるような問題が発生する。
For this reason, when the image data for stereoscopic video is converted by the IP conversion processing according to
図16を参照して、特許文献1にかかる動き補償型IP変換処理装置に対して、FrameSequentialフォーマットの立体映像用の画像データが入力された場合について説明する。
With reference to FIG. 16, a case where image data for stereoscopic video in the FrameSequential format is input to the motion compensated IP conversion processing device according to
動き補償型IP変換処理装置は、補間フィールド画像(フィールドn−1画像)1301を生成するために、1フィールド画面をM×Nの画素ブロック1307に分割する。そして、動き補償型IP変換処理装置は、通常の走査線方式の通りに、画面の左上から右下に向かって、ブロック単位で処理をしていく。
The motion compensation IP conversion processing apparatus divides one field screen into M ×
動き補償型IP変換処理装置は、補間フィールド画像(フィールドn−1画像)1301を生成する過程において、現在処理ブロック1304に対して、候補ベクトル1306によって参照される1フィールド前の画像(フィールドn−2画像)1300の参照ブロック1(1303)と、1フィールド後の画像(フィールドn画像)1302の参照ブロック2(1305)との差分を計算する。ここで、動き補償型IP変換処理装置に入力された画像データは、FrameSequentialフォーマットの立体映像用の画像データである。そのため、1フィールド前の画像1300をL画像とした場合、R画像である補間フィールド画像1301の現在処理ブロック1304に対する処理において、L画像である1フィールド前の画像1300の参照ブロック1(1303)、及び、L画像である1フィールド後の画像1302の参照ブロック2(1305)が使用されてしまう。その結果、L画像とR画像を混合してIP変換を行ってしまい、誤ったIP変換結果が生成されてしまうという問題がある。
In the process of generating the interpolation field image (field n−1 image) 1301, the motion compensated IP conversion processing device, with respect to the
続いて、図17を参照して、特許文献1にかかる動き補償型IP変換処理装置に対して、SideBySideフォーマットの立体映像用画像データが入力された場合について説明する。
Next, with reference to FIG. 17, a case will be described in which stereoscopic video image data in SideBySide format is input to the motion compensated IP conversion processing device according to
図14に示すように、SydeBySideフォーマットの立体映像用の画像データによって表示される画像は、1フィールド画面の左側にL画像、右側にR画像が配置されている。図17において、L画像とR画像の境界を画像境界1408として示す。L画像とR画像の画像境界1408は、通常、1フィールド画面1400の中央に存在する。図17では、現在処理ブロック1402と、候補ベクトルとして使用される動きベクトルを検出済みのブロック1406とは、画像境界1408をはさんで存在する。言い換えると、現在処理ブロック1402は、L画像の右端に存在し、動きベクトルを検出済みのブロック1406は、R画像の左端に存在する。
As shown in FIG. 14, an L image is arranged on the left side of the one-field screen and an R image is arranged on the right side of the image displayed by the stereoscopic video image data in the SydeBySide format. In FIG. 17, the boundary between the L image and the R image is shown as an image boundary 1408. The image boundary 1408 between the L image and the R image normally exists in the center of the one-
図17に示すように、動き補償型IP変換処理装置は、1フィールド画面1400をM×Nのブロック1401に分割する。また、現在処理ブロック1402の周辺には、現在処理ブロック1402と相関が高い周辺ブロック1403が存在する。なお、図17は、補間フィールド画像を生成する処理がある程度進んだ状態を示す。この場合、現在処理ブロック1402と相関が高い周辺ブロック1403のうち、動きベクトルを検出済みのブロック1404、1405、1406、1407の動きベクトルが候補ベクトルとして使用される。つまり、L画像に含まれる現在処理ブロック1402の動きベクトルを検出する処理において、同じL画像に含まれるブロック1404、1405、1407のみならず、R画像に含まれるブロック1406まで使用されてしまう。このように、L画像に存在する現在処理ブロック1402の動きベクトルを検出する場合に、候補ベクトルにR画像に存在するブロック1406の動きベクトルが混入してしまう。
As shown in FIG. 17, the motion compensation IP conversion processing device divides a one-
そのため、現在処理ブロック1402の動きベクトルとして誤った動きベクトルを検出してしまい、誤ったIP変換結果が生成されてしまうという問題がある。例えば、ブロック1406の候補ベクトルの向きが、現在処理ブロック1402における本来の動きベクトルと異なる場合であっても、ブロック1404〜1407のうち、ブロック1406の候補ベクトルのSADが偶然最小値となってしまう場合がある。この場合、現在処理ブロック1402の動きベクトルが正しく検出されず、IP変換において誤変換を起こしてしまう。
Therefore, there is a problem that an incorrect motion vector is detected as the motion vector of the
また、現在処理ブロックがR画像の左端に移った場合にも、候補ベクトルにL画像の右端のブロックの動きベクトルが混入してしまう。よって、この場合にも、誤ったIP変換結果が生成されてしまうという問題がある。 Even when the current processing block moves to the left end of the R image, the motion vector of the right end block of the L image is mixed in the candidate vector. Therefore, even in this case, there is a problem that an incorrect IP conversion result is generated.
このように特許文献1に開示の技術では、SideBySideフォーマットの立体映像用画像データをIP変換した場合、L画像とR画像の境界部分において、L画像はR画像のデータを参照し、R画像はL画像のデータを参照してIP変換を行ってしまう。そのため、誤ったIP変換結果が生成されてしまうという問題がある。
As described above, in the technique disclosed in
さらに、図示及び詳細な説明を省略するが、図15に示すTopAndBottomフォーマットの立体映像用画像データをIP変換する場合においても、L画像下端とR画像上端の境界部分において、SideBySideフォーマットの立体映像用画像データと同様に誤ったIP変換結果を生成してしまうという問題があることは明らかである。 Further, although illustration and detailed description are omitted, even when the TopAndBottom format stereoscopic image data shown in FIG. 15 is IP-converted, at the boundary between the lower end of the L image and the upper end of the R image, for stereoscopic video in the SideBySide format It is clear that there is a problem that an incorrect IP conversion result is generated as in the case of image data.
つまり、特許文献1に開示の技術では、L画像とR画像の境界部分において、動きベクトルを正しく検出することができないため、立体映像用の画像データ間を補間する補間画像データを正しく生成することができなくなってしまう問題がある。
In other words, the technique disclosed in
背景技術として説明したように、特許文献1に開示の技術では、立体映像用の画像データ間を補間する補間画像データを正しく生成することができなくなってしまうという問題がある。
As described in the background art, the technique disclosed in
本発明の第1の態様にかかる画像処理装置は、立体画像を表示する第1の画像及び第2の画像を含む画像を示す立体画像データから、前記第1の画像と前記第2の画像との間に1ブロック以上のブランク画像を含めた画像を示す加工画像データを生成するデータ加工部と、複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定する候補ベクトル決定部と、前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定する動きベクトル決定部と、前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成する画像補間部と、前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力する出力部と、を備えたものである。 An image processing apparatus according to a first aspect of the present invention includes: a first image that displays a stereoscopic image; a stereoscopic image data that indicates an image including a second image; the first image and the second image; A first data processing unit that generates processed image data indicating an image including a blank image of one block or more and a processed interpolation image indicated by the processed interpolation image data that interpolates between the plurality of processed image data. A candidate vector determining unit that determines motion vectors of a plurality of second blocks that are included in a predetermined range from the block of which the motion vectors have been detected as candidate vectors of motion vectors of the first block; Based on the determined motion vector, a motion vector determination unit that determines a motion vector of the first block from the determined plurality of candidate vectors. An image interpolation unit that interpolates an image in the lock and generates the processed interpolated image data, and a plurality of stereoscopic image data used to generate the plurality of processed image data based on the generated processed interpolated image data And an output unit that outputs stereoscopic interpolation image data for interpolating between them.
本発明の第2の態様にかかる画像処理方法は、立体画像を表示する第1の画像及び第2の画像を含む画像を示す立体画像データから、前記第1の画像と前記第2の画像との間に1ブロック以上のブランク画像を含めた画像を示す加工画像データを生成し、複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定し、前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定し、前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成し、前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力するものである。 The image processing method according to the second aspect of the present invention includes a first image that displays a stereoscopic image and a stereoscopic image data that indicates an image including the second image, and the first image and the second image. Processed image data indicating an image including a blank image of one block or more is generated between the first blocks included in the processed interpolation image indicated by the processed interpolation image data for interpolating between the plurality of processed image data. The motion vectors of a plurality of second blocks that have been detected within the range of the first block are determined as candidate vectors of motion vector candidates of the first block, and from the determined plurality of candidate vectors , Determining a motion vector of the first block, and interpolating an image in the first block based on the determined motion vector to generate the processed interpolated image data Based on said generated processed interpolated image data, and outputs the three-dimensional interpolation image data to a plurality of interpolating between stereoscopic image data used to generate the plurality of processed image data.
本発明の第3の態様にかかる画像処理プログラムは、立体画像を表示する第1の画像及び第2の画像を含む画像を示す立体画像データから、前記第1の画像と前記第2の画像との間に1ブロック以上のブランク画像を含めた画像を示す加工画像データを生成する処理と、複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定する処理と、前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定する処理と、前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成する処理と、前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力する処理と、をコンピュータに実行させるものである。 An image processing program according to a third aspect of the present invention includes: a first image that displays a stereoscopic image; a stereoscopic image data indicating an image including a second image; the first image and the second image; Processing for generating processed image data indicating an image including one or more blank images in between, and a first block included in the processed interpolation image indicated by the processed interpolation image data for interpolating between the plurality of processed image data A process of determining motion vectors of a plurality of second blocks included in a predetermined range from which motion vectors have been detected as candidate vectors of motion vector candidates of the first block; A process for determining a motion vector of the first block from the candidate vectors, and interpolating an image in the first block based on the determined motion vector Processing for generating the processed interpolated image data, and output of the interpolated image data for interpolating between the plurality of stereoscopic image data used for generating the plurality of processed image data based on the generated processed interpolated image data Processing to be executed by a computer.
上述した本発明の各態様によれば、第1の画像と第2の画像の間にブランク画像を含めるようにしているため、第1の画像と第2の画像の境界付近において、第1のブロックの動きベクトルを決定する場合に、第1の画像及び第2の画像のうち、第1のブロックが含まれていない画像に含まれる第2のブロックが動きベクトルとして決定されることを防ぐことができる。 According to each aspect of the present invention described above, since the blank image is included between the first image and the second image, the first image is near the boundary between the first image and the second image. When determining a motion vector of a block, the second block included in an image that does not include the first block among the first image and the second image is prevented from being determined as a motion vector. Can do.
上述した本発明の各態様によれば、立体映像用の画像データ間を補間する補間画像データを正しく生成することができる画像処理装置、画像処理方法及び画像処理プログラムを提供することができる。 According to each aspect of the present invention described above, it is possible to provide an image processing apparatus, an image processing method, and an image processing program that can correctly generate interpolated image data for interpolating between image data for stereoscopic video.
本発明の実施の形態1.
図1を参照して、本発明の実施の形態1にかかる立体映像表示システムの構成について説明する。図1は、本発明の実施の形態1にかかる立体映像表示システムの構成図である。
With reference to FIG. 1, the structure of the three-dimensional-video display
立体映像表示システム10は、画像生成部101、データ処理情報記憶部102、データ加工部103、IP変換処理部104及び画像出力部105を有する。
The stereoscopic
画像生成部101は、外部から入力された入力データ106から、立体映像を示す立体映像型画像データ(以下、「画像データ」とする)を生成する。画像生成部101は、データ処理情報記憶部102から取得した情報に基づいて、画像データを生成する。
The
データ処理情報記憶部102は、フォーマット情報、画像サイズ及びブランクデータ情報等が格納される。フォーマット情報は、例えば、画像生成部101から出力される画像データのフォーマットを示す情報である。画像サイズは、例えば、画像生成部101から出力される画像データによって表示される画像の全体サイズ、L画像及びR画像のそれぞれのサイズ、及び、画像に付加するブランクデータ画像のサイズ等を示す情報である。言い換えると、画像サイズは、画像データの全体サイズと、画像データのうちのL画像データ部、R画像データ部及びブランクデータ部のサイズとを示す情報である。ブランクデータ情報は、画像データに付加するブランクデータを示す情報である。ブランクデータは、ブランクデータ画像の画素値を示す情報である。データ処理情報記憶部102に格納される情報は、例えば、ユーザによって入力装置(図示せず)を介して任意の内容で入力される。入力装置は、例えば、リモコンや、マウス及びキーボード等である。データ処理情報記憶部102に格納される情報はまた、入力データ106を解析して抽出される場合もある。この場合、データ処理情報記憶部102に格納される情報は、入力データ解析部(図示せず)や画像生成部101などから入力される。
The data processing
データ加工部103は、内部バッファ(図示せず)を利用して、画像生成部101が生成した画像データにブランクデータを付加する。内部バッファは、例えば、レジスタ及びメモリ等の記憶装置である。データ加工部103は、データ処理情報記憶部102から取得した情報に基づいて、画像データにブランクデータを付加する。
The
IP変換処理部104は、データ加工部103によってブランクデータが付加された画像データをIP変換する。IP変換処理部104は、IP変換処理を行うために必要な複数のフィールド分の画像データが格納される内部メモリ(図示せず)を有する。IP変換処理部104は、ベクトル決定部及び画像補間部として機能する。
The IP
画像出力部105は、IP変換処理部104によってIP変換された画像データのうち、L画像データ部及びR画像データ部の画像データに基づいて、L画像及びR画像を出力画像107として表示装置(図示せず)に出力する。画像出力部105は、例えば、出力画像107を表示する画像データを表示装置に出力することによって、表示装置に画像データを表示する。表示装置は、例えば、液晶ディスプレイ、プラズマディスプレイ及び有機ELディスプレイ等のフラットパネルディスプレイである。画像出力部105は、出力部として機能する。
The
続いて、図1を参照して、本発明の実施の形態1にかかる立体映像表示システム10の処理について説明する。
Then, with reference to FIG. 1, the process of the three-dimensional-
画像生成部101は、外部から入力された入力データ106から、画像データを生成する。ここで、入力データ106は、例えば、地上波デジタル放送信号のデータや、HDMI(High Definition Multimedia Interface)による外部システムからの画像信号のデータ等である。入力データ106は、任意のコーディックによってエンコードされた画像データを含む。画像データは、例えば、MPEG(Moving Picture Expert Group)フォーマットによってエンコードされている。画像生成部101は、データ処理情報記憶部102から取得したエンコード情報に基づいて、入力データ106に含まれる画像データをデコードする。エンコード情報は、例えば、エンコードするための計算式等を含む情報である。画像生成部101は、デコードによって生成した画像データをデータ加工部103に出力する。なお、画像生成部101によって生成される画像データは、インタレース画像を表示する画像データである。
The
データ加工部103は、画像生成部101から出力された画像データによって表示される画像に含まれるL画像とR画像との間に、IP変換処理部104において処理する際の処理単位となる1ブロック分の幅のブランクデータ画像を付加した画像を表示する画像データを生成する。ブロックは、後述するように、複数の画像データ間を補間する補間画像データを生成する場合に、動きベクトルを検出する単位のことである。なお、データ加工部103は、データ処理情報記憶部102から取得したフォーマット情報、画像サイズ及びブランクデータ情報に基づいて、画像データにブランクデータを付加する。なお、データ加工部103は、ブランクデータ画像に含まれる全てのブロックの画素値の差分が同一となるように、ブランクデータを付加する。
The
データ加工部103は、ブランクデータを付加した画像データをIP変換処理部104に出力する。データ加工部103は、ブランクデータ画像を付加した後の画像の全体サイズ、及び、その画像のうちのブランクデータ画像を除いたL画像及びR画像の位置を特定する画像位置情報を画像情報記憶部(図示せず)に記憶する。言い換えると、画像位置情報は、ブランクデータを付加した画像データの全体サイズ、及び、その画像データのうちのブランクデータ部を除いたL画像データ部及びR画像データ部の位置を特定する情報である。画像位置情報記憶部は、例えば、レジスタ、メモリ及びハードディスク等の記憶装置である。
The
IP変換処理部104は、データ加工部103から出力された画像データを、内部メモリに記憶する。IP変換処理部104は、画像情報記憶部に記憶された画像サイズに基づいて、フィールド毎の画像データを識別する。IP変換処理部104は、IP変換に必要なフィールド数分の画像データが内部メモリに記憶されて、IP変換可能となったフィールドから順にIP変換を行う。IP変換処理部104は、IP変換後の画像データを画像出力部105に出力する。
The IP
画像出力部105は、IP変換処理部104から出力された画像データのうち、ブランクデータ部を除いたL画像データ部及びR画像データ部の画像データに基づいて、L画像及びR画像を表示装置に出力する。なお、画像出力部105は、データ処理情報記憶部102及び画像情報記憶部から取得した画像位置特定情報に基づいて、画像データからブランクデータ部を除いたL画像データ部及びR画像データ部の位置を特定する。また、画像出力部105は、データ処理情報記憶部102から取得した画像サイズに基づいて、画像データからブランクデータ部を除いたL画像データ部及びR画像データ部の位置を特定するようにしてもよい。
The
続いて、図2を参照して、データ加工部103の処理について説明する。図2は、本発明の実施の形態1にかかるデータ加工部103の処理を示す動作フロー図である。
Next, the processing of the
データ加工部103は、データ処理情報記憶部102から、フォーマット情報、画像サイズ及びブランクデータ情報等を取得する(S001)。データ加工部103は、画像生成部101から出力された画像データを取得する(S002)。データ加工部103は、データ処理情報記憶部102から取得したフォーマット情報、画像サイズ及びブランクデータ情報に基づいて、画像データにブランクデータを付加する(S003)。データ加工部103は、例えば、フォーマット情報に基づいて、入力される画像データのフォーマットを特定する。そして、データ加工部103は、特定したフォーマットに応じたブランクデータ合成処理を実行する。
The
ここで、図3〜6を参照して、ステップS003におけるブランクデータ合成処理について詳細に説明する。まず、図3を参照して、SideBySideフォーマットの画像データを処理する場合におけるブランクデータ合成処理について説明する。図3は、SideBySideフォーマットの画像データを処理する場合におけるブランクデータ合成処理を示す動作フロー図である。 Here, with reference to FIGS. 3 to 6, the blank data synthesis process in step S <b> 003 will be described in detail. First, with reference to FIG. 3, a blank data composition process in the case of processing image data in SideBySide format will be described. FIG. 3 is an operation flowchart showing blank data synthesis processing when processing image data in SideBySide format.
SideBySideフォーマットの画像データを処理する場合、データ加工部103は、データ処理情報記憶部102から取得した画像サイズに基づいて、画像データのL画像データ部のうちの1ライン目のデータをIP変換処理部104に出力する(S201)。つまり、データ処理情報記憶部102に格納される画像サイズは、1ラインにおけるL画像データ部、R画像データ部及びブランクデータ部の幅を特定可能な情報を含む。次に、データ加工部103は、データ処理情報記憶部102から取得した画像サイズに基づいて、1ライン目のブランクデータをIP変換処理部104に出力する(S202)。ここでは、1ブロック幅のブランクデータが1ライン分出力される。次に、データ加工部103は、画像データのR画像データ部のうちの1ライン目のデータをIP変換処理部104に出力する(S203)。
When processing the image data in SideBySide format, the
次に、データ加工部103は、画像データの全ラインを出力したか否かを判定する(S204)。ここで、画像データは、3ライン以上あるものとすると、データ加工部103は、画像データの全ラインを出力していないと判定する(S204:No)。そのように判定した場合、データ加工部103は、ステップS201〜203と同様の処理を、2ライン目、3ライン目の順に、全ラインの画像データを出力するまで繰り返す。IP変換処理部104は、データ加工部103から入力された画像データを内部メモリに格納する。
Next, the
データ加工部103は、画像データの全ラインを出力したと判定した場合(S204:Yes)、その画像データに対する処理を終了する。
If the
ここで、図4に、図3に示す処理によって、IP変換処理部104に出力される画像データによって表示される画像を示す。図4に示すように、SideBySideフォーマットの画像データは、その画像データによって表示される画像が、L画像301とR画像302の間に1ブロック幅のブランクデータ画像303が付加された形となるように加工される。
Here, FIG. 4 shows an image displayed by the image data output to the IP
続いて、図5を参照して、TopAndBottomフォーマットの画像データを処理する場合におけるブランクデータ合成処理について説明する。図5は、TopAndBottomフォーマットの画像データを処理する場合におけるブランクデータ合成処理を示す動作フロー図である。 Next, with reference to FIG. 5, a blank data composition process in the case of processing image data in the TopAndBottom format will be described. FIG. 5 is an operation flowchart showing blank data synthesis processing when processing image data in the TopAndBottom format.
TopAndBottomフォーマットの画像データを処理する場合、データ加工部103は、画像データのうち、L画像データ部の全ラインをIP変換処理部104に出力する(S401)。なお、データ加工部103は、データ処理情報記憶部102から取得した画像サイズに基づいて、L画像データ部の全ラインのサイズを認識する。次に、データ加工部103は、1ブロック幅分のライン数のブランクデータをIP変換処理部104に出力する(S402)。次に、データ加工部103は、R画像データ部の全ラインをIP変換処理部104に出力する(S403)。なお、データ加工部103は、データ処理情報記憶部102から取得した画像サイズに基づいて、R画像データ部の全ラインを認識する。
When processing the image data in the TopAndBottom format, the
ここで、図6に、図5に示す処理によって、IP変換処理部104に入力される画像データによって表示される画像を示す。図6に示すように、TopAndBottomフォーマットの画像データは、その画像データによって表示される画像が、L画像501とR画像502の間にブランクデータ画像503が付加された形となるように加工される。
Here, FIG. 6 shows an image displayed by the image data input to the IP
続いて、FremeSequentialフォーマットの画像データを処理する場合におけるブランクデータ合成処理について説明する。
FremeSequentialフォーマットの画像データを処理する場合、データ加工部103は、L画像を表示する画像データとR画像を表示する画像データとを1つの画像データとして処理すること以外は、図3又は図5を参照して説明した処理と同様の処理をする。つまり、データ加工部103は、図4及び図6におけるL画像301、501及びR画像302、502のそれぞれのサイズが1インタレース画像分のサイズとなる1つの画像を表示する画像データ生成する。
Next, a blank data composition process when processing image data in the FrameSequential format will be described.
When processing the image data in the FrameSequential format, the
具体的には、次のように処理してもよい。データ加工部103は、L画像を表示する画像データが画像生成部101から入力された場合、その画像データを内部バッファに格納する。その後、R画像を表示する画像データの入力が開始された場合に、図3又は図5における処理を開始する。なお、図3又は図5に示す処理のうち、どちらの処理を行うかは、任意に選択可能とする。
Specifically, the following processing may be performed. When image data for displaying an L image is input from the
続いて、図7及び図8を参照して、IP変換処理部104における処理について説明する。まず、図7を参照して、FreamSequentialフォーマットの画像データに、図3に示す処理によってブランクデータを付加した場合における動きベクトル検出処理について説明する。図7は、本発明の実施の形態1にかかる動きベクトル検出の概念図である。
Next, processing in the IP
ここで、本実施の形態におけるFrameSequentialフォーマットは、時系列に沿って、奇数ラインのインタレース画像と、偶数ラインのインタレース画像と、が2つずつ交互に並んでいるものとする。ここでは、フィールドm〜m+5の順に、奇数ラインのL画像、奇数ラインのR画像、偶数ラインのL画像、偶数ラインのR画像、奇数ラインのL画像、奇数ラインのR画像が並んでいる場合について例示する(mは、任意の正整数)。 Here, in the FrameSequential format in the present embodiment, it is assumed that two lines of odd-numbered interlaced images and even-numbered interlaced images are alternately arranged in time series. In this case, when an odd line L image, an odd line R image, an even line L image, an even line R image, an odd line L image, and an odd line R image are arranged in the order of fields m to m + 5. (M is an arbitrary positive integer).
この場合、図7に示すように、データ加工部103によって、L画像とR画像の間にブランクデータ画像が付加された画像データが生成される。つまり、図7では、フィールドm及びフィールドm+1の画像データから生成された画像データによって表示される画像600と、フィールドm+4及びフィールドm+5の画像データから生成された画像データによって表示される画像602を示している。なお、図7では、図3に示す処理によって、図4に示すような1つの画像データに変換した場合について例示している。例えば、IP変換処理部104は、フィールドm+2における奇数ラインのL画像を表示する画像データと、フィールドm+3における奇数ラインのR画像を表示する画像データとを補間する場合、画像600の画像データ及び画像602の画像データに基づいて、補間画像601の補間画像データを生成することになる。
In this case, as shown in FIG. 7, the
IP変換処理部104は、補間画像601を表示する画像データを生成する場合、画像データによって表示される画像を、それぞれがM×N画素の複数のブロック607に分割する。ここで、M及びNのそれぞれは、任意の正整数である。そして、IP変換処理部104は、通常の走査線方式の通りに、画面の左上から右下に向かって、ブロック単位で処理をしていく。
When generating image data for displaying the interpolated
IP変換処理部104は、補間画像601を表示する画像データを生成する過程において、現在処理ブロック604に対して、候補ベクトル606によって参照される画像600の参照ブロック1(603)と、画像602の参照ブロック2(605)とのSADを計算する。
In the process of generating image data for displaying the interpolated
このとき、時間軸上、補間画像601から、1つ前となる画像600も、1つ後となる画像602も、図4に示すような補間画像601と同じ構成の画像となる。つまり、1つ前の画像600の任意のブロックと、1つ後の画像602のその任意のブロックと同じ位置のブロックは、L画像及びR画像のうち、同一の画像に含まれるようになる。よって、1つ前の画像600の参照ブロック1(603)と1つ後の画像602の参照ブロック2(605)を使用しても、L画像とR画像を混合してIP変換を行ってしまうことがなくなる。その結果、正しくIP変換を行うことができるようになる。
At this time, the
また、FreamSequentialフォーマットの画像データを、図5に示す処理によってブランクデータを付加した場合も、上述と同様に、1つ前の画像の任意のブロックと、1つ後の画像のその任意のブロックと同じ位置のブロックは、L画像及びR画像のうち、同一の画像に含まれることになることは明白である。そのため、詳細な説明は省略する。つまり、図5に示す処理によって、図6に示すようにブランクデータを付加した画像データを生成した場合であっても、L画像とR画像を混合してIP変換を行ってしまうことがなくなるため、正しくIP変換を行うことができるようになる。 Also, when blank data is added to the image data in the FrameSequential format by the process shown in FIG. 5, as described above, an arbitrary block of the previous image and an arbitrary block of the subsequent image It is obvious that the block at the same position is included in the same image of the L image and the R image. Therefore, detailed description is omitted. In other words, even when image data with blank data added as shown in FIG. 6 is generated by the processing shown in FIG. 5, the L image and the R image are not mixed to perform IP conversion. IP conversion can be performed correctly.
続いて、図8を参照して、SideBySideフォーマットの画像データに、図3に示す処理によってブランクデータを付加した場合における動きベクトル検出処理について説明する。図8は、本発明の実施の形態1にかかる候補ベクトルとするブロックの説明図である。 Next, a motion vector detection process when blank data is added to the image data in SideBySide format by the process shown in FIG. 3 will be described with reference to FIG. FIG. 8 is an explanatory diagram of blocks as candidate vectors according to the first embodiment of the present invention.
なお、ここでは、フィールドn−2におけるインタレース画像を表示する画像データと、フィールドnにおけるインタレース画像を表示する画像データに基づいて、フィールドn−1におけるインタレース画像を表示する補間画像データを補間する場合について説明する(nは、任意の正整数)。つまり、フィールドn−1におけるプログレッシブ画像を生成するために、フィールドn−1におけるインタレース画像に合成されるインタレース画像を表示する補間画像データを生成する場合について説明する。例えば、フィールドn、n−2におけるインタレース画像が奇数ラインに表示される画像であり、フィールドn−1におけるインタレース画像が偶数ラインに表示される画像である。 Here, the interpolated image data for displaying the interlaced image in the field n-1 based on the image data for displaying the interlaced image in the field n-2 and the image data for displaying the interlaced image in the field n is shown here. The case of interpolation will be described (n is an arbitrary positive integer). That is, a case will be described in which interpolated image data for displaying an interlaced image combined with an interlaced image in field n-1 is generated in order to generate a progressive image in field n-1. For example, an interlaced image in fields n and n-2 is an image displayed on odd lines, and an interlaced image in field n-1 is an image displayed on even lines.
IP変換処理部104は、補間フィールド画像(フィールドn−1画像)700を表示する補間画像データを生成するために、1フィールドにおける画像700を、M×N画素の複数のブロック701に分割する。また、現在処理ブロック702の周辺には、現在処理ブロック702と相関が高い8個の周辺ブロック703が存在する。なお、図8は、補間フィールド画像700を生成する処理がある程度進んだ状態を示す。この場合、IP変換処理部104は、現在処理ブロック702と相関が高い周辺ブロック703における動きベクトルを検出済みのブロック704、705、706、707の動きベクトルを候補ベクトルにする。
The IP
つまり、図8に示すように、R画像に含まれるブロックの動きベクトルが候補ベクトルとして使用されることはなく、ブランクデータ上に存在するブロック706の動きベクトルが候補ベクトルとして使用される。ここで、補間フィールド画像700においてブランクデータ上に存在するブロック706と、1フィールド前の画像(フィールドn−2画像)及び1フィールド後の画像(フィールドn画像)においてブロック706と同位置のブロックとは、それらのブロックに含まれる画素値が常に同一の値となっている。そのため、ブロック706において、動きベクトルが検出されることはない。よって、ブロック706の候補ベクトルは、現在処理ブロック702のIP変換処理に悪影響を及ぼすことはない。
That is, as shown in FIG. 8, the motion vector of the block included in the R image is not used as the candidate vector, and the motion vector of the
次に、その理由について具体的に説明する。上述したように、ブロック706における候補ベクトルは0である。そのため、例えば、現在処理ブロック702に本来動きベクトルがある場合には、ブロック706の候補ベクトルによって計算したSADが最小値となることはない。そのため、この場合は、ブロック706の候補ベクトルではなく、ブロック704、705、707の候補ベクトルのうちのいずれかが、現在処理ブロック702の動きベクトルとして検出されるようになる。
Next, the reason will be specifically described. As described above, the candidate vector in
つまり、L画像に含まれるブロックの候補ベクトルのうちのいずれかが、現在処理ブロック702の動きベクトルとして検出されることになる。よって、背景技術として説明したように、R画像に含まれるブロックの候補ベクトルが動きベクトルとして検出されなくなる。その結果、現在処理ブロック702の動きベクトルとして、SADが偶然最小値となるが本来と異なる向きの候補ベクトルを動きベクトルとして決定することがなくなる。つまり、L画像右端とR画像左端の境界部分において、誤ったIP変換結果が生成されないようにすることができる。
That is, one of the candidate vectors of the block included in the L image is detected as the motion vector of the
一方、ブロック706の候補ベクトルに基づいて計算したSADが最小値となることも考えられる。しかし、この場合は、ブロック706の候補ベクトルは0である。そのため、ブロック706の候補ベクトルは、SADが偶然最小値となるが本来と異なる向きの動きベクトルとなることはない。したがって、この場合におけるブロック706の候補ベクトルは、妥当な動きベクトルであるため、動きベクトルとして検出されても問題となることはない。つまり、この場合は、現在処理ブロック702と相関が高いブロック704、705、707における動きベクトルもほぼ0に近い値になっていると考えられる。
On the other hand, it is also conceivable that the SAD calculated based on the candidate vector of the
IP変換処理部104は、候補ベクトルの中から、SADが最小値となる候補ベクトルを、現在処理ブロック702の動きベクトルとして決定する。IP変換処理部104は、決定した動きベクトルに基づいて、現在処理ブロック702の画素値を算出して、現在処理ブロック702における画像を補間する。このようにして、IP変換処理部104は、補間フィールド画像700に含まれる全てのブロックにおける画像を補間して、補間フィールド画像700を表示する補間画像データを生成する。IP変換処理部104は、生成した補間画像データと、その補間画像データと同一フィールドの画像データを合成して、プログレッシブ画像を表示する画像データを生成する。ここで、IP変換処理部104は、例えば、補間画像データによって表示されるインタレース画像によって補間されるインタレース画像を表示する画像データをデータ加工部103から取得しておく。そして、IP変換処理部104は、プログレッシブ画像の画像データを画像出力部105に出力する。
The IP
画像出力部105は、IP変換処理部104から出力された画像データによって表示される画像のうち、ブランク画像を除くR画像及びL画像を1画像として表示装置に出力する。これによって、補間画像データによって表示されるインタレース画像と、このインタレース画像によって補間されるインタレース画像のうち、ブランク画像を除くR画像及びL画像が1つのプログレッシブ画像として出力される。
The
なお、上述した本実施の形態によれば、TopAndBottomフォーマットの画像データに、図5に示すブランクデータを付加した場合でも、L画像下端とR画像上端の境界部分において、誤ったIP変換結果が生成されないことは明白である。そのため、詳細な説明は省略する。 According to the above-described embodiment, even when blank data shown in FIG. 5 is added to the image data in the TopAndBottom format, an incorrect IP conversion result is generated at the boundary between the lower end of the L image and the upper end of the R image. Obviously not. Therefore, detailed description is omitted.
以上に説明したように、本実施の形態1では、データ加工部103は、複数の立体画像データ間を補間する補間画像データを生成する場合に、立体画像を表示するL画像及びR画像を含む画像を示す立体画像データから、L画像とR画像との間に1ブロック以上のブランクデータ画像を含めた画像を示す加工画像データを生成するようにしている。IP変換処理部104は、複数の加工画像データ間を補間する加工補間画像データが示す画像に含まれる現在処理ブロックから所定の範囲に含まれ、動きベクトルを検出済みの複数のブロックの動きベクトルを、現在処理ブロックの動きベクトルの候補ベクトルとして決定するようにしている。IP変換処理部104は、決定した動きベクトルに基づいて、現在処理ブロックにおける画像を補間して、加工補間画像データを生成するようにしている。そして、画像出力部105は、加工補間画像データに基づいて、複数の加工画像データの生成に用いられた複数の画像データ間を補間する補間画像データを出力するようにしている。
As described above, in the first embodiment, the
これによれば、L画像とR画像の間にブランクデータ画像を含めるようにしているため、L画像とR画像の境界付近において、現在処理ブロックの動きベクトルを決定する場合に、L画像及びR画像のうち、現在処理ブロックが含まれていない画像に含まれる候補ブロックが動きベクトルとして決定されることを防ぐことができる。そのため、立体映像用の画像データ間を補間する補間画像データを正しく生成することができる。 According to this, since the blank data image is included between the L image and the R image, the L image and the R image are determined when determining the motion vector of the current processing block in the vicinity of the boundary between the L image and the R image. It is possible to prevent a candidate block included in an image that does not currently include a processing block from being determined as a motion vector. Therefore, it is possible to correctly generate interpolated image data that interpolates between image data for stereoscopic video.
また、本実施の形態1では、データ加工部103は、FreamSequentialフォーマットのように、第1のフィールドにおけるL画像を示す画像データと、第1のフィールドに後続する第2のフィールドにおけるR画像を示す画像データとから、1つの画像を示す加工画像データを生成するようにしている。
In the first embodiment, the
これによれば、時間軸上で、加工補間画像データから、1つ前の加工画像データが示す画像における任意のブロックと、1つ後の加工画像データが示す画像においてその任意のブロックと同じ位置のブロックは、L画像及びR画像のうち、同一の画像に含まれるようになる。そのため、FreamSequentialフォーマットのように、時系列にそって、L画像とR画像が交互に存在する場合であっても、L画像とR画像を混合して現在処理ブロックの画像を補間することがなくなる。つまり、補間画像データを正しく生成することができる。 According to this, on the time axis, from the processed interpolation image data, an arbitrary block in the image indicated by the previous processed image data and the same position as the arbitrary block in the image indicated by the subsequent processed image data These blocks are included in the same image of the L image and the R image. Therefore, even when the L image and the R image exist alternately along the time series as in the FrameSequential format, the L image and the R image are not mixed to interpolate the image of the current processing block. . That is, the interpolation image data can be generated correctly.
本発明の実施の形態2.
図9を参照して、本発明の実施の形態2にかかる立体映像表示システムの構成について説明する。図9は、本発明の実施の形態2にかかる立体映像表示システムの構成図である。
Embodiment 2 of the present invention.
With reference to FIG. 9, the structure of the three-dimensional-video display system concerning Embodiment 2 of this invention is demonstrated. FIG. 9 is a configuration diagram of a stereoscopic video display system according to the second embodiment of the present invention.
立体映像表示システム80は、画像生成部801、データ処理情報記憶部802、データ加工部803、IP変換処理部804、画像出力部805及び画像データメモリ806を有する。
The stereoscopic
画像生成部801は、生成した画像データを画像データメモリ806に格納する点、及び、画像データを生成したときに画像生成完了通知をデータ加工部803に出力する点、が、実施の形態1にかかる画像生成部101と異なる。
データ処理情報記憶部802は、実施の形態1にかかるデータ処理情報記憶部102と同様に機能する。
The point that the
The data processing
データ加工部803は、画像データを画像データメモリ806から取得して、取得した画像データにブランクデータを付加する点、ブランクデータを付加した画像データをデータ処理情報記憶部802に格納する点、及び、ブランクデータを付加した画像データを生成したときにデータ加工完了通知をIP変換処理部804に出力する点が、実施の形態1にかかるデータ加工部103と異なる。
The
IP変換処理部804は、ブランクデータが付加された画像データを画像データメモリ806から取得して、取得した画像データをIP変換した画像データを画像データメモリ806に格納する点が、実施の形態1にかかるIP変換処理部104と異なる。
画像出力部805は、IP変換された画像データを画像データメモリ806から取得する点が、実施の形態1にかかる画像出力部105と異なる。
The
画像データメモリ806は、画像データが格納される。画像データメモリ806は、メモリに限定されない。例えば、画像データメモリ806は、メモリ及びハードディスク等の他の記憶装置であってもよい。なお、本実施の形態2では、画像データが画像データメモリ806に格納されるため、データ加工部803の内部バッファ及びIP変換処理部804の内部メモリは不要となる。
The
続いて、図9を参照して、本発明の実施の形態2にかかる立体映像表示システム80の処理について説明する。
Next, with reference to FIG. 9, processing of the stereoscopic
画像生成部801は、外部からの入力された入力データ106から、画像データを生成する。画像生成部801は、生成した画像データを画像データメモリ806に格納する。画像生成部801は、画像データメモリ806上の画像データを格納したアドレスを画像情報記憶部に格納する。そして、画像生成部801は、画像生成完了通知をデータ加工部803に出力する。
The
データ加工部803は、画像生成部801から出力された画像生成完了通知に応じて、画像生成部801が生成した画像データを画像データメモリ806から取得する。なお、データ加工部803は、画像生成部801が画像情報記憶部に格納したアドレスから、画像データを取得する。データ加工部803は、取得した画像データにブランクデータを付加する。データ加工部803は、ブランクデータを加工した画像データを画像データメモリ806に格納する。データ加工部803は、画像データメモリ806上の画像データを格納したアドレスを画像情報記憶部に格納する。そして、データ加工部803は、データ加工完了通知をIP変換処理部804に出力する。
The
IP変換処理部804は、データ加工部803から出力されたデータ加工完了通知に応じて、データ加工部803が生成した画像データを画像データメモリ806から取得する。なお、IP変換処理部804は、データ加工部803が画像情報記憶部に格納したアドレスから画像データを取得する。データ加工部803は、IP変換に必要なフィールド数の画像データを取得し、取得した画像データが格納されていた領域とは別の作業用領域に格納しなおす。IP変換処理部804は、IP変換に必要なフィールド数の画像データが作業用領域に記憶されて、IP変換可能となったフィールドから順にIP変換を行う。IP変換処理部804は、IP変換後の画像データを画像データメモリ806に格納する。IP変換処理部804は、画像データメモリ806上の画像データを格納したアドレスを画像情報記憶部に格納する。
The IP
画像出力部805は、任意の出力タイミングで、IP変換処理部804が生成した画像データを画像データメモリ806から取得する。なお、画像出力部805は、IP変換処理部804が画像情報記憶部に格納したアドレスから画像データを取得する。画像出力部805は、取得した画像データからブランクデータ部を除いたL画像データ部及びR画像データ部の画像データに基づいて、L画像及びR画像を出力画像107として表示装置に出力する。
The
ここで、テレビ等の家庭用映像機器では、入力データが入力されてから画像を出力するまでのタイミングが調整されている。このタイミングは、入力データの入力から画像を出力するまでの間に画像データをメモリに一時的に格納することによって、IP変換後の画像データを任意のタイミングで出力することを可能となるように調整する方法が一般的となっている。 Here, in home video equipment such as a television, the timing from when input data is input to when an image is output is adjusted. This timing is such that the image data after the IP conversion can be output at an arbitrary timing by temporarily storing the image data in the memory between the input of the input data and the output of the image. The method of adjustment is common.
以上に説明したように、本実施の形態2では、IP変換処理部は、IP変換後の画像データを画像データメモリに格納するようにしている。そして、画像出力部は、画像データメモリに格納された画像データを取得して、取得した画像データに基づいて、出力画像を出力するようにしている。これによれば、IP変換後の画像を任意のタイミングで出力することができる。 As described above, in the second embodiment, the IP conversion processing unit stores the image data after IP conversion in the image data memory. The image output unit acquires image data stored in the image data memory, and outputs an output image based on the acquired image data. According to this, an image after IP conversion can be output at an arbitrary timing.
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
本実施の形態では、IP変換において補間する画像データを生成する場合について例示したが、立体映像用画像データを補間する画像データを生成する場合であれば、これに限られない。例えば、IP変換をせずに、単純に複数の画像データ間に補間する画像データを追加する場合にも適用することができる。
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.
In the present embodiment, the case where image data to be interpolated in IP conversion is generated has been exemplified. However, the present invention is not limited to this as long as image data to be interpolated with stereoscopic video image data is generated. For example, the present invention can be applied to a case where image data to be simply interpolated between a plurality of image data is added without performing IP conversion.
本実施の形態では、L画像とR画像の間にブランクデータ画像を1ブロック分付加するようにしているが、付加するブランクデータのサイズはこれに限られない。つまり、L画像とR画像の間に1ブロック以上のサイズのブランクデータ画像を付加するようにしてもよい。 In this embodiment, one block of blank data image is added between the L image and the R image, but the size of the blank data to be added is not limited to this. That is, a blank data image having a size of one block or more may be added between the L image and the R image.
本実施の形態では、現在処理ブロックから1ブロック分の範囲内の8つのブロックから、候補ベクトルとするようにしているが、現在処理ブロックと相関が高くなる所定の範囲内であれば、これに限られない。例えば、現在処理ブロックから2ブロック分の範囲内のブロックまで現在処理ブロックと相関が高い場合は、現在処理ブロックから2ブロック分の範囲内の24つのブロックを候補ベクトルとしてもよい。この場合、例えば、2ブロック以上のサイズのブランクデータ画像を付加することによって、L画像及びR画像のうち、現在処理ブロックが含まれていない画像に含まれる候補ブロックが動きベクトルとして決定されることを防ぐことができる。 In the present embodiment, candidate vectors are selected from eight blocks within the range of one block from the current processing block. However, if they are within a predetermined range in which the correlation with the current processing block is high, Not limited. For example, when the correlation with the current processing block is high from the current processing block to the blocks within the range of 2 blocks, 24 blocks within the range of 2 blocks from the current processing block may be used as candidate vectors. In this case, for example, by adding a blank data image having a size of 2 blocks or more, a candidate block included in an image that does not include the current processing block among the L image and the R image is determined as a motion vector. Can be prevented.
本実施の形態では、SADを計算することによって、候補ベクトルから動きベクトルを検出するようにしているが、参照ブロック1と参照ブロック2との画素値の差分に基づいて、候補ベクトルを評価する方法であれば、これに限られない。例えば、差分二乗和(以下、「SSD(Sum Of Squared Difference)」とする)によって、候補ベクトルを評価するようにしてもよい。
In this embodiment, a motion vector is detected from a candidate vector by calculating SAD. However, a method for evaluating a candidate vector based on a difference in pixel values between
本実施の形態2では、画像生成部801、データ加工部803、IP変換処理部804及び画像出力部805が、画像データメモリ806を使用しているが、これらの全てが画像データメモリ806を使用しなくてもよい。具体的には、本実施の形態2は、画像生成部801が画像データを格納するとともに、データ加工部803が画像データを取得する手段Aと、データ加工部803が画像データを格納するとともに、IP変換処理部804が画像データを取得する手段Bと、IP変換処理部804が画像データを格納するとともに、画像出力部805が画像データを取得する手段Cとを有している。これらの手段A〜Cのうち、任意の1つ又は2つの手段を実装するようにしてもよい。つまり、手段A〜Cのうち、任意の1つ又は2つの手段に対応する処理については、実施の形態1と同様に画像データメモリ806を使用しないよういしてもよい。例えば、手段A、Cのみを実装した場合、データ加工部803は画像データを画像データメモリ806に格納せずに、IP変換処理部804に直接出力する。
In the second embodiment, the
以上に説明した本発明にかかる立体映像表示システムは、上述の実施の形態の機能を実現するプログラムを、コンピュータ又はシステムが有するCPU(Central Processing Unit)、MPU(Micro Processing Unit)、MCU(Micro Control Unit)が実行することによって、構成することが可能である。 The stereoscopic video display system according to the present invention described above includes a program for realizing the functions of the above-described embodiments, a CPU (Central Processing Unit), MPU (Micro Processing Unit), MCU (Micro Control) included in a computer or system. Unit) can be configured by executing.
また、このプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 The program can be stored using various types of non-transitory computer readable media and supplied to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)) are included. The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
また、コンピュータが上述の実施の形態の機能を実現するプログラムを実行することにより、上述の実施の形態の機能が実現される場合のみに限定されない。このプログラムが、コンピュータ上で稼動しているOS(Operating System)もしくはアプリケーションソフトウェアと共同して、上述の実施の形態の機能を実現する場合も、本発明の実施の形態に含まれる。さらに、このプログラムの処理の全てもしくは一部がコンピュータに挿入された機能拡張ボードや、コンピュータに接続された機能拡張ユニットによって行われて、上述の実施の形態の機能が実現される場合も、本発明の実施の形態に含まれる。 Further, the present invention is not limited to the case where the function of the above-described embodiment is realized by executing a program that realizes the function of the above-described embodiment. A case where this program realizes the functions of the above-described embodiment in cooperation with an OS (Operating System) or application software running on the computer is also included in the embodiment of the present invention. Further, when all or part of the processing of the program is performed by a function expansion board inserted into the computer or a function expansion unit connected to the computer, the functions of the above-described embodiment are realized. It is contained in embodiment of invention.
10、80 立体映像表示システム
101、801 画像生成部
102、802 データ処理情報記憶部
103、803 データ加工部
104、804 IP変換処理部
105、805 画像出力部
106、806 入力データ
107、807 出力画像
301、501 L画像
302、502 R画像
303、503 ブランクデータ画像
600、602 画像
601 補間画像
603、1003、1303 参照ブロック1
604、702 、1004、1102、1304、1402 現在処理ブロック
605、1005、1305 参照ブロック2
606、913、1006、1306 候補ベクトル
607、701、1101、1401 ブロック
700 1フィールド画像
808 画像データメモリ
703、1103、1403 周辺ブロック
704、705、706、707、1104、1105、1106、1107、1404、1405、1406、1407 候補ベクトルとするブロック
900 SAD演算部
901 SAD最小値判定部
902 候補ベクトル生成部
903 動きベクトル決定部
904 メモリ
910 1フィールド前画像データ
911 1フィールド後画像データ
912 演算結果
914 判定結果
915 動きベクトル
916 既検出ベクトル
1000 フィールドn−2画像
1001 フィールドn−1画像(補間)
1002 フィールドn画像
1007、1307 画素ブロック
1100、1400 1フィールド画面
1108 処理済みブロック
1300 1フィールド前の画像(フィールドn−2画像)
1301 補間フィールド画像(フィールドn−1画像)
1302 1フィールド後の画像(フィールドn画像)
1408 R画像とL画像の画像境界
10, 80 3D
604, 702, 1004, 1102, 1304, 1402
606, 913, 1006, 1306
1002
1301 Interpolated field image (field n-1 image)
1302 Image after one field (field n image)
1408 Image boundary between R image and L image
Claims (10)
複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定する候補ベクトル決定部と、
前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定する動きベクトル決定部と、
前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成する画像補間部と、
前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力する出力部と、
を備えた画像処理装置。 A processed image showing an image including a blank image of one block or more between the first image and the second image from the stereoscopic image data indicating the first image and the second image displaying the stereoscopic image. A data processing unit for generating data;
Motion vectors of a plurality of second blocks included in a predetermined range from the first block included in the processed interpolation image indicated by the processed interpolation image data for interpolating between the plurality of processed image data A candidate vector determination unit that determines a candidate vector of motion vector candidates of the first block;
A motion vector determination unit that determines a motion vector of the first block from the determined plurality of candidate vectors;
An image interpolation unit that interpolates an image in the first block based on the determined motion vector and generates the processed interpolated image data;
Based on the generated processed interpolation image data, an output unit that outputs stereoscopic interpolation image data for interpolating between the plurality of stereoscopic image data used to generate the plurality of processed image data;
An image processing apparatus.
前記データ加工部は、第1の画像データ及び第2の画像データから、1つの画像を示す加工画像データを生成する請求項1に記載の画像処理装置。 The stereoscopic image data includes first image data indicating the first image in a first field and second image data indicating the second image in a second field subsequent to the first field. Including
The image processing apparatus according to claim 1, wherein the data processing unit generates processed image data indicating one image from the first image data and the second image data.
前記画像補間部は、前記生成した加工補間画像データを前記画像データ記憶部に格納し、
前記出力部は、前記画像データ記憶部に格納された加工補間画像データを取得して、取得した加工補間画像データに基づいて、前記立体補間画像データを出力する請求項1乃至3のいずれか1項に記載の画像処理装置。 The image processing apparatus further includes an image data storage unit that stores the processed interpolation image data,
The image interpolation unit stores the generated processed interpolation image data in the image data storage unit,
The output unit acquires the processed interpolation image data stored in the image data storage unit, and outputs the stereoscopic interpolation image data based on the acquired processed interpolation image data. The image processing apparatus according to item.
前記画像補間部は、前記生成した加工補間画像データの位置特定情報を前記画像情報記憶部に格納し、
前記出力部は、前記画像情報記憶部に格納された位置特定情報に基づいて、前記生成された加工補間画像データのうち、前記第1の画像及び前記第2の画像を示す画像データを前記立体補間画像データとして出力する請求項1乃至3のいずれか1項に記載の画像処理装置。 The image processing apparatus further includes an image information storage unit that stores position specifying information for specifying the positions of the first image and the second image in the processed interpolation image,
The image interpolation unit stores position specifying information of the generated processed interpolation image data in the image information storage unit,
The output unit outputs image data indicating the first image and the second image from the generated processed interpolation image data based on the position specifying information stored in the image information storage unit. The image processing apparatus according to claim 1, wherein the image processing apparatus outputs the interpolated image data.
前記立体補間画像データは、IP(Interlace/Progressive)変換において、立体画像データが示すインタレース画像をプログレッシブ画像にするために補間されるインタレース画像を示す画像データである請求項1乃至7のいずれか1項に記載の画像処理装置。 The stereoscopic image data is image data indicating an interlaced image,
8. The stereoscopic interpolated image data is image data indicating an interlaced image that is interpolated to convert the interlaced image indicated by the stereoscopic image data into a progressive image in IP (Interlace / Progressive) conversion. The image processing apparatus according to claim 1.
複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定し、
前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定し、
前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成し、
前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力する画像処理方法。 An image including a blank image of one block or more between the first image and the second image from stereoscopic image data indicating an image including a first image and a second image displaying a stereoscopic image. Generate processed image data to show
Motion vectors of a plurality of second blocks included in a predetermined range from the first block included in the processed interpolation image indicated by the processed interpolation image data for interpolating between the plurality of processed image data As a candidate vector of motion vector candidates of the first block,
Determining a motion vector of the first block from the determined plurality of candidate vectors;
Based on the determined motion vector, an image in the first block is interpolated to generate the processed interpolated image data,
An image processing method for outputting stereoscopic interpolation image data for interpolating between a plurality of stereoscopic image data used for generating the plurality of processed image data based on the generated processed interpolation image data.
複数の前記加工画像データ間を補間する加工補間画像データが示す加工補間画像に含まれる第1のブロックから所定の範囲内に含まれ、動きベクトルを検出済みの複数の第2のブロックの動きベクトルを、前記第1のブロックの動きベクトルの候補の候補ベクトルとして決定する処理と、
前記決定された複数の候補ベクトルから、前記第1のブロックの動きベクトルを決定する処理と、
前記決定された動きベクトルに基づいて、前記第1のブロックにおける画像を補間して、前記加工補間画像データを生成する処理と、
前記生成された加工補間画像データに基づいて、前記複数の加工画像データの生成に用いられた複数の立体画像データ間を補間する立体補間画像データを出力する処理と、
をコンピュータに実行させる画像処理プログラム。 An image including a blank image of one block or more between the first image and the second image from stereoscopic image data indicating an image including a first image and a second image displaying a stereoscopic image. Processing to generate processed image data to be shown;
Motion vectors of a plurality of second blocks included in a predetermined range from the first block included in the processed interpolation image indicated by the processed interpolation image data for interpolating between the plurality of processed image data Is determined as a candidate vector of motion vector candidates of the first block;
A process of determining a motion vector of the first block from the determined plurality of candidate vectors;
A process of interpolating an image in the first block based on the determined motion vector to generate the processed interpolated image data;
A process of outputting stereoscopic interpolation image data for interpolating between a plurality of stereoscopic image data used for generating the plurality of processed image data based on the generated processed interpolation image data;
An image processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010192649A JP2012050005A (en) | 2010-08-30 | 2010-08-30 | Image processing device, image processing method and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010192649A JP2012050005A (en) | 2010-08-30 | 2010-08-30 | Image processing device, image processing method and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012050005A true JP2012050005A (en) | 2012-03-08 |
Family
ID=45904321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010192649A Pending JP2012050005A (en) | 2010-08-30 | 2010-08-30 | Image processing device, image processing method and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012050005A (en) |
-
2010
- 2010-08-30 JP JP2010192649A patent/JP2012050005A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8284306B2 (en) | Method and unit to process an image signal involving frame rate conversion to improve image quality | |
JP4869045B2 (en) | Interpolation frame creation method and interpolation frame creation apparatus | |
US7321396B2 (en) | Deinterlacing apparatus and method | |
CN101212593A (en) | Image processing device and image display device including the image processing device | |
US8615036B2 (en) | Generating interpolated frame of video signal with enhancement filter | |
JP2003274414A (en) | Motion vector detecting method, interpolation image generating method, and image display system | |
CN101005567A (en) | Edge area determining apparatus and edge area determining method | |
US20080002051A1 (en) | Motion vector detecting apparatus, motion vector detecting method and interpolation frame creating apparatus | |
JP2013030862A (en) | Image processing apparatus, image processing method, and image display apparatus | |
US8098327B2 (en) | Moving image frame rate converting apparatus and moving image frame rate converting method | |
KR100813986B1 (en) | Motion adaptive deinterlacing method and apparatus therefor | |
JP5241632B2 (en) | Image processing circuit and image processing method | |
JP5015089B2 (en) | Frame rate conversion device, frame rate conversion method, television receiver, frame rate conversion program, and recording medium recording the program | |
JP2003289511A (en) | Image scan converting method and apparatus | |
JP2012050005A (en) | Image processing device, image processing method and image processing program | |
JP2014138242A (en) | Image processing device and image processing method | |
US8928814B2 (en) | Method and apparatus for detecting motion vector | |
KR101331097B1 (en) | Method and apparatus for converting film image into tv image | |
JP2011223086A (en) | Resolution converting device and method, scanning line interpolating device and method, and video display device and method | |
US8494292B2 (en) | Image processing apparatus | |
CN100474917C (en) | Interpolating scanning apparatus | |
JP4181189B2 (en) | Motion vector detection method and apparatus, interpolation image generation method and apparatus, and image display system | |
JP2007081500A (en) | Image processing apparatus, method and program for deciding field order of moving image data | |
JP2013037286A (en) | Video processing device, video processing method, and computer program | |
JP2013038706A (en) | Video processing device, video processing method, and computer program |