JP4862004B2 - Depth data generation apparatus, depth data generation method, and program thereof - Google Patents
Depth data generation apparatus, depth data generation method, and program thereof Download PDFInfo
- Publication number
- JP4862004B2 JP4862004B2 JP2008055543A JP2008055543A JP4862004B2 JP 4862004 B2 JP4862004 B2 JP 4862004B2 JP 2008055543 A JP2008055543 A JP 2008055543A JP 2008055543 A JP2008055543 A JP 2008055543A JP 4862004 B2 JP4862004 B2 JP 4862004B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- depth
- depth value
- skeleton
- outline
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、立体データを生成する際に利用される奥行きデータを生成する奥行きデータ生成装置及び奥行きデータ生成方法ならびにそのプログラムに関する。 The present invention relates to a depth data generation apparatus, a depth data generation method, and a program for generating depth data used when generating stereoscopic data.
従来、様々な立体表示装置が発明されており、立体データを立体表示装置で再現する方法が試されている。例えば、特許文献1には、バリア方式三次元ディスプレイや偏光グラス・シャッター式グラスなどの眼鏡を使用した三次元ディスプレイに立体データを表示する際に、あらかじめ左右の目に対応する2視点の映像を用意しておき、三次元立体ディスプレイ上で合成することで人間が立体的に知覚することができる技術が開示されている。また、特許文献2にはDFD(Depth-fused 3-D)方式のディスプレイにおいて、二枚の映像表示面の濃淡で立体感を表現する技術が開示されている。 Conventionally, various stereoscopic display devices have been invented, and a method of reproducing stereoscopic data with a stereoscopic display device has been tried. For example, in Patent Document 1, when stereoscopic data is displayed on a three-dimensional display using glasses such as a barrier-type three-dimensional display or polarizing glasses / shutter-type glasses, images of two viewpoints corresponding to the left and right eyes in advance are displayed. A technique is disclosed that allows humans to perceive stereoscopically by preparing and synthesizing on a three-dimensional stereoscopic display. Patent Document 2 discloses a technique for expressing a three-dimensional effect by contrasting two video display surfaces in a DFD (Depth-fused 3-D) display.
これらのディスプレイに表示する立体映像を作成するには、複数台のカメラを並べた撮影を行って多視点映像を合成するか、撮影した映像に映し出された対象物までの奥行き情報を計測して立体情報を与えるかのいずれかの方法をとる必要がある。特に、DFD方式のディスプレイでは奥行き情報をもとにした立体情報が必須である。また、複数台のカメラを並べての撮影が困難な場合には、奥行き情報をもとに多視点映像を再合成する手法もしばしばとられている。立体映像向けの奥行き情報の計測手法として、レーザーなどの反射波の到着速度を計ることにより距離を測る手法(特許文献3)や、ステレオ画像から計測する手法(特許文献4)などが開示されている。
ところで、立体データの生成に必要とされる奥行きデータは、奥行き値の欠損がなく、奥行き値が極端に大小するようなノイズ領域がない滑らかなものが望まれるという特徴がある。しかしながら、従来技術では、三次元ディスプレイに表示するための奥行き情報を取得するには、ステレオ計測などのコンピュータビジョン技術によって奥行き計測を行って取得するか、あるいは、距離センサなどによって計測を行うのが主流であった。ここで、前者については、計測の制約条件などが多く、品質をあげるには計算コストが多く必要であり、計算コストを小さくすると計測できずに奥行き値の欠損が発生するなどの問題があった。また、計測による誤差などからノイズが発生しやすいという問題もあった。また、後者については、リアルタイムで精度の高い奥行きデータを取得可能であるが、奥行きデータの解像度が低かったり、専用のハードウェアが必要になったりするという問題があった。 By the way, the depth data required for the generation of the three-dimensional data is characterized in that it is desired that the depth data is smooth and has no noise region where the depth value is extremely large and small. However, in the prior art, in order to acquire depth information to be displayed on a three-dimensional display, the depth information is acquired by computer vision technology such as stereo measurement, or is measured by a distance sensor or the like. It was mainstream. Here, the former has many measurement constraints, etc., and a high calculation cost is required to improve the quality. If the calculation cost is reduced, the measurement cannot be performed and the depth value is lost. . There is also a problem that noise is likely to occur due to errors caused by measurement. In the latter case, accurate depth data can be acquired in real time, but there are problems that the resolution of depth data is low and dedicated hardware is required.
そこでこの発明は、立体画像とする対象画像の各画素の奥行きの情報についての、欠損やノイズを削減でき、高速に奥行きデータを生成することのできる奥行きデータ生成装置及び奥行きデータ生成方法ならびにそのプログラムを提供することを目的としている。 Therefore, the present invention provides a depth data generation device, a depth data generation method, and a program thereof that can reduce the loss and noise of the depth information of each pixel of the target image as a stereoscopic image and can generate depth data at high speed. The purpose is to provide.
本発明は、上述の課題を解決すべくなされたもので、画像中の背景画像と対象物画像を分離する分離手段と、前記対象物画像の各画素のうち外郭に位置する第1の外郭画素を特定し、当該第1の外郭画素から内側方向に順に、特定した画素を除いた次の外郭の外郭画素を特定する処理を繰り返す外郭画素特定手段と、前記第1の外郭画素から前記内側方向に順次特定した外郭画素に対して、昇順または降順に奥行き値を順次割り当てる奥行き値割当手段と、前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成する奥行きデータ生成手段と、を備えることを特徴とする奥行きデータ生成装置である。 The present invention has been made to solve the above-described problem, and includes a separating unit that separates a background image and an object image in an image, and a first outer pixel located on the outer edge among the pixels of the object image. And, in order from the first outline pixel to the inside direction, outline pixel specifying means for repeating the process of specifying the outline pixel of the next outline excluding the specified pixel, and the inside direction from the first outline pixel Depth value assigning means for sequentially assigning depth values in ascending order or descending order to the contour pixels sequentially specified in the above, and depth data for generating depth value data that holds the assigned depth value for each pixel of the object image A depth data generating apparatus comprising: a generating means;
また本発明は、画像中の背景画像と対象物画像を分離する分離手段と、前記対象物画像に対して細線化処理を行い骨格画素を抽出する骨格画素抽出手段と、前記骨格画素それぞれの画素について、当該骨格画素が示す線の法線方向の前記対象物画素内の奥行き値算出対象の画素までの距離を特定する距離特定手段と、前記骨格画素のそれぞれについては予め定めた奥行き値を割り当て、前記骨格画素のうちのある画素の法線方向の各画素については、前記骨格画素からの法線方向の前記距離の割合に基づいて奥行き値を算出して割り当てる奥行き値割当手段と、前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成する奥行きデータ生成手段と、を備えることを特徴とする奥行きデータ生成装置である。 The present invention also provides a separating unit that separates a background image and an object image in an image, a skeleton pixel extracting unit that extracts a skeleton pixel by performing a thinning process on the object image, and a pixel for each of the skeleton pixels. A distance specifying means for specifying a distance to a depth value calculation target pixel in the object pixel in a normal direction of a line indicated by the skeleton pixel, and a predetermined depth value is assigned to each of the skeleton pixels A depth value assigning unit that calculates and assigns a depth value based on a ratio of the distance in the normal direction from the skeleton pixel for each pixel in the normal direction of a certain pixel of the skeleton pixels; and the target A depth data generating unit configured to generate depth value data that holds the assigned depth value for each pixel of an object image. .
また本発明は、奥行きデータ生成装置の奥行きデータ生成方法であって、画像中の背景画像と対象物画像を分離し、前記対象物画像の各画素のうち外郭に位置する第1の外郭画素を特定し、当該第1の外郭画素から内側方向に順に、特定した画素を除いた次の外郭の外郭画素を特定する処理を繰り返し、前記第1の外郭画素から前記内側方向に順次特定した外郭画素に対して、昇順または降順に奥行き値を順次割り当て、前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成することを特徴とする奥行きデータ生成方法である。 The present invention is also a depth data generation method of a depth data generation device, wherein a background image and an object image in an image are separated, and a first outline pixel located outside the outline of each pixel of the object image is determined. The process of specifying and repeating the process of specifying the next outline pixel excluding the specified pixel in order from the first outline pixel to the inside direction, and sequentially specifying the outline pixel from the first outline pixel in the inside direction. On the other hand, a depth data generation method is characterized in that depth values are sequentially assigned in ascending order or descending order, and depth value data that retains the assigned depth value is generated for each pixel of the object image.
また本発明は、奥行きデータ生成装置の奥行きデータ生成方法であって、画像中の背景画像と対象物画像を分離し、前記対象物画像に対して細線化処理を行い骨格画素を抽出し、前記骨格画素それぞれの画素について、当該骨格画素が示す線の法線方向の前記対象物画素内の奥行き値算出対象の画素までの距離を特定し、前記骨格画素のそれぞれについては予め定めた奥行き値を割り当て、前記骨格画素のうちのある画素の法線方向の各画素については、前記骨格画素からの法線方向の前記距離の割合に基づいて奥行き値を算出して割り当て、前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成することを特徴とする奥行きデータ生成方法である。 Further, the present invention is a depth data generation method of a depth data generation apparatus, wherein a background image and an object image in an image are separated, a thinning process is performed on the object image to extract a skeleton pixel, For each skeleton pixel, specify the distance to the depth value calculation target pixel in the object pixel in the normal direction of the line indicated by the skeleton pixel, and set a predetermined depth value for each skeleton pixel. For each pixel in the normal direction of a certain pixel of the skeleton pixel, a depth value is calculated and assigned based on the ratio of the distance in the normal direction from the skeleton pixel, and each pixel of the object image A depth data generation method characterized by generating depth value data that holds the assigned depth value for a pixel.
また本発明は、奥行きデータ生成装置のコンピュータを、画像中の背景画像と対象物画像を分離する分離手段、前記対象物画像の各画素のうち外郭に位置する第1の外郭画素を特定し、当該第1の外郭画素から内側方向に順に、特定した画素を除いた次の外郭の外郭画素を特定する処理を繰り返す外郭画素特定手段、前記第1の外郭画素から前記内側方向に順次特定した外郭画素に対して、昇順または降順に奥行き値を順次割り当てる奥行き値割当手段、前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成する奥行きデータ生成手段、として機能するためのプログラムである。 According to another aspect of the present invention, the computer of the depth data generation device identifies a first outline pixel located in the outline of each pixel of the object image, separating means for separating the background image and the object image in the image, Outer pixel specifying means for repeating the process of specifying the next outer outline pixel excluding the specified pixel in order from the first outer pixel in the inner direction, and the outer outline sequentially specified from the first outer pixel in the inner direction. Depth value allocating means for sequentially assigning depth values to pixels in ascending or descending order, and depth data generating means for generating depth value data that holds the assigned depth value for each pixel of the object image. It is a program for.
また本発明は、奥行きデータ生成装置のコンピュータを、画像中の背景画像と対象物画像を分離する分離手段、前記対象物画像に対して細線化処理を行い骨格画素を抽出する骨格画素抽出手段、前記骨格画素それぞれの画素について、当該骨格画素が示す線の法線方向の前記対象物画素内の奥行き値算出対象の画素までの距離を特定する距離特定手段、前記骨格画素のそれぞれについては予め定めた奥行き値を割り当て、前記骨格画素のうちのある画素の法線方向の各画素については、前記骨格画素からの法線方向の前記距離の割合に基づいて奥行き値を算出して割り当てる奥行き値割当手段、前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成する奥行きデータ生成手段、として機能するためのプログラムである。 Further, the present invention provides a computer of the depth data generation apparatus, separating means for separating a background image and an object image in an image, skeleton pixel extracting means for performing thinning processing on the object image and extracting skeleton pixels, For each of the skeleton pixels, distance specifying means for specifying a distance to the depth value calculation target pixel in the target pixel in the normal direction of the line indicated by the skeleton pixel, each of the skeleton pixels is predetermined. Depth value assignment for each pixel in the normal direction of a certain pixel of the skeleton pixels, and calculating and assigning the depth value based on the ratio of the distance in the normal direction from the skeleton pixel Means for generating depth value data for holding the assigned depth value for each pixel of the object image, Is a program.
本発明によれば、映像中の対象物画像の画素全てに奥行き値が与えられるため、立体視をする上で不都合な奥行き値の欠損は無くなる。また、対象物画像単位で奥行き値が与えられるため、ノイズを抑制することができる。また、従来のステレオ計測のような計算コストがほとんど発生しないためリアルタイムでの処理も期待できる。一方で、必要なのはカメラだけであり距離センサのような専用のハードウェアも必要としない。本発明により、立体画像の生成に適した奥行きデータをリアルタイムかつ専用のハードウェアを必要とせずに取得することができる。 According to the present invention, since the depth value is given to all the pixels of the object image in the video, there is no loss of the depth value that is inconvenient for stereoscopic viewing. Further, since the depth value is given in units of object images, noise can be suppressed. In addition, real-time processing can also be expected because there is almost no calculation cost as in conventional stereo measurement. On the other hand, all that is needed is a camera and no dedicated hardware such as a distance sensor is required. According to the present invention, depth data suitable for generating a stereoscopic image can be acquired in real time without requiring dedicated hardware.
(第1の実施形態)
まず、本発明の第1の実施形態による奥行きデータ生成装置を図面を参照して説明する。
図1は第1の実施形態による奥行きデータ生成装置の構成を示すブロック図である。
この図において、符号1は奥行きデータ生成装置である。そして、奥行きデータ生成装置1は、映像受付部11、背景分離部12、外郭画像特定部13、奥行き値割当部14、奥行きデータ生成部15、出力部16の各処理部を備えている。
(First embodiment)
First, a depth data generating apparatus according to a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a depth data generating apparatus according to the first embodiment.
In this figure, reference numeral 1 denotes a depth data generation device. The depth data generation device 1 includes processing units such as a
そして、第1の実施形態において、奥行きデータ生成装置1は、映像受付部11が、撮影された映像を受け付け、背景分離部12が、受け付けた映像の各画像において背景画像と被写体である対象物画像を分離する。そして、外郭画素特定部13が、対象物画像の各画素のうち外郭に位置する第1の外郭画素を特定し、当該第1の外郭画素から内側方向に順に、特定した画素を除いた次の外郭の外郭画素を特定する処理を繰り返す。また奥行き値割当部14が、第1の外郭画素から内側方向に順次特定した外郭画素に対して、昇順または降順に奥行き値を順次割り当てる。そして、奥行きデータ生成部15が、対象物画像の各画素について割り当てられた奥行き値を保持する奥行き値データを生成し、出力部16が映像における各画像の奥行きデータを出力する。この奥行きデータは、映像表示装置などにおいて立体画像を生成する際に用いられる。
In the first embodiment, in the depth data generation device 1, in the
図2は、第1の実施形態による奥行きデータ装置の処理フローを示す図である。
図3は、第1の実施形態による奥行きデータ装置の処理概要を示す図である。
次に、図2、図3を用いて、第1の実施形態による奥行きデータ装置1の処理の詳細について説明する。
まず、奥行きデータ装置1には奥行き値Dnのn=0の値と、当該n=0における奥行き値D0の値が入力され(ステップS101)、メモリ等に記録されているものとする。なお、奥行き値Dnの値は、特定の関数f(n){n=0,・・・,N}によって算出される値である。そして、奥行きデータ装置1の映像受付部11が、映像のデータを受け付ける(ステップS102)。
FIG. 2 is a diagram illustrating a processing flow of the depth data device according to the first embodiment.
FIG. 3 is a diagram illustrating a processing outline of the depth data device according to the first embodiment.
Next, details of processing of the depth data device 1 according to the first embodiment will be described with reference to FIGS. 2 and 3.
First, it is assumed that the depth value D n of n = 0 and the depth value D 0 of n = 0 are input to the depth data device 1 (step S101) and recorded in a memory or the like. The value of the depth value D n is a value calculated by a particular function f (n) {n = 0 , ···, N}. Then, the
すると、背景分離部12は、(図3(a))で示すように、映像データの各画像について、背景画像と被写体である対象物画像を分離する(ステップS103)。この分離技術は様々な手法を用いることが出来るが、例えば、背景分離処理、またはクロマキー処理を行うことにより分離する。背景分離処理とは、映像を撮影する前に、背景のみを撮影した映像データを事前に記憶しておき、映像受付部11が受け付けた映像データ中の画像と、背景のみの画像データから読み取った背景画像とを画素単位で比較し、画素値が等しい時は背景画像として、画素値が異なるときは被写体である対象物画像であるとして、分離する技術である。また、クロマキー処理とは、背景画像に相当するクロマキーデータ(ブルーバックの画像データ)を予め記憶しておき、撮影時に、被写体である対象物の背面にクロマキーデータの色に一致する背景面を設置する。そして、その被写体を撮影し、映像受付部11が受け付けた映像データ中の画像と、クロマキーデータとを画素単位で比較し、画素値が等しい時は背景画像として、画素値が異なるときは被写体である対象物画像であるとして、分離する技術である。
Then, as shown in FIG. 3A, the
なお、背景差分処理は、事前にクロマキー用背景を準備せずに撮影を行える利点があるが、背景撮影時と撮影時の照明の微妙な違いや背景映像の輪郭の強弱により分離時にノイズが残るという欠点がある。一方でクロマキー処理は、背景と前景の分離においてノイズを発生させずに分離させやすいという利点があるが、事前にクロマキー用背景を準備しなければならないという事やクロマキー用背景と同系色の前景が無いように配慮しなければならないという欠点がある。なお、この他、前景画像と対象物画像を分離するのみの技術は特願2001―194610等の既存のものが存在し、いずれの方法を用いるようにしてもよい。 Note that the background difference processing has the advantage that you can shoot without preparing a chroma key background in advance, but noise remains during separation due to subtle differences in lighting between the background shooting and shooting and the strength of the outline of the background video There is a drawback. On the other hand, the chroma key processing has the advantage that it is easy to separate the background and the foreground without generating noise, but the chroma key background must be prepared in advance and the foreground of the same color as the chroma key background can be obtained. There is a drawback that you have to be careful not to. In addition, there are existing techniques such as Japanese Patent Application No. 2001-194610 that only separate the foreground image and the object image, and either method may be used.
背景分離部12が背景画像と対象物画像の分離を終了すると、次に、外郭画像特定部13が、対象物画像の画素のうち、少なくとも画素の一辺が背景画像の画素と接する画素を特定し、これらの画素の集合を最外郭の画素(第1の外郭画素)と特定する(ステップS104)。そして、(図3(b))で示すように、奥行き値割当部14が、最外郭の画素に対して初期値である奥行き値D0を割り当てる(ステップS105)。なお対象物画像が2つ以上ある場合には、各対象物画像の大きさや輝度などに基づいて、統計処理によって予め定められた初期値である異なる奥行き値D0をそれぞれ割り当てられる。例えば大きさや輝度によって異なる奥行き値D0がテーブルに記録されており、補間計算によって、対象物画像の奥行き値D0を算出すればよい。
When the
そして、外郭画像特定部13は、対象物画像における全ての画素について奥行き値を割り当てたか否かを判定し(ステップS106)、全ての画素について奥行き値を割り当てていない場合にはnを1つ増加して(ステップS107)、最外郭の画素を除いた対象物画像の画素のうち、次の最外郭の画素を同様の処理で特定する(ステップS108)。そして、(図3(c))で示すように、奥行き値割当部14が、2回目の最外郭の画素に対して奥行き値D1を割り当てる(ステップS109)。奥行き値D1の値は上記関数f(n)にn=1を代入した値である。そして、外郭画像特定部13は、対象物画像内の全ての画素n(n=0〜N)について奥行き値を割り当てたと判定するまで、ステップS106〜S109の処理を繰り返す。
Then, the outline
対象物画像の全ての画素に奥行き値を付与すると(図3(d))、次に、奥行きデータ生成部15が、背景画像に対応する画素については奥行き値が0、対象物画像に対応する画素については上記処理でそれぞれ割り当てられた奥行き値Dnの情報を保持する奥行きデータを生成する(ステップS110)。そして、出力部16が生成された奥行きデータを出力する(ステップS111)。なお、上述の処理においては、背景分離部12、外郭画像特定部13、奥行き値割当部14、奥行きデータ生成部15、出力部16は、映像受付部11が受け付けた映像における全ての画像について上述の処理を繰り返す。そして、奥行きデータは、出力先である映像表示装置などにおいて、立体画像を生成する際に用いられる。
When depth values are assigned to all the pixels of the object image (FIG. 3D), the depth
(第2の実施形態)
次に、本発明の第2の実施形態による奥行きデータ生成装置を図面を参照して説明する。
図4は第2の実施形態による奥行きデータ生成装置の構成を示すブロック図である。
この図で示すように、第2の実施形態による奥行きデータ装置は、第1の実施形態による奥行きデータ装置1の外郭画像特定部13に代えて、骨格画素抽出部17と、距離特定部18との処理部を備えている。他の処理部は同様である。
(Second Embodiment)
Next, a depth data generating apparatus according to a second embodiment of the present invention will be described with reference to the drawings.
FIG. 4 is a block diagram showing the configuration of the depth data generating apparatus according to the second embodiment.
As shown in this figure, the depth data device according to the second embodiment is replaced with a skeleton
第2の実施形態において、奥行きデータ生成装置1は、映像受付部11が、撮影された映像を受け付け、背景分離部12が、受け付けた映像の各画像において背景画像と被写体である対象物画像を分離する。そして、骨格画素抽出部17が、対象物画像に対して細線化処理を行い骨格画素を抽出する。また距離特定部18が、骨格画素それぞれの画素について、当該骨格画素が示す線の法線方向の対象物画素内の奥行き値算出対象の画素までの距離を特定する。そして、奥行き値割当部14が、骨格画素のそれぞれについては予め定めた奥行き値を割り当て、骨格画素のうちのある画素の法線方向の各画素については、骨格画素からの法線方向の距離の割合に基づいて奥行き値を算出して割り当て、奥行きデータ生成部15が、対象物画像の各画素について割り当てられた奥行き値を保持する奥行き値データを生成する。第1の実施形態と同様に、この奥行きデータは、映像表示装置などにおいて立体画像を生成する際に用いられる。
In the second embodiment, in the depth data generation device 1, the
図5は、第2の実施形態による奥行きデータ装置の処理フローを示す図である。
図6は、第2の実施形態による奥行きデータ装置の処理概要を示す図である。
次に、図5、図6を用いて、第2の実施形態による奥行きデータ装置1の処理の詳細について説明する。
まず、奥行きデータ装置1には奥行き値Dnのn=0の値と、当該n=0における奥行き値D0の値が入力され(ステップS201)、メモリ等に記録されているものとする。なお、奥行き値Dnの値は、特定の関数f(n){n=0,・・・,N}によって算出される値である。第1の実施形態と同様に、対象物画像が2つ以上ある場合には、各対象物画像の大きさや輝度などに基づいて、統計処理によって予め定められた初期値である異なる奥行き値D0がそれぞれ割り当てられるようにしてもよい。例えば大きさや輝度によって異なる奥行き値D0がテーブルに記録されており、補間計算によって、対象物画像の奥行き値D0を算出すればよい。そして、奥行きデータ装置1の映像受付部11が、映像のデータを受け付ける(ステップS202)。
FIG. 5 is a diagram illustrating a processing flow of the depth data device according to the second embodiment.
FIG. 6 is a diagram showing a processing outline of the depth data device according to the second embodiment.
Next, details of processing of the depth data device 1 according to the second embodiment will be described with reference to FIGS. 5 and 6.
First, it is assumed that the depth value D n of n = 0 and the depth value D 0 of n = 0 are input to the depth data device 1 (step S201) and recorded in a memory or the like. The value of the depth value D n is a value calculated by a particular function f (n) {n = 0 , ···, N}. Similar to the first embodiment, when there are two or more object images, different depth values D 0 that are initial values predetermined by statistical processing based on the size, brightness, and the like of each object image. May be assigned respectively. For example, the depth value D 0 that varies depending on the size and brightness is recorded in the table, and the depth value D 0 of the object image may be calculated by interpolation calculation. Then, the
すると、背景分離部12は、映像データの各画像について、背景画像と被写体である対象物画像を分離する(ステップS203)。この処理は第1の実施形態のステップS103と同様の処理である。背景画像と被写体である対象物画像の分離が終了すると、次に、骨格画素抽出部17が、図6(a)で示すように、対象物画像に対して細線化処理を行い骨格画素を抽出する(ステップS204)。なお細線化処理とは、対象物画像体を取り出し、太さがふぞろいの線を同一の太さの線に整える処理である。具体的には対象物画像の画素の集合内で、画像を左上から走査し外側にある画素を、画素の連結性(4連結又は8連結)を保持して順次に削除し、その処理を繰り返して、最終的に1画素が少なくとも4辺のうちの一辺で他の画素と接して連なるか、または画素の4つの頂点の少なくとも何れか1つの頂点で他の画素と接して連なる線とする処理である。例えば、ヒルディッチ(Hilditch)の細線化方式などを利用する。そしてこれにより、図6(a)で示すような骨格画素を特定できる。
Then, the
次に、距離特定部18が、骨格画素のうちの1つの画素iを特定し(ステップS205)、奥行き値割当部14が、骨格画素のうちの画素iに対して初期値である奥行き値D0を割り当てる(ステップS206)。また距離特定部18は、図6(b)で示すように、特定した画素iから、骨格画素の集合である線の法線方向の、対象物画像内のある画素jを特定し(ステップS207)、画素iから画素jまでの距離L(ij)を特定する(ステップS208)。そして、また、奥行き値割当部14は、画素iから画素jまでの距離L(ij)と比例定数Rとを用いて、画素jの奥行き値DjをDj=D0+R・L(ij)により算出する(ステップS209)。そして、奥行き値割当部14は、画素iを基準とした前記法線方向の画素jに対して、ステップS209で算出した奥行き値Djを割り当てる(ステップS210)。
Next, the
そして、奥行き値割当部14は、ステップS205で特定した画素iからの前記法線方向の全ての対象物画像内の画素について、ステップS207からステップS210の処理を行ったか否かを判定し(ステップS211)、行っていなければ、次の法線方向の画素jについてステップS207からステップS210の処理を行う。なお法線方向は、例えば、処理対象となる骨格画素が少なくとも他の骨格画素と頂点で接している場合には、当該他の画素と接している頂点とその対角の頂点以外の2つの頂点に接する画素の方向(つまり、斜め方向に接する画素の方向)となり、処理対象となる骨格画素がある辺とその辺に対向する辺の両方に他の骨格画素と接している場合には、それら辺以外の2つの辺に接する画素の方向(つまり、縦または横の画素の方向)となるが、骨格画素内の各画素が連なる形態に応じてどの様に法線方向を決定するかは適宜決めればよい。
Then, the depth
次に、距離特定部18は、全ての骨格画素について、上述のステップS205からステップS210の処理を行ったか否かを判定し(ステップS212)、終了していない場合には、骨格画素のうち次の画素iを特定し、上記S205からステップS210の処理を繰り返す(図6(c))。ここで、骨格画素の法線方向にない対象物画像内の画素については、隣接する画素と同じ奥行き値が与えられる。
Next, the
対象物画像の全ての画素に奥行き値を付与すると、次に、奥行きデータ生成部15が、背景画像に対応する画素については奥行き値が0、対象物画像に対応する画素については上記ステップで割り当てられた奥行き値Djの情報を保持する奥行きデータを生成する(ステップS213)。そして、出力部16が生成された奥行きデータを出力する(ステップS214)。なお、上述の処理においては、背景分離部12、外郭画像特定部13、奥行き値割当部14、奥行きデータ生成部15、出力部16は、映像受付部11が受け付けた映像における全ての画像について上述の処理を繰り返す。そして、奥行きデータは、出力先である映像表示装置などにおいて、立体画像を生成する際に用いられる。
After the depth value is assigned to all the pixels of the object image, the depth
以上、本発明の実施形態について説明したが、上述の第1の実施形態および第2の実施形態の処理によれば、映像中の対象物画像の画素全てに奥行き値が与えられるため、立体視をする上で不都合な奥行き値の欠損は無くなる。また、対象物画像単位で奥行き値が与えられるため、ノイズを抑制することができる。また、従来のステレオ計測のような計算コストがほとんど発生しないためリアルタイムでの処理も期待できる。一方で、必要なのはカメラだけであり距離センサのような専用のハードウェアも必要としない。本発明により、立体画像の生成に適した奥行きデータをリアルタイムかつ専用のハードウェアを必要とせずに取得することができる。 As described above, the embodiment of the present invention has been described. However, according to the processes of the first embodiment and the second embodiment described above, since the depth value is given to all the pixels of the object image in the video, the stereoscopic view is obtained. Defects in depth values that are inconvenient to do are eliminated. Further, since the depth value is given in units of object images, noise can be suppressed. In addition, real-time processing can also be expected because there is almost no calculation cost as in conventional stereo measurement. On the other hand, all that is needed is a camera and no dedicated hardware such as a distance sensor is required. According to the present invention, depth data suitable for generating a stereoscopic image can be acquired in real time without requiring dedicated hardware.
なお、上述の奥行きデータ生成装置は内部に、コンピュータシステムを有している。そして、上述した各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。 The depth data generation apparatus described above has a computer system inside. Each process described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by the computer reading and executing the program. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
1・・・奥行きデータ生成装置
11・・・映像受付部
12・・・背景分離部
13・・・外郭画像特定部
14・・・奥行き値割当部
15・・・奥行きデータ生成部
16・・・出力部
17・・・骨格画素抽出部
18・・・距離特定部
DESCRIPTION OF SYMBOLS 1 ... Depth
Claims (6)
前記対象物画像の各画素のうち外郭に位置する第1の外郭画素を特定し、当該第1の外郭画素から内側方向に順に、特定した画素を除いた次の外郭の外郭画素を特定する処理を繰り返す外郭画素特定手段と、
前記第1の外郭画素から前記内側方向に順次特定した外郭画素に対して、昇順または降順に奥行き値を順次割り当てる奥行き値割当手段と、
前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成する奥行きデータ生成手段と、
を備えることを特徴とする奥行きデータ生成装置。 Separating means for separating the background image and the object image in the image;
A process of specifying a first outline pixel located in the outline of each pixel of the object image, and specifying an outline pixel of the next outline excluding the specified pixels in order from the first outline pixel inward. A contour pixel specifying means for repeating
Depth value assigning means for sequentially assigning depth values in ascending order or descending order to the outline pixels sequentially specified in the inner direction from the first outline pixel;
Depth data generating means for generating depth value data for holding the assigned depth value for each pixel of the object image;
A depth data generating apparatus comprising:
前記対象物画像に対して細線化処理を行い骨格画素を抽出する骨格画素抽出手段と、
前記骨格画素それぞれの画素について、当該骨格画素が示す線の法線方向の前記対象物画素内の奥行き値算出対象の画素までの距離を特定する距離特定手段と、
前記骨格画素のそれぞれについては予め定めた奥行き値を割り当て、前記骨格画素のうちのある画素の法線方向の各画素については、前記骨格画素からの法線方向の前記距離の割合に基づいて奥行き値を算出して割り当てる奥行き値割当手段と、
前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成する奥行きデータ生成手段と、
を備えることを特徴とする奥行きデータ生成装置。 Separating means for separating the background image and the object image in the image;
Skeleton pixel extraction means for performing thinning processing on the object image and extracting skeleton pixels;
For each pixel of the skeleton pixel, distance specifying means for specifying a distance to a depth value calculation target pixel in the target pixel in the normal direction of the line indicated by the skeleton pixel;
A predetermined depth value is assigned to each of the skeleton pixels, and the depth of each pixel in the normal direction of a certain pixel of the skeleton pixels is determined based on the ratio of the distance in the normal direction from the skeleton pixel. Depth value assigning means for calculating and assigning values;
Depth data generating means for generating depth value data for holding the assigned depth value for each pixel of the object image;
A depth data generating apparatus comprising:
画像中の背景画像と対象物画像を分離し、
前記対象物画像の各画素のうち外郭に位置する第1の外郭画素を特定し、当該第1の外郭画素から内側方向に順に、特定した画素を除いた次の外郭の外郭画素を特定する処理を繰り返し、
前記第1の外郭画素から前記内側方向に順次特定した外郭画素に対して、昇順または降順に奥行き値を順次割り当て、
前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成する
ことを特徴とする奥行きデータ生成方法。 A depth data generation method of a depth data generation device,
Separate the background image and the object image in the image,
A process of specifying a first outline pixel located in the outline of each pixel of the object image, and specifying an outline pixel of the next outline excluding the specified pixels in order from the first outline pixel inward. Repeat
Sequentially assign depth values in ascending or descending order to the contour pixels sequentially identified in the inner direction from the first contour pixel;
Depth data generation method for generating depth value data that holds the assigned depth value for each pixel of the object image.
画像中の背景画像と対象物画像を分離し、
前記対象物画像に対して細線化処理を行い骨格画素を抽出し、
前記骨格画素それぞれの画素について、当該骨格画素が示す線の法線方向の前記対象物画素内の奥行き値算出対象の画素までの距離を特定し、
前記骨格画素のそれぞれについては予め定めた奥行き値を割り当て、前記骨格画素のうちのある画素の法線方向の各画素については、前記骨格画素からの法線方向の前記距離の割合に基づいて奥行き値を算出して割り当て、
前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成する
ことを特徴とする奥行きデータ生成方法。 A depth data generation method of a depth data generation device,
Separate the background image and the object image in the image,
Perform thinning processing on the object image to extract skeleton pixels,
For each pixel of the skeleton pixel, specify the distance to the depth value calculation target pixel in the object pixel in the normal direction of the line indicated by the skeleton pixel,
A predetermined depth value is assigned to each of the skeleton pixels, and the depth of each pixel in the normal direction of a certain pixel of the skeleton pixels is determined based on the ratio of the distance in the normal direction from the skeleton pixel. Calculate and assign values,
Depth data generation method for generating depth value data that holds the assigned depth value for each pixel of the object image.
画像中の背景画像と対象物画像を分離する分離手段、
前記対象物画像の各画素のうち外郭に位置する第1の外郭画素を特定し、当該第1の外郭画素から内側方向に順に、特定した画素を除いた次の外郭の外郭画素を特定する処理を繰り返す外郭画素特定手段、
前記第1の外郭画素から前記内側方向に順次特定した外郭画素に対して、昇順または降順に奥行き値を順次割り当てる奥行き値割当手段、
前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成する奥行きデータ生成手段、
として機能するためのプログラム。 Depth data generator computer
Separating means for separating the background image and the object image in the image,
A process of specifying a first outline pixel located in the outline of each pixel of the object image, and specifying an outline pixel of the next outline excluding the specified pixels in order from the first outline pixel inward. Outer pixel identification means that repeats,
Depth value assigning means for sequentially assigning depth values in ascending order or descending order to the outline pixels sequentially specified in the inner direction from the first outline pixel;
Depth data generating means for generating depth value data for holding the assigned depth value for each pixel of the object image;
Program to function as.
画像中の背景画像と対象物画像を分離する分離手段、
前記対象物画像に対して細線化処理を行い骨格画素を抽出する骨格画素抽出手段、
前記骨格画素それぞれの画素について、当該骨格画素が示す線の法線方向の前記対象物画素内の奥行き値算出対象の画素までの距離を特定する距離特定手段、
前記骨格画素のそれぞれについては予め定めた奥行き値を割り当て、前記骨格画素のうちのある画素の法線方向の各画素については、前記骨格画素からの法線方向の前記距離の割合に基づいて奥行き値を算出して割り当てる奥行き値割当手段、
前記対象物画像の各画素について前記割り当てられた奥行き値を保持する奥行き値データを生成する奥行きデータ生成手段、
として機能するためのプログラム。
Depth data generator computer
Separating means for separating the background image and the object image in the image,
Skeleton pixel extracting means for performing thinning processing on the object image and extracting skeleton pixels;
For each pixel of the skeleton pixel, a distance specifying means for specifying a distance to a depth value calculation target pixel in the target pixel in a normal direction of a line indicated by the skeleton pixel;
A predetermined depth value is assigned to each of the skeleton pixels, and the depth of each pixel in the normal direction of a certain pixel of the skeleton pixels is determined based on the ratio of the distance in the normal direction from the skeleton pixel. Depth value assigning means for calculating and assigning values,
Depth data generating means for generating depth value data for holding the assigned depth value for each pixel of the object image;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008055543A JP4862004B2 (en) | 2008-03-05 | 2008-03-05 | Depth data generation apparatus, depth data generation method, and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008055543A JP4862004B2 (en) | 2008-03-05 | 2008-03-05 | Depth data generation apparatus, depth data generation method, and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009211561A JP2009211561A (en) | 2009-09-17 |
JP4862004B2 true JP4862004B2 (en) | 2012-01-25 |
Family
ID=41184620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008055543A Expired - Fee Related JP4862004B2 (en) | 2008-03-05 | 2008-03-05 | Depth data generation apparatus, depth data generation method, and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4862004B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5857606B2 (en) * | 2011-10-11 | 2016-02-10 | 大日本印刷株式会社 | Depth production support apparatus, depth production support method, and program |
JP5994320B2 (en) * | 2012-03-26 | 2016-09-21 | 大日本印刷株式会社 | Depth production support apparatus, depth production support method, and program |
JP5966837B2 (en) * | 2012-10-05 | 2016-08-10 | 大日本印刷株式会社 | Depth production support apparatus, depth production support method, and program |
JP6182930B2 (en) * | 2013-03-28 | 2017-08-23 | 大日本印刷株式会社 | Depth production support device, depth production method, and program |
JP6131843B2 (en) * | 2013-11-28 | 2017-05-24 | 株式会社Jvcケンウッド | Depth estimation apparatus, depth estimation method, depth estimation program, and image processing apparatus |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05342414A (en) * | 1992-06-08 | 1993-12-24 | Omron Corp | Template preparing device and pattern recognizing device |
JP3242529B2 (en) * | 1994-06-07 | 2001-12-25 | 松下通信工業株式会社 | Stereo image matching method and stereo image parallax measurement method |
GB2297389A (en) * | 1995-01-28 | 1996-07-31 | Sharp Kk | Three dimensional display having autostereoscopic and stereoscopic modes |
JP3116019B2 (en) * | 1997-06-30 | 2000-12-11 | 一成 江良 | 3D image data creation method and 3D color image display method |
JPH11232469A (en) * | 1998-02-12 | 1999-08-27 | Brother Ind Ltd | Image data processing device and recording medium storing image data processing program |
JP2001109894A (en) * | 1999-10-12 | 2001-04-20 | Toshiba Corp | Device and method for image information recognition and medium stored with image information recognizing program |
JP4596226B2 (en) * | 2001-06-27 | 2010-12-08 | ソニー株式会社 | Image processing apparatus and method, recording medium, and program |
JP2003223641A (en) * | 2002-01-30 | 2003-08-08 | Operation Center:Kk | Drawing analysis / advice generation program, computer-readable recording medium storing the program, and drawing analysis / advice generation device |
JP2005091115A (en) * | 2003-09-16 | 2005-04-07 | Sanyo Electric Co Ltd | Depth measuring instrument |
SG137726A1 (en) * | 2006-06-06 | 2007-12-28 | Sony Corp | A method and apparatus for measuring distance between a target and a receiver in a ranging system |
-
2008
- 2008-03-05 JP JP2008055543A patent/JP4862004B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009211561A (en) | 2009-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5587894B2 (en) | Method and apparatus for generating a depth map | |
CN109360235B (en) | Hybrid depth estimation method based on light field data | |
KR101370356B1 (en) | Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input | |
JP4898459B2 (en) | Depth map generation | |
KR100950046B1 (en) | High Speed Multiview 3D Stereoscopic Image Synthesis Apparatus and Method for Autostereoscopic 3D Stereo TV | |
US9013482B2 (en) | Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium | |
TR201810139T4 (en) | Effective image receiver for multiple views. | |
CN103081476A (en) | Method and device for converting three-dimensional image using depth map information | |
CN108616742B (en) | 3D panoramic shooting system and method | |
JP5852093B2 (en) | Video processing apparatus, video processing method, and program | |
JP4862004B2 (en) | Depth data generation apparatus, depth data generation method, and program thereof | |
CN104065947A (en) | A Depth Map Acquisition Method for Integrated Imaging System | |
US9602797B2 (en) | Stereoscopic image processing apparatus, stereoscopic image processing method, and stereoscopic image processing program | |
KR20080047673A (en) | 3D image conversion device and method | |
JP6285686B2 (en) | Parallax image generation device | |
JP6595878B2 (en) | Element image group generation apparatus and program thereof | |
US20120170841A1 (en) | Image processing apparatus and method | |
CN102547343B (en) | Stereoscopic image processing method, stereoscopic image processing device and display unit | |
JPH118862A (en) | Two-dimentional-to-three-dimensional image conversion device and method | |
JP2009210486A (en) | Depth data generating device, depth data generation method, and program thereof | |
KR20190072742A (en) | Calibrated Multi-Camera based Real-time Super Multi-View Image Synthesis Method and System | |
CN113287151B (en) | Information processing device, computer-readable recording medium, and information processing method | |
Vázquez | View generation for 3D-TV using image reconstruction from irregularly spaced samples | |
Xu et al. | Multi-view stereo depth-map merging for the Three-Dimensional Swept Volume Display | |
KR20240091489A (en) | Apparatus and method for restoring 3D spatial data using sensor image and depth information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111011 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4862004 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141111 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |