JP2013205867A - 情報処理装置及び方法、並びにプログラム - Google Patents
情報処理装置及び方法、並びにプログラム Download PDFInfo
- Publication number
- JP2013205867A JP2013205867A JP2012070768A JP2012070768A JP2013205867A JP 2013205867 A JP2013205867 A JP 2013205867A JP 2012070768 A JP2012070768 A JP 2012070768A JP 2012070768 A JP2012070768 A JP 2012070768A JP 2013205867 A JP2013205867 A JP 2013205867A
- Authority
- JP
- Japan
- Prior art keywords
- depth information
- image
- depth
- mask
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 title description 73
- 238000003384 imaging method Methods 0.000 claims description 38
- 238000003672 processing method Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 21
- 230000002194 synthesizing effect Effects 0.000 abstract 1
- 230000008569 process Effects 0.000 description 43
- 230000015572 biosynthetic process Effects 0.000 description 34
- 238000003786 synthesis reaction Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 14
- 230000000873 masking effect Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 239000003550 marker Substances 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
【課題】 近距離と遠距離の双方の奥行き情報を精度よく得ることができるようにする。
【解決手段】 カメラ画像奥行き情報取得部は、カメラで撮像された画像を構成する各画素毎の奥行き情報を、画像奥行き情報として取得する。奥行きマスク生成部は、取得された画像奥行き情報を用いて、画像から所定の領域を除去するマスクを生成する。シーン認識奥行き情報推定部は、生成されたマスクに基づいて、画像から所定の領域が除去された画像を処理対象として、処理対象の奥行き情報を推定する。奥行き情報合成部は、マスクを用いて、取得された画像奥行き情報と、推定された奥行き情報とを合成する。本技術は、奥行き情報を生成する情報処理装置に適用することができる。
【選択図】図1
【解決手段】 カメラ画像奥行き情報取得部は、カメラで撮像された画像を構成する各画素毎の奥行き情報を、画像奥行き情報として取得する。奥行きマスク生成部は、取得された画像奥行き情報を用いて、画像から所定の領域を除去するマスクを生成する。シーン認識奥行き情報推定部は、生成されたマスクに基づいて、画像から所定の領域が除去された画像を処理対象として、処理対象の奥行き情報を推定する。奥行き情報合成部は、マスクを用いて、取得された画像奥行き情報と、推定された奥行き情報とを合成する。本技術は、奥行き情報を生成する情報処理装置に適用することができる。
【選択図】図1
Description
本技術は、情報処理装置及び方法、並びにプログラムに関し、特に、近距離と遠距離の双方の奥行き情報を精度よく得ることができる、情報処理装置及び方法、並びにプログラムに関する。
従来から、ステレオカメラやTOF(Time Of Flight)カメラを用いて、画素毎に奥行き情報を取得する手法が存在する(例えば、特許文献1参照)。ステレオカメラは、2つのカメラが離間して配置されて構成される。TOFカメラは、奥行き情報を取得可能なセンサと、輝度情報や色情報を取得可能なカメラとが組み合わされて構成される。
ステレオカメラを用いる手法においては、2つのカメラによって同一被写体が撮像された結果得られる左画像及び右画像における同一被写体の位置ずれが検出される。そして、検出された位置ずれに対して三角測量の原理が用いられることにより、奥行き情報が取得される。
TOFカメラを用いる手法においては、撮像位置から被写体に向けて光が投射され、投射された光が被写体に反射されて戻ってくるまでの時間が計測される。そして、計測された時間から、撮像位置から被写体までの距離が求められ、その距離を用いて奥行き情報が取得される。
しかしながら、ステレオカメラを用いる手法においては、撮像位置から一定以上遠距離に被写体が位置する場合、左画像及び右画像における被写体の位置ずれが検出できないほど僅かとなり、奥行き情報の取得が困難となる。
また、TOFカメラを用いる手法においては、遠方の被写体の距離を測定するためには、強力な光を投射する必要があり、現実的ではない。即ち、被写体が撮像位置から一定以上離れている遠距離の場合、奥行き情報の取得が困難となる。
このように、ステレオカメラやTOFカメラを用いる手法では、奥行き情報を取得可能な範囲は限られている。したがって、近距離と遠距離の双方の奥行き情報を精度よく取得することができる手法が要求されている状況である。
本技術は、このような状況に鑑みてなされたものであり、近距離と遠距離の双方の奥行き情報を精度よく得ることができるようにしたものである。
本技術の一側面の情報処理装置は、カメラで撮像された画像を構成する各画素毎の奥行き情報を、画像奥行き情報として取得する奥行き情報取得部と、前記奥行き情報取得部により取得された前記画像奥行き情報を用いて、前記画像から所定の領域を除去するマスクを生成するマスク生成部と、前記マスク生成部により生成された前記マスクに基づいて、前記画像から前記所定の領域が除去された画像を処理対象として、前記処理対象の奥行き情報を推定する奥行き情報推定部と、前記マスクを用いて、前記奥行き情報取得部により取得された前記画像奥行き情報と、前記奥行き情報推定部により推定された前記奥行き情報とを合成する奥行き情報合成部とを備える情報処理装置。
前記奥行き情報推定部は、前記処理対象から消失線と消失点とを検出し、前記消失線と前記消失点に基づいて、前記奥行き情報を推定することができる。
前記マスク生成部は、前記画像を構成する前記各画素のそれぞれに対応して、前記画像の撮像位置から所定の距離以内にあるか否かを示す情報をそれぞれ保持するマップを、前記マスクとして生成することができる。
シーンを分類するための奥行きモデルが、予め複数用意されており、前記奥行き情報推定部は、前記処理対象内の各画素の輝度値の高域成分のマップを求め、前記マップに基づいて複数の前記奥行きモデルの中から1つを選択し、選択した前記奥行きモデルに基づいて前記奥行き情報を推定することができる。
前記奥行き情報取得部は、センサにより検出された情報に基づいて、前記画像奥行き情報を取得することができる。
前記画像は、複数の異なる視点から撮像された場合にそれぞれ得られる複数の画像から構成され、前記奥行き情報取得部は、前記複数の画像に対してステレオマッチング処理を施すことにより、前記画像奥行き情報を取得することができる。
前記奥行き情報推定部は、前記マスク生成部により生成された前記マスクに基づいて、前記複数の画像のうちの所定の画像から前記所定の領域が除去された画像を処理対象として、前記処理対象の前記奥行き情報を推定することができる。
本技術の一側面の情報処理方法及びプログラムは、上述した本技術の一側面の情報処理装置に対応する方法及びプログラムである。
本技術の一側面の情報処理装置及び方法並びにプログラムにおいては、カメラで撮像された画像を構成する各画素毎の奥行き情報が、画像奥行き情報として取得され、取得された前記画像奥行き情報が用いられて、前記画像から所定の領域を除去するマスクが生成され、生成された前記マスクに基づいて、前記画像から前記所定の領域が除去された画像が処理対象とされて、前記処理対象の奥行き情報が推定され、前記マスクが用いられて、取得された前記画像奥行き情報と、推定された前記奥行き情報とが合成される。
以上のごとく、本技術によれば、近距離と遠距離の双方の奥行き情報を精度よく得ることができる。
本技術は、実世界の情景(以下、シーンとも称する)が撮像された画像から取得された奥行き情報と、当該画像に対してシーン認識を行うことで推定された奥行き情報(以下、シーン認識奥行き情報と称する)とを合成することにより、近距離と遠距離の双方の奥行き情報を得るための技術である。シーン認識は、画像から物理オブジェクトとその空間的位置関係を抽出して記述するまでの処理をいう。
このような本技術の詳細な説明の前に、その理解を容易なものとすべく、シーン認識奥行き情報について先ず説明する。
シーン認識奥行き情報を推定する手法の1つとして、例えば、特許第3293441号公報(以下、特許文献2と称する)や、S. Battiato, S. Curti, M. La Cascia, M. Tortora, and E. Scordato, "Depth-map generation by image classification",Proceedings of SPIE 5302: 95-104 (2004)(以下、非特許文献1と称する)に記載された手法が存在する。特許文献2や非特許文献1に記載された手法とは、画像中から消失線と消失点を検出し、検出された消失線と消失点に基づいてシーン認識奥行き情報を推定する手法である。
消失点は、透視変換によって三次元空間中の平行線を画像上に投影した場合に、それら平行線に対応する画像上の直線が収束する点のことである。このような画像上の複数の直線を消失線といい、対象から消失点を結んだ線となる。
シーン認識奥行き情報は、画像上に含まれる各画素に対して、消失点からの距離に応じて線形に変化していくように割り当てられる。具体的には、消失点を最遠距離として、消失点との距離が離れている画素ほど近距離であるとして、各画素に対してシーン認識奥行き情報が割り当てられる。
消失線と消失点に基づいてシーン認識奥行き情報を推定する手法を用いることにより、近距離と遠距離の双方のシーン認識奥行き情報の推定が可能となる。
しかしながら、消失線と消失点に基づいてシーン認識奥行き情報を推定する手法においては、消失線以外の直線成分を多く含む被写体が近距離の領域に存在すると、消失線以外の直線成分が障害となって適切な消失線を検出することができない場合がある。このような場合、適切な消失点も検出することができなくなるため、シーン認識奥行き情報を精度よく推定することが困難となる。
そこで、本技術においては、消失線と消失点の検出の際には、画像内の近距離の領域が処理対象から除外(マスク)される。これにより、近距離の領域に含まれる被写体からは、直線成分が消失線として検出されなくなる。その結果、マスクされなかった遠距離の領域から適切な消失線と消失点が検出されるので、遠距離のシーン認識奥行き情報を精度よく推定することが可能になる。
一方で、本技術においては、マスクされた近距離の領域の奥行き情報は、ステレオカメラやTOFカメラを用いる手法により取得される。
その後、消失線と消失点に基づいて推定された遠距離のシーン認識奥行き情報と、ステレオカメラやTOFカメラを用いて取得された近距離の奥行き情報とが合成される。これにより、近距離と遠距離の双方の奥行き情報が精度よく得られる。
本技術の実施形態として、2つの実施形態について、以下の順序で説明する。
1.第1実施形態(TOFカメラを用いて近距離の奥行き情報を取得する例)
2.第2実施形態(ステレオカメラを用いて近距離の奥行き情報を取得する例)
1.第1実施形態(TOFカメラを用いて近距離の奥行き情報を取得する例)
2.第2実施形態(ステレオカメラを用いて近距離の奥行き情報を取得する例)
<1.第1実施形態>
[奥行き推定装置の機能的構成例]
図1は、本技術が適用される奥行き情報推定装置1の機能的構成例を示すブロック図である。
[奥行き推定装置の機能的構成例]
図1は、本技術が適用される奥行き情報推定装置1の機能的構成例を示すブロック図である。
奥行き情報推定装置1は、TOFカメラを用いて近距離の奥行き情報を取得すると共に、近距離の領域をマスクして消失線と消失点を検出することで遠距離のシーン認識奥行き情報を推定し、これら近距離と遠距離の各奥行き情報を組み合わせる。
奥行き情報推定装置1は、画像取得部11、センサ情報取得部12、カメラ画像奥行き情報取得部13、奥行きマスク生成部14、近距離物体除去部15、シーン認識奥行き情報推定部16、及び奥行き情報合成部17から構成される。
画像取得部11は、内蔵するか、外部に配置されるTOFカメラにより被写体が撮像された結果得られる画像(以下、カメラ画像と称する)を取得して、近距離物体除去部15に供給する。
センサ情報取得部12は、内蔵するか、外部に配置されるセンサにより検出されたセンサ情報を取得して、カメラ画像奥行き情報取得部13に供給する。本実施形態では、センサは、TOFカメラから被写体に向けて投射された光が、被写体で反射されて戻ってくるまでの時間を、センサ情報として検出する。
カメラ画像奥行き情報取得部13は、センサ情報取得部12から供給されたセンサ情報に基づいて、TOFカメラから被写体までの距離を演算する。次に、カメラ画像奥行き情報取得部13は、演算された距離を用いて、カメラ画像を構成する各画素毎に奥行き情報を取得する。なお、以下、各画素毎の奥行き情報の集合体を、カメラ画像奥行き情報と称する。カメラ画像奥行き情報取得部13は、カメラ画像奥行き情報を、奥行きマスク生成部14と奥行き情報合成部17に供給する。
奥行きマスク生成部14は、カメラ画像奥行き情報取得部13により供給されたカメラ画像奥行き情報を用いて、撮像位置からの距離が一定以内の近距離に属する領域を処理対象から除外するための奥行きマスクを生成する。奥行きマスクは、カメラ画像のうち、マスクすべき近距離の領域と、それ以外の遠距離の領域とを区分するための画像情報(即ち、マップ)である。本実施形態では、画像取得部11により取得されたカメラ画像を構成する各画素にそれぞれ対応して、撮像位置から一定以内の近距離にあるか否かを示す情報、具体的には1または0といった2値の情報を保持するマップが、奥行きマスクとして採用されている。即ち、本実施形態の奥行きマスクのうち1が保持された部分に対応するカメラ画像の領域が、マスクすべき近距離の領域に該当する。そして、0が保持された部分に対応するカメラ画像の領域が、マスクすべきではない遠距離の領域に該当する。奥行きマスク生成部14は、生成された奥行きマスクを、近距離物体除去部15に供給する。
近距離物体除去部15は、奥行きマスク生成部14から供給された奥行きマスクに基づいて、画像取得部11から供給されたカメラ画像から、近距離の領域に被写体として含まれる物体(以下、近距離物体と称する)を除去する。より正確には、近距離物体除去部15は、カメラ画像内の近距離の領域を黒等の同一色の領域に置換した(即ち、マスクした)画像(以下、遠距離対象画像と称する)を生成することによって、近距離物体をカメラ画像から除去する。近距離物体除去部15は、生成した遠距離対象画像を、シーン認識奥行き情報推定部16に供給する。
シーン認識奥行き情報推定部16は、近距離物体除去部15から供給された遠距離対象画像から、消失線となり得る直線の候補(以下、消失線候補と称する)を抽出し、抽出した消失線候補に基づいて消失線と消失点を検出する。即ち、最も多くの消失線候補が収束する点が消失点として検出され、消失点で交差する消失線候補が消失線として検出される。シーン認識奥行き情報推定部16は、検出された消失線と消失点に基づいて、遠距離のシーン認識奥行き情報を推定する。シーン認識奥行き情報推定部16は、推定された遠距離のシーン認識奥行き情報を、奥行き情報合成部17に供給する。
奥行き情報合成部17は、奥行きマスク生成部14から供給された奥行きマスクを用いて、カメラ画像奥行き情報取得部13から供給されたカメラ画像奥行き情報と、シーン認識奥行き情報推定部16から供給されたシーン認識奥行き情報とを合成する。この合成の結果得られる奥行き情報を、以下、合成奥行き情報と称する。具体的には本実施形態では、奥行きマスクにより近距離領域と遠距離領域とが区分され、近距離領域ではカメラ画像奥行情報が採用され、遠距離領域ではシーン認識奥行き情報が採用されることによって、合成奥行き情報が生成される。奥行き情報合成部17は、合成奥行き情報を、奥行き情報推定装置1の処理結果として外部に出力する。
[奥行き情報推定処理]
次に、奥行き情報推定装置1が実行する奥行き情報推定処理の流れについて説明する。
次に、奥行き情報推定装置1が実行する奥行き情報推定処理の流れについて説明する。
図2は、奥行き情報推定処理の流れの一例を説明するフローチャートである。
ステップS1において、画像取得部11は、TOFカメラから出力されたカメラ画像を取得する。取得されたカメラ画像は、カメラ画像奥行き情報取得部13に供給される。
[カメラ画像]
ここで、画像取得部11に取得されるカメラ画像について、図3を参照して説明する。
ここで、画像取得部11に取得されるカメラ画像について、図3を参照して説明する。
図3は、カメラ画像の一例を示す図である。
カメラ画像GCには、被写体として、撮像位置から最も近距離に位置する標識NO、撮像位置から2番目の近距離に位置する自動車MO1、及び近距離から遠距離にかけて延在する道路のうち自動車MO1と同一位置に存在する道路MO2が含まれている。また、カメラ画像GCには、被写体として、近距離から遠距離にかけて延在する道路や建物等の背景FOも含まれている。
図2のフローチャートの説明に戻り、ステップS2において、センサ情報取得部12は、被写体から反射光が戻ってくるまでの時間を表わすセンサ情報を取得する。取得されたセンサ情報は、カメラ画像奥行き情報取得部13に供給される。
ステップS3において、カメラ画像奥行き情報取得部13は、カメラ画像奥行き情報を取得する。つまり、センサ情報としての時間から、被写体までの距離が演算され、その距離からカメラ画像奥行き情報が取得される。取得されたカメラ画像奥行き情報は、奥行きマスク生成部14と奥行き情報合成部17に供給される。
[カメラ画像奥行き情報]
ここで、カメラ画像奥行き情報取得部13に取得されるカメラ画像奥行き情報について、図4を参照して説明する。
ここで、カメラ画像奥行き情報取得部13に取得されるカメラ画像奥行き情報について、図4を参照して説明する。
図4は、カメラ画像奥行き情報の一例を示す図である。
カメラ画像奥行き情報Dcにおいては、撮像位置からの距離が輝度を表すグレースケールで示されており、撮像位置から近距離にある領域ほど明るくなるように示されている。
図4に示されるように、カメラ画像奥行き情報Dcにおいて、撮像位置から最も近距離に位置する標識NOに対応する領域NDは、最も明るい値になっている。また、撮像位置から2番目に近距離に位置する自動車MO1に対応する領域MD1は、領域NDの次に明るい値になっている。また、自動車MO1と同一位置の道路MO2に対応する領域MD2は、領域MD1と同一の値となっている。
しかしながら、遠距離に位置する背景FOに対応する領域FDは、黒一色となっており、カメラ画像奥行き情報が示されていない。このことは、遠距離に位置する背景FOのカメラ画像奥行き情報が、カメラ画像奥行き情報取得部13により適切に取得されていないことを意味している。
このように、遠距離に位置する背景FOの奥行き情報は、カメラ画像奥行き情報では適切に取得されないので、本実施形態では、消失線と消失点に基づいてシーン認識奥行き情報を推定する手法が適用されて推定される。
しかしながら、カメラ画像GC全体に対して、消失線と消失点に基づいてシーン認識奥行き情報を推定する手法を適用しても、遠距離に位置する背景FOの奥行き情報を推定することは困難である。以下、この困難な理由について、図5を参照して説明する。
[カメラ画像から抽出される消失線候補]
図5は、カメラ画像GC全体から抽出される消失線候補の一例を示す図である。
図5は、カメラ画像GC全体から抽出される消失線候補の一例を示す図である。
図5の例では、カメラ画像GC全体から消失線候補となる直線成分が抽出されている。具体的には、撮像位置から最も近距離に位置する標識NOに含まれるテクスチャの直線成分NL1,NL2が抽出されると共に、標識NOの輪郭を示す直線成分NL3が抽出されている。また、撮像位置から2番目の近距離に位置する自動車MO1に含まれる輪郭等が、直線成分ML1乃至ML3として抽出されている。さらに、背景FOに含まれる道路や建物等の稜線が、直線成分FL1乃至FL4として抽出されている。
直線成分FL1乃至FL4のように、カメラ画像GC中の奥行きの変化に沿った直線成分は、消失点となり得る一点で収束し得るので、消失線候補として適切である。しかしながら、撮像位置から一定以内の近距離に位置する標識NO,自動車MO1の各々から抽出された直線成分NL1乃至NL3,ML1乃至ML3の各々のように、奥行きの変化に沿わない直線成分は、消失点となり得る一点で収束しない。したがって、これらの直線成分が消失線候補として採用されてしまうと、適切な消失線と消失点を検出する障害となる。
以上の内容が、カメラ画像GC全体に対して、消失線と消失点に基づいてシーン認識奥行き情報を推定する手法を適用しても、遠距離に位置する背景FOの奥行き情報を推定することが困難な理由である。
したがって、奥行き情報推定装置1は、カメラ画像GCのうち、撮像位置から一定以内の近距離の領域をマスクすることにより、適切な消失線と消失点を検出するために障害となる直線成分を除去することによって、遠距離に位置する背景FOの奥行き情報を適切に推定する。
図2のフローチャートの説明に戻り、ステップS4において、奥行きマスク生成部14は、奥行きマスクを生成する。奥行きマスクは、カメラ画像GCのうち撮像位置から一定以内の近距離の領域をマスクすることを実現すべく生成される。生成された奥行きマスクは、近距離物体除去部15と奥行き情報合成部17に供給される。
[奥行きマスク]
ここで、奥行きマスク生成部14により生成される奥行きマスクについて、図6を参照して説明する。
ここで、奥行きマスク生成部14により生成される奥行きマスクについて、図6を参照して説明する。
図6は、奥行きマスクの一例を示す図である。
奥行きマスクMにおいては、カメラ画像GCを構成する各画素のそれぞれに対応して、次のような値が保持されている。即ち、撮像位置から一定以内の近距離にある画素については、対応する値として「1」が保持される一方、撮像位置から一定以上の距離にある画素については、対応する値として「0」が保持される。
奥行きマスクMには、撮像位置から最も近距離に位置する標識NOをマスクするための部分NM、即ち「1」が保持された部分NMが含まれる。このような部分NMを含め、マスクするために「1」が保持された部分(図6中白色で表される部分)を、以下、奥行きマスク部分と称する。即ち、奥行きマスクMには、奥行きマスク部分NMが含まれる。また、奥行きマスクMには、撮像位置から2番目の近距離に位置する自動車MO1をマスクするための奥行きマスク部分MM1、自動車MO1と同一位置の道路MO2をマスクするための奥行きマスク部分MM2が含まれる。
なお、奥行きマスクMにおいて、「0」を保持している部分FM(図6中黒色で表される部分)に対応するカメラ画像GCの背景FOは、除去されずにそのまま残される。
図2のフローチャートの説明に戻り、ステップS5において、近距離物体除去部15は、近距離物体を除去する。即ち、近距離物体除去部15は、奥行きマスク生成部14により生成された奥行きマスクMに基づいて、画像取得部11により取得されたカメラ画像GCから、近距離物体を除去する。その結果、遠距離対象画像が生成され、シーン認識奥行き情報推定部16に供給される。
[遠距離対象画像]
ここで、近距離物体除去部15により生成される遠距離対象画像について、図7を参照して説明する。
ここで、近距離物体除去部15により生成される遠距離対象画像について、図7を参照して説明する。
図7は、遠距離対象画像の一例を示す図である。
遠距離対象画像GFは、カメラ画像GCに対して、近距離物体である標識NO、自動車MO1、及び自動車MO1と同一位置の道路MO2が除去された画像となっている。具体的には、図6の奥行きマスクMのうち、奥行きマスク部分NMに基づいて、カメラ画像GCのうち、標識NOに対応する領域が黒色の領域NBに置換されることで、標識NOが除去されている。また、図6の奥行きマスク部分MM1に基づいて、カメラ画像GCのうち、自動車MO1に対応する領域が黒色の領域MB1に置換されることで、自動車MO1が除去されている。さらに、図6の奥行きマスク部分MM2に基づいて、カメラ画像GCのうち、自動車MO1と同一位置の道路MO2に対応する領域が、黒色の領域MB2に置換されることで、道路MO2が除去されている。
図2のフローチャートの説明に戻り、ステップS6において、シーン認識奥行き情報推定部16は、シーン認識奥行き情報を推定する。推定されたシーン認識奥行き情報は、奥行き情報合成部17に供給される。
[遠距離対象画像から抽出される消失線候補]
ここで、シーン認識奥行き情報を推定するために、遠距離対象画像GFから抽出される消失線候補について、図8を参照して説明する。
ここで、シーン認識奥行き情報を推定するために、遠距離対象画像GFから抽出される消失線候補について、図8を参照して説明する。
図8は、遠距離対象画像GFから抽出される消失線候補の一例を示す図である。
遠距離対象画像GFは、奥行きマスクMに基づいて、撮像位置から一定以内の近距離に位置する標識NOと自動車MO1が除去された結果、黒色の領域NB,MB1を有している。したがって、遠距離対象画像GFからは、図5に示される標識NOに含まれる直線成分NL1乃至NL3と、自動車MO1に含まれる直線成分ML1乃至ML3は抽出されない。即ち、遠距離対象画像GFからは、背景FOに含まれる直線成分FL1乃至FL4のみが抽出される。直線成分FL1乃至FL4は、遠距離対象画像GF中の奥行きの変化に沿った直線成分であり、消失線候補として適切である。
シーン認識奥行き情報推定部16は、抽出された適切な消失線候補である直線成分FL1乃至FL4から消失線と消失点を検出する。シーン認識奥行き情報推定部16は、検出された消失線と消失点に基づいて、遠距離のシーン認識奥行き情報を推定する。
[シーン認識奥行き情報]
ここで、シーン認識奥行き情報推定部16により推定されるシーン認識奥行き情報について、図9を参照して説明する。
ここで、シーン認識奥行き情報推定部16により推定されるシーン認識奥行き情報について、図9を参照して説明する。
図9は、シーン認識奥行き情報の一例を示す図である。
シーン認識奥行き情報Dsにおいては、撮像位置からの距離が輝度を表すグレースケールで示されており、撮像位置から近距離にある領域ほど明るくなるように示されている。
図9に示されるように、シーン認識奥行き情報Dsにおいて、遠距離に位置する背景FOに対応する領域FDは、撮像位置から近いほど明るく、遠いほど暗くなっている。
また、シーン認識奥行き情報Dsは、奥行きマスクMに基づいて近距離物体が除去された結果、黒色の領域NB,MB1,MB2を有している。即ち、黒色の領域NB,MB1,MB2では、マスクされるため、シーン認識奥行き情報は取得されていない。
図2のフローチャートの説明に戻り、ステップS7において、奥行き情報合成部17は、奥行き情報合成処理を実行する。奥行き情報合成処理とは、次のような一連の処理をいう。即ち、奥行き情報合成部17は、奥行きマスク生成部14から供給された奥行きマスクMを用いて、カメラ画像奥行き情報取得部13から供給されたカメラ画像奥行き情報Dcと、シーン認識奥行き情報推定部16から供給されたシーン認識奥行き情報Dsとを合成する。奥行き情報合成部17は、カメラ画像奥行き情報Dcとシーン認識奥行き情報Dsとが合成された結果得られる合成奥行き情報Dfを出力する。
[奥行き情報合成処理]
ここで、ステップS7の奥行き情報合成処理の流れの詳細について、図10を参照して説明する。
ここで、ステップS7の奥行き情報合成処理の流れの詳細について、図10を参照して説明する。
図10は、奥行き情報合成処理の流れの一例を説明するフローチャートである。
奥行き情報合成処理の処理単位としては、カメラ画像GCを構成する各画素のうち、処理の対象として注目すべき画素(以下、注目画素と称する)が採用されている。即ち、奥行き情報合成部17は、奥行き情報合成処理として、カメラ画像GCを構成する各画素を、ラスタスキャン順に注目画素に順次設定して、次のような一連の処理を実行する。
なお、カメラ画像の各画素は、カメラ画像のうち、横方向(幅方向)の軸をX軸として、縦方向(高さ方向)の軸をY軸として、左上端の画素の配置位置を原点(0,0)として構成される2次元座標平面上に、縦横共に距離が「1」ずつ離間されてそれぞれ配置されているものとする。即ち、注目画素の位置は、当該2次元座標平面上における座標(x,y)で表されるものとする。
ステップS21において、奥行き情報合成部17は、注目画素の座標(x,y)を(0,0)に初期化する(0→x,0→y)。
ステップS22において、奥行き情報合成部17は、注目画素の座標(x,y)における奥行きマスクMの値が「0」であるかを判定する(M(x,y)=0?)。
奥行きマスクMの値が「0」ではなく「1」である場合、即ち、注目画素が撮像位置から一定以内の近距離にある場合、ステップS22においてNOであると判定されて、処理はステップS23に進む。
ステップS23において、奥行き情報合成部17は、注目画素の座標(x,y)におけるカメラ画像奥行き情報Dcを、合成奥行き情報Dfに設定する(Dc(x,y)→Df(x,y))。
一方、奥行きマスクMの値が「0」である場合、即ち、注目画素が撮像位置から一定以上の距離にある場合、ステップS22においてYESであると判定されて、処理はステップS24に進む。
ステップS24において、奥行き情報合成部17は、注目画素の座標(x,y)におけるシーン認識奥行き情報Dsを、合成奥行き情報Dfに設定する(Ds(x,y)→Df(x,y))。
ステップS25において、奥行き情報合成部17は、注目画素のx座標を1だけインクリメントする(x+1→x)。即ち、カメラ画像のX方向の所定のラインにおいて注目画素が移動している間には、注目画素はX方向(右方向)に1つずつ移動していくので、y座標は固定のままx座標だけ1ずつ増加していくことになる。このため、ステップS25の処理で、注目画素のx座標が1だけインクリメントされる。
ステップS26において、奥行き情報合成部17は、注目画素のx座標がカメラ画像の幅よりも小さいかを判定する(x<カメラ画像の幅?)。
ここで、注目画素は、所定ラインの右端の画素に設定されると、その次には、当該所定ラインの下方のラインの左端の画素に設定される。即ち、注目画素のx座標は0にリセットされると共に、注目画素のy座標が1だけ増加する。奥行き情報合成部17は、ステップS25の処理後の注目画素のx座標が、「カメラ画像の幅」よりも小さいか否かに応じて、注目画素が所定ラインを移動中であるのか、それとも注目画素が所定ラインの下方のラインに移動するのかを判断して、注目画素の座標を変化させるか否かを決定する必要がある。このような判断及び決定のために、ステップS26の処理が実行される。
注目画素のx座標が、カメラ画像の幅よりも小さい場合、ステップS26においてYESであると判定されて、処理はステップS22に戻され、その後の処理が繰り返される。この場合には、注目画素が所定ラインを移動中、即ちX座標が1つずつインクリメントされる最中であるので、ステップS22乃至S26のループ処理が繰り返される。
その後、注目画素が右端の画素となってステップS22乃至S24の処理が実行され、ステップS25の処理によって、注目画素のx座標が、カメラ画像の幅と等しくなると、ステップS26においてNOであると判定されて、処理はステップS27に進む。
ステップS27において、奥行き情報合成部17は、注目画素のx座標を「0」に初期化(リセット)し、y座標を「1」だけインクリメントする(0→x,y+1→y)。即ち、注目画素が、所定ラインの右端の画素から、当該所定ラインの下方のラインの左端の画素に移動する。
ステップS28において、奥行き情報合成部17は、注目画素のy座標がカメラ画像の高さよりも小さいかを判定する(y<カメラ画像の高さ?)。
ここで、注目画素は、上述したように、ラスタスキャン順に移動するので、X方向(幅方向)に着目すると、所定ラインを左から右に1画素ずつ移動していき、Y方向(高さ方向)に着目すると、上から下に1ラインずつ移動していき、最下ラインまで到達する。したがって、カメラ画像の右下端の画素が、最終の処理対象の画素になる。奥行き情報合成部17は、ステップS27の処理後の注目画素のy座標が、「カメラ画像の高さ」よりも小さいか否かに応じて、ステップS7の奥行き情報合成処理を継続させるのか、それとも終了させるのかを判断する必要がある。このような判断のために、ステップS28の処理が実行される。
注目画素のy座標が、カメラ画像の高さよりも小さい場合、ステップS7の奥行き情報合成処理を継続させる必要があるので、ステップS28においてYESであると判定されて、処理はステップS22に戻され、その後の処理が繰り返される。
その後、注目画素のy座標が、カメラ画像の高さと等しくなった場合、即ち、カメラ画像の全画素が注目画素に設定されて、全ての合成奥行き情報Dfが設定された場合、ステップS28においてNOであると判定されて、奥行き情報合成処理は終了する。
このような奥行き情報合成処理が終了すると、図2の奥行き情報推定処理の全体も終了となる。その結果、カメラ画像奥行き情報Dcとシーン認識奥行き情報Dsとが合成された合成奥行き情報Dfが出力される。
[合成奥行き情報]
ここで、奥行き情報合成部17により生成される合成奥行き情報Dfについて、図11を参照して説明する。
ここで、奥行き情報合成部17により生成される合成奥行き情報Dfについて、図11を参照して説明する。
図11は、合成奥行き情報Dfの一例を示す図である。
合成奥行き情報Dfにおいては、撮像位置からの距離が輝度を表すグレースケールで示されており、撮像位置から近距離にある領域ほど明るくなるように示されている。
図11に示されるように、合成奥行き情報Dfにおいて、撮像位置から最も近距離に位置する標識NOに対応する領域NDは、最も明るい値になっている。また、撮像位置から2番目の近距離に位置する自動車MO1に対応する領域MD1は、領域NDの次に明るい値になっている。また、自動車MO1と同一位置の道路MO2に対応する領域MD2は、領域MD1と同一の値となっている。即ち、領域ND,MD1,MD2の奥行き情報には、カメラ画像奥行き情報取得部13から供給されたカメラ画像奥行き情報Dc(図4参照)が用いられている。
また、合成奥行き情報Dfにおいて、遠距離に位置する背景FOに対応する領域FDは、撮像位置から近いほど明るく、遠いほど暗くなっている。即ち、領域FDの奥行き情報には、シーン認識奥行き情報推定部16から供給されたシーン認識奥行き情報Ds(図9参照)が用いられている。
このように、奥行き情報推定装置1は、TOFカメラのセンサ情報を用いて得られた近距離のカメラ画像奥行き情報Dcと、近距離の領域をマスクして消失線と消失点を検出することで得られた遠距離のシーン認識奥行き情報Dsを合成する。これにより、近距離と遠距離の双方の奥行き情報を精度よく得ることができるようになる。
<2.第2実施形態>
[奥行き推定装置の機能的構成例]
図12は、本技術が適用される奥行き情報推定装置31の機能的構成例を示すブロック図である。奥行き情報推定装置31は、ステレオカメラを用いて近距離の奥行き情報を取得すると共に、近距離の領域をマスクして消失線と消失点を検出することで遠距離のシーン認識奥行き情報を推定し、これら近距離と遠距離の各奥行き情報を組み合わせる。
[奥行き推定装置の機能的構成例]
図12は、本技術が適用される奥行き情報推定装置31の機能的構成例を示すブロック図である。奥行き情報推定装置31は、ステレオカメラを用いて近距離の奥行き情報を取得すると共に、近距離の領域をマスクして消失線と消失点を検出することで遠距離のシーン認識奥行き情報を推定し、これら近距離と遠距離の各奥行き情報を組み合わせる。
奥行き情報推定装置31は、画像取得部41、カメラ画像奥行き情報取得部42、奥行きマスク生成部43、近距離物体除去部44、シーン認識奥行き情報推定部45、及び奥行き情報合成部46から構成される。
なお、図12の奥行きマスク生成部43、近距離物体除去部44、シーン認識奥行き情報推定部45、及び奥行き情報合成部46のそれぞれの機能的構成は、図1の奥行きマスク生成部14、近距離物体除去部15、シーン認識奥行き情報推定部16、及び奥行き情報合成部17の機能的構成と基本的に同様で一致する。したがって、以下では、図1の奥行き情報推定装置1との一致点の説明は簡略化し、主にその差異点を説明する。
画像取得部41は、内蔵するか、外部に配置されたステレオカメラにより被写体が撮像された結果得られる左画像及び右画像を取得して、カメラ画像奥行き情報取得部42に供給する。また、画像取得部41は、取得した左画像及び右画像のうちのどちらか一方の画像をカメラ画像として、近距離物体除去部44に供給する。
カメラ画像奥行き情報取得部42は、画像取得部41から供給された左画像及び右画像に対してステレオマッチング処理を施すことにより、画素毎のカメラ画像奥行き情報を取得する。即ち、カメラ画像奥行き情報取得部42は、左画像及び右画像における同一被写体の位置ずれを検出し、検出された位置ずれに対して三角測量の原理を用いて各画素のカメラ画像奥行き情報を取得する。カメラ画像奥行き情報取得部42は、取得された画素毎のカメラ画像奥行き情報を、奥行きマスク生成部43と奥行き情報合成部46に供給する。
近距離物体除去部44は、奥行きマスク生成部43により供給された奥行きマスクに基づいて、画像取得部41から供給されたカメラ画像(即ち、左画像及び右画像のうちのどちらか一方の画像)から近距離物体を除去する。これにより、遠距離対象画像が生成され、シーン認識奥行き情報推定部45に供給される。
シーン認識奥行き情報推定部45は、近距離物体除去部44から供給された遠距離対象画像から、遠距離のシーン認識奥行き情報を推定する。シーン認識奥行き情報推定部45は、推定された遠距離のシーン認識奥行き情報を、奥行き情報合成部46に供給する。
奥行き情報合成部46は、奥行きマスク生成部43から供給された奥行きマスクを用いて、カメラ画像奥行き情報取得部42から供給されたカメラ画像奥行き情報と、シーン認識奥行き情報推定部45から供給されたシーン認識奥行き情報とを合成して、合成奥行き情報を生成する。奥行き情報合成部46は、合成奥行き情報を、奥行き情報推定装置31の処理結果として外部に出力する。
[奥行き情報推定処理]
次に、このような図12の機能的構成例を有する奥行き情報推定装置31が実行する奥行き情報推定処理の流れについて説明する。
次に、このような図12の機能的構成例を有する奥行き情報推定装置31が実行する奥行き情報推定処理の流れについて説明する。
図13は、奥行き情報推定処理の流れの一例を説明するフローチャートである。なお、図13の奥行き情報推定処理の各処理は、図2の奥行き情報推定処理の各処理と基本的に同様の処理である。したがって、以下では、図2の奥行き情報推定処理との一致点の説明は簡略化し、主にその差異点を説明する。
ステップS41において、画像取得部41は、ステレオカメラから出力された右画像及び左画像を取得して、カメラ画像奥行き情報取得部42に供給する。また、画像取得部41は、取得した左画像及び右画像のうちのどちらか一方の画像をカメラ画像として、近距離物体除去部44に供給する。
ステップS42において、カメラ画像奥行き情報取得部42は、画像取得部41から供給された左画像及び右画像に対してステレオマッチング処理を施すことにより、カメラ画像奥行き情報を取得する。取得されたカメラ画像奥行き情報は、奥行きマスク生成部43と奥行き情報合成部46に供給される。
ステップS43において、奥行きマスク生成部43は、奥行きマスクを生成する。生成された奥行きマスクは、近距離物体除去部44と奥行き情報合成部46に供給される。
ステップS44において、近距離物体除去部44は、近距離物体を除去する。即ち、近距離物体除去部44は、奥行きマスク生成部43により供給された奥行きマスクに基づいて、画像取得部41から供給されたカメラ画像から、近距離物体を除去する。その結果、遠距離対象画像が生成され、シーン認識奥行き情報推定部45に供給される。
ステップS45において、シーン認識奥行き情報推定部45は、シーン認識奥行き情報を推定する。推定されたシーン認識奥行き情報は、奥行き情報合成部46に供給される。
ステップS46において、奥行き情報合成部46は、奥行き情報合成処理を実行する。この処理は、図10に示した奥行き情報合成処理と同様の処理である。
これにより、奥行き情報推定装置31による奥行き情報推定処理は終了する。
ところで、上述の例のシーン認識奥行き情報推定部16では、消失線と消失点に基づいてシーン認識奥行き情報を推定する手法が採用された。しかしながら、シーン認識奥行き情報を推定する手法は、これに限定されず、例えば、特開2005−151534号公報(以下、特許文献3と称する)に記載された手法が採用されてもよい。
特許文献3の手法とは、シーンが撮像されたカメラ画像内の各画素の輝度値の高域成分のマップ(即ち、分布状態)を算定して、シーン認識奥行き情報を推定する手法をいう。
カメラ画像の全体に対して特許文献3の手法が仮に適用されたならば、例えば、カメラ画像の上部領域の輝度値の高域成分が少ない場合には、上部領域に空や平坦な壁が存在していると認識され、下部領域の高域成分が少ない場合には、下部領域に平坦な地面や水面が近距離に広がっているシーンであると認識される。そして、カメラ画像の上部領域は遠距離、下部領域は下方に行くほどシーン認識奥行き情報が小さくなる、というような奥行きモデルが選択される。
ここで、上部領域に空や平坦な壁が存在している認識される場合、近距離に高域成分を含む被写体が存在すると、このような被写体が障害となって適切な奥行きモデルの選択が困難となる。
そこで、本技術においては、カメラ画像のうち近距離の領域がマスクされた後に、奥行きモデルの選択が行われる。
具体的には、シーンを分類するための奥行きモデルが、予め複数用意される。そして、シーンが撮像されたカメラ画像のうち、奥行きマスクにより特定される近距離の領域を除外した領域内において、輝度値の高域成分のマップが算定され、当該輝度値の高域成分のマップが、何れの奥行きモデルに該当するかが選択される。所定の奥行きモデルが選択されると、選択された所定の奥行きモデルに基づいて、シーン認識奥行き情報が推定される。
これにより、適切な奥行きモデルが選択され、遠距離のシーン認識奥行き情報を精度よく推定することが可能になる。
[本技術のプログラムへの適用]
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図14は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、及びドライブ110が接続されている。
入力部106は、キーボード、マウス、マイクロフォンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア111を駆動する。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア111に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア111をドライブ110に装着することにより、入出力インタフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本技術は、以下のような構成もとることができる。
(1)
カメラで撮像された画像を構成する各画素毎の奥行き情報を、画像奥行き情報として取得する奥行き情報取得部と、
前記奥行き情報取得部により取得された前記画像奥行き情報を用いて、前記画像から所定の領域を除去するマスクを生成するマスク生成部と、
前記マスク生成部により生成された前記マスクに基づいて、前記画像から前記所定の領域が除去された画像を処理対象として、前記処理対象の奥行き情報を推定する奥行き情報推定部と、
前記マスクを用いて、前記奥行き情報取得部により取得された前記画像奥行き情報と、前記奥行き情報推定部により推定された前記奥行き情報とを合成する奥行き情報合成部と
を備える情報処理装置。
(2)
前記奥行き情報推定部は、前記処理対象から消失線と消失点とを検出し、前記消失線と前記消失点に基づいて、前記奥行き情報を推定する
前記(1)に記載の情報処理装置。
(3)
前記マスク生成部は、前記画像を構成する前記各画素のそれぞれに対応して、前記画像の撮像位置から所定の距離以内にあるか否かを示す情報をそれぞれ保持するマップを、前記マスクとして生成する
前記(1)または(2)に記載の情報処理装置。
(4)
シーンを分類するための奥行きモデルが、予め複数用意されており、
前記奥行き情報推定部は、前記処理対象内の各画素の輝度値の高域成分のマップを求め、前記マップに基づいて複数の前記奥行きモデルの中から1つを選択し、選択した前記奥行きモデルに基づいて前記奥行き情報を推定する
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記奥行き情報取得部は、センサにより検出された情報に基づいて、前記画像奥行き情報を取得する
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記画像は、複数の異なる視点から撮像された場合にそれぞれ得られる複数の画像から構成され、
前記奥行き情報取得部は、前記複数の画像に対してステレオマッチング処理を施すことにより、前記画像奥行き情報を取得する
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記奥行き情報推定部は、前記マスク生成部により生成された前記マスクに基づいて、前記複数の画像のうちの所定の画像から前記所定の領域が除去された画像を処理対象として、前記処理対象の前記奥行き情報を推定する
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(1)
カメラで撮像された画像を構成する各画素毎の奥行き情報を、画像奥行き情報として取得する奥行き情報取得部と、
前記奥行き情報取得部により取得された前記画像奥行き情報を用いて、前記画像から所定の領域を除去するマスクを生成するマスク生成部と、
前記マスク生成部により生成された前記マスクに基づいて、前記画像から前記所定の領域が除去された画像を処理対象として、前記処理対象の奥行き情報を推定する奥行き情報推定部と、
前記マスクを用いて、前記奥行き情報取得部により取得された前記画像奥行き情報と、前記奥行き情報推定部により推定された前記奥行き情報とを合成する奥行き情報合成部と
を備える情報処理装置。
(2)
前記奥行き情報推定部は、前記処理対象から消失線と消失点とを検出し、前記消失線と前記消失点に基づいて、前記奥行き情報を推定する
前記(1)に記載の情報処理装置。
(3)
前記マスク生成部は、前記画像を構成する前記各画素のそれぞれに対応して、前記画像の撮像位置から所定の距離以内にあるか否かを示す情報をそれぞれ保持するマップを、前記マスクとして生成する
前記(1)または(2)に記載の情報処理装置。
(4)
シーンを分類するための奥行きモデルが、予め複数用意されており、
前記奥行き情報推定部は、前記処理対象内の各画素の輝度値の高域成分のマップを求め、前記マップに基づいて複数の前記奥行きモデルの中から1つを選択し、選択した前記奥行きモデルに基づいて前記奥行き情報を推定する
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記奥行き情報取得部は、センサにより検出された情報に基づいて、前記画像奥行き情報を取得する
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記画像は、複数の異なる視点から撮像された場合にそれぞれ得られる複数の画像から構成され、
前記奥行き情報取得部は、前記複数の画像に対してステレオマッチング処理を施すことにより、前記画像奥行き情報を取得する
前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記奥行き情報推定部は、前記マスク生成部により生成された前記マスクに基づいて、前記複数の画像のうちの所定の画像から前記所定の領域が除去された画像を処理対象として、前記処理対象の前記奥行き情報を推定する
前記(1)乃至(6)のいずれかに記載の情報処理装置。
本技術は、奥行き情報を生成する情報処理装置に適用することができる。
1 奥行き情報推定装置, 11 画像取得部, 12 センサ情報取得部, 13 カメラ画像奥行き情報取得部, 14 奥行きマスク生成部, 15 近距離物体除去部, 16 シーン認識奥行き情報推定部, 17 奥行き情報合成部, 31 奥行き情報推定装置
Claims (9)
- カメラで撮像された画像を構成する各画素毎の奥行き情報を、画像奥行き情報として取得する奥行き情報取得部と、
前記奥行き情報取得部により取得された前記画像奥行き情報を用いて、前記画像から所定の領域を除去するマスクを生成するマスク生成部と、
前記マスク生成部により生成された前記マスクに基づいて、前記画像から前記所定の領域が除去された画像を処理対象として、前記処理対象の奥行き情報を推定する奥行き情報推定部と、
前記マスクを用いて、前記奥行き情報取得部により取得された前記画像奥行き情報と、前記奥行き情報推定部により推定された前記奥行き情報とを合成する奥行き情報合成部と
を備える情報処理装置。 - 前記奥行き情報推定部は、前記処理対象から消失線と消失点とを検出し、前記消失線と前記消失点に基づいて、前記奥行き情報を推定する
請求項1に記載の情報処理装置。 - 前記マスク生成部は、前記画像を構成する前記各画素のそれぞれに対応して、前記画像の撮像位置から所定の距離以内にあるか否かを示す情報をそれぞれ保持するマップを、前記マスクとして生成する
請求項2に記載の情報処理装置。 - シーンを分類するための奥行きモデルが、予め複数用意されており、
前記奥行き情報推定部は、前記処理対象内の各画素の輝度値の高域成分のマップを求め、前記マップに基づいて複数の前記奥行きモデルの中から1つを選択し、選択した前記奥行きモデルに基づいて前記奥行き情報を推定する
請求項1に記載の情報処理装置。 - 前記奥行き情報取得部は、センサにより検出された情報に基づいて、前記画像奥行き情報を取得する
請求項1に記載の情報処理装置。 - 前記画像は、複数の異なる視点から撮像された場合にそれぞれ得られる複数の画像から構成され、
前記奥行き情報取得部は、前記複数の画像に対してステレオマッチング処理を施すことにより、前記画像奥行き情報を取得する
請求項1に記載の情報処理装置。 - 前記奥行き情報推定部は、前記マスク生成部により生成された前記マスクに基づいて、前記複数の画像のうちの所定の画像から前記所定の領域が除去された画像を処理対象として、前記処理対象の前記奥行き情報を推定する
請求項6に記載の情報処理装置。 - カメラで撮像された画像を構成する各画素毎の奥行き情報を、画像奥行き情報として取得し、
取得された前記画像奥行き情報を用いて、前記画像から所定の領域を除去するマスクを生成し、
生成された前記マスクに基づいて、前記画像から前記所定の領域が除去された画像を処理対象として、前記処理対象の奥行き情報を推定し、
前記マスクを用いて、取得された前記画像奥行き情報と、推定された前記奥行き情報とを合成する
ステップを含む情報処理方法。 - コンピュータを、
カメラで撮像された画像を構成する各画素毎の奥行き情報を、画像奥行き情報として取得する奥行き情報取得部と、
前記奥行き情報取得部により取得された前記画像奥行き情報を用いて、前記画像から所定の領域を除去するマスクを生成するマスク生成部と、
前記マスク生成部により生成された前記マスクに基づいて、前記画像から前記所定の領域が除去された画像を処理対象として、前記処理対象の奥行き情報を推定する奥行き情報推定部と、
前記マスクを用いて、前記奥行き情報取得部により取得された前記画像奥行き情報と、前記奥行き情報推定部により推定された前記奥行き情報とを合成する奥行き情報合成部
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012070768A JP2013205867A (ja) | 2012-03-27 | 2012-03-27 | 情報処理装置及び方法、並びにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012070768A JP2013205867A (ja) | 2012-03-27 | 2012-03-27 | 情報処理装置及び方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013205867A true JP2013205867A (ja) | 2013-10-07 |
Family
ID=49524943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012070768A Pending JP2013205867A (ja) | 2012-03-27 | 2012-03-27 | 情報処理装置及び方法、並びにプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013205867A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015092152A (ja) * | 2013-10-01 | 2015-05-14 | 株式会社トプコン | 測定方法及び測定装置 |
JP2015146500A (ja) * | 2014-02-03 | 2015-08-13 | キヤノン株式会社 | 撮像装置およびその制御方法 |
WO2016194296A1 (en) | 2015-06-04 | 2016-12-08 | Sony Corporation | In-vehicle camera system and image processing apparatus |
DE202016008786U1 (de) | 2015-06-04 | 2019-08-22 | Sony Corporation | Fahrzeugkamerasystem und Bildverarbeitungsvorrichtung |
US10398006B2 (en) | 2016-03-16 | 2019-08-27 | Ricoh Company, Ltd. | Object detection apparatus and moveable apparatus |
JP2023544072A (ja) * | 2021-09-01 | 2023-10-20 | グーグル エルエルシー | ハイブリッド深度マップ |
-
2012
- 2012-03-27 JP JP2012070768A patent/JP2013205867A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015092152A (ja) * | 2013-10-01 | 2015-05-14 | 株式会社トプコン | 測定方法及び測定装置 |
JP2015146500A (ja) * | 2014-02-03 | 2015-08-13 | キヤノン株式会社 | 撮像装置およびその制御方法 |
WO2016194296A1 (en) | 2015-06-04 | 2016-12-08 | Sony Corporation | In-vehicle camera system and image processing apparatus |
DE202016008786U1 (de) | 2015-06-04 | 2019-08-22 | Sony Corporation | Fahrzeugkamerasystem und Bildverarbeitungsvorrichtung |
EP3849172A1 (en) | 2015-06-04 | 2021-07-14 | Sony Corporation | In-vehicle camera system and image processing apparatus |
US10398006B2 (en) | 2016-03-16 | 2019-08-27 | Ricoh Company, Ltd. | Object detection apparatus and moveable apparatus |
JP2023544072A (ja) * | 2021-09-01 | 2023-10-20 | グーグル エルエルシー | ハイブリッド深度マップ |
JP7622087B2 (ja) | 2021-09-01 | 2025-01-27 | グーグル エルエルシー | ハイブリッド深度マップ |
US12271992B2 (en) | 2021-09-01 | 2025-04-08 | Google Llc | Hybrid depth maps |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3754295B1 (en) | Three-dimensional measuring system and three-dimensional measuring method | |
US11328479B2 (en) | Reconstruction method, reconstruction device, and generation device | |
JP7058277B2 (ja) | 再構成方法および再構成装置 | |
KR101188105B1 (ko) | 영상 정보를 이용한 증강 현실 제공 장치 및 방법 | |
JP6632474B2 (ja) | 監視装置、監視方法及び空港監視システム | |
EP3447730A1 (en) | Three-dimensional reconstruction method | |
JP6499047B2 (ja) | 計測装置、方法及びプログラム | |
KR100953076B1 (ko) | 객체 또는 배경 분리를 이용한 다시점 정합 방법 및 장치 | |
KR20130030208A (ko) | 에고모션 추정 시스템 및 방법 | |
JP2013205867A (ja) | 情報処理装置及び方法、並びにプログラム | |
JP6179639B2 (ja) | 道路境界物の検出方法及び検出装置 | |
JP2014138420A (ja) | 自律車両用の奥行き検知方法及びシステム | |
JP2006105661A (ja) | ステレオ画像による平面推定方法 | |
WO2015098222A1 (ja) | 情報処理装置及び情報処理方法及びプログラム | |
EP3832601A1 (en) | Image processing device and three-dimensional measuring system | |
KR100926520B1 (ko) | 객체/배경 분리 및 영상분할을 이용한 양안/다시점스테레오 정합 장치 및 그 방법 | |
US11348271B2 (en) | Image processing device and three-dimensional measuring system | |
JP2015206768A (ja) | 前景領域抽出装置、前景領域抽出方法及びプログラム | |
JP2011022805A (ja) | 画像処理装置 | |
JP6396499B2 (ja) | 三次元情報の規模測定 | |
EP4064206A1 (en) | Three-dimensional model generation method and three-dimensional model generation device | |
JP6655869B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2004069583A (ja) | 画像処理装置 | |
EP4443383A1 (en) | Three-dimensional model generation method and three-dimensional model generation device | |
KR101804157B1 (ko) | 개선된 sgm 기반한 시차 맵 생성 방법 |