JP3728160B2 - 奥行き画像計測装置及び方法、並びに複合現実感提示システム - Google Patents
奥行き画像計測装置及び方法、並びに複合現実感提示システム Download PDFInfo
- Publication number
- JP3728160B2 JP3728160B2 JP34669999A JP34669999A JP3728160B2 JP 3728160 B2 JP3728160 B2 JP 3728160B2 JP 34669999 A JP34669999 A JP 34669999A JP 34669999 A JP34669999 A JP 34669999A JP 3728160 B2 JP3728160 B2 JP 3728160B2
- Authority
- JP
- Japan
- Prior art keywords
- depth information
- image
- reference image
- measuring
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
- G06T7/596—Depth or shape recovery from multiple images from stereo images from three or more stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Description
【発明の属する技術分野】
本発明は所定位置から取得した実空間画像から、画像取得位置からその画像に含まれる物体との距離情報(奥行き情報)を取得する奥行き情報計測技術に関し、特に計測処理速度と処理精度の両面に優れた奥行き情報計測技術に関する。
【0002】
【従来の技術】
近年、現実空間と仮想空間の継ぎ目のない結合を目的とした複合現実感(Mixed Reality、MR)に関する研究が盛んになっている。MRは従来、現実空間と切り離された状況でのみ体験可能であったバーチャルリアリティ(VR)の世界と現実空間との共存を目的とし、VRを増強する技術として注目されている。
【0003】
複合現実感を実現する装置として代表的なものは、ヘッドマウントディスプレイ(HMD)である。すなわち、現実空間(又はそのビデオ画像)と仮想空間画像をHMDに合成して表示することにより、複合現実感を実現するものである。また、HMDを用いたMRの方式としては、半透過型(シースルー型)のヘッドマウントディスプレイ(HMD)にコンピュータグラフィックス(CG)等で作成した仮想空間画像を表示することで、体験者自身の目で直接視認した現実空間とディスプレイ上の仮想空間画像が体験者の目で合成されて複合現実空間が体感される光学シースルー方式と、HMD等に装着したビデオカメラで撮影した画像データにCG等の画像を合成した複合現実空間画像を生成した後、その画像をHMDに表示することにより体験者が複合現実空間を体感するビデオシースルー方式がある。
【0004】
MRの用途としては、患者の体内の様子を透過しているように医師に提示する医療補助や、工場において製品の組み立て手順を実物に重ねて表示する作業補助、現実空間に仮想空間画像で生成された仮想の敵やボール等を表示し、射撃やスポーツなどを行なうゲーム、現実空間の部屋に仮想の家具を配置するリビングシミュレーションなど、今までのVRとは質的に全く異なった新たな分野が期待されている。
【0005】
このような複合現実空間を実現するためには、現実空間の物体の位置関係を把握しておく必要がある。すなわち、仮想空間画像で示される物体(仮想物体)を表示する場合には、現実空間に存在する物体に隠れる部分は表示しないようにする必要があるし、仮想物体を移動させる場合であれば、現実空間の物体と重なる位置には移動できないようにする必要がある。また、ゲームなどで現実空間の物体と仮想物体との当たり判定を行なう場合にも、現実物体の位置情報が必要になる。
【0006】
現実空間の物体位置情報を取得する方法として、レーザー光を走査してその戻り光受信までの時間により距離情報(奥行き情報)を求めるレーザレンジファインダを用いる方法や、複数のビデオカメラにより現実空間を撮影し、その画像データから、撮影位置から物体までの距離を求める多眼ステレオ法などがある。また、奥行き情報の利用に当たっては、距離に応じて輝度を変化させたり、色を割り当てるなどの方法で画像化した奥行き画像の形で用いることが多い。
【0007】
【発明が解決しようとする課題】
複合現実感提示システムにおいては、ユーザの視点位置において現実空間と仮想空間とを違和感無く整合させて提示(表示)する必要がある。ユーザの視点位置は常に移動するため、奥行き情報及び視点位置情報の検出及びこれらの情報に基づく描画を実時間に近い速度で行なう必要がある。特にゲームなどのアプリケーションにおいてはユーザの視点位置は高速にかつ大きく移動するため、奥行き情報の取得(奥行き画像の生成)にも更に高速性が要求される。
【0008】
しかしながら、従来の奥行き情報計測装置においては、演算が高速であれば得られる奥行き情報の精度は低く、高精度の情報を得ようとすると演算が複雑になり処理時間が長くなるという問題を有していた。
【0009】
本発明はこのような従来技術の問題点に鑑みなされたものであり、高速な演算時間で高精度な奥行き情報の取得が可能な奥行き情報計測装置及び方法、並びに複合現実感提示システムを提供することを目的とする。
【0018】
また、本発明の別の要旨は、基準画像と、この基準画像とステレオ画像対を形成する少なくとも1つの周辺画像とから、基準画像の取得位置における奥行き情報を計測する奥行き情報計測装置であって、基準画像と周辺画像から、第1の奥行き情報を計測する第1の奥行き情報計測手段と、前記基準画像の特性に応じて、基準画像と周辺画像から、第1の奥行き情報計測手段と異なる方法により、第2の奥行き情報を計測する第2の奥行き情報計測手段と、基準画像もしくは周辺画像の所定領域毎に、第1の奥行き情報と第2の奥行き情報のいずれか一方を選択する選択手段と、第1の奥行き情報と第2の奥行き情報を、選択信号に応じて合成して基準画像の取得位置における奥行き情報として出力する合成手段とを有し、第1の奥行き情報計測手段が、第2の奥行き情報計測手段よりも処理速度が速く、第2の奥行き情報が、第1の奥行き情報よりも高精度であることを特徴とする奥行き情報計測装置に存する。
【0019】
また、本発明の別の要旨は、基準画像と、この基準画像とステレオ画像対を形成する少なくとも1つの周辺画像とから、基準画像の取得位置における奥行き情報を計測する奥行き情報計測方法であって、基準画像と周辺画像から、第1の奥行き情報を計測する第1の奥行き情報計測ステップと、基準画像と周辺画像から、第1の奥行き情報計測手段と異なる方法により、第2の奥行き情報を計測する第2の奥行き情報計測ステップと、前記基準画像の特性に応じて、基準画像もしくは周辺画像の所定領域毎に、第1の奥行き情報と第2の奥行き情報のいずれか一方を選択する選択ステップと、第1の奥行き情報と第2の奥行き情報を、選択信号に応じて合成して基準画像の取得位置における奥行き情報として出力する合成ステップとを有し、第1の奥行き情報計測ステップが、第2の奥行き情報計測ステップでの計測処理よりも処理速度が速い方法により第1の奥行き情報を計測し、第2の奥行き情報が、第1の奥行き情報よりも高精度であることを特徴とする奥行き情報計測方法に存する。
【0020】
また、本発明の別の要旨は、コンピュータ装置に本発明の奥行き情報計測方法を実現させるためのプログラムを格納したコンピュータ装置読み取り可能な記録媒体に存する。
【0021】
【発明の実施の形態】
以下、本発明をその好適な実施形態に基づき更に詳細に説明する。
(第1の実施形態)
図1は、本発明の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である。本実施形態において、奥行き情報は奥行き画像であり、多眼ステレオ法を用いる場合の構成例を示す。
【0022】
図において、奥行き情報計測装置は、基準カメラ11及び周辺カメラ12からなるステレオカメラと、動き検出部20と、高速ステレオ処理部30と、高精度ステレオ処理部40及び画像合成部50とからなる。基準カメラ11で撮影された基準画像は,動き検出部20,高速ステレオ処理部30及び高精細ステレオ処理部40にそれぞれ入力される.一方,周辺カメラ12で撮影された周辺画像は,高速ステレオ処理部30及び高精細ステレオ処理部40に入力される.ここで、図を簡単にするためにステレオカメラは2台のカメラで構成されているように示しているが、後述する高速ステレオ処理部30及び高精度ステレオ処理部40における処理精度を向上させるため、実際には3台以上のカメラを用いることが好ましい。特に、5台、9台、13台・・・のように、1台の基準カメラを中央に配置した正方形領域に、複数台の周辺カメラを規則的に配置した所謂カメラマトリックスを用いることが好ましい。3台目以降のカメラについても、周辺カメラ12と同様に、高速ステレオ処理部30及び高精度ステレオ処理部40にそれぞれ入力されるように構成すればよい。
【0023】
高速ステレオ処理部30と高精度ステレオ処理部40は、それぞれ単独でステレオカメラで撮影した画像データから奥行き情報を計測し奥行き画像を生成する機能を有するが、高速ステレオ処理部30は高精度ステレオ処理部40と比較して精度が低いが高速に奥行き画像を生成する。逆に、高精度ステレオ処理部40は高速ステレオ処理部30よりも精度の高い奥行き画像を生成可能であるが、生成に必要とする時間が長い。
【0024】
ここで、上述の実時間処理に近い高速処理を実現するためには、少なくとも高速ステレオ処理部30はビデオフレームレート(30フレーム/秒又は60フレーム/秒)における1フレームの処理時間以下の時間で奥行き画像を出力可能であることが好ましい。すなわち、高速ステレオ処理部30は1画面分の画像データを処理して奥行き画像を生成する処理が33ミリ秒もしくは17ミリ秒以内で可能な能力を有することが好ましい。このような高速ステレオ処理部30は、例えば金出武雄、木村茂:「ビデオレート・ステレオマシン」、日本ロボット学会誌解説、vol.13, No.3, pp. 322-326, 1995や、後述する高精度ステレオ処理の例を開示するK. Satoh and Y. Ohta, "Occlusion detectable stereo using a camera matrix", Proc. 2nd Asian Conf. on Computer Vision, pp II-331-335, 1995等の論文に開示に基づき構成することができる。
【0025】
このような高速ステレオ処理部30における具体的な処理としては、(1)対応候補点の相違度(又は類似度)演算、(2)類似度による視差推定、(3)推定された視差の画像化という流れになる。以下、各処理について説明する。
【0026】
例えば、図2に示されたように、互いに光軸が平行で、全レンズ中心を通る平面と光軸が直交するように等間隔で配置されたN台(本図ではN=9)のカメラマトリクスによって撮影された、中心画像(基準画像)I0,0とN−1枚の周辺画像Ik,l(図2では−1≦k,l≦1)によって構成されるN−1組のステレオ画像対から、中心画像I0,0上の画素I0,0(x,y)における視差推定は次の手順で行なうことができる。
【0027】
(1)相違度の算出
まず画素I0,0(x,y)と、視差をdと仮定したときの各種右辺画像上の対応点Ik,l(x−kd,y−ld)との相違度ek,l(x,y,d)を求める。相違度は、2画素間(または、各画素を中心とした小ブロック間)のRGB空間におけるユークリッド距離を用いる。
【0028】
(2)推定視差の算出
各ステレオ画像対で得られた相違度ek,l(x,y,d)の総和
【0029】
【数1】
を視差dのペナルティ値として定義し、これを最小とするdをI0,0(x,y)における推定視差d’とする。
【0030】
(3)推定された視差の画像化
各画素に対して求めた推定視差d’の値を、対応する画素の画素値として与えることで、視差画像、即ち奥行き画像を生成する。
一方、高精度ステレオ処理部40は、高速ステレオ処理部30よりも処理速度は遅くても、得られる奥行き画像の精度が高くなくてはならない。具体的には高速ステレオ処理部30では考慮していない条件、例えば隠れの影響を考慮して奥行き画像生成を行なうことにより、高速度ステレオ処理部30で生成する奥行き画像よりも高精度な奥行き画像を生成することができる。
【0031】
最も単純な隠れの検出方法は、対となるステレオ画像の一方には存在するが、一方には存在しない部分を探索することである。また、ステレオ画像を取得するためのカメラの台数を増加させることによって隠れ検出の精度を向上させることが可能である。このような多眼ステレオ法において、隠れの影響を考慮した奥行き画像を生成する方法としては、例えば上述のK. Satoh and Y. Ohta, "Occlusion detectable stereo using a camera matrix", Proc. 2nd Asian Conf. on Computer Vision, pp II-331-335, 1995等の論文に開示されている。
【0032】
具体的には、高速ステレオ法における隠れの影響を以下のような原理に基づいて補正した推定視差を算出する。
隠れは、カメラマトリクスの中心に位置するカメラで撮影した中心画像上では観測できる点が、その点よりも手前に位置する物体によって隠され、他のカメラで撮影した1つ以上の画像(周辺画像)上では観測できないという現象である。
【0033】
ステレオ画像対において対応する画素間の実際の視差dに対して、隠れが発生している部分においては、前述した高速ステレオ処理における対応点Ik,l(x−kd,y−ld)は隠れの原因となる物体の像であり、相違度ek,l(x,y,d)は小さくならない。この結果、式(1)に示した視差dのペナルティ値e(x,y,d)も大きくなり、ペナルティ値を最小にする値として実際の視差dとは異なる値が選ばれる可能性が高い。
【0034】
異なる値の選択を回避するには、隠れが発生している周辺画像を用いずに式(1)の計算を行なえばよい。しかしながら、相違度が大きい場合に、それが視差dが正しくないことを意味するのか、隠れによるものかを判別することは困難である。
【0035】
周辺画像を撮影するカメラのレンズ中心と、撮影される空間の対象点とを結ぶ直線上に他の物体が存在する場合、このカメラで撮影した周辺画像には隠れが含まれることになる。従って、隠れを含んだ周辺画像の組み合わせは、隠れの原因となる物体の輪郭をカメラマトリクスの格子点で標本化したものと考えることができる。
【0036】
隠れの原因となる物体の輪郭が局所的には直線であると仮定すれば、隠れを有する周辺画像の組み合わせを8通りに限定し、偽の視差と隠れが発生している正しい視差を以下のようにして区別することが可能となる。
【0037】
隠れを含んだ周辺画像の組み合わせを表現したタイプ0〜8のマスク(隠れマスク)M0〜M8を図3のように用意する。黒い部分が隠れを有する周辺画像とし、その値を0、白い部分が隠れのない画像とし、その値を1とそれぞれ表す。また、M0は全ての画像において隠れがない場合である。
【0038】
前述のように、隠れが含まれる周辺画像は用いないとすると、隠れマスクMtで表されるような状態が生じていると仮定したときの視差dに対するペナルティを
【0039】
【数2】
と再定義する。
【0040】
ここで、ntは各マスクMtの周辺画像における1の数である。wtは隠れが含まれない場合にt=0が選択されやすくなるような重みで、w0=1、それ以外のときは1よりもわずかに大きな値に設定する。このとき、et(x,y,d)は実際の視差dを仮定し、実際に隠れが含まれる周辺画像の組み合わせに対応する隠れマスクを用いて評価した場合に最小となる。
【0041】
そして、高速ステレオ処理において記載したペナルティeの評価式(1)を、
【数3】
と再定義し、これを最小とする視差dを隠れを考慮したI0,0(x,y)における推定視差d’とする。そして、この推定視差d’を画像化することにより、隠れを考慮した奥行き画像(視差画像)が生成される。
【0042】
高精度ステレオ処理部40が1つの奥行き画像を生成するのに許される時間は、奥行き画像の用途及び高速ステレオ処理部30で得られる奥行き画像精度、処理時間等の条件に応じて適宜決定する。逆に、これらの条件を満たす範囲内で最も精度良く奥行き画像を生成することの可能な処理を高精度ステレオ処理部40で行なうように決定することもできる。
【0043】
本実施形態の奥行き情報計測装置は、高速ステレオ処理部30で生成した奥行き画像データと、高精度ステレオ処理部40で生成した奥行き画像データを、画像データの特性に応じて切り替えて合成し、1画面分の奥行き画像を生成することを特徴とする。
【0044】
本実施形態においては、動き検出部20において基準カメラ11が取得した基準画像の動きを検出し、画像合成部50は動き検出部20の検出結果を基に、動きのある部分には高速ステレオ処理部30の出力する奥行き画像データを、動きの無い部分については高精度ステレオ処理部40の生成する奥行き画像データを選択して合成を行ない、1画面分の奥行き画像を生成する。
【0045】
すなわち、画像データ中、現実空間中の静止物体など、距離情報の変化の周期が高精度ステレオ処理部40で1画面分の奥行き画像生成に必要な時間(単位処理時間)に対して十分長い部分については高精度ステレオ処理部40の生成する奥行き画像データを、移動物体など距離情報の変化の周期が高精度ステレオ処理部40の単位処理時間よりも短い部分については高速ステレオ処理部30の生成する奥行き画像データを選択することにより、精度と処理速度をバランスよく両立した奥行き画像を得ることができる。
【0046】
この場合、高精度ステレオ処理部40の生成した奥行き画像データは、高速ステレオ処理部30で生成した複数の奥行き画像データに対して共通に使用されることになる。しかし、上述したように高精度ステレオ処理部40の生成した奥行き画像を用いるのは、静止部分のような距離情報の変化が十分長い周期の部分であるから、実使用上の問題が生じる可能性は非常に小さい。
【0047】
動き検出部20としては、MPEGエンコーダ等、動画の圧縮符号化を行なう回路を用いて実現することができる。動き検出部20の出力する動き情報としては、最低限動きのあった領域が認識できればよいが、動きの量、方向等の情報を含んでいても良い。
【0048】
画像合成部50は、動き検出部20からの動き情報によって高速ステレオ処理部30の出力か高精度ステレオ処理部40の出力かを1データ毎、即ち画像データの1画素毎に選択するセレクタである。選択の判断基準は動きが検出されたかされなかったかという最も単純な場合から、所定の移動量以下であれば高精度ステレオ処理部40の出力、所定の以上量を超える場合には高速ステレオ処理部30の出力としても良い。
【0049】
図4は、動作開始時における各部出力のタイミングを示した図である。ステレオカメラのフレームレートの逆数(すなわち、1フレーム分の画像取得時間)をtとし、t0〜t6はt間隔であるとする。説明を簡単にするため、高速ステレオ処理部30が1画面分の処理を行なうのに必要な時間がt、高精度ステレオ処理部40の処理時間が3t、画像合成部50が高速ステレオ処理部30の出力と高精度ステレオ処理部40の出力とを合成して出力するのに時間t必要であるとする。また、図示しないが、動き検出部20はtに対して十分短い時間で動き情報を検出し、画像合成部50に供給可能であるものとする。
【0050】
まず、時刻t0において、ステレオカメラが画像I0を取得する。この画像I0は動き検出部20、高速ステレオ処理部30及び高精度ステレオ処理部40に入力され、処理が開始される。
【0051】
高速ステレオ処理部30の処理はt時間後の時刻t1に終了し、画像データI0に対応する奥行き画像S0が画像合成部50へ出力される。この時点では高精度ステレオ処理部40の処理は終了していないため、画像合成部50は高速ステレオ処理部30の出力S0をそのまま出力し、時刻t2に出力を完了する。
【0052】
そして、時刻t1で取得した画像データI1に対する高速ステレオ処理部30の出力S1が画像合成部50に供給される。時刻t2においても高精度ステレオ処理部40の処理は終了していないため、画像合成部50は再び高速ステレオ処理部30の出力S1をそのまま出力する。
【0053】
時刻t3になると、高精度ステレオ処理部40の処理が終了し、取得画像データI0に対応する高精度の奥行き画像H0が出力される。一方、同時刻t3において、高速ステレオ処理部30では時刻t2で取得した画像データI2に対応する奥行き画像S2が出力される。
【0054】
画像合成部50は、動き検出部20が時刻t3及びt2における画像データI3及びI2に基づいて求めた動き情報に基づき、動きが所定値以下の部分については高精度ステレオ処理部40の出力した奥行き画像H0を、それ以外の部分については高速ステレオ処理部30の出力した奥行き画像S2を選択して出力する。
【0055】
時刻t4〜t6においては、高精度ステレオ処理部40の出力H0と、高速ステレオ処理部30の出力S2〜S4とを用いて、画像合成部50が最終的な奥行き画像を出力する。時刻t6で高精度ステレオ処理部40の次の出力である奥行き画像H3が得られるので、図示しない時刻t7〜t9においてはこの奥行き画像H3と高速ステレオ処理部30の出力する奥行き画像S5〜S7を用いて最終的な奥行き画像H3+S5、H3+S6及びH3+S7が得られる。以後同様に処理を行なう。
【0056】
また、本実施形態において、動き情報を高速ステレオ処理部30に供給し、動きがほぼ無く、高精度ステレオ処理部40の出力を利用できると思われる領域については高速ステレオ処理部30の処理を省くことも可能である。ただし、この場合には、動き検出部20の処理速度が高速ステレオ処理部30の処理速度に比べて十分早くないと大きな効果は期待できない。
【0057】
(第2の実施形態)
第1の実施形態においては、動き検出部20による動き情報によって高速ステレオ処理部30の出力と高精度ステレオ処理部40の出力を選択するように構成した場合について説明したが、動き情報以外にも選択条件を用いることができることはいうまでもない。
【0058】
本実施形態は、高速ステレオ処理部30の出力と高精度ステレオ処理部40の出力を選択する条件として、奥行き情報の信頼度を用いることを特徴とする。
【0059】
図5は、本実施形態に係る奥行き情報計測装置の構成例を示す図である。図1に示した第1の実施形態に係る装置の構成とは、動き検出部20が無く、動き情報の代わりに高速ステレオ処理部30’から出力される奥行き情報の信頼度を用いる点のみが異なる。本実施形態において,I0,0(x,y)における推定視差S(x,y)の信頼度とは、例えば,その導出の際のペナルティ値e(x,y,S(x,y))(あるいは定数からのペナルティ値の差分値)によって定義される.高速ステレオ処理部30’は,奥行き画像S以外に,各画素毎に推定視差の信頼度を画素値として保存した信頼度画像を出力する。
【0060】
そして、高速ステレオ処理部30’において所定の領域毎に奥行き画像データの信頼度を算出し、信頼度の低い領域については高精度ステレオ処理部40の出力を、信頼度の高い領域については高速ステレオ処理部30’の出力を画像合成部50’で選択する。
【0061】
(第3の実施形態)
図6は、本発明の第3の実施形態に係る奥行き情報計測装置の構成を示すブロック図である。本実施形態は、高速ステレオ処理部30’の出力と高精度ステレオ処理部40の出力を選択する条件として、動き情報と奥行き情報の信頼度の両方を用いることを特徴とする。
【0062】
具体的な選択条件としては、例えば信頼度が所定の値より低いか、動きが処理量よりも少ない領域については高精度ステレオ処理部40の出力を、それ以外の領域は高速ステレオ処理部30’の出力を画像合成部50’’で選択して出力するように構成すればよい。
【0063】
(第4の実施形態)
第2の実施形態においては、高速ステレオ処理部30’と高精細ステレオ処理部40は共に画像中の全領域に対して奥行き情報の計測処理を行なっていたが、図7に示すように、高速ステレオ処理部30’の出力する信頼度を奥行き情報合成の手がかりとして用いる場合には、この信頼度情報を高精細ステレオ処理部40’に別途入力することで、画像合成部50’において高精細ステレオ処理部40’の出力した奥行き情報が選択される領域のみに奥行き情報計測処理を行なうような構成にすることも可能である。これにより、高精細ステレオ処理部40’の処理量を軽減できる。同様に、一般に画像合成部50に入力される奥行き情報選択の指標となる情報を高速ステレオ処理部30あるいは/又は高精細ステレオ処理部40に入力することで、画像合成部50で選択される領域のみに奥行き情報計測処理を限定することが可能である。
【0064】
(第5の実施形態)
第1〜第4の実施形態においては、高速ステレオ処理部と高精細ステレオ処理部がそれぞれ全ての処理を独立して行なう構成であったが、両者に共通する処理については別の手段を用いて一括して行なってもよい。
【0065】
例えば、第1の実施形態において(1)の相違度の算出は高速ステレオ処理部30と高精細ステレオ処理部40の両者で全く同一の処理であるので、図8に示すように、相違度の算出を行なう相違度算出部15を別途設け、相違度算出部15の演算結果を各ステレオ処理部35、45に転送する構成とすることができる。
【0066】
このような構成の場合、各ステレオ処理部35及び45は、第1の実施形態において相違度算出に引き続く処理((2)の視差算出)以降の処理を行なう構成とすることが可能である。
【0067】
もちろん、各ステレオ処理部30及び40の構成は第1の実施形態と同じ、全ての処理が行える構成にして、(2)の視差算出以降の実施のみ行なうようにしてもよい。また、第2、第3の実施形態のように、奥行き画像データの信頼度や動き情報の組み合わせによる条件で画像合成部50の選択を制御しても良いことは言うまでもない。
【0068】
【他の実施の形態】
上述の実施形態においては、奥行き情報として奥行き画像の1種である視差画像を生成する場合についてのみ説明したが、推定視差から算出した距離を画像化した距離画像を生成しても良いし、また推定視差の計測のみ、あるいは推定視差から算出した距離のみを計測し、画像化は他の装置を用いて行なうことも可能である。
【0069】
また、上述の実施形態においては、ステレオ画像対を生成するステレオカメラを奥行き情報計測装置の構成として記載したが、このようなステレオカメラは本発明による奥行き情報計測装置に必須ではなく、外部から供給されるステレオ画像データを用いて、奥行き情報を計測する構成であっても本発明の効果は十分達成される。
【0070】
また、上述の実施形態においては、高速ステレオ処理部30と高精度ステレオ処理部40における奥行き画像生成方法として上述のK. Satoh and Y. Ohta, "Occlusion detectable stereo using a camera matrix", Proc. 2nd Asian Conf. on Computer Vision, pp II-331-335, 1995に開示されている方法を示したが、例えばK. Satoh and Y. Ohta, “Occlusion Detectable Stereo ---Systematic Comparison of Detection Algorithms---,” Proc. International Conference on Pattern Recognition, pp280-286, 1996に開示されているような、各ステレオ画像対の評価値ek,l(x,y,d)をソートし小さいほうから数組の和をペナルティ値とする方法等、他の方法を用いてもよい。
【0071】
また、上記の実施形態においては、ステレオカメラとして、図2に示されたように、互いに光軸が平行で、全レンズ中心を通る平面と光軸が直交するように等間隔で配置されたN台のカメラマトリクスを用いているが、カメラ配置は必ずしもこの関係を保つ必要はなく、ステレオ画像対が得られれば、任意の台数、任意の配置を用いることができる。
【0072】
加えて、高精細ステレオ処理部40の奥行き画像生成方法として、隠れ以外の要因を考慮したいずれの高精細ステレオ法を用いても良い。
【0073】
例えば、前述の高速ステレオ処理部30の奥行き画像生成方法では、入力画像上のテクスチャ性の低い領域(模様のない領域)については正確な奥行き情報を計測することが困難である。したがって、ステレオ画像対に含まれるテクスチャ性の低い領域の検出部を付加し、検出された領域についてはテクスチャ性の低い領域でも正確に奥行き情報を計測することのできる他の高精度ステレオ処理部の出力を選択するように構成すればよい。
【0074】
このようなテクスチャ性の低い領域に適したステレオ処理方法としては、例えば大田友一、金出武雄“走査線間の整合性を考慮した2段の動的計画法によるステレオ対応探索”、情報処理、No.26, Vol.11, pp1356-1368, 1985に開示されている手法を用いることができる。
【0075】
そして、基準画像の空間的な濃淡分布の度合いに応じて、テクスチャ性の高い領域については高精度ステレオ処理部40の出力を、テクスチャ性の低い領域については高速ステレオ処理部30の出力を画像合成部50で選択するように構成すれば、さらに精度の高い測定結果(奥行き情報)が得られる。
【0076】
また、3種類以上のステレオ処理部を設け、さらにきめ細かい選択条件によって最適なステレオ処理部の出力を選択するように構成することも可能である。
【0077】
たとえば、上述の実施形態にテクスチャ性の低い領域に適した別の高精度ステレオ処理部と、基準画像の空間的濃度分布の測定処理部を組み合わせ、濃度変化が十分ある領域の高精度な奥行き情報としては通常の高精度ステレオ処理部の出力を、濃度変化の少ない領域の高精度な奥行き情報としては別の高精度ステレオ処理部の出力を用いる構成などが考えられる。
【0078】
さらに、上述の実施形態においては、各ステレオ処理部が1画面全体の処理を必ず行なう構成となっていたが、各ステレオ処理部が処理する画像中の領域を予め制限しておくこともできる。
【0079】
さらに、本発明の奥行き情報計測装置で得られた奥行き情報は、複合現実感提示装置以外にも、例えばロボットの制御や車両の自動運転制御など、実時間での奥行き計測を必要とするいずれの用途にも用いることができることはもちろんである。
【0080】
【発明の効果】
以上説明したように、本発明によれば、高速に奥行き情報を計測可能な高速処理部と、高速処理部よりも演算時間は長いが精度の高い結果が得られる高精度処理部とを用い、取得した画像の状態、例えば動きの大きさによって適切な出力結果を選択して合成出力することにより、処理速度と精度とがバランス良く両立した奥行き情報を得ることが可能であるという効果が得られる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である
【図2】ステレオカメラの構成例を示す斜視図である。
【図3】隠れマスクの例を示す図である。
【図4】図1の構成における各部の出力タイミングを説明する図である。
【図5】本発明の第2の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である。
【図6】本発明の第3の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である。
【図7】本発明の第4の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である。
【図8】本発明の第5の実施形態に係る奥行き情報計測装置の構成例を示すブロック図である。
Claims (7)
- 基準画像と、この基準画像とステレオ画像対を形成する少なくとも1つの周辺画像とから、前記基準画像の取得位置における奥行き情報を計測する奥行き情報計測装置であって、
前記基準画像と前記周辺画像から、第1の奥行き情報を計測する第1の奥行き情報計測手段と、
前記基準画像と前記周辺画像から、前記第1の奥行き情報計測手段と異なる方法により、第2の奥行き情報を計測する第2の奥行き情報計測手段と、
前記基準画像の特性に応じて、前記基準画像もしくは前記周辺画像の所定領域毎に、前記第1の奥行き情報と前記第2の奥行き情報のいずれか一方を選択する選択手段と、
前記第1の奥行き情報と前記第2の奥行き情報を、前記選択信号に応じて合成して前記基準画像の取得位置における奥行き情報として出力する合成手段とを有し、
前記第1の奥行き情報計測手段が、前記第2の奥行き情報計測手段よりも処理速度が速く、前記第2の奥行き情報が、前記第1の奥行き情報よりも高精度であることを特徴とする奥行き情報計測装置。 - 前記選択手段が前記基準画像及び/又は前記周辺画像から得られる条件に応じて前記選択を行なうことを特徴とする請求項1記載の奥行き情報計測装置。
- 前記選択手段が、前記基準画像及び/又は前記周辺画像から、前記所定領域毎の動きを検出する動き検出手段を有し、
検出した前記動きが所定量以上の前記所定領域については前記第1の奥行き情報を、それ以外の領域については前記第2の奥行き情報を選択することを特徴とする請求項1又は請求項2に記載の奥行き情報計測装置。 - 基準画像と、この基準画像とステレオ画像対を形成する少なくとも1つの周辺画像とから、前記基準画像の取得位置における奥行き情報を計測する奥行き情報計測装置であって、
前記基準画像と前記周辺画像から、第1の奥行き情報を計測する第1の奥行き情報計測手段と、
前記基準画像と前記周辺画像から、前記第1の奥行き情報計測手段と異なる方法により、第2の奥行き情報を計測する第2の奥行き情報計測手段と、
前記基準画像の特性に応じて、前記基準画像もしくは前記周辺画像の所定領域毎に、前記第1の奥行き情報と前記第2の奥行き情報のいずれか一方を選択する選択手段と、
前記第1の奥行き情報と前記第2の奥行き情報を、前記選択信号に応じて合成して前記基準画像の取得位置における奥行き情報として出力する合成手段とを有し、
前記第1の奥行き情報計測手段が、前記第2の奥行き情報計測手段よりも処理速度が速く、前記第2の奥行き情報が、前記第1の奥行き情報よりも高精度であるとともに、
前記第1の奥行き情報計測手段が、前記第1の奥行き情報の信頼度を検出する信頼度検出手段を有し、
前記選択手段が、検出した前記信頼度が所定量以上の前記所定領域については前記第1の奥行き情報を、それ以外の領域については前記第2の奥行き情報を選択することを特徴とする奥行き情報計測装置。 - 前記第1の奥行き情報、第2の奥行き情報及び前記合成手段の出力する奥行き情報が、視差情報、視差画像、距離情報、距離画像のいずれかであることを特徴とする請求項1乃至請求項4のいずれか1項に記載の奥行き情報計測装置。
- 基準画像と、この基準画像とステレオ画像対を形成する少なくとも1つの周辺画像とから、前記基準画像の取得位置における奥行き情報を計測する奥行き情報計測方法であって、
前記基準画像と前記周辺画像から、第1の奥行き情報を計測する第1の奥行き情報計測ステップと、
前記基準画像と前記周辺画像から、前記第1の奥行き情報計測手段と異なる方法により、第2の奥行き情報を計測する第2の奥行き情報計測ステップと、
前記基準画像もしくは前記周辺画像の所定領域毎に、前記第1の奥行き情報と前記第2の奥行き情報のいずれか一方を選択する選択ステップと、
前記基準画像の特性に応じて、前記第1の奥行き情報と前記第2の奥行き情報を、前記選択信号に応じて合成して前記基準画像の取得位置における奥行き情報として出力する合成ステップとを有し、
前記第1の奥行き情報計測ステップが、前記第2の奥行き情報計測ステップでの計測処理よりも処理速度が速い方法により前記第1の奥行き情報を計測し、前記第2の奥行き情報が、前記第1の奥行き情報よりも高精度であることを特徴とする奥行き情報計測方法。 - コンピュータ装置に請求項6記載の奥行き情報計測方法を実現させるためのプログラムを格納したコンピュータ装置読み取り可能な記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34669999A JP3728160B2 (ja) | 1999-12-06 | 1999-12-06 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
US09/648,295 US7295697B1 (en) | 1999-12-06 | 2000-08-28 | Depth information measurement apparatus and mixed reality presentation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34669999A JP3728160B2 (ja) | 1999-12-06 | 1999-12-06 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001169308A JP2001169308A (ja) | 2001-06-22 |
JP3728160B2 true JP3728160B2 (ja) | 2005-12-21 |
Family
ID=18385229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP34669999A Expired - Fee Related JP3728160B2 (ja) | 1999-12-06 | 1999-12-06 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US7295697B1 (ja) |
JP (1) | JP3728160B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10580155B2 (en) | 2015-10-29 | 2020-03-03 | Ricoh Company, Ltd. | Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium |
Families Citing this family (103)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7110021B2 (en) | 2002-05-31 | 2006-09-19 | Matsushita Electric Industrial Co., Ltd. | Vehicle surroundings monitoring device, and image production method/program |
US7324687B2 (en) * | 2004-06-28 | 2008-01-29 | Microsoft Corporation | Color segmentation-based stereo 3D reconstruction system and process |
GB2418314A (en) * | 2004-09-16 | 2006-03-22 | Sharp Kk | A system for combining multiple disparity maps |
JP2006313445A (ja) * | 2005-05-09 | 2006-11-16 | Sony Corp | 画像処理方法、画像処理装置およびプログラム |
KR101269302B1 (ko) * | 2006-12-26 | 2013-05-29 | 삼성전자주식회사 | 스테레오 영상에서 중간시점영상 합성 방법 |
US9035876B2 (en) | 2008-01-14 | 2015-05-19 | Apple Inc. | Three-dimensional user interface session control |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
JP2009168536A (ja) * | 2008-01-15 | 2009-07-30 | Fujifilm Corp | 3次元形状測定装置および方法、3次元形状再生装置および方法並びにプログラム |
DE102008020579B4 (de) * | 2008-04-24 | 2014-07-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur automatischen Objektlageerkennung und Bewegung einer Vorrichtung relativ zu einem Objekt |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
KR101733443B1 (ko) | 2008-05-20 | 2017-05-10 | 펠리칸 이매징 코포레이션 | 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리 |
US8213683B2 (en) * | 2008-08-26 | 2012-07-03 | National Taiwan University | Driving support system with plural dimension processing units |
JP5409107B2 (ja) * | 2009-05-13 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム |
JP5405264B2 (ja) * | 2009-10-20 | 2014-02-05 | 任天堂株式会社 | 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法 |
JP4754031B2 (ja) * | 2009-11-04 | 2011-08-24 | 任天堂株式会社 | 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム |
US8514491B2 (en) | 2009-11-20 | 2013-08-20 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US20110164032A1 (en) * | 2010-01-07 | 2011-07-07 | Prime Sense Ltd. | Three-Dimensional User Interface |
EP2355526A3 (en) | 2010-01-14 | 2012-10-31 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US20110175918A1 (en) * | 2010-01-21 | 2011-07-21 | Cheng-Yun Karen Liu | Character animation control interface using motion capure |
WO2011143501A1 (en) | 2010-05-12 | 2011-11-17 | Pelican Imaging Corporation | Architectures for imager arrays and array cameras |
US9693039B2 (en) | 2010-05-27 | 2017-06-27 | Nintendo Co., Ltd. | Hand-held electronic device |
JP5627498B2 (ja) * | 2010-07-08 | 2014-11-19 | 株式会社東芝 | 立体画像生成装置及び方法 |
US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
KR20120089921A (ko) * | 2010-12-23 | 2012-08-16 | 한국전자통신연구원 | 다이나믹 프로그래밍 방식을 이용하는 스테레오 매칭 시스템 및 그 방법 |
US10972680B2 (en) * | 2011-03-10 | 2021-04-06 | Microsoft Technology Licensing, Llc | Theme-based augmentation of photorepresentative view |
JP2014519741A (ja) | 2011-05-11 | 2014-08-14 | ペリカン イメージング コーポレイション | アレイカメラ画像データを伝送および受信するためのシステムおよび方法 |
WO2013003276A1 (en) | 2011-06-28 | 2013-01-03 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
US9218063B2 (en) | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
US20130070060A1 (en) | 2011-09-19 | 2013-03-21 | Pelican Imaging Corporation | Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
US8542933B2 (en) | 2011-09-28 | 2013-09-24 | Pelican Imaging Corporation | Systems and methods for decoding light field image files |
KR101863626B1 (ko) | 2011-11-02 | 2018-07-06 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
JP5840114B2 (ja) * | 2011-11-30 | 2016-01-06 | 三菱電機株式会社 | 仮想画像を生成する方法 |
KR101874895B1 (ko) * | 2012-01-12 | 2018-07-06 | 삼성전자 주식회사 | 증강 현실 제공 방법 및 이를 지원하는 단말기 |
US9412206B2 (en) | 2012-02-21 | 2016-08-09 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
CN104335246B (zh) * | 2012-05-01 | 2018-09-04 | Fotonation开曼有限公司 | 用pi滤光器群组来形成图案的相机模块 |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
US20130329985A1 (en) * | 2012-06-07 | 2013-12-12 | Microsoft Corporation | Generating a three-dimensional image |
EP2873028A4 (en) | 2012-06-28 | 2016-05-25 | Pelican Imaging Corp | SYSTEMS AND METHOD FOR DETECTING DEFECTIVE CAMERA ARRAYS, OPTICAL ARRAYS AND SENSORS |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
EP3869797B1 (en) | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
CN104685513B (zh) | 2012-08-23 | 2018-04-27 | 派力肯影像公司 | 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计 |
WO2014043641A1 (en) | 2012-09-14 | 2014-03-20 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
CN104685860A (zh) | 2012-09-28 | 2015-06-03 | 派力肯影像公司 | 利用虚拟视点从光场生成图像 |
WO2014078443A1 (en) | 2012-11-13 | 2014-05-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
JP5818773B2 (ja) * | 2012-11-22 | 2015-11-18 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US9462164B2 (en) | 2013-02-21 | 2016-10-04 | Pelican Imaging Corporation | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
WO2014133974A1 (en) | 2013-02-24 | 2014-09-04 | Pelican Imaging Corporation | Thin form computational and modular array cameras |
US9638883B1 (en) | 2013-03-04 | 2017-05-02 | Fotonation Cayman Limited | Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process |
JP6214236B2 (ja) | 2013-03-05 | 2017-10-18 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、及びプログラム |
WO2014138697A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for high dynamic range imaging using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9521416B1 (en) | 2013-03-11 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for image data compression |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
WO2014164909A1 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Array camera architecture implementing quantum film sensors |
US9124831B2 (en) | 2013-03-13 | 2015-09-01 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
US9100586B2 (en) | 2013-03-14 | 2015-08-04 | Pelican Imaging Corporation | Systems and methods for photometric normalization in array cameras |
US9578259B2 (en) | 2013-03-14 | 2017-02-21 | Fotonation Cayman Limited | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9633442B2 (en) | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
EP2973476B1 (en) | 2013-03-15 | 2025-02-26 | Adeia Imaging LLC | Systems and methods for stereo imaging with camera arrays |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
WO2014150856A1 (en) | 2013-03-15 | 2014-09-25 | Pelican Imaging Corporation | Array camera implementing quantum dot color filters |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
EP3066690A4 (en) | 2013-11-07 | 2017-04-05 | Pelican Imaging Corporation | Methods of manufacturing array camera modules incorporating independently aligned lens stacks |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
US9456134B2 (en) | 2013-11-26 | 2016-09-27 | Pelican Imaging Corporation | Array camera configurations incorporating constituent array cameras and constituent cameras |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
US9247117B2 (en) | 2014-04-07 | 2016-01-26 | Pelican Imaging Corporation | Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array |
JP6154781B2 (ja) * | 2014-05-22 | 2017-06-28 | 日本電信電話株式会社 | 画像処理方法及び画像処理システム |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
EP3201877B1 (en) | 2014-09-29 | 2018-12-19 | Fotonation Cayman Limited | Systems and methods for dynamic calibration of array cameras |
JP6519138B2 (ja) * | 2014-09-30 | 2019-05-29 | 株式会社リコー | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム |
US20160165207A1 (en) * | 2014-12-03 | 2016-06-09 | Kabushiki Kaisha Toshiba | Electronic device, method, and computer program product |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
JP6646361B2 (ja) * | 2015-04-27 | 2020-02-14 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
CN104822060B (zh) * | 2015-05-05 | 2017-07-25 | 联想(北京)有限公司 | 信息处理方法、信息处理装置及电子设备 |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
US10609355B2 (en) * | 2017-10-27 | 2020-03-31 | Motorola Mobility Llc | Dynamically adjusting sampling of a real-time depth map |
EP3821267A4 (en) | 2019-09-17 | 2022-04-13 | Boston Polarimetrics, Inc. | SYSTEMS AND METHODS FOR SURFACE MODELING USING POLARIZATION TRIGGERS |
EP4042101A4 (en) | 2019-10-07 | 2023-11-22 | Boston Polarimetrics, Inc. | SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION |
WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
CN115552486A (zh) | 2020-01-29 | 2022-12-30 | 因思创新有限责任公司 | 用于表征物体姿态检测和测量系统的系统和方法 |
US11797863B2 (en) | 2020-01-30 | 2023-10-24 | Intrinsic Innovation Llc | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US12069227B2 (en) | 2021-03-10 | 2024-08-20 | Intrinsic Innovation Llc | Multi-modal and multi-spectral stereo camera arrays |
US12020455B2 (en) | 2021-03-10 | 2024-06-25 | Intrinsic Innovation Llc | Systems and methods for high dynamic range image reconstruction |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US12067746B2 (en) | 2021-05-07 | 2024-08-20 | Intrinsic Innovation Llc | Systems and methods for using computer vision to pick up small objects |
US12175741B2 (en) | 2021-06-22 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for a vision guided end effector |
US12172310B2 (en) | 2021-06-29 | 2024-12-24 | Intrinsic Innovation Llc | Systems and methods for picking objects using 3-D geometry and segmentation |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
JP7631244B2 (ja) | 2022-01-19 | 2025-02-18 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2998791B2 (ja) * | 1996-10-31 | 2000-01-11 | 日本電気株式会社 | 三次元構造推定装置 |
US6219461B1 (en) * | 1997-07-29 | 2001-04-17 | Cognex Corporation | Determining a depth |
US6268923B1 (en) * | 1999-10-07 | 2001-07-31 | Integral Vision, Inc. | Optical method and system for measuring three-dimensional surface topography of an object having a surface contour |
JP2002191058A (ja) * | 2000-12-20 | 2002-07-05 | Olympus Optical Co Ltd | 3次元画像取得装置および3次元画像取得方法 |
-
1999
- 1999-12-06 JP JP34669999A patent/JP3728160B2/ja not_active Expired - Fee Related
-
2000
- 2000-08-28 US US09/648,295 patent/US7295697B1/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10580155B2 (en) | 2015-10-29 | 2020-03-03 | Ricoh Company, Ltd. | Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
US7295697B1 (en) | 2007-11-13 |
JP2001169308A (ja) | 2001-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3728160B2 (ja) | 奥行き画像計測装置及び方法、並びに複合現実感提示システム | |
JP3619063B2 (ja) | 立体画像処理装置、その方法、立体視パラメータ設定装置、その方法そしてコンピュータプログラム記憶媒体 | |
JP3338618B2 (ja) | 実空間画像と仮想空間画像の表示方法及び表示装置 | |
US6628820B2 (en) | Image forming method and apparatus | |
US6233004B1 (en) | Image processing method and apparatus | |
TWI520576B (zh) | 將二維影像轉換爲三維影像的方法與系統及電腦可讀媒體 | |
Tomioka et al. | Approximated user-perspective rendering in tablet-based augmented reality | |
JP2005295004A (ja) | 立体画像処理方法および立体画像処理装置 | |
JPH11102438A (ja) | 距離画像生成装置及び画像表示装置 | |
CN108885342A (zh) | 用于低延迟渲染的宽基线立体 | |
US20100302234A1 (en) | Method of establishing dof data of 3d image and system thereof | |
US6809771B1 (en) | Data input apparatus having multiple lens unit | |
CN110969706B (zh) | 增强现实设备及其图像处理方法、系统以及存储介质 | |
EP3935602B1 (en) | Processing of depth maps for images | |
KR101198557B1 (ko) | 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법 | |
JPH07129792A (ja) | 画像処理方法および画像処理装置 | |
JP2849313B2 (ja) | 画像記録再生装置 | |
JP2001256482A (ja) | 視差画像生成装置および視差画像生成方法 | |
JPH07296195A (ja) | 画像処理装置及び方法 | |
JPH09200803A (ja) | 画像処理装置及び画像処理方法 | |
JP2005174148A (ja) | 撮像装置及び方法、撮像システム | |
JP2002159022A (ja) | 視差画像生成装置および視差画像生成方法 | |
KR20120137122A (ko) | 영상처리방법 및 영상처리장치 | |
JPH09261537A (ja) | 画像処理装置及び画像処理方法 | |
KR100400209B1 (ko) | 텔레비젼(tv)신호로부터삼차원동영상을발생시키는장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040402 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040607 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20040720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050930 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091007 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091007 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101007 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101007 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111007 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111007 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121007 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131007 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |