[go: up one dir, main page]

JP5138116B2 - 情報取得装置および物体検出装置 - Google Patents

情報取得装置および物体検出装置 Download PDF

Info

Publication number
JP5138116B2
JP5138116B2 JP2012525802A JP2012525802A JP5138116B2 JP 5138116 B2 JP5138116 B2 JP 5138116B2 JP 2012525802 A JP2012525802 A JP 2012525802A JP 2012525802 A JP2012525802 A JP 2012525802A JP 5138116 B2 JP5138116 B2 JP 5138116B2
Authority
JP
Japan
Prior art keywords
dot pattern
optical system
area
segment
information acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012525802A
Other languages
English (en)
Other versions
JPWO2012144339A1 (ja
Inventor
山口  淳
信雄 岩月
勝美 楳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2012525802A priority Critical patent/JP5138116B2/ja
Application granted granted Critical
Publication of JP5138116B2 publication Critical patent/JP5138116B2/ja
Publication of JPWO2012144339A1 publication Critical patent/JPWO2012144339A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、目標領域に光を投射したときの反射光の状態に基づいて目標領域内の物体を検出する物体検出装置、および、当該物体検出装置に用いて好適な情報取得装置に関する。
従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。かかる物体検出装置では、レーザ光源やLED(Light Emitting Diode)から、予め決められた波長帯域の光が目標領域に投射され、その反射光がCMOSイメージセンサ等の光検出器により受光(撮像)される。距離画像センサとして、種々のタイプのものが知られている。
所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサでは、ドットパターンを持つレーザ光の目標領域からの反射光が光検出器によって受光される。そして、ドットの光検出器上の受光位置に基づいて、三角測量法を用いて、検出対象物体の各部(検出対象物体上の各ドットの照射位置)までの距離が検出される(たとえば、非特許文献1)。
第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280
上記物体検出装置では、レーザ光源から出射されたレーザ光を回折光学素子により回折させて、ドットパターンを持つレーザ光が生成される。この場合、回折光学素子は、たとえば、目標領域上のドットパターンが同じ輝度で均一に分布するよう設計される。しかしながら、回折光学素子に生じる成形誤差等により、目標領域において、周辺部のドットの輝度が、中心部のドットの輝度に比べて小さくなることがある。この場合、周辺部のドットの密度を低下させて周辺部のドットの輝度を高めるようにするのが望ましい。しかし、こうすると、周辺部における距離検出の精度が低下する惧れがある。
本発明は、このような課題を解消するためになされたものであり、ドットパターンの周辺部における距離検出の精度の低下を抑制することができる情報取得装置および物体検出装置を提供することを目的とする。
本発明の第1の態様は、光を用いて目標領域の情報を取得する情報取得装置に関する。本態様に係る情報取得装置は、前記目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、前記投射光学系に対して所定の距離だけ離れて並ぶように配置され、前記目標領域を撮像する受光光学系と、前記受光光学系により撮像された前記ドットパターンに基づいて目標領域に存在する物体の各部までの距離を取得する距離取得部と、を備える。ここで、前記投射光学系は、前記目標領域における前記ドットパターンのドットの密度が、前記ドットパターンの中心部よりも周辺部の方が小さくなるよう構成される。前記距離取得部は、基準面により反射され前記受光光学系により撮像された基準ドットパターンをセグメント領域に区分し、距離測定時に目標領域を撮像して取得された撮像ドットパターンと前記各セグメント領域内のドットとを照合することにより、前記各セグメント領域についての距離を取得する。前記セグメント領域は、前記基準ドットパターンの中心部よりも周辺部の方が大きくなるよう設定される。
本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、上記第1の態様に係る情報取得装置を有する。
本発明によれば、ドットパターンの周辺部における距離検出の精度の低下を抑制することができる情報取得装置および物体検出装置を提供することができる。
本発明の特徴は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも、本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
実施の形態に係る物体検出装置の概略構成を示す図である。 実施の形態に係る情報取得装置と情報処理装置の構成を示す図である。 実施の形態に係る目標領域に対するレーザ光の照射状態を模式的に示す図およびCMOSイメージセンサにおけるレーザ光の受光状態を模式的に示す図である。 実施の形態に係る基準テンプレートの生成方法を模式的に示す図である。 実施の形態に係る基準テンプレート上のセグメント領域が実測時においてどの位置に変位したかを検出する手法を説明する図である。 実施の形態に係る投射光学系と受光光学系の設置状態を示す斜視図である。 実施の形態に係る投射光学系と受光光学系の構成を模式的に示す図である。 実施の形態の比較例に係るCMOSイメージセンサ上の輝度分布を示す測定結果および輝度分布を模式的に示す図である。 実施の形態に係る目標領域におけるドットの分布状態を模式的に示す図である。 実施の形態に係る周辺部のドットの密度を小さくする方法を説明する図である。 実施の形態に係る中心部および周辺部のセグメント領域を示す図である。 実施の形態に係る基準パターン領域に対して設定されるセグメント領域の大きさを模式的に示す図である。 実施の形態に係るセグメント領域に対するドットパターンの設定処理および実測時における距離検出の処理を示すフローチャートである。 実施の形態に係る目標領域におけるドットの分布状態の変更例を模式的に示す図である。 実施の形態に係る基準パターン領域に対して設定されるセグメント領域の大きさの変更例を模式的に示す図である。
以下、本発明の実施の形態につき図面を参照して説明する。本実施の形態には、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの情報取得装置が例示されている。
まず、図1に本実施の形態に係る物体検出装置の概略構成を示す。図示の如く、物体検出装置は、情報取得装置1と、情報処理装置2とを備えている。テレビ3は、情報処理装置2からの信号によって制御される。なお、情報取得装置1と情報処理装置2とからなる装置が、本発明の物体検出装置に相当する。
情報取得装置1は、目標領域全体に赤外光を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域にある物体各部の距離(以下、「3次元距離情報」という)を取得する。取得された3次元距離情報は、ケーブル4を介して情報処理装置2に送られる。
情報処理装置2は、たとえば、テレビ制御用のコントローラやゲーム機、パーソナルコンピュータ等である。情報処理装置2は、情報取得装置1から受信した3次元距離情報に基づき、目標領域における物体を検出し、検出結果に基づきテレビ3を制御する。
たとえば、情報処理装置2は、受信した3次元距離情報に基づき人を検出するとともに、3次元距離情報の変化から、その人の動きを検出する。たとえば、情報処理装置2がテレビ制御用のコントローラである場合、情報処理装置2には、受信した3次元距離情報からその人のジェスチャを検出するとともに、ジェスチャに応じてテレビ3に制御信号を出力するアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定のジェスチャをすることにより、チャンネル切り替えやボリュームのUp/Down等、所定の機能をテレビ3に実行させることができる。
また、たとえば、情報処理装置2がゲーム機である場合、情報処理装置2には、受信した3次元距離情報からその人の動きを検出するとともに、検出した動きに応じてテレビ画面上のキャラクタを動作させ、ゲームの対戦状況を変化させるアプリケーションプログラムがインストールされている。この場合、ユーザは、テレビ3を見ながら所定の動きをすることにより、自身がテレビ画面上のキャラクタとしてゲームの対戦を行う臨場感を味わうことができる。
図2は、情報取得装置1と情報処理装置2の構成を示す図である。
情報取得装置1は、光学部の構成として、投射光学系11と受光光学系12とを備えている。この他、情報取得装置1は、回路部の構成として、CPU(Central Processing Unit)21と、レーザ駆動回路22と、撮像信号処理回路23と、入出力回路24と、メモリ25を備えている。
投射光学系11は、所定のドットパターンのレーザ光を、目標領域に照射する。受光光学系12は、目標領域から反射されたレーザ光を受光する。投射光学系11と受光光学系12の構成は、追って、図6、7を参照して説明する。
CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、投射光学系11内のレーザ光源111(後述)を制御するためのレーザ制御部21aと、3次元距離情報を生成するための3次元距離演算部21bの機能が付与される。
レーザ駆動回路22は、CPU21からの制御信号に応じてレーザ光源111(後述)を駆動する。撮像信号処理回路23は、受光光学系12内のCMOSイメージセンサ123(後述)を制御して、CMOSイメージセンサ123で生成された各画素の信号(電荷)をライン毎に順次取り込む。そして、取り込んだ信号を順次CPU21に出力する。
CPU21は、撮像信号処理回路23から供給される信号(撮像信号)をもとに、情報取得装置1から検出対象物の各部までの距離を、3次元距離演算部21bによる処理によって算出する。入出力回路24は、情報処理装置2とのデータ通信を制御する。
情報処理装置2は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理装置2には、同図に示す構成の他、テレビ3との通信を行うための構成や、CD−ROM等の外部メモリに格納された情報を読み取ってメモリ33にインストールするためのドライブ装置等が配されるが、便宜上、これら周辺回路の構成は図示省略されている。
CPU31は、メモリ33に格納された制御プログラム(アプリケーションプログラム)に従って各部を制御する。かかる制御プログラムによって、CPU31には、画像中の物体を検出するための物体検出部31aの機能が付与される。かかる制御プログラムは、たとえば、図示しないドライブ装置によってCD−ROMから読み取られ、メモリ33にインストールされる。
たとえば、制御プログラムがゲームプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動きを検出する。そして、検出された動きに応じてテレビ画面上のキャラクタを動作させるための処理が制御プログラムにより実行される。
また、制御プログラムがテレビ3の機能を制御するためのプログラムである場合、物体検出部31aは、情報取得装置1から供給される3次元距離情報から画像中の人およびその動き(ジェスチャ)を検出する。そして、検出された動き(ジェスチャ)に応じて、テレビ3の機能(チャンネル切り替えやボリューム調整、等)を制御するための処理が制御プログラムにより実行される。
入出力回路32は、情報取得装置1とのデータ通信を制御する。
図3(a)は、目標領域に対するレーザ光の照射状態を模式的に示す図であり、図3(b)は、CMOSイメージセンサ123におけるレーザ光の受光状態を模式的に示す図である。なお、同図(b)には、便宜上、目標領域に平坦な面(スクリーン)が存在するときの受光状態が示されている。
同図(a)に示すように、投射光学系11からは、ドットパターンを持ったレーザ光(以下、このパターンを持つレーザ光の全体を「DP光」という)が、目標領域に向けて照射される。同図(a)には、DP光の投射領域が実線の枠によって示されている。DP光の光束中には、回折光学素子による回折作用によってレーザ光の強度が高められたドット領域(以下、単に「ドット」という)が、回折光学素子の回折作用によるドットパターンに従って点在している。
なお、図3(a)では、便宜上、DP光の光束が、マトリックス状に並ぶ複数のセグメント領域に区分されている。各セグメント領域には、ドットが固有のパターンで点在している。一つのセグメント領域におけるドットの点在パターンは、他の全てのセグメント領域におけるドットの点在パターンと相違する。これにより、各セグメント領域は、ドットの点在パターンをもって、他の全てのセグメント領域から区別可能となっている。
目標領域に平坦な面(スクリーン)が存在すると、これにより反射されたDP光の各セグメント領域は、同図(b)のように、CMOSイメージセンサ123上においてマトリックス状に分布する。たとえば、同図(a)に示す目標領域上におけるセグメント領域S0の光は、CMOSイメージセンサ123上では、同図(b)に示すセグメント領域Spに入射する。なお、図3(b)においても、DP光の光束領域が実線の枠によって示され、便宜上、DP光の光束が、マトリックス状に並ぶ複数のセグメント領域に区分されている。
上記3次元距離演算部21bでは、各セグメント領域がCMOSイメージセンサ123上のどの位置に入射したかの検出(以下、「パターンマッチング」という)が行われ、その受光位置から、三角測量法に基づいて、検出対象物体の各部(各セグメント領域の照射位置)までの距離が検出される。かかる検出手法の詳細は、たとえば、上記非特許文献1(第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280)に示されている。
図4は、上記距離検出に用いられる基準テンプレートの生成方法を模式的に示す図である。
図4(a)に示すように、基準テンプレートの生成時には、投射光学系11から所定の距離Lsの位置に、Z軸方向に垂直な平坦な反射平面RSが配置される。レーザ光源111の温度は、所定の温度(基準温度)に維持される。この状態で、投射光学系11からDP光が所定時間Teだけ出射される。出射されたDP光は、反射平面RSによって反射され、受光光学系12のCMOSイメージセンサ123に入射する。これにより、CMOSイメージセンサ123から、画素毎の電気信号が出力される。出力された画素毎の電気信号の値(画素値)が、図2のメモリ25上に展開される。
こうしてメモリ25上に展開された画素値に基づいて、図4(b)に示すように、CMOSイメージセンサ123上におけるDP光の照射領域を規定する基準パターン領域が設定される。さらに、この基準パターン領域が、縦横に区分されてセグメント領域が設定される。上記のように、各セグメント領域には、固有のパターンでドットが点在する。よって、セグメント領域の画素値のパターンは、セグメント領域毎に異なっている。なお、図4(b)の例では、各セグメント領域は、他の全てのセグメント領域と同じサイズである。
基準テンプレートは、このようにCMOSイメージセンサ123上に設定された各セグメント領域に、そのセグメント領域に含まれる各画素の画素値を対応付けて構成される。
具体的には、基準テンプレートは、CMOSイメージセンサ123上における基準パターン領域の位置に関する情報と、基準パターン領域に含まれる全画素の画素値と、基準パターン領域をセグメント領域に分割するための情報を含んでいる。基準パターン領域に含まれる全画素の画素値は、基準パターン領域に含まれるDP光のドットパターンに相応するものになる。また、基準パターン領域に含まれる全画素の画素値のマッピング領域をセグメント領域に区分することで、各セグメント領域に含まれる画素の画素値が取得される。なお、基準テンプレートは、さらに、各セグメント領域に含まれる画素の画素値を、セグメント領域毎に保持していても良い。
構成された基準テンプレートは、図2のメモリ25に、消去不可能な状態で保持される。こうしてメモリ25に保持された基準テンプレートは、投射光学系11から検出対象物体の各部までの距離を算出する際に参照される。
たとえば、図4(a)に示すように距離Lsよりも近い位置に物体がある場合、基準パターン上の所定のセグメント領域Snに対応するDP光(DPn)は、物体によって反射され、セグメント領域Snとは異なる領域Sn’に入射する。投射光学系11と受光光学系12はX軸方向に隣り合っているため、セグメント領域Snに対する領域Sn’の変位方向はX軸に平行となる。図4(a)の場合、物体が距離Lsよりも近い位置にあるため、領域Sn’は、セグメント領域Snに対してX軸正方向に変位する。物体が距離Lsよりも遠い位置にあれば、領域Sn’は、セグメント領域Snに対してX軸負方向に変位する。
セグメント領域Snに対する領域Sn’の変位方向と変位量をもとに、投射光学系11からDP光(DPn)が照射された物体の部分までの距離Lrが、距離Lsを用いて、三角測量法に基づき算出される。同様にして、他のセグメント領域に対応する物体の部分について、投射光学系11からの距離が算出される。
かかる距離算出では、基準テンプレートのセグメント領域Snが、実測時においてどの位置に変位したかを検出する必要がある。この検出は、実測時にCMOSイメージセンサ123上に照射されたDP光のドットパターンと、セグメント領域Snに含まれるドットパターンとを照合することによって行われる。
図5は、かかる検出の手法を説明する図である。同図(a)は、CMOSイメージセンサ123上における基準パターン領域とセグメント領域の設定状態を示す図、同図(b)は、実測時におけるセグメント領域の探索方法を示す図、同図(c)は、実測されたDP光のドットパターンと、基準テンプレートのセグメント領域に含まれるドットパターンとの照合方法を示す図である。
たとえば、同図(a)のセグメント領域S1の実測時における変位位置を探索する場合、同図(b)に示すように、セグメント領域S1が、範囲P1〜P2において、X軸方向に1画素ずつ送られ、各送り位置において、セグメント領域S1のドットパターンと、実測されたDP光のドットパターンのマッチング度合いが求められる。この場合、セグメント領域S1は、基準パターン領域の最上段のセグメント領域群を通るラインL1上のみをX軸方向に送られる。これは、上記のように、通常、各セグメント領域は、実測時において、基準テンプレートにより設定された位置からX軸方向にのみ変位するためである。すなわち、セグメント領域S1は、最上段のラインL1上にあると考えられるためである。このように、X軸方向にのみ探索を行うことで、探索のための処理負担が軽減される。
なお、実測時には、検出対象物体の位置によっては、セグメント領域が基準パターン領域の範囲からX軸方向にはみ出すことが起こり得る。このため、範囲P1〜P2は、基準パターン領域のX軸方向の幅よりも広く設定される。
上記マッチング度合いの検出時には、ラインL1上に、セグメント領域S1と同じサイズの領域(比較領域)が設定され、この比較領域とセグメント領域S1との間の類似度が求められる。すなわち、セグメント領域S1の各画素の画素値と、比較領域の対応する画素の画素値との差分が求められる。そして、求めた差分を比較領域の全ての画素について加算した値Rsadが、類似度を示す値として取得される。
たとえば、図5(c)のように、一つのセグメント領域中に、m列×n行の画素が含まれている場合、セグメント領域のi列、j行の画素の画素値T(i,j)と、比較領域のi列、j行の画素の画素値I(i,j)との差分が求められる。そして、セグメント領域の全ての画素について差分が求められ、その差分の総和により、値Rsadが求められる。すなわち、値Rsadは、次式により算出される。
値Rsadが小さい程、セグメント領域と比較領域との間の類似度が高い。
探索時には、比較領域が、ラインL1上を1画素ずつずらされつつ順次設定される。そして、ラインL1上の全ての比較領域について、値Rsadが求められる。求めた値Rsadの中から、閾値より小さいものが抽出される。閾値より小さい値Rsadが無ければ、セグメント領域S1の探索はエラーとされる。そして、抽出されたRsadの中で最も値が小さいものに対応する比較領域が、セグメント領域S1の移動領域であると判定される。ラインL1上のセグメント領域S1以外のセグメント領域も、上記と同様の探索が行われる。また、他のライン上のセグメント領域も、上記と同様、そのライン上に比較領域が設定されて、探索が行われる。
こうして、実測時に取得されたDP光のドットパターンから、各セグメント領域の変位位置が探索されると、上記のように、その変位位置に基づいて、三角測量法により、各セグメント領域に対応する検出対象物体の部位までの距離が求められる。
図6は、投射光学系11と受光光学系12の設置状態を示す斜視図である。
投射光学系11と受光光学系12は、熱伝導性の高いベースプレート300上に設置される。投射光学系11を構成する光学部材は、シャーシ11aに設置され、このシャーシ11aがベースプレート300上に設置される。これにより、投射光学系11がベースプレート300上に設置される。
受光光学系12は、ベースプレート300上の2つの台座300aの上面と、2つの台座300aの間のベースプレート300の上面に設置される。2つの台座300aの間のベースプレート300の上面には、後述するCMOSイメージセンサ123が設置され、台座300aの上面には保持板12aが設置され、この保持板12aに、後述するフィルタ121および撮像レンズ122を保持するレンズホルダ12bが設置される。
投射光学系11と受光光学系12は、投射光学系11の投射中心と受光光学系12の撮像中心がX軸に平行な直線上に並ぶように、X軸方向に所定の距離をもって並んで設置されている。ベースプレート300の裏面に、情報取得装置1の回路部(図2参照)を保持する回路基板200(図7参照)が設置される。
ベースプレート300の中央下部には、レーザ光源111の配線をベースプレート300の背部に取り出すための孔300bが形成されている。また、ベースプレート300の受光光学系12の設置位置の下部には、CMOSイメージセンサ123のコネクタ12cをベースプレート300の背部に露出させるための開口300cが形成されている。
図7は、本実施の形態に係る投射光学系11と受光光学系12の構成を模式的に示す図である。
投射光学系11は、レーザ光源111と、コリメータレンズ112と、立ち上げミラー113と、回折光学素子(DOE:Diffractive Optical Element)114を備えている。また、受光光学系12は、フィルタ121と、撮像レンズ122と、CMOSイメージセンサ123とを備えている。
レーザ光源111は、波長830nm程度の狭波長帯域のレーザ光を出力する。レーザ光源111は、レーザ光の光軸がX軸に平行となるように設置される。コリメータレンズ112は、レーザ光源111から出射されたレーザ光を略平行光に変換する。コリメータレンズ112は、自身の光軸がレーザ光源111から出射されたレーザ光の光軸に整合するように設置される。立ち上げミラー113は、コリメータレンズ112側から入射されたレーザ光を反射する。レーザ光の光軸は、立ち上げミラー113によって90°折り曲げられてZ軸に平行となる。
DOE114は、入射面に回折パターンを有する。DOE114は、樹脂による射出成型もしくはガラス基材にリソグラフィとドライエッチング手法を用いるなどして形成される。回折パターンは、たとえば、ステップ型のホログラムにより構成される。この回折パターンによる回折作用により、立ち上げミラー113により反射されDOE114に入射したレーザ光は、ドットパターンのレーザ光に変換されて、目標領域に照射される。回折パターンは、目標領域において所定のドットパターンとなるように設計されている。目標領域におけるドットパターンについては、追って図8〜10を参照して説明する。
なお、レーザ光源111とコリメータレンズ112との間には、レーザ光の輪郭を円形にするためのアパーチャ(図示せず)が配される。なお、このアパーチャは、レーザ光源111の出射開口によって構成されても良い。
目標領域から反射されたレーザ光は、フィルタ121を透過して撮像レンズ122に入射する。
フィルタ121は、レーザ光源111の出射波長(830nm程度)を含む波長帯域の光を透過し、その他の波長帯域をカットする。撮像レンズ122は、フィルタ121を介して入射された光をCMOSイメージセンサ123上に集光する。撮像レンズ122は複数のレンズから構成され、所定のレンズとレンズとの間にアパーチャとスペーサが介挿されている。かかるアパーチャは、撮像レンズ122のFナンバーに合うように、外部からの光に絞りを掛ける。
CMOSイメージセンサ123は、撮像レンズ122にて集光された光を受光して、画素毎に、受光光量に応じた信号(電荷)を撮像信号処理回路23に出力する。ここで、CMOSイメージセンサ123は、各画素における受光から高レスポンスでその画素の信号(電荷)を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。
フィルタ121は、受光面がZ軸に垂直になるように配置される。撮像レンズ122は、光軸がZ軸に平行となるように設置される。CMOSイメージセンサ123は、受光面がZ軸に垂直になるように設置される。また、フィルタ121の中心とCMOSイメージセンサ123の受光領域の中心が撮像レンズ122の光軸上に並ぶように、フィルタ121、撮像レンズ122およびCMOSイメージセンサ123が配置される。
投射光学系11と受光光学系12は、図6を参照して説明したように、ベースプレート300に設置されている。ベースプレート300の下面には、さらに、回路基板200が設置され、この回路基板200から、レーザ光源111およびCMOSイメージセンサ123に配線(フレキシブル基板)201、202が接続されている。回路基板200には、図2に示すCPU21やレーザ駆動回路22等の情報取得装置1の回路部が実装されている。
図7の構成において、DOE114は、通常、ドットパターンのドットが、目標領域において、同じ輝度で、且つ、均一に分散するように設計される。このようにドットを分散させることにより、目標領域を満遍なく探索することが可能となる。しかしながら、このように設計されたDOE114を用いて実際にドットパターンを生成すると、ドットの輝度が領域によって相違することが分かった。また、ドットの輝度の相違には、一定の傾向があることが分かった。以下、本件出願の発明者が行ったDOE114の分析および評価について説明する。
まず、本件出願の発明者は、比較例として、ドットパターンのドットが目標領域上で同じ輝度で且つ均一に分布するよう、DOE114の回折パターンを調整した。続いて、本件出願の発明者は、かかる設計に従って構成されたDOE114を用いて、実際に目標領域にドットパターンを投射し、そのときのドットパターンの投射状態をCMOSイメージセンサ123によって撮像した。そして、CMOSイメージセンサ123の各画素の受光光量(検出信号)から、CMOSイメージセンサ123上におけるドットパターンの輝度分布を測定した。
図8(a)は、比較例のDOE114を用いた場合のCMOSイメージセンサ123上の輝度分布を示す測定結果である。図8(a)の中央部分は、CMOSイメージセンサ123の受光面(2次元平面)上における輝度を色(この図には、輝度の違いが色の違いによって表されている)によって示す輝度分布図である。図8(a)の左側および下側には、それぞれ、かかる輝度分布図のA−A’直線およびB−B’直線に沿う部分の輝度値がグラフにより示されている。図8(a)の左側および下側のグラフは、それぞれ、最大輝度を10として正規化されている。なお、図8(a)の左側および下側のグラフに示されるように、実際には、図8(a)の中央部分に示された図の周りの領域にも輝度が存在するが、かかる領域の輝度は低いため、便宜上、図8(a)の中央部分の図には、かかる領域の輝度が表わされていない。
図8(b)は、図8(a)の輝度分布を模式的に示す図である。図8(b)では、CMOSイメージセンサ123上の輝度の大きさが、9段階に分けて表示されており、中心部から周辺部に向かうに従って輝度が低くなっていることが分かる。
図8(a)、(b)に示す如く、CMOSイメージセンサ123上の輝度は、中心において最大となっており、中心から離れるに従って低くなっている。このように、目標領域においてドットパターンのドットが同じ輝度で且つ均一に分布するようDOE114が設計された場合でも、実際には、CMOSイメージセンサ123上において輝度のばらつきが生じてしまう。すなわち、この測定結果から、目標領域に投射されたドットパターンは、中心部から周辺部に向かうにつれて、ドットの輝度が低下することが分かる。
また、図8(a)、(b)を参照すると、ドットの輝度は、中央から放射状に変化することが分かる。つまり、輝度が略同じであるドットは、ドットパターンの中心に対して略同心円状に分布し、中心から離れるにしたがって徐々にドットの輝度が低下するものと考えられる。本件出願の発明者が同様に形成された複数のDOE114について上記と同様の測定を行ったところ、この傾向は、何れのDOE114でも同じく確認された。よって、ドットパターンのドットが目標領域上で同じ輝度で且つ均一に分布するようにDOE114を設計した場合には、目標領域に投射されるドットは、一般に、上記のような傾向で分散するものと考えられる。
このように輝度のばらつきが生じると、CMOSイメージセンサ123の中心部と周辺部において、セグメント領域に含まれるドット数は略同じであるにも拘わらず、輝度が低い周辺部においては、自然光や照明灯の光などの迷光によって、ドットが検出されにくくなってしまう。これにより、CMOSイメージセンサ123の周辺部のセグメント領域において、パターンマッチングの精度が低下する惧れがある。
なお、このように周辺部の輝度が低くなる場合、周辺部のドットに基づく検出信号を大きくするために、たとえば、CMOSイメージセンサ123の周辺部の検出信号のゲインを大きく設定することが考えられる。しかしながら、このように周辺部のゲインが大きく設定されても、迷光に基づく検出信号も大きくなってしまうため、輝度の低い周辺部のドットを適正に検出することが困難となる。
そこで、本実施の形態では、図9(a)に示すように、目標領域においてドットパターンが不均一に分布するよう、DOE114の回折パターンが調整される。
図9(a)は、本実施の形態の目標領域におけるドットの分布状態を模式的に示す図である。本実施の形態のDOE114は、回折作用により、図示の如く、目標領域においてドットの密度が同心円状に中心から離れるに従って(中心からの距離に比例して)小さくなるよう構成されている。図中の破線で示す部分は、ドットの密度が略等しい領域である。
ドットの密度は、ドットパターンの中心から放射状に離れるに従ってリニアに低下させてもよく、あるいは、段階的に低下させてもよい。たとえば、ドットの密度を段階的に低下させる場合、図9(b)、(c)に示すように、ドットパターンの中心から同心円状に複数の領域を設定し、それぞれの領域内ではドットの密度を等しくする。図9(b)、(c)において、ドットの密度が等しい領域は、同じ濃さで示されている。
ここで、ドットの密度は、たとえば、複数のドットを一つに纏めることにより小さくされる。たとえば、図10(a)に示すように、比較例において、一つのセグメント領域(15画素×15画素)に、22個のドットが含まれているとする。この場合、ドットパターンの周辺部のセグメント領域では、個々のドットの輝度が、同図(a)の下側に模式的に示された輝度B1を持っているとする。この状態から、たとえば、点線矢印に示すように、11個のドットが他の11個のドットにそれぞれ重なる位置に導かれるように、DOE114の設計が調整される。これにより、同図(b)のように、一つのセグメント領域に、11個のドットが含まれるようになり、比較例に比べてドットの密度が1/2になる。このとき、同図(b)の各ドットは、比較例の2つのドットが重ねられたものであるため、同図(b)の下側に模式的に示すように、比較例の各ドットの2倍程度の輝度B2を持つようになる。こうして、ドットの密度が減じられながら、輝度が高められる。なお、ドットパターンの中心部では、上記のようなドットの重ね合わせは行われない。したがって、ドットパターンの中心部のドットは、比較例の場合と、密度も輝度も変わらない。
なお、図10の例では、同じセグメント領域内のドット同士が重ねられたが、実際には、各セグメント領域に含まれるドットのパターンが固有のパターンとなるように、複数のドットが重ねられ、ドットの密度が小さくなる。互いに重なるドットは、同じセグメント領域に含まれなくても良い。このように各セグメント領域のドットのパターンが固有のパターンとなり、且つ、ドットパターン周辺部のドットの密度が小さくなるように、DOE114の回折パターンが調整される。
このように、周辺部のドットの密度が小さくなると、上記のように周辺部の輝度が高められるため、周辺部のドットが迷光に埋もれ難くなる。しかしながら、周辺部のセグメント領域に含まれるドットの数は、中心部のセグメント領域に含まれるドットの数に比べて少なくなるために、周辺部のセグメント領域のパターンマッチングの精度が低下する惧れがある。
そこで、本実施の形態では、DOE114の回折パターンを図9(a)に示すように調整すると共に、さらに、周辺部のセグメント領域を中心部のセグメント領域に比べて大きくなるよう設定する。
図11(a)、(b)は、それぞれ、本実施の形態における中心部および周辺部のセグメント領域を示す図である。なお、本実施の形態においても、図10(a)、(b)の場合と同様、周辺部のドットの密度は、中心部のドットの密度の1/2であるとする。
図11(a)に示すように、本実施の形態の場合も、図10(a)と同様、中心部のセグメント領域は15画素×15画素に設定されており、一つのセグメント領域には22個のドットが含まれている。そして、図11(b)に示すように、本実施の形態の場合、周辺部のセグメント領域は21画素×21画素に設定されている。なお、周辺部の密度は中心部の密度の1/2であるため、ここでは、周辺部のセグメント領域の面積が、中心部のセグメント領域の約2倍となるよう、周辺部のセグメント領域の一辺は、たとえば21画素に設定される。こうすると、周辺部のセグメント領域に含まれる画素の数は、中心部のセグメント領域に含まれる画素の数の約2倍となる。これにより、周辺部のセグメント領域に含まれるドットの数(22個)が、中心部のセグメント領域に含まれるドットの数(22個)に等しくなる。
このように、セグメント領域の大きさは、中心部とのドットの密度の違いに応じて、適宜設定される。たとえば、図9(a)に示すように、中心部からの距離に応じてリニアに密度が小さくなる場合、図12(a)に示すように、基準パターン領域上のドットの密度に応じてセグメント領域の大きさが変化するよう設定される。また、図9(b)、(c)に示すように、中心部からの距離に応じて段階的に密度が小さくなる場合、それぞれ、図12(b)、(c)に示すように、基準パターン領域上のドットの密度に応じて、段階的にセグメント領域の大きさが変化するよう設定される。
本実施の形態では、CMOSイメージセンサ123上における基準パターン領域の位置に関する情報と、基準パターン領域に含まれる全画素の画素値と、セグメント領域の縦横の幅に関する情報と、セグメント領域の位置に関する情報が、基準テンプレートとなる。本実施の形態の基準テンプレートも、図2のメモリ25に、消去不可能な状態で保持される。こうしてメモリ25に保持された基準テンプレートは、投射光学系11から検出対象物体の各部までの距離を算出する際にCPU21により参照される。
図13(a)は、セグメント領域に対するドットパターンの設定処理を示すフローチャートである。かかる処理は、情報取得装置1の起動時または距離検出が開始されたときに行われる。なお、基準テンプレートには、基準パターン領域(図4(b)参照)に対して、上記のように大きさが調整された個々のセグメント領域を割り当てるための情報が含まれている。具体的には、基準テンプレートには、各セグメント領域の基準パターン領域上の位置を示す情報と、各セグメント領域の大きさ(縦横幅)を示す情報が含まれている。ここでは、基準パターン領域に対して大きさが調整されたN個のセグメント領域が割り当てられ、これらセグメント領域には1〜Nまでの通し番号が付けられているものとする。
情報取得装置1のCPU21は、まず、メモリ25に保持されている基準テンプレートから、CMOSイメージセンサ123上における基準パターン領域の位置に関する情報と、基準パターン領域に含まれる全画素の画素値を読み出す(S11)。続いて、CPU21は、変数kに1をセットする(S12)。
次に、CPU21は、メモリ25に保持されている基準テンプレートから、k番目のセグメント領域Skの縦横の幅に関する情報と、セグメント領域Skの位置に関する情報を取得する(S13)。続いて、CPU21は、基準パターン領域に含まれる全画素の画素値と、S13で取得したセグメント領域Skの情報から、探索に用いるドットパターンDkを設定する(S14)。具体的には、CPU21は、基準パターンの全画素の画素値のうち、セグメント領域Skに含まれるドットパターンの画素値を取得し、これを探索用のドットパターンDkとする。
次に、CPU21は、kの値がNに等しいかを判定する(S15)。全てのセグメント領域について探索に用いるドットパターンが設定されて、kの値がNになると(S15:YES)、処理が終了する。他方、kの値がNに到達していないと(S15:NO)、CPU21は、kの値を1増やして(S16)、処理をS13に戻す。こうして、探索に用いるN個のドットパターンが順次設定される。
図13(b)は、実測時における距離検出の処理を示すフローチャートである。かかる処理は、図13(a)の処理により設定された探索用のドットパターンを用いて行われ、図13(a)の処理と並行して行われる。
情報取得装置1のCPU21は、まず、変数cに1をセットする(S21)。次に、CPU21は、実測時に受光したCMOSイメージセンサ123上のドットパターンから、図13(a)のS14で設定したc番目の探索用のドットパターンDcと一致する領域を探索する(S22)。かかる探索は、セグメント領域Scに対応する位置に対して左右方向に所定の幅を有する領域に対して行われる。探索用のドットパターンDcと一致する領域があれば、CPU21は、一致した領域がセグメント領域Scの位置から左右どちらの方向にどれだけの距離を移動したかを検出し、検出した移動方向と移動距離を用いて、三角測量法に基づきセグメント領域Scに位置する物体の距離を算出する(S23)。
次に、CPU21は、cの値がNに等しいかを判定する(S24)。全てのセグメント領域について距離の算出が行われ、cの値がNになると(S24:YES)、処理が終了する。他方、cの値がNに到達していないと(S24:NO)、CPU21は、cの値を1増やして(S25)、処理をS22に戻す。こうして、セグメント領域に対応する検出対象物体までの距離が求められる。
以上、本実施の形態によれば、図9(a)〜(c)に示すように、ドットパターンの周辺部の密度が中心部の密度よりも小さく設定される。これにより、周辺部におけるドット1つ当たりの輝度が高められ、各ドットが迷光に埋もれ難くなりドットの位置を把握し易くなる。また、このようにドットの密度を中心部と周辺部で変化させた場合、周辺部のセグメント領域が、図12(a)〜(c)に示すように、中心部のセグメント領域よりも大きく設定される。これにより、目標領域の周辺部のセグメント領域についてパターンマッチングを行う際に、セグメント領域内に含まれるドット数が増えるため、パターンマッチングの精度が向上され得る。このように、本実施の形態によれば、ドットパターンの密度(輝度)とセグメント領域の大きさを調整することにより、ドットパターンの周辺部における距離検出の精度の低下を抑制することができる。
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、また、本発明の実施の形態も上記の他に種々の変更が可能である。
たとえば、上記実施の形態では、光検出器として、CMOSイメージセンサ123を用いたが、これに替えて、CCDイメージセンサを用いることもできる。
また、上記実施の形態では、レーザ光源111とコリメータレンズ112をX軸方向に並べ、立ち上げミラー113でレーザ光の光軸をZ軸方向に折り曲げるようにしたが、レーザ光をZ軸方向に出射するようレーザ光源111を配置し、レーザ光源111と、コリメータレンズ112と、DOE114をZ軸方向に並べて配置するようにしても良い。この場合、立ち上げミラー113を省略できるが、投射光学系11の寸法がZ軸方向に大きくなる。
また、上記実施の形態では、図11(a)、(b)に示すように、ドットパターンの周辺部のドットの密度が中心部のドットの密度の1/2となるよう、DOE114の回折パターンが調整された。しかしながら、これに限らず、ドットパターンの周辺部のドットの密度は、周辺部の輝度が大きくなるよう設定されればよい。
また、上記実施の形態では、一つのセグメント領域の画素数も、図11(a)、(b)に示すように、中心部において15画素×15画素、周辺部において21画素×21画素に設定された。しかしながら、これに限らず、周辺部のセグメント領域に含まれる画素数が、中心部のセグメント領域に含まれる画素数よりも大きくなるよう、他の画素数とされても良い。
また、上記実施の形態では、図9(a)〜(c)に示すように、目標領域におけるドットの密度は、同心円状に中心から離れるに従って小さくなるよう構成されたが、これに限らず、図14(a)、(b)に示すように、楕円形状および方形状に中心から離れるに従ってリニアに小さくなるよう構成されても良い。この場合も、図14(c)、(d)に示すように、ドットの密度は、ドットパターンの中心から放射状に離れるに従って、段階的に小さくなるよう構成されても良い。図14(a)〜(d)に示すようにドットの密度が設定される場合、図15(a)〜(d)に示すように、ドットの密度に応じてセグメント領域の大きさが設定される。
さらに、上記実施の形態では、基準パターン領域をマトリックス状に区分することによりセグメント領域が設定されたが、左右に隣り合うセグメント領域が互いにオーバーラップするようにセグメント領域が設定されてもよく、また、上下に隣り合うセグメント領域が互いにオーバーラップするようにセグメント領域が設定されてもよい。この場合も、各セグメント領域は、上記のように、ドットパターンの中心部よりも周辺部の方が大きくなるように設定される。
この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。
1 情報取得装置
11 投射光学系
12 受光光学系
21 CPU(距離取得部)
21b 3次元距離演算部(距離取得部)
23 撮像信号処理回路(距離取得部)
111 レーザ光源
112 コリメータレンズ
114 DOE(回折光学素子)
121 フィルタ
122 撮像レンズ(集光レンズ)
123 CMOSイメージセンサ(撮像素子)

Claims (6)

  1. 光を用いて目標領域の情報を取得する情報取得装置において、
    前記目標領域に所定のドットパターンでレーザ光を投射する投射光学系と、
    前記投射光学系に対して所定の距離だけ離れて並ぶように配置され、前記目標領域を撮像する受光光学系と、
    前記受光光学系により撮像された前記ドットパターンに基づいて目標領域に存在する物体の各部までの距離を取得する距離取得部と、を備え、
    前記投射光学系は、前記目標領域における前記ドットパターンのドットの密度が、前記ドットパターンの中心部よりも周辺部の方が小さくなるよう構成され、
    前記距離取得部は、基準面により反射され前記受光光学系により撮像された基準ドットパターンをセグメント領域に区分し、距離測定時に目標領域を撮像して取得された撮像ドットパターンと前記各セグメント領域内のドットとを照合することにより、前記各セグメント領域についての距離を取得し、
    前記セグメント領域は、前記基準ドットパターンの中心部よりも周辺部の方が大きくなるよう設定される、
    ことを特徴とする情報取得装置。
  2. 請求項1に記載の情報取得装置において、
    前記投射光学系は、前記基準面における前記ドットの密度が、前記基準ドットパターンの中心からの距離に応じて小さくなるよう構成され、
    前記セグメント領域は、前記基準ドットパターンの中心から距離に応じて大きくなるよう構成される、
    ことを特徴とする情報取得装置。
  3. 請求項2に記載の情報取得装置において、
    前記投射光学系は、前記基準面における前記ドットの密度が、前記基準ドットパターンの中心から放射状に離れるに従って段階的に小さくなるよう構成され、
    前記セグメント領域は、前記基準ドットパターンの中心から放射状に離れるに従って段階的に大きくなるよう構成される、
    ことを特徴とする情報取得装置。
  4. 請求項1ないし3の何れか一項に記載の情報取得装置において、
    前記投射光学系は、前記基準面における前記ドットの輝度が、前記基準ドットパターンの中心部よりも周辺部の方が高くなるよう構成されている、
    ことを特徴とする情報取得装置。
  5. 請求項1ないし4の何れか一項に記載の情報取得装置において、
    前記投射光学系は、
    レーザ光源と、
    前記レーザ光源から出射されたレーザ光が入射するコリメータレンズと、
    前記コリメータレンズを透過した前記レーザ光を回折によりドットパターンの光に変換する回折光学素子と、を備え、
    前記受光光学系は、
    撮像素子と、
    目標領域からの前記レーザ光を前記撮像素子に集光する集光レンズと、
    前記レーザ光の波長帯域の光を抽出して前記撮像素子に導くためのフィルタと、を備える、
    ことを特徴とする情報取得装置。
  6. 請求項1ないし5の何れか一項に記載の情報取得装置を有する物体検出装置。
JP2012525802A 2011-04-19 2012-04-06 情報取得装置および物体検出装置 Expired - Fee Related JP5138116B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012525802A JP5138116B2 (ja) 2011-04-19 2012-04-06 情報取得装置および物体検出装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011092927 2011-04-19
JP2011092927 2011-04-19
JP2012525802A JP5138116B2 (ja) 2011-04-19 2012-04-06 情報取得装置および物体検出装置
PCT/JP2012/059446 WO2012144339A1 (ja) 2011-04-19 2012-04-06 情報取得装置および物体検出装置

Publications (2)

Publication Number Publication Date
JP5138116B2 true JP5138116B2 (ja) 2013-02-06
JPWO2012144339A1 JPWO2012144339A1 (ja) 2014-07-28

Family

ID=47041451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012525802A Expired - Fee Related JP5138116B2 (ja) 2011-04-19 2012-04-06 情報取得装置および物体検出装置

Country Status (4)

Country Link
US (1) US20130002859A1 (ja)
JP (1) JP5138116B2 (ja)
CN (1) CN102859319A (ja)
WO (1) WO2012144339A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013200657B4 (de) * 2013-01-17 2015-11-26 Sypro Optics Gmbh Vorrichtung zur Erzeugung eines optischen Punktmusters
JP2016075653A (ja) * 2014-10-09 2016-05-12 シャープ株式会社 画像認識処理装置及びプログラム
US9361698B1 (en) * 2014-11-12 2016-06-07 Amazon Technologies, Inc. Structure light depth sensor
DE112015006245B4 (de) * 2015-03-30 2019-05-23 Fujifilm Corporation Abstandsbild-Erfassungsvorrichtung und Abstandsbild-Erfassungsverfahren
JP6548076B2 (ja) * 2015-07-14 2019-07-24 株式会社リコー パターン画像投射装置、視差情報生成装置、パターン画像生成プログラム
JP7488652B2 (ja) * 2017-07-03 2024-05-22 大日本印刷株式会社 回折光学素子、光照射装置、照射パターンの読取り方法
US11629949B2 (en) * 2018-04-20 2023-04-18 Qualcomm Incorporated Light distribution for active depth systems
CN109188357B (zh) * 2018-08-28 2023-04-14 上海宽创国际文化科技股份有限公司 一种基于结构光阵列的室内定位系统和方法
CN109597530B (zh) * 2018-11-21 2022-04-19 深圳闳宸科技有限公司 显示设备及屏幕定位方法
CN110375736B (zh) * 2018-11-28 2021-02-26 北京京东尚科信息技术有限公司 智能设备的路径规划方法、系统、设备及可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292135A (ja) * 1999-04-07 2000-10-20 Minolta Co Ltd 3次元情報入力カメラ
JP2000292133A (ja) * 1999-04-02 2000-10-20 Nippon Steel Corp パターン投影装置
JP2004191092A (ja) * 2002-12-09 2004-07-08 Ricoh Co Ltd 3次元情報取得システム
JP2006061222A (ja) * 2004-08-24 2006-03-09 Sumitomo Osaka Cement Co Ltd 動き検出装置
JP2009014712A (ja) * 2007-06-07 2009-01-22 Univ Of Electro-Communications 物体検出装置とそれを適用したゲート装置
JP2009270915A (ja) * 2008-05-07 2009-11-19 Kagawa Univ 3次元形状の計測方法および装置
JP2010101683A (ja) * 2008-10-22 2010-05-06 Nissan Motor Co Ltd 距離計測装置および距離計測方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2527403B2 (ja) * 1993-10-08 1996-08-21 岸本産業株式会社 レ―ザ光を利用したスペックルパタ―ンによる被計測物の移動量の修正方法ならびにその装置
JP3556589B2 (ja) * 2000-09-20 2004-08-18 ファナック株式会社 位置姿勢認識装置
JP3704706B2 (ja) * 2002-03-13 2005-10-12 オムロン株式会社 三次元監視装置
CN1203292C (zh) * 2003-08-15 2005-05-25 清华大学 测量物体三维表面轮廊的方法
JP3960295B2 (ja) * 2003-10-31 2007-08-15 住友電気工業株式会社 チルト誤差低減非球面ホモジナイザー
JP4577126B2 (ja) * 2005-07-08 2010-11-10 オムロン株式会社 ステレオ対応づけのための投光パターンの生成装置及び生成方法
US20110044544A1 (en) * 2006-04-24 2011-02-24 PixArt Imaging Incorporation, R.O.C. Method and system for recognizing objects in an image based on characteristics of the objects
WO2007138904A1 (ja) * 2006-05-30 2007-12-06 Panasonic Corporation パターン投影光源および複眼測距装置
US8724013B2 (en) * 2007-12-27 2014-05-13 Qualcomm Incorporated Method and apparatus with fast camera auto focus
US8384997B2 (en) * 2008-01-21 2013-02-26 Primesense Ltd Optical pattern projection
JP2009200683A (ja) * 2008-02-20 2009-09-03 Seiko Epson Corp 画像処理装置、プロジェクタ、歪み補正方法
GB2463967B (en) * 2008-08-26 2011-12-28 Univ Glasgow Uses of electromagnetic interference patterns
GB0921461D0 (en) * 2009-12-08 2010-01-20 Qinetiq Ltd Range based sensing
US8320621B2 (en) * 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
DE102010001357A1 (de) * 2010-01-29 2011-08-04 Bremer Institut für angewandte Strahltechnik GmbH, 28359 Vorrichtung zur laseroptischen Erzeugung von mechanischen Wellen zur Bearbeitung und/oder Untersuchung eines Körpers
US8558873B2 (en) * 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US8836761B2 (en) * 2010-09-24 2014-09-16 Pixart Imaging Incorporated 3D information generator for use in interactive interface and method for 3D information generation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292133A (ja) * 1999-04-02 2000-10-20 Nippon Steel Corp パターン投影装置
JP2000292135A (ja) * 1999-04-07 2000-10-20 Minolta Co Ltd 3次元情報入力カメラ
JP2004191092A (ja) * 2002-12-09 2004-07-08 Ricoh Co Ltd 3次元情報取得システム
JP2006061222A (ja) * 2004-08-24 2006-03-09 Sumitomo Osaka Cement Co Ltd 動き検出装置
JP2009014712A (ja) * 2007-06-07 2009-01-22 Univ Of Electro-Communications 物体検出装置とそれを適用したゲート装置
JP2009270915A (ja) * 2008-05-07 2009-11-19 Kagawa Univ 3次元形状の計測方法および装置
JP2010101683A (ja) * 2008-10-22 2010-05-06 Nissan Motor Co Ltd 距離計測装置および距離計測方法

Also Published As

Publication number Publication date
JPWO2012144339A1 (ja) 2014-07-28
WO2012144339A1 (ja) 2012-10-26
US20130002859A1 (en) 2013-01-03
CN102859319A (zh) 2013-01-02

Similar Documents

Publication Publication Date Title
JP5138116B2 (ja) 情報取得装置および物体検出装置
WO2012137674A1 (ja) 情報取得装置、投射装置および物体検出装置
JP5143312B2 (ja) 情報取得装置、投射装置および物体検出装置
JP5214062B1 (ja) 情報取得装置および物体検出装置
JP5138119B2 (ja) 物体検出装置および情報取得装置
JP2012237604A (ja) 情報取得装置、投射装置および物体検出装置
WO2013046927A1 (ja) 情報取得装置および物体検出装置
JP5138115B2 (ja) 情報取得装置及びその情報取得装置を有する物体検出装置
JP5143314B2 (ja) 情報取得装置および物体検出装置
JPWO2013015145A1 (ja) 情報取得装置および物体検出装置
WO2012144340A1 (ja) 情報取得装置および物体検出装置
JP2014052307A (ja) 情報取得装置および物体検出装置
WO2013046928A1 (ja) 情報取得装置および物体検出装置
WO2013015146A1 (ja) 物体検出装置および情報取得装置
WO2013031447A1 (ja) 物体検出装置および情報取得装置
JP2014085257A (ja) 情報取得装置および物体検出装置
WO2013031448A1 (ja) 物体検出装置および情報取得装置
JP2014035304A (ja) 情報取得装置および物体検出装置
JP5138120B2 (ja) 物体検出装置および情報取得装置
JP2014085282A (ja) 情報取得装置および物体検出装置
JP2013234956A (ja) 情報取得装置および物体検出装置
JP2014098585A (ja) 情報取得装置および物体検出装置
JP2013234957A (ja) 情報取得装置および物体検出装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees