JP2004198212A - Apparatus for monitoring vicinity of mobile object - Google Patents
Apparatus for monitoring vicinity of mobile object Download PDFInfo
- Publication number
- JP2004198212A JP2004198212A JP2002366008A JP2002366008A JP2004198212A JP 2004198212 A JP2004198212 A JP 2004198212A JP 2002366008 A JP2002366008 A JP 2002366008A JP 2002366008 A JP2002366008 A JP 2002366008A JP 2004198212 A JP2004198212 A JP 2004198212A
- Authority
- JP
- Japan
- Prior art keywords
- state
- image
- feature point
- unit
- light pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、移動体周辺を監視する移動体周辺監視装置に関し、特に、移動体周辺の環境を監視し、移動体における所望の位置での視界を画像表示する移動体周辺監視装置に係る。例えば、車両の周辺を監視し駐車時に障害となる物体等を適宜表示する装置に好適な移動体周辺監視装置に係る。
【0002】
【従来の技術】
従来から、移動体例えば車両の周辺を監視するため、画像処理による環境認識技術が適用された技術が知られている。例えば、車両後方にカメラを装着し、その画像を運転席に設置したモニタに表示する装置が種々提案されており、既に市販されている。例えば、下記の特許文献1(特開平5−201298)には、レーザ光入射により監視領域に輝点パターンを投影するパターン光投光器と、該輝点パターンを撮像する撮像機と、該撮像機から得られる画像を処理して障害物や溝あるいは人等の存在を検知するデータ処理部とを備えた車両周辺監視装置が提案されている。
【0003】
また、下記の特許文献2(特開平4−71000)には、車両の走行速度に応じて投影された道路上のスリット光を撮像手段で撮像し、撮像された道路画像から抽出されたスリット光の形状やその変化を解析することによって車両前方の障害物等を検出する車両用状況認識装置が開示されている。
【0004】
一方、画像処理技術の分野においては、2台のカメラから3次元形状を復元する技術が知られている。例えば、下記の非特許文献1には、ステレオによる立体形状計測について解説されている。この非特許文献1には、その前提として、2つのカメラそれぞれの結像の特性(レンズの焦点距離、画像中心、画素サイズなど)、2つのカメラの位置、姿勢、そして2つの画像での対応が分かれば、その対応する点の空間での位置が決定できる旨記載されている。
【0005】
同様に、下記の非特許文献2にも、2台のカメラから撮った画像間の対応関係から三角測量の原理で物体の3次元形状を計算する技術が開示されており、ロボットの制御のために画像から3次元情報を抽出する方法として最も基本的な手段の一つであるとして、原理が解説されている。
【0006】
また、下記の非特許文献3には、上記のステレオと同じ原理に基づき、動画像から対象の3次元形状が復元できると記載されている。特に、動画像として画像の系列が与えられていると、対象の運動の追跡が可能になり、2枚の画像だけが与えられた場合より対応点の抽出が容易である旨説明されている。
【0007】
更に、下記の非特許文献4には、「移動ロボットにおけるジャイロとオドメトリのデータを組み合わせる方法」と題し、ジャイロによる測定と車輪エンコーダ(オドメトリ)による測定を簡単且つ有効に組み合わせる方法が開示されている。
【0008】
また、下記の非特許文献5における「1.3 Projective transformations 」(p.11〜)及び「7.3 Action of a projective camera on quadrics」(P.190〜)の記載によれば、同一の対象物が映っている2視点の画像間の変換はホモグラフィーHによって表すことができる旨説明されている。
【0009】
そして、下記の非特許文献6の「3.4 Calibrating Cameras(p.51〜p.58)」には、ホモグラフィー行列(透視投影行列)からカメラの内部パラメータと外部パラメータを計算することができる旨説明されている。
【0010】
【特許文献1】
特開平5−201298号公報
【特許文献2】
特開平4−71000号公報
【非特許文献1】
「情報処理」Vol.37 No.7 (1996年7月号)における出口光一郎著「2.ステレオの仕掛けを解き明かす」
【非特許文献2】
「空間データの数理」 (金谷健一著。1995年3月10日初版第1刷。朝倉書店発行)における161頁及び162頁に記載の「ステレオ視による3次元復元」
【非特許文献3】
「情報処理」Vol.37 No.8 (1996年8月号)における出口光一郎著「3.動画像の扱い」
【非特許文献4】
J.Borenstein 及び L.Feng 著、「Gyrodometery:A New Method forCombining Data from Gyros Odometry in Mobile Robot」、Preceeding of the IEEE International Conference on Roboticsand Automation, Minneapolis, Apr.22-28, 1996, pp.423-428
【非特許文献5】
Richard Hartley 及びAndrew Zisserman 著、「Multiple View Geometry in Computer Vision」、2000年 Cambridge University Press発行(ISBN: 0521623049)
【非特許文献6】
Olivier Faugeras 著、「Three-Dimensional Computer Vision: A Geometric Viewpoint」、 1993年 MIT Press発行
【0011】
【発明が解決しようとする課題】
前掲の特許文献1に記載の装置においては、レーザー光による輝点パターンを路面に投影し、別の位置に配置したカメラでその輝点パターンを撮影することにより障害物を検出することとしている。この特許文献1では、所定の積載状態における輝点パターンの四隅の位置に対するせり出し量を計測することによって、車両の沈み込みに起因する見かけの障害物の大きさの変化を補正処理し、誤警報を発生しないようにしている。しかし、これによれば「撮像機の路面からの高さ変化」には対応することはできるが、車両にロール角やピッチ角が生じたときには正しく補正することはできず、問題が残る。
【0012】
また、前掲の特許文献2に記載の装置においては、車両の前方にスリット光を投じるスリット光投影手段と撮像手段を設け、投影されたスリット光の形状変化を検出することにより、障害物、悪路、先行車両等を検出することとしている。しかし、この文献には、車両自体に姿勢変化が生じたときの誤差をどのように低減させるかについては何ら開示されておらず、自車の姿勢変化に対する物体の大きさや距離の計測誤差には対処できない。
【0013】
結局、上記特許文献1及び2の何れの装置においても、車両姿勢の変化に対応して誤差を低減することに関しては不十分である。従って、移動体に搭載されたカメラによって走行路面や障害物を認識するとき、カメラの搭載位置(高さ)や光軸の方向が一定と仮定したり、変化する場合でもチルト角度のみであるというような限定条件を設定することになるため、高精度で認識することは困難である。
【0014】
ところで、前述の非特許文献6に記載の画像処理技術を利用すれば、例えば単眼(1台のカメラ)によっても障害物の3次元形状を復元し得るように構成することができる。しかし、単眼によるモーションステレオでは、カメラの位置及び姿勢は移動によって変化し、一定ではない。そこで移動前後での相対的なカメラの位置及び姿勢を何らかの方法で検出する必要がある。この点に関し、例えば非特許文献4には、ヨーレイトセンサ(ジャイロ)と車輪速センサ(エンコーダ)の利用が開示されているが、ヨーレイトセンサにはゼロ点のドリフトがあるため、時間経過につれて誤差の累積が増大する旨記載されている。また、車輪速センサのみでは比較的大きな誤差が生ずるので、車両の位置及び姿勢の検出が困難となるとされている。このため、非特許文献4では、両者の差成分を演算することによって実用的には障害がない程度の誤差に抑えることとされている。
【0015】
一方、非特許文献5の記載によれば、同一の対象物に対する2視点の画像間の変換はホモグラフィーHによって表すことができ、その変換のためのホモグラフィーを求めるには最低四個の点が同一平面内に含まれていればよい。換言すれば、特定平面内に少なくとも四点が含まれておれば、一方のカメラの位置に対する他方のカメラの位置(相対位置関係)を演算することができ、一方の画像から他方の画像を演算することができるということもできる。そして、非特許文献6の記載によれば、ホモグラフィー行列からカメラの内部パラメータと外部パラメータを計算することができる。
【0016】
そこで、本発明は、移動体の周辺を監視する移動体周辺監視装置において、監視領域に対し光パターンを投影し、この光パターンを撮像手段によって撮像した画像に基づき、撮像手段ひいては移動体の位置及び姿勢を特定し得るように構成することを課題とする。
【0017】
また、本発明は、監視領域に対し光パターンを投影し、この光パターンを撮像手段によって撮像した画像に基づき、撮像手段ひいては移動体の位置及び姿勢を特定し、単一の撮像手段によっても、移動体における所望の位置での視界を確保し、適切に画像表示を行い得る移動体周辺監視装置を提供することを課題とする。
【0018】
【課題を解決するための手段】
上記課題を解決するため、本発明は、請求項1に記載のように、移動体に搭載し該移動体の周辺を監視する移動体周辺監視装置において、前記移動体に搭載し、前記移動体周辺に設定する所定の監視領域の一部を構成する特定平面に対し所定の光パターンを投影する光パターン投影手段と、前記移動体に搭載し前記監視領域を撮像して画像情報を出力する少なくとも一つの撮像手段と、該撮像手段が撮像した画像の中から、前記光パターン投影手段が前記特定平面上に投影した前記所定の光パターン内の少なくとも一部を抽出して追跡するパターン追跡手段と、該パターン追跡手段の追跡結果に基づき前記撮像手段の相対的な位置及び姿勢を特定する移動状態特定手段とを備えることとしたものである。
【0019】
尚、前記光パターン投影手段が投影する前記特定平面は、路面もしくは壁面である。また、前記光パターンとしては、自動車においてはテールランプユニットあるいはリヤ・コンビネーションランプユニット等、灯火装置のレンズカットによって生成され、走行路面上に投影される光パターンを利用することができる。あるいは、ヘッドランプユニット、テールランプユニット等の灯火装置に投影用光源を組み込み、この投影用光源による光パターンを利用することができる。更に、既設の灯火装置とは独立して投影用光源を設け、この投影用光源によって走行路面上に投影される光パターンを利用することとしてもよい。
【0020】
また、前記光パターンに供される光は、可視光及び赤外光の少なくとも一方とするとよい。そして、前記撮像手段としては、可視光に対する感度を有するカメラ、赤外光に対し感度を有する感度のあるカメラ、又は可視光と赤外光の両者に対する感度を有するカメラを用いるとよい。尚、前記移動体には、車両のほか、移動ロボット等を含む。
【0021】
更に、前記請求項1記載の移動体周辺監視装置において、請求項2に記載のように、前記パターン追跡手段は、前記撮像手段が撮像した画像の中から、前記光パターン投影手段が前記特定平面上に投影した前記所定の光パターン内の少なくとも四つの特徴点を抽出する特徴点抽出手段と、前記移動体が第1の状態から第2の状態に移動したときに前記特徴点抽出手段が抽出した特徴点を追跡する特徴点追跡手段を具備し、前記移動状態特定手段は、前記特徴点追跡手段の追跡結果に基づき、前記第1の状態で撮像した画像の前記特徴点の平面座標及び前記第2の状態で撮像した画像の前記特徴点の平面座標に応じて、前記第1の状態及び前記第2の状態における前記撮像手段の相対的な位置及び姿勢を特定するように構成し、前記移動状態特定手段で特定した前記第1の状態及び前記第2の状態における前記撮像手段の位置及び姿勢、前記第1の状態で撮像した画像における所定対象の特徴点の平面座標、並びに前記第2の状態で撮像した画像における前記所定対象の特徴点に対応する平面座標に基づき、前記所定対象の特徴点の3次元座標を推定する3次元座標推定手段を備えたものとするとよい。
【0022】
尚、前記光パターン内の四つの特徴点としては、路面上の光パターンの輪郭線上の点、複数の輪郭線が交差する点(十字交点)、もしくは大きく曲がるコーナー(変曲点)がある。
【0023】
そして、請求項3に記載のように、移動体に搭載し該移動体の周辺を監視する移動体周辺監視装置において、前記移動体に搭載し、前記移動体周辺に設定する所定の監視領域の一部を構成する特定平面に対し所定の光パターンを投影する光パターン投影手段と、前記移動体に搭載し前記監視領域を撮像して画像情報を出力する少なくとも一つの撮像手段と、該撮像手段が撮像した画像の中から、前記光パターン投影手段が前記特定平面上に投影した前記所定の光パターン内の少なくとも四つの特徴点を抽出する特徴点抽出手段と、該特徴点追跡手段の追跡結果に基づき、前記第1の状態で撮像した画像の前記特徴点の平面座標及び前記第2の状態で撮像した画像の前記特徴点の平面座標に応じて、前記第1の状態及び前記第2の状態における前記撮像手段の相対的な位置及び姿勢を特定する移動状態特定手段と、該移動状態特定手段で特定した前記第1の状態及び前記第2の状態における前記撮像手段の位置及び姿勢、前記第1の状態で撮像した画像における所定対象の特徴点の平面座標、並びに前記第2の状態で撮像した画像における前記所定対象の特徴点に対応する平面座標に基づき、前記所定対象の特徴点の3次元座標を推定する3次元座標推定手段と、該3次元座標推定手段が推定した前記所定対象の特徴点の3次元座標に基づき特定の視界を作成する特定視界作成手段と、該特定視界作成手段が作成した特定の視界を画像に表示する表示手段とを備えたものとしてもよい。
【0024】
【発明の実施の形態】
以下、本発明の移動体周辺監視装置の実施形態について図面を参照して説明する。図1は本発明の一実施形態の全体構成を示すもので、例えば図5に示す車両1に搭載され、駐車案内装置に供される。図1において、本実施形態の移動体周辺監視装置は、移動体(図5の車両1)に搭載し、移動体周辺に設定する所定の監視領域の一部を構成する特定平面FSに対し所定の光パターンLPを投影する光パターン投影手段LTと、移動体に搭載し監視領域を撮像して画像情報を出力する少なくとも一つの撮像手段CDと、この撮像手段CDが撮像した画像の中から、光パターン投影手段LTが特定平面FS上に投影した所定の光パターンLP内の少なくとも一部を抽出して追跡するパターン追跡手段PTと、このパターン追跡手段PTの追跡結果に基づき撮像手段CDの相対的な位置及び姿勢を特定する移動状態特定手段MBを備えている。
【0025】
パターン追跡手段PTは、図1に一点鎖線内に示すように、撮像手段CDが撮像した画像の中から、光パターン投影手段LTが特定平面FS上に投影した所定の光パターンLP内の少なくとも四つの特徴点を抽出する特徴点抽出手段PDと、移動体が第1の状態から第2の状態に移動したときに特徴点抽出手段PDが抽出した前記特徴点を追跡する特徴点追跡手段PFを具備したもので、移動状態特定手段MBは、特徴点追跡手段PFの追跡結果に基づき、第1の状態で撮像した画像の前記特徴点の平面座標及び第2の状態で撮像した画像の前記特徴点の平面座標に応じて、第1の状態及び第2の状態における撮像手段CDひいては移動体の相対的な位置及び姿勢を特定するように構成されている。
【0026】
そして、図1に破線で示すように、移動状態特定手段MBで特定した第1の状態及び第2の状態における撮像手段CDの位置及び姿勢、第1の状態で撮像した画像における所定対象の特徴点の平面座標、並びに第2の状態で撮像した画像における所定対象の特徴点に対応する平面座標に基づき、所定対象の特徴点の3次元座標を推定する3次元座標推定手段RCが設けられている。更に、この3次元座標推定手段RCが推定した所定対象の特徴点の3次元座標に基づき特定の視界を作成する特定視界作成手段SVと、この特定視界作成手段SVが作成した特定の視界を画像に表示する表示手段VDが設けられており、この表示手段VDによって、移動体の周辺を監視することができる。尚、表示手段VDとしては、移動体に搭載するモニタ(図示せず)がある。また、特定視界作成手段SVに基づき表示手段VDが作成する画像は、予め設定された一つ以上の視界における画像であり、その拡大、縮小、回転、視点移動等の変換処理を行った画像を含む。
【0027】
上記の移動体が車両である場合には、移動体周辺監視装置は図5及び図6に示す駐車案内装置に供することができる。図5は本実施形態の駐車案内装置を搭載した車両1の全体構成を示すもので、車両1周辺に設定する所定の監視領域の一部を構成する特定平面(図1のFS)に対し所定の光パターン(図1のLP)を投影する光パターン投影手段(図1のLT)として、リヤ・コンビネーションランプユニット(以下コンビネーションランプという)20が用いられる。そして、車両1周辺の監視領域を撮像し画像を取得するカメラ2(例えばccdカメラで上記の撮像手段CDを構成する)が車両1の後部に装着されており、画像情報が電子制御装置10に供給される。この電子制御装置10は、図5に示すように車両1に搭載された筐体中に収容され、図1に記載の特徴点抽出手段PD、特徴点追跡手段PF、移動状態特定手段MB、3次元座標推定手段RC、特定視界作成手段SV及び表示手段VDが構成されている。
【0028】
上記のコンビネーションランプ20は、そのレンズカットによって、図2に破線で示すような格子状の光パターンLPが走行路面上に投影される。この光パターンLPは主として赤色の可視光であるが、赤外光の割合が多く、パターン認識に好適である。これに対応し、本実施形態のカメラ2は可視光と赤外光の両者の感度を有することが望ましい。あるいは、コンビネーションランプ20に代えて、ヘッドランプユニット(図示せず)等の灯火装置に投影用光源(図示せず)を組み込み、この投影用光源による光パターンを利用することができる。更に、既設の灯火装置とは独立して投影用光源(図示せず)を設け、この投影用光源によって走行路面上に投影される光パターンを利用することもできる。
【0029】
図5に示すように、更に、ステアリングホイール3の操舵角を検出する操舵角センサ4が車両1に装着されると共に、シフトレバー5がリバース位置とされたときにオンとなるシフトレバースイッチ6が装着され、更に、各車輪の回転速度を検出する車輪速度センサ(代表して7で示す)が装着されており、これらの検出舵角及びオン信号が電子制御装置10に供給される。そして、運転者から視認可能な車両1内の所定位置にモニタ8が配置されており、電子制御装置10の出力信号に応じてモニタ8に駐車案内用の視覚情報が表示される。即ち、本実施形態においては、モニタ8が図1の表示手段VDとして機能している。更に、車両1内の所定位置にスピーカ9が配置されており、電子制御装置10の出力信号に応じてスピーカ9から駐車案内用の音声情報が出力される。
【0030】
図6は、上記の駐車案内装置のシステム構成図であり、電子制御装置10の構成を示すものである。上記の操舵角センサ4、シフトレバースイッチ6及び車輪速度センサ7は、図示しない入力インターフェースを介して電子制御装置10内のCPU11に接続されており、図示しない出力インターフェースを介して、モニタ8が電子制御装置10内のスーパーインポーズ部14に接続され、スピーカ9が音声出力部15を介してCPU11に接続されている。カメラ2は、図示しない入力インターフェースを介して、画像認識部12、グラフィックス描画部13及びスーパーインポーズ部14に接続されている。上記のCPU11、画像認識部12、グラフィックス描画部13、スーパーインポーズ部14及び音声出力部15は相互にバスバーによって接続されている。尚、メモリ等は示していないが、各部の情報は所定期間蓄積され、適宜読み出し可能に構成されている。
【0031】
本実施形態においては、上記の光パターンLPを含み車両1周辺の監視対象等を撮像したカメラ2の画像信号が、画像認識部12を介してCPU11に供給されると共に、車輪速度センサ7等の出力信号がCPU11に供給され、CPU11にて演算処理される。このCPU11の演算結果に基づき、グラフィックス描画部13において、カメラ2の画像から抽出される同期信号に応じて3次元のグラフィックスが描画される。また、CPU11においては、駐車案内のための演算処理が行われ、その演算結果に基づくグラフィックスがグラフィックス描画部13にて描画される。そして、グラフィックス描画部13にて描画されるグラフィックスとカメラ2の画像とが適宜スーパーインポーズ部14にて重畳され、モニタ8の画面に描画される。尚、この場合、カメラ画像は表示されず、グラフィック画像のみが表示されるように設定することも可能である。
【0032】
而して、図1の特徴点抽出手段PD、特徴点追跡手段PF、移動状態特定手段MB、3次元座標推定手段RC及び特定視界作成手段SVはCPU11、画像認識部12及びグラフィックス描画部13によって構成されている。特徴点抽出手段PDにおいては、撮像手段CDたるカメラ2で撮像された画像から、特定平面FS上の光パターンLP(図1及び図2に破線で示す)内の少なくとも四つの特徴点が抽出される。本実施形態では、例えば、特定平面FS上の光パターンLP内に含まれる輪郭線上の点が抽出される。そして、移動体(車両1)が第1の状態から第2の状態に移動したときに特徴点抽出手段PDで抽出された上記四つの特徴点が、特徴点追跡手段PFによって追跡される。この特徴点追跡手段PFの追跡結果に基づき、移動状態特定手段MBにおいて、第1の状態で撮像した画像における上記四つの特徴点の平面座標及び第2の状態で撮像した画像における上記四つの特徴点の平面座標に応じて、第1の状態及び第2の状態における撮像手段CD(カメラ2)ひいては移動体(車両1)の相対的な位置及び姿勢が特定される。
【0033】
即ち、図2に示すように、移動体(車両1)が移動中に、コンビネーションランプ20によって特定平面FS(例えば路面)上に対し所定の光パターンLPが投影される。そして、図2の左側に示すように、カメラ2によって第1の状態(第1のカメラ位置)で撮像された画像V1内に含まれる特定平面FS上の光パターンLP内で4点(以上)の特徴点が抽出される。次に、図2の右側に示すように、上記と同一の特定平面FS上の光パターンLP内の4点の特徴点が視界に入る第2の状態(第2のカメラ位置)で撮像された画像V2内において、第1のカメラ位置で抽出された4点の特徴点が追跡される。これらの特徴点の抽出と追跡に関しては、図4を参照して後述する方法と同様に行われる。而して、第1及び第2の状態(二つの位置)における画像から、同一の特定平面FS上の光パターンLP内の4点(以上)の特徴点を抽出することができ、しかも各特徴点が両画像間で対応が取れているので、ホモグラフィーHを演算することができる。
【0034】
このホモグラフィーHからは、第1及び第2の状態(二つのカメラ位置)間の相対的なカメラの外部パラメータを導くことができる。即ち、一旦ホモグラフィー行列(透視投影行列)が得られれば、その結果からカメラの内部パラメータ(スケールファクタ、光軸位置座標等)と外部パラメータ(カメラの配置)を計算することができることは前掲の非特許文献6で解説されているので、ここでは省略する。この手順に従えば、第1の状態(第1のカメラ位置)と第2の状態(第2のカメラ位置)の相対的な位置及び姿勢(即ち、X,Y,Z座標上の各軸に対する並進成分tx,ty,tzと回転成分r1,r2,r3)を計算することができる。これらの並進成分及び回転成分は、後述のベクトルT及びR(図3に示す)を構成する。
【0035】
而して、特徴点追跡手段PFにて、図5の車両1が第1の状態から第2の状態に移動したときに撮像手段CDたるカメラ2によって第1の状態で撮像された画像(図2のV1)から前記特徴点の座標が検出されると共に、第2の状態で撮像された画像(図2のV2)での前記特徴点に対応する座標が検出される。この場合において、抽出すべき特徴点は、特定平面FS上に投影された光パターンLP内に多数存在する。従って、光パターンLP内の少なくとも四つの特徴点を用い、それらを二つの視点で抽出すればよい。
【0036】
これにより、移動状態特定手段MBにおいて、画像情報のみを用いてカメラ2ひいては車両1の移動状態を特定することができる。特に、コンビネーションランプ20によって特定平面FS上に投影された光パターンLP内の少なくとも四つの特徴点を利用することによって、車両1の移動前後での相対的な位置及び姿勢を正確に検出することができる。そして、車両1の移動に伴い順次別の目印に移行することとすれば、初期位置に対して誤差が累積していくことはない。このように、本実施形態によれば、単独で車両の位置及び姿勢を検出することができるが、もちろん、車輪速度センサ7や操舵角センサ4、ヨーレイトセンサ(図示せず)等のセンサと併用することとしてもよい。
【0037】
而して、本実施形態によれば、光パターン投影手段(コンビネーションランプ20)によって特定平面FS(路面又は壁面)上に対し所定の光パターンLPが投影され、移動体(車両1)に搭載された撮像手段(カメラ2)によって得られた画像情報を用いて、特定平面FS上の光パターンLP内に含まれる輪郭線上の点、複数の輪郭線が交差する点(十字交点)、もしくは大きく曲がる変曲点(コーナー)の何れかを用い、且つ、移動毎に新しい特徴点を抽出して目標位置に到達するので、移動体(車両1)の位置及び姿勢の計測誤差を少なくすることができる。
【0038】
即ち、車両1に搭載のコンビネーションランプ20によって投影された光パターンLPを、カメラ2によって撮像することとしているので、移動状態特定手段MBにおいて、路面に対するカメラ2の外部パラメータを全て推定することができる。この結果、車両1が走行中に、路面の凹凸や段差を乗り越えたときに車両1の姿勢が変化した場合、あるいは乗員数や積載量の変化によって車両1の姿勢が変化した場合にも、適応的にカメラ2の外部パラメータを校正することができる。従って、3次元座標推定手段RC等と共に、信頼性の高い周辺監視装置を構成することができる。この3次元座標推定手段RCにおいては、移動状態特定手段MBで特定された第1及び第2の状態における撮像手段CD(カメラ2)ひいては移動体(車両1)の位置及び姿勢、第1の状態で撮像された画像における所定対象(他の車両等の画像の一部、又は画像全体)の特徴点の平面座標、並びに第2の状態で撮像された画像における所定対象の特徴点に対応する平面座標に基づき、所定対象の特徴点の3次元座標が推定される。
【0039】
3次元座標推定手段RCにおける3次元座標の推定、即ち3次元再構成は、例えば前述の非特許文献2に記載のように、上記第1及び第2の状態の画像を用いて三角測量の原理に基づいて行われるものであり、図3及び図4を参照して以下に説明する。図3において、少なくとも2つのカメラ位置(左右のo及びo'で示す)から空間中の同一の点Mを観測しているとき、各カメラの画像で観測された点m1,m2とそれぞれのカメラの光学中心とを結んだ空気中の光線を定義でき、各光線の交点は空間中の点の位置Mを表す。ここで、対象視界(Scene)中の3次元の点Mは各画像間で同定する必要がある。また、本実施形態のようにカメラ2のみ(単眼カメラ)によって3次元の再構成を行う場合には、画像中から対象物体の特徴点(Point of Interest)の抽出とその追跡が必要である。即ち、カメラの内部パラメータ(スケールファクタ、光軸位置座標等)は予め測定することにより設定されるが、カメラの外部パラメータ(カメラの配置)は、前述のように、特徴点の抽出と追跡を基に演算されるホモグラフィーHから導かれる。そして、これらを前提に3次元再構成が行われる。尚、カメラの内部パラメータもホモグラフィーHから導くようにしてもよい。
【0040】
次に、対象視界の動きからの3次元構造の復元に関し、時系列画像のそれぞれがどの位置及び姿勢で撮影されたものであるかは、デッドレコニングシステムにより対応が取られて校正されていれば、前述のステレオ対応を用いることができる。但し、3次元視界の中の同一の点が含まれるように撮影された時系列画像において、その画像列の中から同一の点を見つけることが必要である。即ち、これらの同一の点の対応を取ることによって、対象視界の3次元構造を復元することができる。
【0041】
対象視界からの特徴点の抽出に関しては、画像の中から、対象視界の特徴となるべきいくつかの特徴点を抽出することになる。この場合の特徴点とは、画像のシーケンスに沿って追跡可能な適切な特徴を有する対象であり、上記の所定対象である。このような特徴点の抽出には下記[数1]式に示す行列Aによる自動相関(Auto-correlation)を用いることができる。行列Aは画像中の点p(x,y)を含むウインドウ領域W中に含まれる画像信号の導関数を平均化するように機能するので、これを用いて最適な特徴点を得る。即ち、追跡に適する特徴点は、一般にはコーナーや直線の交点(図示せず)であり、この行列はこれらの特徴点を抽出するものである。尚、下記[数1]式において、I(x,y)は画像の関数、Ixはx軸に沿った画像の勾配、Iyはy軸に沿った画像の勾配、(xk,yk) は(x,y)を中心としたウインドウW中の画像点を夫々表わす。
【0042】
【数1】
【0043】
次に、特徴点の追跡(Feature Tracking)に関し、u=[x,y]T が画像点の座標であるような画像列I(u,t)を考慮する。サンプル周期が十分短ければ微小時刻後の画像ではその輝度値は変化しないと仮定し、下記[数2]式が成り立つ。
【0044】
【数2】
【0045】
上記の[数2]式において、δ(u)はモーションフィールド(3次元の動きベクトルの画像への投影)を表す。サンプル周期が十分に短いので、下記[数3]式に示すように、モーションは並進(translation)のみで近似することができる。尚、[数3]式のdは変移ベクトル(displacement vector)を表わす。
【0046】
【数3】
【0047】
選択された各特徴点に対し、また、画像列での追跡された各点のペアに対して、その変移ベクトルdを計算するため、トラッカー(Tracker)が用いられる。実際には、ノイズの影響により画像のモーションモデルは完全には表せないので[数2]式は十分に機能しない。従って、下記[数4]式に示すように、差の自乗和(Sum of Square Difference)によって変移ベクトルdを計算する。そして、この[数4]式の残渣を最小にする変移ベクトルdを求め、その方向に特徴点を追跡する。尚、下記[数4]式のWは、点uを中心とする特徴点抽出のためのウインドウを表わす。
【0048】
【数4】
【0049】
図4はトラッキングの一例を説明するもので、トラック(Tracks)とは画像列中で同一の対象を示す点の集合であり、各トラックの画像点は夫々の3次元点の投影像である。トラックは画像列の中で見失うことは許されないが、追跡する点が画像から外れたり、隠れたり、ノイズ等によって抽出できない場合には、トラッキングを停止せざるを得ない。ここでは、最初の画面において抽出された特徴点の集合から開始し、前の画像(図4のImg A)での特徴点は次の画像(図4のImg B)で追跡される。画像(Img A)のうちの一部のトラックが停止すると、画像(Img B)において新しい特徴点を探すことになり、この新しい各特徴点はその後のトラッキングの起点となる。
【0050】
そして、3次元構造の再構成に関しては、3次元空間中の位置Mの点の距離がZであるとき、その画像上の投影位置をmとすると下記[数5]式の関係が成り立つ。下記の[数5]式において、距離fは焦点距離と呼ばれるが、ここではf=1なる単位長さを用いて簡単化している。このようにモデル化すると、2台のカメラで空間中の(物体の頂点等の)特徴点を撮影する幾何学的な関係は図3に示すようになる。
【0051】
【数5】
【0052】
図3において、第2のカメラ座標系(図3の右側)は第1のカメラ座標系(図3の左側)をその原点の周りにRだけ回転してからTだけ平行移動して得られる位置にある。尚、このベクトルTは基線ベクトルと呼ばれる。パラメータ{T,R}は2つのカメラ視点の相対的な位置姿勢関係を表しているので、1台のカメラを移動しながら撮影することとした場合は、デッドレコニングシステムにより計測することができる。
【0053】
図3に示すように、ある3次元空間中の位置Mのそれぞれの画像面上の投影像がm1,m2にあるとする。この状態で、第2のカメラ座標系の原点0'から見た特徴点の方向は第2のカメラ座標系に関してベクトルm2で表されるが、第2のカメラ座標系は第1のカメラ座標系に対してRだけ回転しているから、第1のカメラ座標系に関してはRm2である。従って、図3より下記[数6]式の関係が成立する。
【0054】
【数6】
【0055】
上記[数6]式から、距離Z,Z'が下記[数7]式のように計算される。
【0056】
【数7】
【0057】
このようにして、2つの視点から画像面上の投影像の座標m1,m2から3次元空間上の距離Z,Z'を復元することができる。そして、前述のトラックは対象視界中の特徴点群であるから、全てのトラックに関して上記[数7]式を計算すれば、3次元的な構造を復元することができる。
【0058】
而して、前述のように特定される第1の状態及び第2の状態における車両1(カメラ2)の位置及び姿勢と、夫々の状態でカメラ2によって撮像された画像の特徴点の抽出と追跡によって特定される画像間の対応点に基づき、上記のように処理され、撮像領域内に存在する物体が特定され、撮像領域の3次元座標が推定される。
【0059】
そして、前述の特定視界作成手段SVによって、周辺状況を含む3次元環境内における車両1の任意の位置で、任意の方向に向けてカメラが装着されたと仮定した場合の特定の視界が作成され、この仮想カメラから見た視界の画像が、表示手段VDたるモニタ8に表示される。この場合において、例えば図7に示すように、車両1の後方に仮想カメラ2aが配置されているとしたときに、移動後の車両1から見た3次元環境マップ(図7の破線の格子)において、どの領域が仮想カメラ2aの視界に入っているかが分かる。換言すれば、図7にSaで示す領域が、仮想カメラ2aの視界に入り、モニタ8にバーチャル画像として表示し得る領域(以下、表示視界という)である。尚、図7乃至図11において、破線の格子で示した3次元環境マップの中には、カメラ2で撮像された他の車両、障害物、建物等も存在するが、これらは図示を省略している。
【0060】
図8は、車両1の左前方コーナーに仮想カメラ2bが配置された場合、及び左後方コーナーに仮想カメラ2cが配置された場合に、移動後の車両1からみた3次元環境マップにおいて、これらの仮想カメラ2b及び2cの視界に入る領域(表示視界Sb及びSc)を示す。同様に、図9は、仮想カメラ2dが車両1の側方に配置された場合に、移動後の車両1からみた3次元環境マップにおいて、仮想カメラ2dの視界に入る領域(表示視界Sd)を示す。
【0061】
図7乃至図9の例では、実際のカメラ2の画角と類似する視界が設定されているが、図10の仮想カメラ2eのように、180度の表示視界Seを設定することもできる。これにより、実際のカメラ2では視界に入らない車両1の両コーナー部分をも視界に入れたバーチャル画像を表示するように構成することができる。更に、図11に示すように車両1の上空部分に仮想カメラ2fを配置して360度の表示視界Sfを設定し、この視界のバーチャル画像を表示するように構成することもできる。
【0062】
上記のように形成されるバーチャル画像は、車両1の移動、即ち仮想カメラ2a等の移動に伴う視界の移動に応じて変化することになるが、本実施形態においては、移動中に撮像した障害物を含むバーチャル画像を、状況に応じて適宜(移動後も)、表示し得るように構成されている。例えば、図12において、車両1が2点鎖線で示す位置から矢印方向に後退し実線で示す位置まで移動したとすると、2点鎖線で示す位置で撮像された2点鎖線の領域Spには障害物OBが存在するので、この位置では障害物OBを含む画像が形成される。しかし、移動後の車両1の位置で撮像される領域Snには障害物OBが存在しなくなっているので、モニタ8(図5)の表示画像には障害物OBが含まれなくなる。この状態から、車両1が更に図12の矢印方向に後退すると、車両1の左後方のコーナーから左前方にかけて障害物OBが接近することになるが、モニタ8の表示画像からは外れており、見えなくなっている。
【0063】
上記のような状況において、図10に示すような車両1の上方に仮想カメラ2eが配置されたときのバーチャル画像をモニタ8に表示すると、図13及び図14に示すように、車両1の両コーナー部分も含む画像となる。尚、図13は、図12に2点鎖線で示す位置の車両1の後部及び障害物OBが表示されたもので、図14は、図12に実線で示す位置(移動後)の車両1の後部及び障害物OBが表示されたものである。図14に示すように、障害物OBの車両1に対する相対的位置は、2点鎖線で示す位置(移動前の図10の位置)から図14の矢印方向に相対移動し、実線で示す位置となっていることが分かる。これにより、障害物OBはカメラ2による実際の視界から外れているにも拘わらず、運転者はこれをモニタ8で確認することができる。
【0064】
以上のように、上記の実施形態においては、カメラ2の搭載位置及び方向に依存することなく、カメラ2によって撮像された車両1周辺の環境情報に基づき、所望のバーチャル画像をモニタ8に適宜表示することができる。尚、カメラ2としては、図5に示したバックカメラのほか、サイドカメラ、フロントカメラ等を利用することができ、特定のカメラに限定されるものではない。
【0065】
【発明の効果】
本発明は上述のように構成されているので以下に記載の効果を奏する。即ち、請求項1に記載の移動体周辺監視装置においては、移動体周辺に設定する所定の監視領域の一部を構成する特定平面に対し、光パターン投影手段によって所定の光パターンを投影し、撮像手段によって監視領域を撮像した画像の中から、光パターン内の少なくとも一部を、パターン追跡手段により抽出して追跡し、この追跡結果に基づき、移動状態特定手段にて撮像手段の相対的な位置及び姿勢を特定するように構成されているので、監視領域に投影した光パターンを撮像した画像に基づき、撮像手段ひいては移動体の位置及び姿勢を適切に特定することができる。
【0066】
特に、請求項2に記載のように構成すれば、光パターン内の少なくとも四つの特徴点を特徴点抽出手段によって抽出し、移動体が第1の状態から第2の状態に移動したときに抽出した前記特徴点を、特徴点追跡手段によって追跡し、この追跡結果に基づき、移動状態特定手段にて、第1及び第2の状態で撮像した画像の前記特徴点の平面座標に応じて、第1及び第2の状態における撮像手段ひいては移動体の相対的な位置及び姿勢を適切に特定することができる。
【0067】
そして、請求項3に記載のように構成すれば、監視領域に投影した光パターンを撮像した画像に基づき、撮像手段ひいては移動体の位置及び姿勢を適切に特定することができると共に、移動体における所望の位置での視界を確保し、画像認識によって移動体の位置及び姿勢を検出することができるので、例えば単一の撮像手段によっても、誤差累積がなく高精度に移動体位置を追跡することができ、移動体における所望の位置での視界を確保し、適切に画像表示を行なうことができる。
【図面の簡単な説明】
【図1】本発明の移動体周辺監視装置の一実施形態の構成を示すブロック図である。
【図2】本発明の一実施形態において、移動体が移動中に、特定平面上に対し所定の光パターンを投影し、1台のカメラで第1及び第2のカメラ位置で撮像した画像から、特定平面上の光パターン内の4点以上の特徴点を抽出しホモグラフィーHを演算するときの幾何学的な関係を示す説明図である。
【図3】本発明の一実施形態における三次元再構成に関し、2台のカメラで空間中の物体の特徴点を撮影するときの幾何学的な関係を示す説明図である。
【図4】本発明の一実施形態における三次元再構成に関し、トラッキング状況の一例を示す説明図である。
【図5】本発明の移動体周辺監視装置を駐車案内装置に適用したときの一実施形態として、駐車案内装置を搭載した車両を透視して示す斜視図である。
【図6】本発明の一実施形態に係る駐車案内装置の構成を示すブロック図である。
【図7】本発明の一実施形態において、車両の後方に仮想カメラが配置されたときの表示視界を示す平面図である。
【図8】本発明の一実施形態において、車両の左前方コーナー及び左後方コーナーに仮想カメラが配置されたときの表示視界を示す平面図である。
【図9】本発明の一実施形態において、車両の側方に仮想カメラが配置されたときの表示視界を示す平面図である。
【図10】本発明の一実施形態において、車両の後方上部に仮想カメラが配置されたときの180度の表示視界を示す平面図である。
【図11】本発明の一実施形態において、車両の上空部分に仮想カメラが配置されたときの360度の表示視界を示す平面図である。
【図12】本発明の一実施形態において、車両が後退したときの表示視界の変化の一例を示す平面図である。
【図13】図12に2点鎖線で示す位置の車両の後部及び障害物が表示された画像の一例を示す平面図である。
【図14】図12に実線で示す位置の車両の後部及び障害物が表示された画像の一例を示す平面図である。
【符号の説明】
LT 光パターン投影手段, CD 撮像手段, PT パターン追跡手段,
PD 特徴点抽出手段, PF 特徴点追跡手段, MB 移動状態特定手段,
RC 3次元座標推定手段, SV 特定視界作成手段, VD 表示手段,
1 車両, 2 カメラ, 3 ステアリングホイール, 4 操舵角センサ,
5 シフトレバー, 6 シフトレバースイッチ, 7 車輪速度センサ,
8 モニタ, 9 スピーカ, 10 電子制御装置,
20 コンビネーションランプ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving object periphery monitoring device that monitors the periphery of a moving object, and more particularly to a moving object periphery monitoring device that monitors an environment around the moving object and displays an image of a field of view at a desired position on the moving object. For example, the present invention relates to a moving object periphery monitoring device suitable for a device for monitoring the periphery of a vehicle and appropriately displaying an obstacle or the like during parking.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there has been known a technology to which an environment recognition technology based on image processing is applied in order to monitor a periphery of a moving body, for example, a vehicle. For example, various devices that mount a camera behind a vehicle and display the image on a monitor installed in a driver's seat have been proposed and are already on the market. For example, Patent Document 1 (Japanese Patent Laid-Open No. 5-201298) discloses a pattern light projector that projects a bright spot pattern on a monitoring area by incidence of a laser beam, an image capturing apparatus that captures the bright spot pattern, There has been proposed a vehicle periphery monitoring device including a data processing unit that processes an obtained image to detect the presence of an obstacle, a groove, a person, or the like.
[0003]
Japanese Patent Application Laid-Open No. H4-71000 discloses a slit light projected on a road according to a traveling speed of a vehicle by an image pickup unit and extracted from a road image. There is disclosed a vehicle situation recognition device that detects an obstacle or the like in front of a vehicle by analyzing the shape of the vehicle or its change.
[0004]
On the other hand, in the field of image processing technology, a technology for restoring a three-dimensional shape from two cameras is known. For example, Non-Patent
[0005]
Similarly, Non-Patent
[0006]
Also, Non-Patent
[0007]
Further, Non-Patent
[0008]
Also, according to the descriptions of “1.3 Projective transformations” (p. 11-) and “7.3 Action of a projective camera on quadrics” (P. 190-) in Non-Patent
[0009]
In addition, "3.4 Calibrating Cameras (p.51 to p.58)" of Non-Patent
[0010]
[Patent Document 1]
JP-A-5-201298
[Patent Document 2]
JP-A-4-71000
[Non-patent document 1]
Koichiro Deguchi in "Information Processing" Vol.37 No.7 (July 1996) "2. Unraveling the Stereoscopic Device"
[Non-patent document 2]
"Three-dimensional reconstruction by stereo vision" described on pages 161 and 162 in "Mathematics of spatial data" (Kenichi Kanaya, first edition, first edition, March 10, 1995, published by Asakura Shoten)
[Non-Patent Document 3]
Koichiro Deguchi in "Information Processing" Vol.37 No.8 (August 1996) "3.
[Non-patent document 4]
J. Borenstein and L. Feng, `` Gyrodometery: A New Method for Combining Data from Gyros Odometry in Mobile Robot '', Preceeding of the IEEE International Conference on Robotics and Automation, Minneapolis, Apr. 22-28, 1996, pp. 423-428
[Non-Patent Document 5]
"Multiple View Geometry in Computer Vision" by Richard Hartley and Andrew Zisserman, 2000 Cambridge University Press (ISBN: 0521623049)
[Non-Patent Document 6]
Olivier Faugeras, "Three-Dimensional Computer Vision: A Geometric Viewpoint", 1993 MIT Press
[0011]
[Problems to be solved by the invention]
In the device described in
[0012]
Further, in the device described in
[0013]
As a result, none of the devices of
[0014]
By the way, if the image processing technology described in
[0015]
On the other hand, according to the description of
[0016]
Therefore, the present invention provides a moving object periphery monitoring device that monitors the periphery of a moving object by projecting a light pattern onto a monitoring area, and based on an image of the light pattern taken by the imaging means, based on an image taken by the imaging means and thus the position of the moving body. It is an object of the present invention to be configured so as to be able to specify the posture and posture.
[0017]
Further, the present invention projects a light pattern on the monitoring area, based on an image obtained by imaging the light pattern by the imaging means, specifies the position and orientation of the imaging means and eventually the moving body, and also by a single imaging means, It is an object of the present invention to provide a moving object periphery monitoring device capable of securing a field of view at a desired position on a moving object and appropriately displaying an image.
[0018]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the present invention provides a moving object periphery monitoring device mounted on a moving object and monitoring the periphery of the moving object, wherein the moving object is mounted on the moving object, A light pattern projecting means for projecting a predetermined light pattern onto a specific plane constituting a part of a predetermined monitoring region set in the vicinity; and at least outputting image information by capturing the monitoring region mounted on the moving body and outputting the image information One image pickup unit, and a pattern tracking unit that extracts and tracks at least a part of the predetermined light pattern projected on the specific plane by the light pattern projection unit from an image captured by the image pickup unit; Moving state specifying means for specifying the relative position and orientation of the imaging means based on the tracking result of the pattern tracking means.
[0019]
Note that the specific plane projected by the light pattern projecting means is a road surface or a wall surface. Further, as the light pattern, a light pattern generated by lens cutting of a lighting device such as a tail lamp unit or a rear combination lamp unit in an automobile and projected on a traveling road surface can be used. Alternatively, a light source for projection may be incorporated into a lighting device such as a head lamp unit or a tail lamp unit, and a light pattern by the light source for projection may be used. Further, a projection light source may be provided independently of the existing lighting device, and a light pattern projected on a traveling road surface by the projection light source may be used.
[0020]
Further, the light provided to the light pattern may be at least one of visible light and infrared light. As the imaging means, a camera having sensitivity to visible light, a camera having sensitivity to infrared light, or a camera having sensitivity to both visible light and infrared light may be used. The moving object includes a mobile robot in addition to the vehicle.
[0021]
Further, in the moving object periphery monitoring device according to the first aspect, as in the second aspect, the pattern tracking unit may be configured such that the light pattern projecting unit is configured to select the light pattern projection unit from the image captured by the imaging unit. A feature point extracting unit for extracting at least four feature points in the predetermined light pattern projected above, and the feature point extracting unit extracting when the moving body moves from the first state to the second state. Feature point tracking means for tracking the feature points, wherein the moving state identification means, based on the tracking result of the feature point tracking means, the plane coordinates of the feature points of the image captured in the first state and The apparatus is configured to specify a relative position and orientation of the imaging unit in the first state and the second state according to planar coordinates of the feature point of the image captured in the second state, Moving state special The position and orientation of the imaging unit in the first state and the second state specified by the unit, the plane coordinates of a feature point of a predetermined target in the image captured in the first state, and the second state. The image processing apparatus may further include a three-dimensional coordinate estimating unit that estimates three-dimensional coordinates of the feature point of the predetermined target based on plane coordinates corresponding to the feature point of the predetermined target in the captured image.
[0022]
The four feature points in the light pattern include a point on the contour of the light pattern on the road surface, a point where a plurality of contours intersect (cross intersection), or a corner where a large turn is made (inflection point).
[0023]
According to a third aspect of the present invention, in the moving object peripheral monitoring device mounted on a moving object and monitoring the periphery of the moving object, a predetermined monitoring area mounted on the moving object and set around the moving object is provided. Light pattern projecting means for projecting a predetermined light pattern onto a specific plane constituting a part thereof, at least one image sensing means mounted on the moving body to image the monitoring area and output image information, and the image sensing means A feature point extracting means for extracting at least four feature points in the predetermined light pattern projected on the specific plane by the light pattern projecting means from an image captured by the method, and a tracking result of the feature point tracking means Based on the plane coordinates of the feature point of the image captured in the first state and the plane coordinates of the feature point of the image captured in the second state. In the state Moving state specifying means for specifying a relative position and posture of the image pickup means; and a position and posture of the image pickup means in the first state and the second state specified by the movement state specifying means; 3D of the feature point of the predetermined target based on the plane coordinates of the feature point of the predetermined target in the image captured in the second state and the plane coordinates corresponding to the feature point of the predetermined target in the image captured in the second state. Three-dimensional coordinate estimating means for estimating coordinates, specific view creating means for creating a specific view based on the three-dimensional coordinates of the feature point of the predetermined object estimated by the three-dimensional coordinate estimating means, A display unit for displaying the created specific field of view on an image may be provided.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of a moving object periphery monitoring device of the present invention will be described with reference to the drawings. FIG. 1 shows the entire configuration of an embodiment of the present invention, which is mounted on, for example, a
[0025]
As shown by the dashed line in FIG. 1, the pattern tracking means PT includes at least four light spots within a predetermined light pattern LP projected on the specific plane FS by the light pattern projection means LT from among the images taken by the imaging means CD. Feature point extracting means PD for extracting two feature points, and feature point tracking means PF for tracking the feature points extracted by the feature point extracting means PD when the moving object moves from the first state to the second state. The moving state identification unit MB includes, based on the tracking result of the feature point tracking unit PF, the plane coordinates of the feature point of the image captured in the first state and the feature of the image captured in the second state. The relative position and posture of the image pickup means CD and thus the moving body in the first state and the second state are specified in accordance with the plane coordinates of the point.
[0026]
Then, as indicated by a broken line in FIG. 1, the position and orientation of the imaging unit CD in the first state and the second state specified by the moving state specifying unit MB, and the characteristics of the predetermined target in the image captured in the first state A three-dimensional coordinate estimating means for estimating three-dimensional coordinates of the feature point of the predetermined target based on the plane coordinates of the point and the plane coordinates corresponding to the feature point of the predetermined target in the image captured in the second state; I have. Further, a specific view creating means SV for creating a specific view based on the three-dimensional coordinates of the feature point of the predetermined target estimated by the three-dimensional coordinate estimating means RC, and a specific view created by the specific view creating means SV as an image. Is provided, and the periphery of the moving object can be monitored by the display means VD. As the display means VD, there is a monitor (not shown) mounted on a moving body. Further, the image created by the display means VD based on the specific view creation means SV is an image in one or more preset views, and an image on which conversion processing such as enlargement, reduction, rotation, and viewpoint movement has been performed. Including.
[0027]
When the moving object is a vehicle, the moving object periphery monitoring device can be provided to the parking guide device shown in FIGS. FIG. 5 shows the entire configuration of the
[0028]
The
[0029]
As shown in FIG. 5, a
[0030]
FIG. 6 is a system configuration diagram of the above-described parking guide device, and shows a configuration of the
[0031]
In the present embodiment, an image signal of the
[0032]
Thus, the feature point extracting means PD, the feature point tracking means PF, the moving state specifying means MB, the three-dimensional coordinate estimating means RC, and the specific view creating means SV shown in FIG. 1 are the
[0033]
That is, as shown in FIG. 2, while the moving body (vehicle 1) is moving, the predetermined light pattern LP is projected on the specific plane FS (for example, the road surface) by the
[0034]
From this homography H, the relative camera extrinsic parameters between the first and second states (two camera positions) can be derived. That is, once the homography matrix (perspective projection matrix) is obtained, the internal parameters (scale factor, optical axis position coordinates, etc.) and external parameters (camera arrangement) of the camera can be calculated from the result. Since it is described in
[0035]
Thus, when the
[0036]
Thus, the moving state specifying unit MB can specify the moving state of the
[0037]
Thus, according to the present embodiment, the predetermined light pattern LP is projected on the specific plane FS (road surface or wall surface) by the light pattern projecting means (combination lamp 20) and mounted on the moving body (vehicle 1). Using the image information obtained by the imaging means (camera 2), a point on a contour included in the light pattern LP on the specific plane FS, a point where a plurality of contours intersect (cross intersection), or a large turn Since any one of the inflection points (corners) is used and a new feature point is extracted for each movement to reach the target position, measurement errors of the position and orientation of the moving body (vehicle 1) can be reduced. .
[0038]
That is, since the light pattern LP projected by the
[0039]
The estimation of the three-dimensional coordinates in the three-dimensional coordinate estimating means RC, that is, the three-dimensional reconstruction is performed by using the principle of triangulation using the images in the first and second states as described in
[0040]
Next, regarding the restoration of the three-dimensional structure from the movement of the target field of view, the position and orientation of each of the time-series images are determined by the dead reckoning system if the correspondence is taken and calibrated. , The stereo correspondence described above can be used. However, in a time-series image captured so as to include the same point in the three-dimensional field of view, it is necessary to find the same point in the image sequence. That is, by taking correspondence between these same points, the three-dimensional structure of the target field of view can be restored.
[0041]
Regarding the extraction of the feature points from the target field of view, some feature points to be the features of the target field of view are extracted from the image. The feature point in this case is an object having an appropriate feature that can be tracked along a sequence of images, and is the above-described predetermined object. For the extraction of such feature points, an auto-correlation using a matrix A shown in the following [Equation 1] can be used. Since the matrix A functions to average the derivative of the image signal contained in the window area W including the point p (x, y) in the image, an optimal feature point is obtained using this. That is, the characteristic points suitable for tracking are generally intersections of corners or straight lines (not shown), and this matrix extracts these characteristic points. In the following [Equation 1], I (x, y) is a function of the image, Ix is the gradient of the image along the x-axis, Iy is the gradient of the image along the y-axis, (x k, y k ) Represents image points in the window W centered on (x, y).
[0042]
(Equation 1)
[0043]
Next, regarding feature tracking, u = [x, y] T Consider an image sequence I (u, t) such that is the coordinates of an image point. If the sample period is sufficiently short, it is assumed that the luminance value does not change in the image after a minute time, and the following [Equation 2] holds.
[0044]
(Equation 2)
[0045]
In the above [Equation 2], δ (u) represents a motion field (projection of a three-dimensional motion vector onto an image). Since the sample period is sufficiently short, the motion can be approximated only by translation as shown in the following [Equation 3]. Note that d in
[0046]
[Equation 3]
[0047]
For each selected feature point and for each pair of tracked points in the image sequence, a Tracker is used to calculate its displacement vector d. Actually, since the motion model of the image cannot be completely represented due to the influence of noise,
[0048]
(Equation 4)
[0049]
FIG. 4 illustrates an example of tracking. Tracks are a set of points indicating the same target in an image sequence, and the image points of each track are projected images of respective three-dimensional points. The track is not allowed to be lost in the image sequence, but if the point to be tracked deviates from the image, is hidden, or cannot be extracted due to noise or the like, the tracking must be stopped. Here, starting from the set of feature points extracted in the first screen, the feature points in the previous image (Img A in FIG. 4) are tracked in the next image (Img B in FIG. 4). When some tracks of the image (Img A) stop, a new feature point is searched for in the image (Img B), and each new feature point becomes a starting point of the subsequent tracking.
[0050]
Regarding the reconstruction of the three-dimensional structure, when the distance of the point at the position M in the three-dimensional space is Z, and the projection position on the image is m, the following equation (5) holds. In the following [Equation 5], the distance f is referred to as a focal length, but is simplified here by using a unit length of f = 1. When modeled in this way, the geometric relationship in which two cameras capture feature points (such as vertices of an object) in space is as shown in FIG.
[0051]
(Equation 5)
[0052]
In FIG. 3, a second camera coordinate system (right side in FIG. 3) is a position obtained by rotating the first camera coordinate system (left side in FIG. 3) around its origin by R and then translating by T. It is in. This vector T is called a base line vector. Since the parameters {T, R} represent the relative position and orientation relationship between the two camera viewpoints, if one camera is to be photographed while moving, it can be measured by a dead recording system.
[0053]
As shown in FIG. 3, the projected image on each image plane at a position M in a certain three-dimensional space is m 1 , M Two Let's say In this state, the direction of the feature point viewed from the origin 0 'of the second camera coordinate system is the vector m with respect to the second camera coordinate system. Two Since the second camera coordinate system is rotated by R with respect to the first camera coordinate system, Rm is obtained for the first camera coordinate system. Two It is. Therefore, the relationship of the following [Equation 6] is established from FIG.
[0054]
(Equation 6)
[0055]
From the above [Equation 6], the distances Z and Z 'are calculated as the following [Equation 7].
[0056]
(Equation 7)
[0057]
Thus, the coordinates m of the projected image on the image plane from two viewpoints 1 , M Two , The distances Z and Z ′ in the three-dimensional space can be restored. Since the aforementioned track is a feature point group in the target field of view, a three-dimensional structure can be restored by calculating the above [Equation 7] for all the tracks.
[0058]
Thus, the position and orientation of the vehicle 1 (camera 2) in the first state and the second state specified as described above, and extraction of feature points of an image captured by the
[0059]
Then, the above-described specific view creating means SV creates a specific view assuming that the camera is mounted in an arbitrary direction at an arbitrary position of the
[0060]
FIG. 8 shows a three-dimensional environment map viewed from the moved
[0061]
In the examples of FIGS. 7 to 9, a field of view similar to the actual angle of view of the
[0062]
The virtual image formed as described above changes according to the movement of the
[0063]
In the above situation, when a virtual image when the virtual camera 2e is arranged above the
[0064]
As described above, in the above embodiment, a desired virtual image is appropriately displayed on the
[0065]
【The invention's effect】
Since the present invention is configured as described above, the following effects can be obtained. That is, in the moving object peripheral monitoring device according to
[0066]
In particular, according to the structure described in
[0067]
According to the third aspect of the present invention, the position and orientation of the imaging unit and thus the moving body can be appropriately specified based on the image of the light pattern projected on the monitoring area, and the moving body can be identified. Since the field of view at a desired position can be secured and the position and orientation of the moving object can be detected by image recognition, the position of the moving object can be tracked with high accuracy without accumulation of errors, even with a single imaging unit, for example. As a result, it is possible to secure a field of view at a desired position on the moving body and appropriately perform image display.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an embodiment of a mobile object periphery monitoring device according to the present invention.
FIG. 2 shows an embodiment of the present invention, in which a predetermined light pattern is projected on a specific plane while a moving body is moving, and a single camera is used to capture images from first and second camera positions. FIG. 9 is an explanatory diagram showing a geometric relationship when four or more feature points in a light pattern on a specific plane are extracted and a homography H is calculated.
FIG. 3 is an explanatory diagram illustrating a geometric relationship when two cameras capture feature points of an object in space with respect to three-dimensional reconstruction in one embodiment of the present invention.
FIG. 4 is an explanatory diagram showing an example of a tracking situation regarding three-dimensional reconstruction in one embodiment of the present invention.
FIG. 5 is a perspective view showing a vehicle equipped with a parking guide device as one embodiment when the moving object periphery monitoring device of the present invention is applied to a parking guide device.
FIG. 6 is a block diagram illustrating a configuration of a parking guide device according to an embodiment of the present invention.
FIG. 7 is a plan view showing a display field of view when a virtual camera is arranged behind a vehicle in one embodiment of the present invention.
FIG. 8 is a plan view showing a display field of view when a virtual camera is arranged at the left front corner and the left rear corner of the vehicle in one embodiment of the present invention.
FIG. 9 is a plan view showing a display field of view when a virtual camera is arranged on a side of a vehicle in one embodiment of the present invention.
FIG. 10 is a plan view showing a 180-degree display field of view when a virtual camera is arranged at an upper rear portion of a vehicle in one embodiment of the present invention.
FIG. 11 is a plan view showing a 360-degree display field of view when a virtual camera is arranged above a vehicle in an embodiment of the present invention.
FIG. 12 is a plan view illustrating an example of a change in a display field of view when the vehicle moves backward in one embodiment of the present invention.
13 is a plan view showing an example of an image in which a rear portion of the vehicle and an obstacle at a position indicated by a two-dot chain line in FIG. 12 are displayed.
FIG. 14 is a plan view illustrating an example of an image in which a rear portion of the vehicle and an obstacle at a position indicated by a solid line in FIG. 12 are displayed.
[Explanation of symbols]
LT light pattern projection means, CD imaging means, PT pattern tracking means,
PD feature point extraction means, PF feature point tracking means, MB moving state identification means,
RC 3D coordinate estimation means, SV specific view creation means, VD display means,
1 vehicle, 2 camera, 3 steering wheel, 4 steering angle sensor,
5 shift lever, 6 shift lever switch, 7 wheel speed sensor,
8 monitors, 9 speakers, 10 electronic control units,
20 combination lamp
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002366008A JP2004198212A (en) | 2002-12-18 | 2002-12-18 | Apparatus for monitoring vicinity of mobile object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002366008A JP2004198212A (en) | 2002-12-18 | 2002-12-18 | Apparatus for monitoring vicinity of mobile object |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004198212A true JP2004198212A (en) | 2004-07-15 |
Family
ID=32763345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002366008A Pending JP2004198212A (en) | 2002-12-18 | 2002-12-18 | Apparatus for monitoring vicinity of mobile object |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004198212A (en) |
Cited By (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007278951A (en) * | 2006-04-10 | 2007-10-25 | Alpine Electronics Inc | Car body behavior measuring device |
JP2008217267A (en) * | 2007-03-01 | 2008-09-18 | Denso Corp | Road shape recognition apparatus |
JP2010223619A (en) * | 2009-03-19 | 2010-10-07 | Honda Motor Co Ltd | Calibration apparatus and calibration method |
JP2015133066A (en) * | 2014-01-15 | 2015-07-23 | 株式会社デンソー | On-vehicle camera parameter generation device and program |
JP2015158419A (en) * | 2014-02-24 | 2015-09-03 | 日産自動車株式会社 | Self position calculation apparatus and self position calculation method |
JP2015158418A (en) * | 2014-02-24 | 2015-09-03 | 日産自動車株式会社 | Self position calculation apparatus and self position calculation method |
JP2015158417A (en) * | 2014-02-24 | 2015-09-03 | 日産自動車株式会社 | Self position calculation apparatus and self position calculation method |
JP2015184956A (en) * | 2014-03-25 | 2015-10-22 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
JP2015534048A (en) * | 2012-08-27 | 2015-11-26 | アクティエボラゲット エレクトロラックス | Robot positioning system |
JP2016038287A (en) * | 2014-08-07 | 2016-03-22 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
JP2016183889A (en) * | 2015-03-26 | 2016-10-20 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
JP2016205928A (en) * | 2015-04-20 | 2016-12-08 | 日産自動車株式会社 | Self position calculation device and self position calculation method |
JP2016224590A (en) * | 2015-05-28 | 2016-12-28 | 日産自動車株式会社 | Self position calculation device and self position calculation method |
EP3113149A4 (en) * | 2014-02-24 | 2017-03-15 | Nissan Motor Co., Ltd | Local location computation device and local location computation method |
JPWO2015125298A1 (en) * | 2014-02-24 | 2017-03-30 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
JPWO2015125296A1 (en) * | 2014-02-24 | 2017-03-30 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
JPWO2015125297A1 (en) * | 2014-02-24 | 2017-03-30 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
JPWO2015125299A1 (en) * | 2014-02-24 | 2017-03-30 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
JPWO2015125301A1 (en) * | 2014-02-24 | 2017-03-30 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
US9811089B2 (en) | 2013-12-19 | 2017-11-07 | Aktiebolaget Electrolux | Robotic cleaning device with perimeter recording function |
JP2018032253A (en) * | 2016-08-25 | 2018-03-01 | クラリオン株式会社 | Calibration device, calibration method, and calibration program |
US9946263B2 (en) | 2013-12-19 | 2018-04-17 | Aktiebolaget Electrolux | Prioritizing cleaning areas |
US10045675B2 (en) | 2013-12-19 | 2018-08-14 | Aktiebolaget Electrolux | Robotic vacuum cleaner with side brush moving in spiral pattern |
US10149589B2 (en) | 2013-12-19 | 2018-12-11 | Aktiebolaget Electrolux | Sensing climb of obstacle of a robotic cleaning device |
US10209080B2 (en) | 2013-12-19 | 2019-02-19 | Aktiebolaget Electrolux | Robotic cleaning device |
US10219665B2 (en) | 2013-04-15 | 2019-03-05 | Aktiebolaget Electrolux | Robotic vacuum cleaner with protruding sidebrush |
US10231591B2 (en) | 2013-12-20 | 2019-03-19 | Aktiebolaget Electrolux | Dust container |
US10433697B2 (en) | 2013-12-19 | 2019-10-08 | Aktiebolaget Electrolux | Adaptive speed control of rotating side brush |
US10448794B2 (en) | 2013-04-15 | 2019-10-22 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
US10499778B2 (en) | 2014-09-08 | 2019-12-10 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
US10518416B2 (en) | 2014-07-10 | 2019-12-31 | Aktiebolaget Electrolux | Method for detecting a measurement error in a robotic cleaning device |
US10534367B2 (en) | 2014-12-16 | 2020-01-14 | Aktiebolaget Electrolux | Experience-based roadmap for a robotic cleaning device |
US10617271B2 (en) | 2013-12-19 | 2020-04-14 | Aktiebolaget Electrolux | Robotic cleaning device and method for landmark recognition |
US10678251B2 (en) | 2014-12-16 | 2020-06-09 | Aktiebolaget Electrolux | Cleaning method for a robotic cleaning device |
US10729297B2 (en) | 2014-09-08 | 2020-08-04 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
CN111508025A (en) * | 2019-01-31 | 2020-08-07 | 爱信精机株式会社 | Three-dimensional position estimation device and program |
US10789850B2 (en) | 2016-05-10 | 2020-09-29 | Mitsubishi Electric Corporation | Obstacle detection device, driving assistance system, and obstacle detection method |
US10874274B2 (en) | 2015-09-03 | 2020-12-29 | Aktiebolaget Electrolux | System of robotic cleaning devices |
US10874271B2 (en) | 2014-12-12 | 2020-12-29 | Aktiebolaget Electrolux | Side brush and robotic cleaner |
US10877484B2 (en) | 2014-12-10 | 2020-12-29 | Aktiebolaget Electrolux | Using laser sensor for floor type detection |
CN112629462A (en) * | 2019-09-24 | 2021-04-09 | 波音公司 | System and method for continuous positioning of scanner using non-destructive inspection data |
US20210228035A1 (en) * | 2018-05-18 | 2021-07-29 | Aktiebolaget Electrolux | Robotic cleaning device with retractable side brush |
US11099554B2 (en) | 2015-04-17 | 2021-08-24 | Aktiebolaget Electrolux | Robotic cleaning device and a method of controlling the robotic cleaning device |
US11122953B2 (en) | 2016-05-11 | 2021-09-21 | Aktiebolaget Electrolux | Robotic cleaning device |
US11169533B2 (en) | 2016-03-15 | 2021-11-09 | Aktiebolaget Electrolux | Robotic cleaning device and a method at the robotic cleaning device of performing cliff detection |
US11474533B2 (en) | 2017-06-02 | 2022-10-18 | Aktiebolaget Electrolux | Method of detecting a difference in level of a surface in front of a robotic cleaning device |
US11754389B2 (en) | 2020-01-29 | 2023-09-12 | Seiko Epson Corporation | Estimation method, measurement method, and estimation apparatus |
US11921517B2 (en) | 2017-09-26 | 2024-03-05 | Aktiebolaget Electrolux | Controlling movement of a robotic cleaning device |
-
2002
- 2002-12-18 JP JP2002366008A patent/JP2004198212A/en active Pending
Cited By (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007278951A (en) * | 2006-04-10 | 2007-10-25 | Alpine Electronics Inc | Car body behavior measuring device |
JP2008217267A (en) * | 2007-03-01 | 2008-09-18 | Denso Corp | Road shape recognition apparatus |
JP2010223619A (en) * | 2009-03-19 | 2010-10-07 | Honda Motor Co Ltd | Calibration apparatus and calibration method |
JP2015534048A (en) * | 2012-08-27 | 2015-11-26 | アクティエボラゲット エレクトロラックス | Robot positioning system |
US9939529B2 (en) | 2012-08-27 | 2018-04-10 | Aktiebolaget Electrolux | Robot positioning system |
US10448794B2 (en) | 2013-04-15 | 2019-10-22 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
US10219665B2 (en) | 2013-04-15 | 2019-03-05 | Aktiebolaget Electrolux | Robotic vacuum cleaner with protruding sidebrush |
US10617271B2 (en) | 2013-12-19 | 2020-04-14 | Aktiebolaget Electrolux | Robotic cleaning device and method for landmark recognition |
US10433697B2 (en) | 2013-12-19 | 2019-10-08 | Aktiebolaget Electrolux | Adaptive speed control of rotating side brush |
US10209080B2 (en) | 2013-12-19 | 2019-02-19 | Aktiebolaget Electrolux | Robotic cleaning device |
US10149589B2 (en) | 2013-12-19 | 2018-12-11 | Aktiebolaget Electrolux | Sensing climb of obstacle of a robotic cleaning device |
US10045675B2 (en) | 2013-12-19 | 2018-08-14 | Aktiebolaget Electrolux | Robotic vacuum cleaner with side brush moving in spiral pattern |
US9946263B2 (en) | 2013-12-19 | 2018-04-17 | Aktiebolaget Electrolux | Prioritizing cleaning areas |
US9811089B2 (en) | 2013-12-19 | 2017-11-07 | Aktiebolaget Electrolux | Robotic cleaning device with perimeter recording function |
US10231591B2 (en) | 2013-12-20 | 2019-03-19 | Aktiebolaget Electrolux | Dust container |
JP2015133066A (en) * | 2014-01-15 | 2015-07-23 | 株式会社デンソー | On-vehicle camera parameter generation device and program |
JPWO2015125296A1 (en) * | 2014-02-24 | 2017-03-30 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
JPWO2015125297A1 (en) * | 2014-02-24 | 2017-03-30 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
JPWO2015125301A1 (en) * | 2014-02-24 | 2017-03-30 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
JPWO2015125300A1 (en) * | 2014-02-24 | 2017-03-30 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
EP3113150A4 (en) * | 2014-02-24 | 2017-04-19 | Nissan Motor Co., Ltd | Local location computation device and local location computation method |
RU2621826C1 (en) * | 2014-02-24 | 2017-06-07 | Ниссан Мотор Ко., Лтд. | Device for calculation of own position and method of calculation of own status |
RU2621823C1 (en) * | 2014-02-24 | 2017-06-07 | Ниссан Мотор Ко., Лтд. | Device for calculation of own location and method of calculation of own location |
US9684837B2 (en) | 2014-02-24 | 2017-06-20 | Nissan Motor Co., Ltd. | Self-location calculating device and self-location calculating method |
US9721170B2 (en) | 2014-02-24 | 2017-08-01 | Nissan Motor Co., Ltd. | Self-location calculating device and self-location calculating method |
US9772627B2 (en) | 2014-02-24 | 2017-09-26 | Nissan Motor Co., Ltd. | Self-position calculating apparatus and self-position calculating method |
US9778029B2 (en) | 2014-02-24 | 2017-10-03 | Nissan Motor Co., Ltd. | Self-position calculating apparatus and self-position calculating method |
JP2015158417A (en) * | 2014-02-24 | 2015-09-03 | 日産自動車株式会社 | Self position calculation apparatus and self position calculation method |
JP2015158419A (en) * | 2014-02-24 | 2015-09-03 | 日産自動車株式会社 | Self position calculation apparatus and self position calculation method |
JPWO2015125298A1 (en) * | 2014-02-24 | 2017-03-30 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
EP3113149A4 (en) * | 2014-02-24 | 2017-03-15 | Nissan Motor Co., Ltd | Local location computation device and local location computation method |
US10026196B2 (en) | 2014-02-24 | 2018-07-17 | Nissan Motor Co., Ltd. | Apparatuses and methods for self-position calculation of a vehicle using a light projector and a camera |
US10043080B2 (en) | 2014-02-24 | 2018-08-07 | Nissan Motor Co., Ltd. | Self-position calculating apparatus and self-position calculating method |
JP2015158418A (en) * | 2014-02-24 | 2015-09-03 | 日産自動車株式会社 | Self position calculation apparatus and self position calculation method |
EP3113147B1 (en) * | 2014-02-24 | 2018-11-28 | Nissan Motor Co., Ltd | Self-location calculating device and self-location calculating method |
JPWO2015125299A1 (en) * | 2014-02-24 | 2017-03-30 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
JP2015184956A (en) * | 2014-03-25 | 2015-10-22 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
US10518416B2 (en) | 2014-07-10 | 2019-12-31 | Aktiebolaget Electrolux | Method for detecting a measurement error in a robotic cleaning device |
JP2016038287A (en) * | 2014-08-07 | 2016-03-22 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
US10499778B2 (en) | 2014-09-08 | 2019-12-10 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
US10729297B2 (en) | 2014-09-08 | 2020-08-04 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
US10877484B2 (en) | 2014-12-10 | 2020-12-29 | Aktiebolaget Electrolux | Using laser sensor for floor type detection |
US10874271B2 (en) | 2014-12-12 | 2020-12-29 | Aktiebolaget Electrolux | Side brush and robotic cleaner |
US10534367B2 (en) | 2014-12-16 | 2020-01-14 | Aktiebolaget Electrolux | Experience-based roadmap for a robotic cleaning device |
US10678251B2 (en) | 2014-12-16 | 2020-06-09 | Aktiebolaget Electrolux | Cleaning method for a robotic cleaning device |
JP2016183889A (en) * | 2015-03-26 | 2016-10-20 | 日産自動車株式会社 | Self-position calculation device and self-position calculation method |
US11099554B2 (en) | 2015-04-17 | 2021-08-24 | Aktiebolaget Electrolux | Robotic cleaning device and a method of controlling the robotic cleaning device |
JP2016205928A (en) * | 2015-04-20 | 2016-12-08 | 日産自動車株式会社 | Self position calculation device and self position calculation method |
JP2016224590A (en) * | 2015-05-28 | 2016-12-28 | 日産自動車株式会社 | Self position calculation device and self position calculation method |
US10874274B2 (en) | 2015-09-03 | 2020-12-29 | Aktiebolaget Electrolux | System of robotic cleaning devices |
US11712142B2 (en) | 2015-09-03 | 2023-08-01 | Aktiebolaget Electrolux | System of robotic cleaning devices |
US11169533B2 (en) | 2016-03-15 | 2021-11-09 | Aktiebolaget Electrolux | Robotic cleaning device and a method at the robotic cleaning device of performing cliff detection |
US10789850B2 (en) | 2016-05-10 | 2020-09-29 | Mitsubishi Electric Corporation | Obstacle detection device, driving assistance system, and obstacle detection method |
US11122953B2 (en) | 2016-05-11 | 2021-09-21 | Aktiebolaget Electrolux | Robotic cleaning device |
JP2018032253A (en) * | 2016-08-25 | 2018-03-01 | クラリオン株式会社 | Calibration device, calibration method, and calibration program |
US11474533B2 (en) | 2017-06-02 | 2022-10-18 | Aktiebolaget Electrolux | Method of detecting a difference in level of a surface in front of a robotic cleaning device |
US11921517B2 (en) | 2017-09-26 | 2024-03-05 | Aktiebolaget Electrolux | Controlling movement of a robotic cleaning device |
US20210228035A1 (en) * | 2018-05-18 | 2021-07-29 | Aktiebolaget Electrolux | Robotic cleaning device with retractable side brush |
JP7173471B2 (en) | 2019-01-31 | 2022-11-16 | 株式会社豊田中央研究所 | 3D position estimation device and program |
CN111508025A (en) * | 2019-01-31 | 2020-08-07 | 爱信精机株式会社 | Three-dimensional position estimation device and program |
JP2020122754A (en) * | 2019-01-31 | 2020-08-13 | 株式会社豊田中央研究所 | Three-dimensional position estimating device and program |
CN112629462A (en) * | 2019-09-24 | 2021-04-09 | 波音公司 | System and method for continuous positioning of scanner using non-destructive inspection data |
US11754389B2 (en) | 2020-01-29 | 2023-09-12 | Seiko Epson Corporation | Estimation method, measurement method, and estimation apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004198212A (en) | Apparatus for monitoring vicinity of mobile object | |
JP2004198211A (en) | Apparatus for monitoring vicinity of mobile object | |
JP6767998B2 (en) | Estimating external parameters of the camera from the lines of the image | |
US8744169B2 (en) | Voting strategy for visual ego-motion from stereo | |
KR101961001B1 (en) | Single-camera distance estimation | |
EP1462762A1 (en) | Circumstance monitoring device of a vehicle | |
JP6197388B2 (en) | Distance measuring device, distance measuring method, and program | |
US10645365B2 (en) | Camera parameter set calculation apparatus, camera parameter set calculation method, and recording medium | |
JP2009017462A (en) | Driving support system and vehicle | |
JP2004114977A (en) | Moving body periphery monitoring device | |
JP4893212B2 (en) | Perimeter monitoring device | |
JP2002366937A (en) | Outside monitoring device | |
JP4154980B2 (en) | Moving object periphery monitoring device | |
JP2016057108A (en) | Arithmetic apparatus, arithmetic system, arithmetic method and program | |
JP4192680B2 (en) | Moving object periphery monitoring device | |
JP4374850B2 (en) | Moving object periphery monitoring device | |
JP2007129560A (en) | Object detection device | |
CN108973858B (en) | Device for ensuring safety of driving route | |
JP2012198857A (en) | Approaching object detector and approaching object detection method | |
JP2000293693A (en) | Obstacle detecting method and device | |
JP2006268076A (en) | Driving assistance system | |
JP2004356846A (en) | Apparatus for supervising surrounding of vehicle | |
JP4207519B2 (en) | Moving object periphery monitoring device | |
JP2019185520A (en) | Image processor and method | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070803 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071120 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080318 |