JP4273119B2 - ナビゲーション装置 - Google Patents
ナビゲーション装置 Download PDFInfo
- Publication number
- JP4273119B2 JP4273119B2 JP2005514748A JP2005514748A JP4273119B2 JP 4273119 B2 JP4273119 B2 JP 4273119B2 JP 2005514748 A JP2005514748 A JP 2005514748A JP 2005514748 A JP2005514748 A JP 2005514748A JP 4273119 B2 JP4273119 B2 JP 4273119B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- feature point
- dimensional
- unit
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
Description
GPSナビゲーションシステムは、複数の測地衛星から発せられる時刻と位置データを、車両に設置した受信装置で読み取り、各衛星からの電波到達時間の差から受信地点の三次元座標を演算により求め、車両等の現在位置を表示するものである。このようなGPSナビゲーションシステムによれば、全地球的な範囲で受信地点の三次元位置を計測することができる。
近年は、緯度・経度・高度の既知の点を利用して電波到達時間の誤差を計測し、それを修正信号として送信して受信地点の誤差を修正する方法が付加されるようになり、誤差は十数メートル程度まで縮小されるようになった。
また、自動運転に限らず、例えば、自動車の車庫入れや、航空機の離着陸時、ロボットのナビゲーションなどに用いる場合にも、数cm程度の位置精度をリアルタイムに取得することが必要であり、このようなナビゲーションシステムは現在まで実現されていない。
そして、得られた特徴点の三次元座標を予め記録媒体に格納し、その三次元座標を現実に移動する移動体から撮影されたカメラ映像と対比することで、あるいは、カメラから得られた映像から、リアルタイムにカメラ位置の三次元座標を直接生成し、現在のカメラ位置を示す高精度な三次元情報を得ることができ、これによって、移動体のナビゲーションシステムとして用いることができる。
また、記録媒体を備えず、移動体のカメラで取得した映像から、その場で特徴点を自動抽出し、自動追跡し、三次元地図と比較することなく、直接三次元座標を取得し、直接カメラ位置を求めることもできる。
なお、記録媒体に記録しておくべき(又はリアルタイムで生成する)特徴点の三次元座標を示す3D地図を生成するには、予め、走行が予想される道路及びその周辺を撮影し、記録し、それらの映像の中に複数の特徴点を自動あるいは手動で抽出し、それら特徴点を画像内に復数点求め、それらが動画像の各フレーム内で移動する軌跡を追跡して、エピポーラ幾何学により線形連立方程式を解くことで、各特徴点の三次元地図を生成することができる。
[図2]本発明の第一実施形態に係る特徴点三次元地図生成装置の概略構成を示すブロック図である。
[図3]本発明の第一実施形態に係る地点探索ナビゲーション装置の概略構成を示すブロック図である。
[図4]本発明の第一実施形態に係るナビゲーション装置における記録媒体に記録された三次元座標とカメラ映像の対応関係を模式的に示す説明図である。
[図5]本発明の第一実施形態に係る特徴点三次元地図生成装置における具体的なカメラベクトルの検出方法を示す説明図である。
[図6]本発明の第一実施形態に係る特徴点三次元地図生成装置における具体的なカメラベクトルの検出方法を示す説明図である。
[図7]本発明の第一実施形態に係る特徴点三次元地図生成装置における具体的なカメラベクトルの検出方法を示す説明図である。
[図8]本発明の第一実施形態に係る特徴点三次元地図生成装置によるカメラベクトルの検出方法における望ましい特徴点の指定態様を示す説明図である。
[図9]本発明の第一実施形態に係る特徴点三次元地図生成装置により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。
[図10]本発明の第一実施形態に係る特徴点三次元地図生成装置により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。
[図11]本発明の第一実施形態に係る特徴点三次元地図生成装置により得られる特徴点の三次元座標とカメラベクトルの例を示すグラフである。
[図12]本発明の第一実施形態に係る特徴点三次元地図生成装置において、カメラから特徴点の距離に応じて複数の特徴点を設定し、複数の演算を繰り返し行う場合を示す説明図である。
[図13]本発明の第一実施形態に係るナビゲーション装置に備えられる揺れ成分検出部における揺れ成分検出の具体例を示す説明図である。
[図14]本発明の第一実施形態に係る揺れ成分検出部で検出される揺れ成分に基づいて補正される安定化画像の一例を示す説明図である。
[図15]本発明の第一実施形態に係る揺れ成分検出部で検出される揺れ成分に基づいて補正されるカメラベクトルの軌跡を示すグラフである。
[図16]本発明の第一実施形態に係る特徴点三次元地図生成装置で求められたカメラベクトルの軌跡を生成された三次元地図中に表示した場合の図である。
[図17]本発明の第一実施形態に係るナビゲーション装置で生成,表示される三次元形状(三次元地図)の表示例を示す説明図である。
[図18]本発明の第一実施形態に係る特徴点三次元地図生成装置における三次元地図の生成方法を示す説明図である。
[図19]本発明の第一実施形態に係る特徴点三次元地図生成装置における三次元地図の更新方法を示す説明図である。
[図20]本発明の第一実施形態に係る特徴点三次元地図生成装置で生成される三次元地図の一例を示す図であり、(a)は三次元地図で表される道路の断面図であり、(b)は(a)に示す道路の三次元地図の一例で道路上空から撮影した投影図であり、(c)は(b)に示す三次元地図において三次元座標を取得するために使用されるオペレータ部品を示す図である。
[図21]図20に示す道路の立体図であり、道路標識のオペレータ部品(CG部品)が合成された図を示している。
[図22]図21に示すCV映像中に手動により対象物の属性を取得し登録する場合を説明する図であり、(a)はCV映像、(b)CV映像中に任意の点と直線を指定した状態、(b)は指定された点と直線を登録することにより生成・表示された三次元地図を示している。
[図23]本発明の第一実施形態に係るナビゲーション装置全体の動作の概要の一例を示す説明図である。
[図24]本発明の第一実施形態に係るナビゲーション装置全体の動作の概要の他の一例を示す説明図である。
[図25]本発明の第一実施形態に係るナビゲーション装置全体の動作の概要の他の一例を示す説明図である。
[図26]本発明の第一実施形態に係るナビゲーション装置全体の動作の概要の他の一例を示す説明図である。
[図27]本発明の第二実施形態に係るナビゲーション装置に付加されるオプション装置の概略構成を示すブロック図である。
[図28]本発明の第三実施形態に係るナビゲーション装置の概略構成を示すブロック図である。
[図29]本発明の第三実施形態に係るナビゲーション装置の他の実施形態の概略構成を示すブロック図である。
[図30]本発明の第四実施形態に係るナビゲーション装置の概略構成を示すブロック図である。
[図31]本発明の第一〜第四実施形態に係るナビゲーション装置を組み合わせた場合の概略構成を示すブロック図である。
[図32]本発明の第四実施形態におけるリアルタイムナビゲーション方法により生成,表示される特徴点の三次元座標と移動体の現在位置を示す説明図である。
[図33]本発明の第四実施形態におけるリアルタイムナビゲーション方法により生成,表示される特徴点の三次元座標と移動体の現在位置を示す説明図である。
[図34]本発明の第四実施形態に係るナビゲーション装置の具体的な構成を示すブロック図である。
[図35]本発明の第四実施形態に係るナビゲーション装置における処理動作の内容を示すブロック図である。
[図36]本発明の第四実施形態に係るナビゲーション装置を利用した具体例を模式的に示す説明図である。
ここで、以下に示す本発明のナビゲーション装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラ厶は、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、特徴点の自動抽出,抽出した特徴点の自動追跡,特徴点の三次元座標の算出,カメラベクトルの演算等を行わせる。このように、本発明のナビゲーション装置における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現されるようになっている。
なお、プログラムの全部又は一部は、例えば、磁気ディスク,光ディスク,半導体メモリ,その他任意のコンピュータで読取り可能な記録媒体により提供され、記録媒体から読み出されたプログラ厶がコンピュータにインストールされて実行される。また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
まず、図1〜図26を参照して、本発明に係るナビゲーション装置の第一実施形態について説明する。
[基本構成]
図1は、本発明の第一実施形態に係るナビゲーション装置の概略構成を示すブロック図である。
同図に示す本実施形態に係るナビゲーション装置100は、特徴点三次元地図生成装置110と、記録媒体120と、地点探索ナビゲーション装置130とを備えている。
そして、本ナビゲーション装置を使用するナビゲーション対象となる車両等の移動体側では、地点探索ナビゲーション装置130により、実際に移動する移動体に備えられたカメラで得られた現在地点のカメラ画像から映像内の特徴点を抽出し、その特徴点の方向と、記録媒体に予め記録された三次元座標が既知である特徴点の方向とを比較して、複数の特徴点の方向が一致する地点の座標を演算により求める。
これによって、移動体に備えられたカメラ位置を示す三次元座標、すなわち、現在の移動体の位置を示す三次元座標を得ることができる。
なお、本ナビゲーション装置によってナビゲートされる移動体としては、例えば、自動車,船舶,航空機,ロボット,移動する機械,移動する人等があり、また、その用途等に応じて、重機(重工業用機械),深海探査船、移動部分を持つ機械、さらには宇宙船等も含まれる。
次に、各対応点の方向が両者で一致する地点を、記録媒体中の三次元地図の中に探索し、演算で求める。その位置がカメラの現在地点、すなわち、移動体の現在地点となる。そして、記録媒体120に記録された三次元地図中に、カメラを搭載した車両の三次元的現在位置、速度、加速度、方向、回転速度、回転加速度、をリアルタイムで表示できることになる。
また、本実施形態では、特徴点の三次元座標を示す3D地図を記録媒体に記録することで、量産し、配布できるようになる。これにより、本ナビゲーション装置の利用者、その記録媒体を取得し、それを再生することで、特徴点の三次元座標を読み出すことが可能となる。
記録媒体に記録しておくべき特徴点の三次元座標を示す3D地図を生成するには、予め、3D地図生成用車両等に搭載したカメラで走行が予想される道路及びその周辺を撮影し、記録し、特徴点三次元地図生成装置110によって、それらの映像の中に複数の特徴点を自動あるいは手動で抽出し、それら特徴点を画像内に複数点求め、それらが動画像の各フレーム内で移動する軌跡を追跡して、エピポーラ幾何学により線形連立方程式を解くことで、カメラ位置と各特徴点の三次元座標を示す三次元地図(3D地図)を生成することができる。
画像内の特徴点から三次元座標とカメラ位置(カメラベクトル)を求めるには、例えば、同時に6〜7点以上の特徴点があるように、特徴点を画像内で追跡する。そして、それらの特徴点に対してエピポーラ幾何学を用い、特徴点の三次元座標とカメラ位置を演算により求めることができるが、6〜7点程度の特徴点では、得られる特徴点やカメラの位置精度は不十分なものとなる。
3D地図生成の詳細については更に後述する。
なお、記録媒体に記録すべき3D地図生成用の移動体としては、例えば、自動車,船舶,航空機,ロボット,移動する機械,移動する人等が含まれる。
その意味で、特徴点三次元地図生成装置110は、利用者側に備えられる必要はなく、記録媒体120及び地点探索ナビゲーション装置130とは分離して設けることができる。また、所定の3D地図を生成して記録媒体120に記録できれば、特徴点三次元地図生成装置110以外の構成によって3D地図を生成,記録することも可能である。
以下、より具体的に、本実施形態のナビゲーション装置100を構成する特徴点三次元地図生成装置110と記録媒体120及び地点探索ナビゲーション装置130について説明する。
[特徴点三次元地図生成装置]
図2は、本実施形態に係る特徴点三次元地図生成装置110の概略構成を示すブロック図である。
特徴点三次元地図生成装置110は、車両等の移動体に備えられたカメラにより得られる現実の映像に基づき、移動体から観察される範囲における映像的な特徴点の三次元座標を含む所定の三次元情報を生成する。
カメラ映像取得部111は、移動する車両の車載カメラ等の移動体に備えられるカメラから移動体の周囲画像を取得する。
映像記録部112は、カメラ映像取得部111において取得した画像を記録する。
特徴点抽出部113は、において、記録した画像の中に、特徴点となるべき小領域画像を手動又は自動により指定し抽出する。
特徴点・カメラベクトル演算部115は、対応関係が求められた特徴点の三次元位置座標を求め、その三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部116は、複数の重複演算により、各カメラベクトルと各特徴点の位置の分布が最小になるように統計処理をし、さらに誤差の大きい特徴点を検出して、それを削除することで、全体の誤差を最小化処理する。
さらに、得られたカメラベクトルに基づいて、画像内に指定した対象物を実写座標系で計測してその三次元座標を求め、三次元座標が求められた指定対象物が、常に画枠の中心位置(又は任意の所定位置)に表示されるように、画像表示又はカメラ(カメラが固定される固定物)の位置及び姿勢を制御することができる(目的対象物ロックオン処理)。このとき、ロックオン制御される対象画像は、揺れ成分を含んだままのオリジナル画像でもよく、また、画像安定化処理され安定化された画像であっても良い。
なお、緯度経度等の絶対座標を必要としないときは、長さの基準を示す長さ基準点により、各画像で長さ校正をし、スケール合わせができて、正しいスケールの座標を取得できる。この場合には、特徴点・カメラベクトル演算部115は、長さ基準点の両端の三次元座標を求め、得られた三次元座標から長さ基準点の2点間の距離を演算により求める。そして、誤差最小化部116において、特徴点・カメラベクトル演算部115で演算により得られた長さ基準点の2点間の距離が、長さ基準点の既知の長さと一致するように、重複演算を繰り返し、統計処理する。
勿論、座標基準点と長さ基準点を同時に用いることもでき、その場合には、更に精度を向上させることができる。
長さ基準点とは、2点以上の点からなり、2点間の距離を既知のものとして扱う基準点であり、例えば、長さ基準点の間隔を1メートルというように設定し、画像内に1メートルの棒等を多数映るように設置することで得られる。そして、各画像に少なくとも一つの長さ基準点が重複するように撮影する。このような長さ基準点を設けることで、長さ基準点の既知の長さを基準として、後述するように、画像毎にスケールのキャリブレーションができ、精度を大幅に向上させることができる。
なお、基準点(座標基準点又は長さ基準点)についての三次元座標や長さの測量はどのような方法であってもよく、例えば、三角法等の従来公知の測量方法によって絶対座標や長さを取得しておくことができる。
図3は、本実施形態に係る記録媒体120及び地点探索ナビゲーション装置130の概略構成を示すブロック図である。
記録媒体120は、DVDやハードディスク,CDなどのデータを記録可能な媒体からなり、特徴点三次元地図生成装置110で生成された三次元地図情報を含む所定の情報が記録,格納されている。
記録媒体120に記録される情報としては、(1)移動体から観察可能な映像的な特徴点の特徴の種類とその三次元座標(三次元地図)、(2)映像的な特徴点を含む小領域の二次元画像の三次元配置とその三次元座標、(3)映像的な特徴点を含む対象物の形状(二次元又は三次元形状)とその三次元座標、(4)必ずしも特徴点ではないが、走行、航行に必要な周辺画像やCG等の形状(二次元又は三次元形状)と三次元座標、(5)移動体の移動路、例えば、道路、車両走行路、予定航路などの画像、CG及びその形状(二次元又は三次元形状)と、その三次元座標、などがある。そして、これらの情報のいずれか、又はそれらの組み合わせ、又はその全部を、必要に応じてそれらの属性を含む形で、三次元地図とともに記録されるようになっている。
また、後述するように、地点探索ナビゲーション装置130において演算の結果求められるのは三次元座標であり、抽出される特徴点は人間の視覚から見た特徴点である必要はないが、利用者に理解し易い情報を出力するために、車両走行路の地図や周辺の建築物等が記録されることが望ましい。
さらに、現在地点の認識には直接関係しない情報であっても、利用者の走行等を助ける情報として、例えば、交通標識や道路表示等の画像やCGとその属性が記録されることで、より理解し易く、操作し易くなり好ましい。
地点探索ナビゲーション装置130は、車両等の移動体側に設置される装置であり、移動体に備えられたカメラにより得られる現実の映像を、記録媒体120に記録された所定の三次元情報と比較し、現実の映像と一致する三次元座標上の地点と方向を求める。これによって、移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力する。
具体的には、図3に示すように、特徴点3D地図再生部131,概略現在位置指定部132,現在地周辺特徴点指定部133,カメラ映像取得部134,映像一時記録部135,映像内特徴点探索部136,映像内特徴点対応部137,カメラ座標演算部138,現在地点表示部139を備えている。
概略現在位置指定部132は、移動体の概略の現在位置を何らかの手段で決定して指定し、初期設定時の探索範囲を限定する。この現在位置の指定は、例えば利用者が手入力に指定することもでき、また、GPSによって得られた緯度経度高度データによって移動体の概略の現在位置を指定することもできる。移動体の概略位置情報を指定,入力することにより、現在地点周辺の特徴点を探すのに大きな手がかりとなる。そして、そのための手段としてGPSを利用することができる。GPSは本発明のナビゲーション装置100と比較して精度が悪いが、概略位置の情報としては適当な精度を持つといえ、概略位置情報の指定手段としては有効に利用できる。
カメラ映像取得部134は、特徴点三次元地図生成装置110のカメラ映像取得部111と同様、車載カメラにより、移動する車両の車載カメラ等の移動体に備えられるカメラから移動体の周囲画像を取得する。
映像一時記録部135は、特徴点三次元地図生成装置110の映像記録部112と同様、カメラ映像取得部134において取得した画像を記録する。
映像内特徴点対応部137は、映像内特徴点探索部136で探索された特徴点の候補と現在地点周辺の探索目標とを比較照合して一致点を探し出し、同一物としての対応関係を求める。そして、対応関係が求められた候補の中から演算に十分な数の対応点を決定する。
ここで、記録媒体120に記録された三次元座標とカメラ映像の一致点を求めるには、例えば、マッチングや相関等の画像処理技術により行える。
図4に、記録媒体120に記録された三次元座標とカメラ映像の対応関係を二次元的に示す。同図において、●はカメラ映像と三次元座標の対応が取れた特徴点であり、×は対応が取れなかった特徴点を示している。
すなわち、現在地点表示部139は、カメラ座標演算部138で求められら現時点の移動体の状況を示す三次元データのいくつかの項目、又はその組み合わせ項目を、単独で、あるいは地図、映像、属性等、記録媒体120に記録されている情報とともに、それらのうちのいくつか又は全部を目的の形式で走行地図,予定走行路等の地図上に表示する。
そして、記録媒体120には、特徴点の三次元情報以外に、地図や様々な情報が記録してあるので、それらの情報とともに表示することができる。
なお、本実施形態では、特に図示しないが、地点探索ナビゲーション装置130は、さらに、カメラ座標演算部138で決定された三次元データにより、本ナビゲーション装置を搭載する車両等の移動体を直接制御する制御装置を備えることができる。すなわち、本ナビゲーション装置で求められる高精度な位置情報に基づいて、車両等の移動体を自動制御することができ、自動運転システムを実現することができる。
あるいは、カメラによる映像から新たな特徴点を検出して、三次元座標に加えることで、次回からの特徴点として付加し、次回からの特徴点として付加することが可能である。
次に、上述した本実施形態の特徴点三次元地図生成装置110(必要に応じて地点探索ナビゲーション装置130)におけるカメラベクトル演算及び三次元情報(3D地図)の生成方法について説明する。
複数の画像(動画又は連続静止画)の特徴点からカメラベクトルと特徴点の三次元情報を求めるにはいくつかの方法があるが、本実施形態の特徴点三次元地図生成装置110では、画像内に十分に多くの数の特徴点を自動抽出し、それを自動追跡することで、エピポーラ幾何学により、カメラの三次元ベクトル及び3軸回転ベクトルと特徴点の三次元座標を求めるようにしてある。特徴点を充分に多くとることにより、カメラベクトル情報が重複することになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルと特徴点の三次元座標を求めることができる。
このようにして求められたカメラの三次元位置とカメラの3軸回転から、それを各フレーム画像にデータとして付加し、複数のフレーム画像から得られる複数の視差、即ち多重視差と、既に取得しているカメラの三次元位置から、対象物の特徴点の三次元座標を演算で求めることができる。
そして、以上の処理を繰り返すことで、広範囲の三次元形状、即ち三次元地図(3D地図)が生成されることになる。
カメラベクトルとは、カメラの持つ自由度のベクトルをいう。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトルをいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度から微分して導き出すことができる。
このように、本実施形態の特徴点三次元地図生成装置110におけるカメラベクトルの検出は、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
特徴点三次元地図生成装置110では、まず、特徴点抽出部113において、適切にサンプリングしたフレーム画像中に、特徴点となるべき点又は小領域画像を自動抽出し、特徴点対応処理部114で、複数のフレーム画像間で特徴点の対応関係を自動的に求める。具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図5〜図7に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図7に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図8に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図8の○印参照)、例えば、100点程度の特徴点を抽出する。
本実施形態では、カメラ映像として原則的に360度全周映像を使用し、360度全周映像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
なお、図7は、特徴点三次元地図生成装置110における処理を理解し易くするために、1台または複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際の特徴点三次元地図生成装置110の処理では、必ずしもメルカトール図法による展開画像である必要はない。
さらに、誤差の分布が大きい特徴点につては削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
図9では、図7の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトルが示されている。
図10及び図11は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
具体的には、ベクトル検出部は、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返す。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
そして、以上のようにして求められたカメラベクトルは、揺れ成分検出部117において、あらかじめ予定されたカメラ位置とカメラ姿勢を示す予定カメラベクトルとのズレ成分が抽出される。
揺れ成分検出部117においては、例えば、車載カメラを搭載した車両位置(すなわちカメラ位置)X,Y,Zと、車両回転姿勢(すなわちカメラ姿勢)Φx,Φy,Φzによる揺れ成分であるδX,δY,δZ,δΦx,δΦy,δΦzのすべてが評価の対象となる。ここで、δX,δY,δZ,δΦx,δΦy,δΦzとは、必ずしも微分値や差分値ではなく、予定の位置及び予定の姿勢からのズレを意味する。多くの場合は微分値で代用することで揺れ成分は検出できるが、予定の位置と予定の姿勢が前もって決まっていれば、それとの差分がδX,δY,δZ,δΦx,δΦy,δΦzとなる。
揺れ成分出力としては、X,Y,Z,Φx,Φy,Φzと、δX,δY,δZ,δΦx,δΦy,δΦzの計12個のパラメータを出力することができる。
但し、いずれの揺れ評価を目的とするかによって、パラメータの数はこの中から選択的に組み合わせることができ、評価対象物に対応することができる。
も含めて必要となる場合もあるので、得られる12個のパラメータの中から選択的に組み合わせて画像処理や姿勢制御に用いることができる。
なお、この12個の変数以外に、画像安定化や姿勢安定化に用いられる撮影条件による他の係数としては、カメラの基準姿勢として画像の画枠での揺れ幅制限などがある。
同図において、太線矢印はカメラを取り付けた車両の進行方向を示しており、カメラの光軸を原点とするカメラの位置と姿勢をカメラ座標系(Xc,Yc,Zc)とし(同図に示す破線)、カメラが半固定状態で取り付けられた車両は車両座標系(Xt,Yt,Zt)とし(同図に示す実線)、常に車両進行方向に座標軸を変える座標系を回転世界座標系(Xwr,Ywr,Zwr)とし(同図に示す2点鎖線)、さらに、外界の静止系を表す座標系を世界座標系(Xw,Yw,Zw)とする(同図に示す1点鎖線)。そして、この四つの座標系の関係を求めて、評価に必要な座標系に変換して車両の揺れが表現されるようになっている。
車両進行方向を車両座標系(Xt,Yt,Zt)の3軸の一つに選択することで揺れを評価するのにふさわしい座標系とすることができる。
揺れ評価にあたっては、揺れ評価に適した座標系で評価を行う。
揺れ信号は予定進路からのズレとして検出されるが、図13に示す例では、車両の平均進路を予定進路として揺れを評価している。そこで、世界座標系上でカメラの移動軌跡を求め、その平均進路を求め、これを予定進路とする。
評価される揺れとしては、位置ズレ成分Xt,Yt,Ztと、回転成分Φxt,Φyt,Φzt、及び位置ズレ差分δXt,δYt,δZt等である(但し、ZtとδZtは、進行方向速度及びその加速度成分となるので、揺れの意味が他の成分とは異なる)。
・世界座標系における車両位置表示:
(Xw,Yw,Zw)
・車両進行方向に回転した回転世界座標系における速度及び加速度表示:
(δXwr,δYwr,δZwr)(ΔδXwr,ΔδYwr,ΔδZwr)
・車両座標系における揺れ表示:
(△Xt,△Yt,(△Zt))(△Φxt,△Φyt,△Φzt)
・車両座標系とカメラ座標系の回転表示(半固定):
(Xc,Yc,Zc)=F(Xt,Yt,Zt)
・世界座標系における進行方向表示:
(Xw,Yw,Zw)=G(Xt,Yt,Zt)
・カメラ座標系における進行方向表示:
(Xc,Yc,Zc)=H(Xt,Yt,Zt)
・世界座標系に対する車両座標系の原点移動、回転姿勢表示:
(Xw,Yw,Zw)(δXw,δYw,δZw)
そして、このような揺れ成分検出部117を用いることにより、上述したような画像の安定化処理やカメラの位置姿勢安定化処理、更には目的対象物のロックオン処理が実現できるようになる。
例えば、図16に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。そして、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。
図17に、本実施形態で生成される3D地図の表示例を示す。
カメラを二台用いることにより、絶対計測ができるようになり、絶対計測ができることで、カメラ一台による演算結果に基準長を与えることが可能となり、また、これによって、移動体検出が可能となる。従って、不必要な移動体については特徴点から削除することができる。
さらに、複数のカメラを用いることにより、絶対座標が既知である2点以上の特徴点を画像内に求め、特徴点地図に絶対座標を与えることができる。カメラ一台で計測した場合には相対値が得られるが、複数台使用すれば絶対距離が与えられる。そして、既知の絶対座標を二点以上の特徴点として与えれば、絶対座標が得られる。
次に、以上のように求められたカメラベクトルや特徴点の三次元座標に基づいて生成される3D地図の生成方法について、図18及び図19を参照して説明する。
図18は、本実施形態の特徴点三次元地図生成装置110で生成される三次元地図の生成方法を示す説明図であり、図19は、同様に、特徴点三次元地図生成装置110で行われる三次元地図の更新方法を示す説明図である。
CV映像とは、カメラベクトル映像、すなわち、360度全周映像から得られるカメラ位置及びカメラ姿勢(カメラベクトル)を全フレーム画像に亘って取得し、各フレームにカメラベクトル(CV値)を対応させた360度全周映像のことである。なお、上述したように、360度全周映像ではない通常の映像であっても、360度全周映像の一部分として位置づけることができる。
同図に示すように、まず、道路面を走行する車両に搭載したカメラによって走行空間の全景映像を撮影して、360度全周映像を取得する(S1801:地上4π撮影映像)。
取得した360度全周映像に基づいて、上述したようなカメラベクトル演算を行い(S1802:CV演算)、カメラベクトルを取得する。
そして、取得したカメラベクトルに対して、実写映像や既成の地図(S1807)等に基づいてキャリブレーションを施し(S1803:キャリブレーション)、さらに、CV値は相対値であることから既成の地図(S1807)と対比させることで緯度・経度・高度を取得して絶対座標取得(S1808)を行う。
得られた各CV値の誤差を修正して座標統合し(S1809)、これによって、CV映像地図データベースを構築する(S1810)。
CV映像地図データベース(S1810)は、そのまま三次元地図として交通案内装置に利用できるが、さらに、CV映像に基づいて三次元CG地図を生成することができる。
図18に示すように、CV映像地図データベース(S1810)は、次のプロセスで安定化処理(S1811)がなされる。
安定化処理は、S1811に示すように、まずCG化される範囲を映像の一部切りだし処理をし、画像スタビライズにより画像の揺れを排除する。次に、仮想のカメラ移動方向を決定して、走行方向指定及び横揺れ補正により画像の誤差を修正する。さらに、一定方向に一定スピードで走行する時間軸補正を行う。この安定化処理は、画像を所定の固定平面にロックオンして安定化処理を行う。
以上のようにして安定化処理された画像は、MRSSビュア上に表示される(S1812)。ここで、MRSSビュア(株式会社岩根研究所の製品名)とは、Mixed Reality Simulation Systemビュアの略で、ビュア上で三次元座標を取得できる表示装置である。
また、移動べクトルに幅を持たせることで、ある範囲の対象物を選択的に取り出すことができる。360度映像の特徴により対象物を多視点に取得しているので、多視点テクスチャー抽出切り取り(S1814)により、背景や対象物のテクスチャーを方向別に抽出して、CGに貼り付けることができる。
さらに、対象物の三次元座標指定(マニュアル)及びワイヤフレームCG取得(S1815)を行うことで、対象物の形状をワイヤフレームで抜き出すことができる。
そして、生成したCGには、マニュアルで対象物の属性付加(S1820)を行い、座標統合して(S1821)、三次元CG地図データベース(S1822)が構築される。
このように、CG三次元地図の生成については、可能な限り簡略化することができ、それによってコストダウンを図ることができる。
図19に示すように、CV映像地図(S1901)を更新する場合には、まず、自動更新の前処理を行っておく。
具体的には、映像中の目印として適切な対象物等、新旧映像で比較するに適した対象物を重要ポイントをマニュアル指定しておく(S1902)。重要ポイントは、ある領域を持った断片の画像である。また、画像としての特徴ある部分を自動抽出し(S1903:特徴ポイント自動抽出)、重要ポイントと特徴点の三次元座標取得をする(S1904)。
以上のような前処理を経た後に、CV映像地図データの更新処理を行う。
更新処理は、まず、更新用映像として4π撮影映像(360度全周映像)を取得する(S1908)。すなわち、CV映像地図データを更新するためには、更新用の映像を取得して新旧映像を比較しなければならない。
同様に、特徴点ポイント抽出(S1912)により特徴点を自動抽出し、特徴点ポイント新旧対応(S1913)により新旧映像の対応をとり、新画像座標取得により(S1914)更新画像の特徴ポイントの三次元座標と回転座標を取得する。
このようにして、更新された映像とそのカメラベクトルが取得されると(S1915)、そのカメラベクトルによって、自動更新機能を持つCV映像地図データベース(S1907)を更新することができる。
さらに、CG地図データを更新するためには、上述した新画像座標取得(S1911)により、重要ポイントの三次元座標を取得し、新旧座標を比較し(S1916)、更新対象物を特定して(S1917)、同じ座標に有るか否かを自動判断する。座標が一致しない場合には対象物を入れ替える必要があると判断し、図18で示したCG生成によるマニュアル処理(S1918)により、更新のためのCGを自動又はマニュアルで生成し、重要ポイントを更新した三次元CG地図データベース(S1919)に、更新データを記録する。
道路の三次元地図を生成する場合には、道路面の近傍の形状が重要であり、高い計測精度が求められる。一般に、道路構造は、図20(a)の断面図に示すよな構造をしていることが前もって分かっているので、その形状を予想して、三次元計測をすることができる。
これにより、例えば50*50ピクセル以上の広い領域でのマッチング&グリップ(M&G)が可能となり、特徴の少ない道路面であってもマッチング&グリップが行え、計測精度が向上する。
さらに、道路舗装面には道路標示(センターライン,路肩ライン等)が決められた基準で描かれていることから、そのパターンをPRMオペレータ(PRM Operator)の部品として予め用意しておき、用意されたオペレータ部品と映像比較することで、その三次元的位置を検出することが可能となる。
さらに、三次元のPRMオペレータ部品(PRM 3D Operator)も用意し、三次元的にマッチングすることで、例えば、道路の縁石部分の段差についても精度良く再現することができる。
同図に示すように、舖装道路の映像においては、PRMオペレータは、図20に示したセンターライン等の道路面表示よりも、立体的な道路標識の認識においてその有効性を発揮する。すなわち、道路標識の認識に関しては、図21(a)に示すように、CV映像上に道路標識予想空間を想定して、その限定された空間で目的の道路標識の種類と位置と形状と座標を認識することが可能となる。
CV映像は、実写画像上に道路標識予想空間をCGとして合成配置することができ、その制限範囲のみで目的の道路標識を検索することが可能となる。
また、道路標識の形状やサイズ等は通常決まっているので、予め用意してある各道路標識の三次元オペレータ部品として(図21(b)参照)、道路標識予想空間の中に三次元的に決まった大きさの標識を検索し、探し出すことが可能となる。そして、探し出された標識の種類と位置と座標と形状が認識される。
さらに、MRSSビュアで表示される360度実写のCV映像は、CV映像内の任意の点をマウスでクリックすることにより、(1)その指定した点の三次元座標を取得できるとともに、(2)指定した任意の2点間をマウスで直線に結び、その2点間の距離を計測でき、さらに、(3)任意の多角形をマウスで指定・入力することによりその多角形の面積を計測することができる。従って、この機能を利用してCV映像中の目的対象物の位置をマウスのクリック操作するだけで、(1)実写映像の中に属性の登録ポイントを指定することができ、(2)道路形状や道路標示を直線で登録でき、さらに、(3)路面や看板の面を登録することが可能となる。
このようにCV映像の任意の点を指定して直線や面のみを登録することで三次元地図が生成でき、その登録の際に属性についても分類しておけば属性抽出も同時に完了し、所望の三次元地図を容易に生成・取得することができる。
次に、以上説明したような本実施形態に係るナビゲーション装置における全体の動作の概要を図23〜図26を参照しつつ説明する。
図23に示すように、本実施形態のナビゲーション装置の動作は大きく2つに分けられ、一つはCV映像地図生成装置(特徴点三次元地図生成装置110)側で行われる前処理と、もう一つは車両等に積載されたナビゲーション装置(地点探索ナビゲーション装置130)側で行われる後処理である。
前処理としては、以下の手順により行う。
まず、図23に示すように、車載カメラ等で360度全周映像が取得され(S2201:369度映像撮影)、この360度映像についてCV演算により全フレームのカメラベクトルが取得される(S2202:CVデータ付加)。なお、カメラで撮影される映像は原則として360度全周映像であることが望ましいが、必ずしも360度全周映像でなくてもよい。
CV演算で得られたCVデータは相対値であるので、これを実測データやGPS等に基づいて絶対座標(緯度・経度・高さ)に変換する(S2203:絶対座標取得)。
CV映像中の重要ポイント及び看板等については、CG化して属性とともにCV映像に合成又は対応させておく(S2205:指定CG付加)。交通標識等は共通するものであるので、共通のCGとしてそのIDと座標のみを付加する。
以上の手順により、各フレームに対応するCVデータ・属性等を生成する(S2206:CV映像生成)。なお、計測のみで映像を観察しない場合は、特徴部位のみの映像とする。そして、生成されたCV映像は、WEB,HDD又はDVD等により、後処理を行うナビゲーション装置側に配信する(S2207:CV映像配信)。
後処理としては、以下の手順により行う。
まず、図23に示すように、配信されたCV映像をWEB等を介して受信し、あるいは購入したDVD等から読み取る(S2301:CV映像受信)。
また、車両に積載したカメラで現在の360度映像を取得する(S2302:リアルタイム映像取得)。なお、ここでも取得映像は必ずしも360度映像でなくてもよい。
そして、受信したCV映像と車載カメラで撮影されたリアルタイム映像を比較することにより、車両の現在位置を演算で求める(S2303:リアルタイム車両位置計測)。なお、この車両の現在位置の演算は、(1)CV演算で求める方法と、(2)座標が既知の指定点から演算で車両の座標を求める方法と、(3)両者を組み合わせた中間の方法とがある。
なお、自車両の三次元位置を表示すればナビゲーションとしては十分であり、CV映像(記録映像)自体は表示しなくてもよい。
また、自車両の位置を三次元地図上に表示する場合に、GPSは概略位置を求める補助的情報として利用できる(後述する第二実施形態参照)。
また、図25に示すように、後処理において、車間距離や周囲を走行する車両の方向と速度、路面状況等の走行状況の情報をリアルタイムで判断して、走行に必要な認識・判断の結果を表示することもできる(図25のS2307:走行状況認識・判断)。
すなわち、自車両で認識・判断した結果の走行状況認識・判断データを他車両と共有するために、所定のデータを多謝料に送信することができ、同時に、周囲を走行する他車両が認識・判断した結果の走行状況認識・判断データを受信して、自車両の走行に反映させることが可能である(後述する第三実施形態参照)。
さらにまた、所定の基地局に自車両の走行状況認識・判断データを送信し、基地局から送られる走行状況認識・判断データを受信して自車両の走行に反映させることも可能である(後述する第三実施形態参照)。
そして、得られた特徴点の三次元座標を予め記録媒体に格納し、その三次元座標を現実に移動する移動体から撮影されたカメラ映像と対比することで、あるいは、カメラから得られた映像から、リアルタイムにカメラ位置の三次元座標を直接生成し、現在のカメラ位置を示す高精度な三次元情報を得ることができ、これによって、移動体のナビゲーションシステムとして用いることができる。
これにより、走行する車両等の移動体の現在位置が、カメラ映像から直接的に、あるいは、予め生成,記録された三次元地図によって正確に示されることになり、従来のGPSシステムでは不可能であった、誤差範囲が数cm程度の高精度なナビゲーションシステムを実現することができる。
次に、本発明のナビゲーション装置の第二実施形態について、図27を参照して説明する。
図27は、本発明の第二実施形態に係るナビゲーション装置100の概略構成を示すブロック図である。本実施形態のナビゲーション装置100は、選択的に付加することができるオプション装置300を備えるようになっている。
同図に示すように、本実施形態では、オプション装置300として、3D地図属性付加装置310,GPS装置320,データ更新装置330及びオプション表示装置340を備えることができる。
3D地図属性付加装置310は、記録媒体120に記録される情報として、特徴点の三次元座標以外の付加情報として属性情報を付加することができる。
ここで、特徴点の属性とは、例えば、特徴点の属するビルディングの名称,通りの名称,住所,歴史の記述等があり、また、特徴点が標識一部であればその標識の意味等である。
具体的には、特徴点属性取得部311において特徴点の属性を取得する。
所属対象物3D形状座標取得部312では、属性を付加すべき特徴点の三次元座標を特徴点三次元地図生成装置110の特徴点・カメラベクトル演算部115から入力する。
属性付加部313では、入力された三次元座標に対応する属性情報を付加する。
属性付き対象物3D地図生成部314では、属性情報が付加された三次元情報を特徴点三次元地図生成装置110の3D地図生成部119に戻す。
これにより、記録媒体120に記録される三次元情報として特徴点の属性情報が付加されるようになる。
GPS装置320は、地点探索ナビゲーション装置130の概略現在位置指定部132に、GPSによって得られる緯度経度高度データを出力し、概略現在位置指定部132における移動体の概略の現在位置を指定する。
また、GPS装置320は、地点探索ナビゲーション装置130のカメラ座標演算部138で得られた現時点の移動体状況を示すカメラ位置,方向,姿勢等の三次元データを入力し、GPSで得られるデータを補正し、映像から特徴点が得られない場合の補助装置として利用する。
また、このように精度の悪いGPSを主体とした計測システムにおいては、本発明による高精度な位置データを補正信号として利用して、GPSシステムで得られたデータを補正することにより、最終的に本発明と同等の精度を一定期間保持することが可能となる。
さらに、本発明のナビゲーション装置においてカメラ映像の取得が困難となる夜間やトンネル内などにおいては、GPSシステムとの併用が望ましい場合もある。
具体的には、GPSデータ取得部321では、GPSで得られたデータを取得する。
GPSデータ補正部323では、地点探索ナビゲーション装置130のカメラ座標演算138で得られた精度の高い位置情報を入力し、GPS計測装置との差を検出して、そこからGPSの補正校正信号を生成する。なお、GPSデータ補正部323には、GPS位置計測装置に生成した高精度の補正校正信号を送るための出力端子が備えられる。
現在地点表示部324は、補正校正信号で補正されたGPSデータを現在地点の表示として出力,表示する。
なお、GPS装置320をオプションで備える本実施形態では、GPSによるナビゲータシステムに必要なデータも記録媒体120に記録することができる。
データ更新装置330は、記録媒体120のデータを更新することができ、地点探索ナビゲーション装置130に特徴点三次元地図生成装置110の機能を付加する装置である。
具体的には、データ更新装置330は、映像記録部331で、地点探索ナビゲーション装置130において取得されたカメラ映像を蓄積する。
特徴点データ再演算部332では、複数のフレームにわたる記録媒体の特徴点やその特徴点を含む小領域画像との対応点を、カメラで取得した画像内で追跡し、特徴点三次元地図生成装置110と同様にして、複数のフレームにわたる記録媒体の特徴点、又はその特徴点を含む小領域画像と、カメラで取得した映像内の小領域の画像との対応関係から、既存の特徴点の移動等の更新データが求められる。
また、新規特徴点取得部333では、カメラによる映像から新たな特徴点を検出して、三次元座標に加えることで、次回からの特徴点として付加し、次回からの特徴点として付加する。
このようにして、データ更新装置330を備えることにより、利用者側に備えられる地点探索ナビゲーション装置130に、特徴点三次元地図生成装置110に相当する機能を付加することができ、地図を作りながら探索をすることが可能となり、現地点探索と同時に、特徴点検出と三次元座標演算を同時に行い、記録し、記録媒体のデータを更新し、次回からのデータとして用いることができるようになる。
オプション表示装置340は、地点探索ナビゲーション装置130で表示される表示内容以外の付加的な情報を表示することができる。例えば、地点探索ナビゲーション装置130における現在地点の認識には直接関係しなくとも、利用者の走行を助ける交通標識や道路表示等の画像やCGを、オプション表示装置340によって表示することで、より理解し易く、操作し易いナビゲーション装置とすることができる。
具体的には、現在地点周辺画像表示部341では、地点探索ナビデーション装置130の特徴点3D地図再生部131及び現在地点表示部139の表示画像データを入力する。
表示画像属性表示部342では、入力した表示画像データの属性を表示する。
また、交通標識等認識表示部343では、現在地点から観察される交通標識や道路表示等の画像やCGを表示する。
そして、得られたカメラ位置の三次元座標を予め記録媒体に格納し(あるいは、リアルタイムにカメラ位置の三次元座標を生成し)、その三次元座標を現実に移動するナビゲーション対象となる車両等から撮影されたカメラ映像と対比することで、現在のカメラ位置を示す高精度な三次元情報を得ることができ、これによって、移動体のナビゲーションシステ厶として用いることができる。
次に、本発明のナビゲーション装置の第三実施形態について、図28及び図29を参照して説明する。
図28は、本発明の第三実施形態に係るナビゲーション装置の概略構成を示すブロック図であり、図29は、同じく、本発明の第三実施形態に係るナビゲーション装置の他の実施形態の概略構成を示すブロック図である。
これらの図に示すナビゲーション装置は、記録媒体120と地点探索ナビゲーション装置130が離間して備えられ、基地局や他の移動体に備えられた記録媒体120に記録された所定の三次元情報が、通信回線を介して一又は二以上の他の地点探索ナビゲーション装置130に送信されるようになっている。
サテライト装置400は、受信部411により、データ更新逆送信装置350を介してデータ更新装置332からの更新データが受信され、データ更新部412により、記録媒体120のデータが随時更新できるようになっている。
そして、送信部413により、記録媒体120のデータが地点探索ナビゲーション装置に送信されるようになっている。
受信装置140は、受信部141により、通信回線を介してサテライト装置400から送信された記録媒体120の三次元情報のデータを受信できるようなっている。
さらに、図29に示すナビゲーション装置は、図28に示したサテライト通信方式に加えて、さらに、相互通信方式を採用しており、基地局との間のみでなく、移動体相互間でもデータの送受信が行えるようになっている。
これにより、一台の車両のみの場合と比較して、より広範囲で総合的なナビゲーションシステムを実現することができる。
本実施形態では、基地局から記録媒体120のデータを複数の車両に送信することで、記録媒体120はソフトウェアそのもの、デジタルデータそのものとして扱うことができる。そして、ソフトウェアの受信は、固体としての記録媒体120の装填と同じ意味となり、再生装置の構成や規格等に左右されない分、利用範囲が拡張される。
また、本実施形態では、車両が新たに取得したデータを基地局に送り、また直接車両間でやりとりすることができ、さらに、通信回線を用いることでデータの更新が容易となり、周囲車両とのデータの共有も可能となり、リアルタイムデータのやりとりも可能となる。
このようにして、本実施形態によれば、より汎用性に優れたナビゲーション装置を提供することができる。
さらに、本発明のナビゲーション装置の第四実施形態について、図30〜図36を参照しつつ説明する。
図30は、本発明の第三実施形態に係るナビゲーション装置の概略構成を示すブロック図である。
同図に示すように、本実施形態のリアルタイムナビゲーション装置200は、上述した第一実施形態で示した記録媒体120を省略し、ナビゲーション対象となる移動体側に、第一実施形態における特徴点三次元地図生成装置110に地点探索ナビゲーション装置130の機能を持たせた、特徴点三次元地図生成表示装置210を備えている。
そして、求められた特徴点の三次元座標から直接的に3D地図を生成し、特徴点の三次元分布と、ナビゲーション対象となる移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力,表示する。
特徴点三次元地図生成表示装置210は、第一実施形態の特徴点三次元地図生成装置110とほぼ同様の構成となっており、カメラ映像取得部211,映像記録部212,特徴点抽出部213,特徴点対応処理部214,特徴点・カメラベクトル演算部215,誤差最小化部216,揺れ成分検出部217,絶対座標取得部218及び3D地図生成表示部219を備えている。このうち、カメラ映像取得部211,映像記録部212,特徴点抽出部213,特徴点対応処理部214,特徴点・カメラベクトル演算部215,誤差最小化部216,揺れ成分検出部217及び絶対座標取得部218については、第一実施形態におけるカメラ映像取得部111,映像記録部112,特徴点抽出部113,特徴点対応処理部114,特徴点・カメラベクトル演算部115,誤差最小化部116,揺れ成分検出部117及び絶対座標取得部118と同様の構成となっている。
図32及び図33に、本実施形態におけるリアルタイムナビゲーション方法により生成,表示される特徴点の三次元座標と移動体の現在位置を示す。
図32(a)に示すように、走行する車両の周囲の多数の特徴点が抽出され、その特徴点から、車両が走行する道路と建物等の三次元地図が生成され、その地図中に移動する車両の軌跡が示されている。図32(b)は、抽出された特徴点と求められた車両の軌跡を、実際のカメラ映像中に表示したものである。
図33は、図32(b)に示す映像の平面展開画像であり、車両の走行軌跡と現在位置,予定進路が映像中にプロットしてある。
上述した第一実施形態では、特徴点三次元地図生成装置110は、画像の取得後、オフライン処理で三次元地図を生成し、その後、三次元地図を記録媒体120に記録し、それを配布等することで、記録媒体120に記録された特徴点と現時点の映像と比較することで、現時点の位置を確認する方式を採っている。
本実施形態では、車両等で移動しつつ、リアルタイムに3D地図を生成し、現在地点の探索を行うことができ、記録媒体120を省略することができる。これにより、例えば、記録媒体120に記録された特徴点三次元地図に記載されていない地域を走行する場合や、記録媒体120を備えていない場合等であっても、特徴点三次元地図をリアルタイムで生成しながら、現在地点を表示することができる。勿論、本実施形態においても、第一実施形態で示した記録媒体120を併用することは可能である。
さらに、図31に示すように、第一実施形態で示した各種のオプション装置300を備えることができ、本発明のナビゲーション装置を搭載する移動体の種類や、移動経路、移動範囲、使用目的等に応じて、オプション装置300を選択的に組み合わせて採用することができる。
図34は、リアルタイムナビゲーション装置の一実施形態の概略構成を示すブロック図であり、移動体として道路を走行する車両にリアルタイムナビゲーション装置が搭載される場合を説明する。
なお、以下に示すリアルタイムナビゲーション装置の各部における処理動作の具体的な内容は、対応する第一及び第二実施形態における内容と同様である。
同図に示すリアルタイムナビゲーション装置200において、画像取得部200−01は、車両に積載されたカメラにより周囲画像を取得する。
画像一時記録部200−02は、画像取得部200−01で取得された周囲画像を一次記録する。
特徴点抽出部200−03は、画像一時記録部200−02に記録された周囲画像から特徴点を抽出する。
特徴点追跡部200−04は、隣接する画像の中に特徴点を追跡する。
ベクトル演算部200−06は、画像内の特徴点の各座標のいくつかを選択して、カメラベクトル及び特徴点分布を演算で求める。
絶対座標変換部200−07は、ベクトル演算部200−06における演算結果に、絶対座標を与える。
特徴点分布図内カメラベクトル表示部200−08は、絶対座標が付与された演算結果を特徴点の三次元分布とともに表示する。
地図部200−09には、移動体を構成する車両の予定走行路が記載してある。
基準対象物データベース部200−10には、車両の走行路から見える位置にあり、座標と形状が既知である基準対象物が記載してある。基準対象物としては、移動体が車両であるので、例えば、走行路の交差点毎にある信号機等が好適である。この基準対象物データベース部200−10により、概略位置が分かればその基準対象物(信号機等)の仕様が分かるようになる。サイズ等は規格化されているので、形式が分かれば既知の基準対象物として使える。
基準対象物認識部200−11は、画像取得部200−01で取得される周囲画像の中にあり、形状と座標が既知である基準対象物を画像内において認識する。
基準対象物位置演算部200−12は、基準対象物認識部200−11で認識された基準対象物の画像内位置から、その基準対象物の三次元座標を演算で求める。
絶対座標変換部200−13は、基準対象物位置演算部200−12で得られた基準対象物の三次元座標と、基準対象物の既知データとを比較して、座標を絶対座標に変換する。
合成表示部200−14は、変換されたカメラの絶対座標を、あらかじめ用意した地図等とともに合成して表示する。
カメラ姿勢信号取得部200−15は、ベクトル演算部200−06で得られたカメラベクトルから、カメラの3軸姿勢信号を検出する。
車両姿勢制御部200−16は、カメラ姿勢信号取得部200−15で検出されたカメラ3軸姿勢信号により、車両の姿勢制御を行う。
カメラベクトルから、カメラの回転成分を抽出できるので、車両姿勢を計測することができる。そして、車両姿勢が目的の位置を保つように、車両姿勢信号からフィードバック信号を生成し、車両姿勢制御を行うことができる。
また、水平及び鉛直方向は、車両静止時又は等加速度運動時に、水準器等でキャリブレーションが可能である。
GPSデータ取得部200−17は、GPSによる位置データを取得する。
概略位置座標取得部200−18は、GPSによる位置データによって、車両の概略位置及び方向を特定し、画像取得部200−01で取得される周囲画像中の基準対象物を特定する。
第一実施形態で示したように、本発明のナビゲーションシステムは、既存のGPSの位置精度より優れているため、GPSによる位置データを概略位置取得のために用いることで、位置の絞り込みが可能となり、演算に有利となる。また、GPSによる位置データによって緯度経度を取得して、カメラ位置を緯度経度で表示することが可能である。さらに、GPSデータを取り込むことにより、例えば、特徴点が見つからないような場合には、GPSによるナビゲーションによって走行することが可能となる。
上述した画像取得部200−01は、視野が重複するように並列に配置され、位置関係が固定されている複数のカメラを積載したカメラによる並列画像を取得する機能を付加することができる。
そして、特徴点追跡部200−04では、複数のカメラによる画像から特徴点の対応点を並列画像内に検索する機能を付加することができる。
これにより、ベクトル演算部200−06では、並列画像内の各対応点の座標から、特徴点及びカメラベクトルの絶対長を演算で求める機能を付加することができる。この場合、並列カメラにより、すべてのカメラ位置で絶対長を取得できるので、長距離計測において誤差の蓄積が少ない計測が行える。
移動体特徴点追跡部200−19は、特徴点静止座標系の特徴点を取り除いたものを移動体の特徴点として扱う。
移動追跡座標テーブル作成部200−20は、追跡した特徴点のテーブルを生成する。
移動体ベクトル演算部200−21は、移動体別の移動体ベクトルを演算し、静止座標系に変換し、先に求められている静止座標系の特徴点と合成することで、静止座標系の特徴点と、移動体のベクトルを重ねて表示する。
この移動体ベクトル抽出処理の詳細を図35に示す。
静止座標系以外の移動体特徴点抽出部S3402において、すべての特徴点の中から、静止座標系以外の特徴点を選択,抽出し、それらが移動体における特徴点を含むものと判断して、特徴点固定・カメラ移動とした特徴点追跡部S3403において追跡し、それをテーブル化して一時保存し、以下のプロセスで移動体の特徴点のベクトルを演算で求める。
特徴点固定・カメラ移動とした特徴点追跡部S3403において、特徴点の追跡を行い、移動体特徴点追跡テーブル作成部S3404により、特徴点追跡のテーブルを生成する。このテーブルには、移動体毎に異なるカメラ位置のグループが生成される。カメラは一つでも、移動体は特徴点の一群として観察され、その一群が一つのカメラ位置に対応するように、移動体に対応する特徴点毎にカメラ位置が異なる場所に複数観察されることになる。
カメラ位置と移動体は相対運動であるから、いつでも座標変換が可能である。そこで、静止座標系からみた各特徴点群の座標系決定部S3407において、カメラを元の静止座標系表示に戻すことで、各移動体による特徴点群及び座標決定部S3408において、移動体毎の特徴点の座標も静止座標系に変換することができる。これにより、移動体抽出部S3409において、移動体を静止座標系の中に三次元的に抽出することができるようになる。
はじめから静止座標系を元として演算することもでき、その場合には、図35(b)に示すようになる。
そして、その中にカメラベクトルを表示することで、走行位置を道路及び周辺の形状の中に、表示することができる。また、特徴点の中から演算用の特徴点を選択することで、演算スピードを上げることができる。
同図に示す例では、航空機の地上側の任意の位置に広角のカメラを取り付けておく。カメラは地上側を撮影し、滑走路を一部その視界にとらえている。
カメラによって撮影した映像の中に十分多くの特徴点を自動検出し、追跡し、航空機の三次元的位置と姿勢を演算によって求める。
また、位置の再確認と位置精度の向上を目的として、地上に既知の対象物をもとらえ、データベースに保存してある既知の部品と比較し、それを映像中に認識し、名称と形状と座標を確認する。
航空機の目的の理想進路を設定し、本ナビゲーション装置で取得された航空機の実際の進路とのズレを検出し、制御することで、理想の進路近くの進入路を自動的に得ることができるようになる。航空機の離陸においても全く同様に制御することができる。
以上と同様の本ナビゲーション装置の応用例としては、例えば、(1)自動離着陸装置、(2)宇宙船自動ドッキング装置、(3)列車車両の自動停止位置確保装置、(4)車両の自動駐車装置、(5)船舶自動接岸装置などに適用することができる。
例えば、本発明のナビゲーション装置は、三次元地図を持つことから、適用する移動体は、地上を走行する車両に限らず、三次元空間を航行するものであっても良い。飛行機でも利用可能であるから、着陸時の精度の高いナビゲーションが可能である。また、宇宙船から見える星や星座を特徴点として、宇宙規模でのナビゲーションも可能である。
Claims (14)
- ナビゲーション対象となる移動体から観察される範囲における映像的な特徴点を三次元座標で記録した記録媒体と、
ナビゲーション対象となる移動体に備えられたカメラにより得られる現実の映像を、前記記録媒体を再生して得られる映像的な特徴点の三次元座標と比較し、現実の映像と一致する三次元座標上の地点と方向を求め、移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力する地点探索ナビゲーション装置と、
を備え、
前記記録媒体に記録される情報は、
移動体から観察される範囲における映像的な特徴点の種類とその三次元座標と、
前記映像的な特徴点を含む小領域の二次元画像の三次元配置とその三次元座標と、
前記映像的な特徴点を含む対象物の形状とその三次元座標と、
前記映像的な特徴点以外の移動体の移動に必要な周辺画像,CG等の形状と三次元座標と、
移動体が移動する道路,車両走行路,又は予定航路等の画像,CGとその三次元形状及びその三次元座標と、を含み、
これら各情報は、いずれか又はそれらの組み合わせ又はそれら全部、又はそれらの属性情報を含んで、三次元地図とともに記録される
ことを特徴とするナビゲーション装置。 - ナビゲーション対象となる移動体から観察される範囲における映像的な特徴点を三次元座標で記録した記録媒体と、
ナビゲーション対象となる移動体に備えられたカメラにより得られる現実の映像を、前記記録媒体を再生して得られる映像的な特徴点の三次元座標と比較し、現実の映像と一致する三次元座標上の地点と方向を求め、移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力する地点探索ナビゲーション装置と、
を備え、
前記地点探索ナビゲーション装置は、
前記記録媒体を再生する特徴点3D地図再生部と、
移動体の概略の現在位置を指定し、初期設定時の探索範囲を限定する概略現在位置指定部と、
前記記録媒体に記録された三次元地図から、移動体の現在地周辺の複数の特徴点を読み出し、現在地の探索目標として指定する現在地周辺特徴点指定部と、
ナビゲーション対象となる移動体に備えられたカメラから当該移動体周囲の映像を取得するカメラ映像取得部と、
前記カメラ映像取得部で取得された映像を記録する映像一時記録部と、
前記映像一時記録部に記録された映像内に、前記探索目標と同一物となるべき特徴点の候補を探し出す映像内特徴点探索部と、
前記映像内特徴点探索部で得られた特徴点の候補と、前記現在地周辺の探索目標とを比較照合して同一物としての対応関係を求め、前記候補の中から所定数の対応点を決定し、決定された対応点の三次元座標を前記記録媒体から受け取る映像内特徴点対応部と、
前記決定された対応点とその三次元座標を用いて、移動体の現時点の状況を示すカメラ位置,方向,姿勢等の三次元データを演算により決定するカメラ座標演算部と、
前記カメラ座標演算部で決定された三次元データの組み合わせ又はそのすべてを、単独で又は前記記録媒体に記録された地図、映像、属性等の情報とともに画面上に表示する現在地点表示部と、
ことを特徴とするナビゲーション装置。 - ナビゲーション対象となる移動体から観察される範囲における映像的な特徴点を三次元座標で記録した記録媒体と、
ナビゲーション対象となる移動体に備えられたカメラにより得られる現実の映像を、前記記録媒体を再生して得られる映像的な特徴点の三次元座標と比較し、現実の映像と一致する三次元座標上の地点と方向を求め、移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力する地点探索ナビゲーション装置と、
記録媒体生成用の移動体に備えられたカメラにより得られる現実の映像に基づき、当該移動体から観察される範囲における映像的な特徴点を三次元座標で記録した、前記記録媒体に記録すべき情報を生成する特徴点三次元地図生成装置と、
を備え、
前記特徴点三次元地図生成装置は、
前記記録媒体生成用の移動体に備えられたカメラから当該移動体の周囲画像を取得するカメラ映像取得部と、
前記カメラ映像取得部で取得された画像を記録する映像記録部と、
前記映像記憶部に記録された画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、
前記特徴点抽出部で抽出された特徴点について、各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、
前記特徴点対応処理部で対応関係が求められた特徴点の三次元位置座標を求めるとともに、当該三次元位置座標から各フレーム画像に対応したカメラベクトルを求める特徴点・カメラベクトル演算部と、
前記特徴点・カメラベクトル演算部において求められる各特徴点の三次元位置座標とカメラベクトルの分布が最小になるように統計処理し、誤差の最小化処理を施した特徴点の三次元座標とカメラベクトルを自動的に決定する誤差最小化部と、
前記誤差最小化部で誤差の最小化処理が施されたカメラベクトルと特徴点又はその特徴点を含む小領域の画像の三次元形状とその三次元座標及びその分布を、ナビゲーション対象となる移動体の通路とともに三次元地図として配列し、特徴点を含む対象物等とともに、前記記録媒体に記録する3D地図生成記録部と、
を備えることを特徴とするナビゲーション装置。 - 前記記録媒体に記録される情報は、
移動体から観察される範囲における映像的な特徴点の種類とその三次元座標と、
前記映像的な特徴点を含む小領域の二次元画像の三次元配置とその三次元座標と、
前記映像的な特徴点を含む対象物の形状とその三次元座標と、
前記映像的な特徴点以外の移動体の移動に必要な周辺画像,CG等の形状と三次元座標と、
移動体が移動する道路,車両走行路,又は予定航路等の画像,CGとその三次元形状及びその三次元座標と、を含み、
これら各情報は、いずれか又はそれらの組み合わせ又はそれら全部、又はそれらの属性情報を含んで、三次元地図とともに記録される請求項2又は3記載のナビゲーション装置。 - 前記地点探索ナビゲーション装置は、
前記記録媒体を再生する特徴点3D地図再生部と、
移動体の概略の現在位置を指定し、初期設定時の探索範囲を限定する概略現在位置指定部と、
前記記録媒体に記録された三次元地図から、移動体の現在地周辺の複数の特徴点を読み出し、現在地の探索目標として指定する現在地周辺特徴点指定部と、
ナビゲーション対象となる移動体に備えられたカメラから当該移動体周囲の映像を取得するカメラ映像取得部と、
前記カメラ映像取得部で取得された映像を記録する映像一時記録部と、
前記映像一時記録部に記録された映像内に、前記探索目標と同一物となるべき特徴点の候補を探し出す映像内特徴点探索部と、
前記映像内特徴点探索部で得られた特徴点の候補と、前記現在地周辺の探索目標とを比較照合して同一物としての対応関係を求め、前記候補の中から所定数の対応点を決定し、決定された対応点の三次元座標を前記記録媒体から受け取る映像内特徴点対応部と、
前記決定された対応点とその三次元座標を用いて、移動体の現時点の状況を示すカメラ位置,方向,姿勢等の三次元データを演算により決定するカメラ座標演算部と、
前記カメラ座標演算部で決定された三次元データの組み合わせ又はそのすべてを、単独で又は前記記録媒体に記録された地図、映像、属性等の情報とともに画面上に表示する現在地点表示部と、
を備える請求項1又は3項記載のナビゲーション装置。 - 記録媒体生成用の移動体に備えられたカメラにより得られる現実の映像に基づき、当該移動体から観察される範囲における映像的な特徴点を三次元座標で記録した、前記記録媒体に記録すべき情報を生成する特徴点三次元地図生成装置を備える請求項1又は2記載のナビゲーション装置。
- ナビゲーション対象となる移動体に備えられたカメラにより得られる現実の映像に基づき、当該移動体から観察される範囲における映像的な特徴点を三次元座標で生成するとともに、当該三次元座標からカメラベクトルを生成し、
生成された三次元座標に基づいて三次元地図を生成しつつ、特徴点の三次元分布及び当該移動体に備えられたカメラの三次元座標上の位置、速度、加速度、視点方向、3軸回転姿勢、3軸回転速度、3軸回転加速度を含む所定項目のうち、いずれか又はそれらを組み合わせた複数の項目を出力する特徴点三次元地図生成表示装置を備え、
前記特徴点三次元地図生成表示装置は、
移動体に備えられたカメラから当該移動体の周囲画像を取得するカメラ映像取得部と、
前記カメラ映像取得部で取得された画像を記録する映像記録部と、
前記映像記憶部に記録された画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、
前記特徴点抽出部で抽出された特徴点について、各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、
前記特徴点対応処理部で対応関係が求められた特徴点の三次元位置座標を求めるとともに、当該三次元位置座標から各フレーム画像に対応したカメラベクトルを求める特徴点・カメラベクトル演算部と、
前記特徴点・カメラベクトル演算部において求められる各特徴点の三次元位置座標とカメラベクトルの分布が最小になるように統計処理し、誤差の最小化処理を施した特徴点の三次元座標とカメラベクトルを自動的に決定する誤差最小化部と、
前記誤差最小化部で誤差の最小化処理が施されたカメラベクトルと特徴点又はその特徴点を含む小領域の画像の三次元形状とその三次元座標及びその分布を、ナビゲーション対象となる移動体の移動軌跡又は必要に応じて移動予定路とともに三次元地図として配列し、特徴点を含む対象物等とともに表示する3D地図生成表示部と、
を備えることを特徴とするナビゲーション装置。 - 前記特徴点・カメラベクトル演算部は、
カメラベクトル及び特徴点の三次元座標演算に用いる任意の二つのフレーム画像Fn及びFn+m(m=フレーム間隔)を単位画像として、所望の特徴点の三次元座標とカメラベクトルを求める単位演算を繰り返し、
前記二つのフレーム画像Fn及びFn+mの間のフレー厶画像については、簡素化した演算によりカメラベクトル及び特徴点の三次元座標を求め、
前記誤差最小化部は、
画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルと特徴点の三次元座標の誤差が最小になるようにスケール調整して統合し、最終の三次元座標を決定する請求項3又は7記載のナビゲーション装置。 - 前記特徴点・カメラベクトル演算部は、
前記フレーム間隔mを、カメラから特徴点までの距離に応じて、カメラから特徴点までの距離が大きいほどmが大きくなるように設定して単位演算を行う請求項8記載のナビゲーション装置。 - 前記特徴点・カメラベクトル演算部は、
求められたカメラベクトル又は特徴点の三次元座標の誤差の分布が大きい特徴点を削除し、必要が有れば、他の特徴点について再演算を行い、三次元座標演算の精度を上げる請求項3又は7記載のナビゲーション装置。 - 前記記録媒体と前記地点探索ナビゲーション装置が離間して備えられ、
基地局又は他の移動体に備えられた記録媒体に記録された前記所定の三次元情報が、通信回線を介して一又は二以上の地点探索ナビゲーション装置に送信される請求項1乃至6のいずれか一項記載のナビゲーション装置。 - 前記地点探索ナビゲーション装置は、GPSによって得られた緯度経度高度データにより、前記概略現在位置指定部による移動体の概略の現在位置を指定する請求項1乃至6のいずれか一項記載のナビゲーション装置。
- 前記地点探索ナビゲーション装置は、前記カメラ座標演算部で得られた現時点の移動体状況を示すカメラ位置,方向,姿勢等の三次元データを、緯度経度高度に変換してGPSを補正する補正信号として出力し、映像的特徴点が得られない場合にGPSから位置データを得るための補助信号とする請求項12記載のナビゲーション装置。
- 前記ナビゲーション対象となる移動体は、自動車,航空機,船舶,人,ロボット,重機,宇宙船,深海探査船,移動部分を持つ機械等である請求項1乃至13のいずれか一項記載のナビゲーション装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003361160 | 2003-10-21 | ||
JP2003361160 | 2003-10-21 | ||
PCT/JP2004/014989 WO2005038402A1 (ja) | 2003-10-21 | 2004-10-04 | ナビゲーション装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2005038402A1 JPWO2005038402A1 (ja) | 2007-01-11 |
JP4273119B2 true JP4273119B2 (ja) | 2009-06-03 |
Family
ID=34463431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005514748A Expired - Lifetime JP4273119B2 (ja) | 2003-10-21 | 2004-10-04 | ナビゲーション装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4273119B2 (ja) |
WO (1) | WO2005038402A1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130137076A (ko) * | 2012-06-06 | 2013-12-16 | 삼성전자주식회사 | 실시간 관심 지역을 나타내는 3차원 지도를 제공하는 장치 및 방법 |
KR20170117040A (ko) * | 2014-12-26 | 2017-10-20 | 히어 그로벌 비. 브이. | 디바이스의 위치 확인을 위한 기하학적 지문 감식 |
JP2017228111A (ja) * | 2016-06-23 | 2017-12-28 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 無人航空機、無人航空機の制御方法、および無人航空機の制御プログラム |
JP2018509668A (ja) * | 2015-08-03 | 2018-04-05 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 道路の3次元モデルのモデリング方法、装置及び記憶媒体 |
CN109087359A (zh) * | 2018-08-30 | 2018-12-25 | 网易(杭州)网络有限公司 | 位姿确定方法、位姿确定装置、介质和计算设备 |
KR20200002219A (ko) * | 2018-06-29 | 2020-01-08 | 현대엠엔소프트 주식회사 | 실내 길안내 장치 및 그 방법 |
WO2021241847A1 (ko) * | 2020-05-28 | 2021-12-02 | 네이버랩스 주식회사 | 시각 특징 맵 생성 방법 및 시스템 |
KR102454599B1 (ko) * | 2021-05-26 | 2022-10-17 | 포티투닷 주식회사 | 차로 맵 상에 객체의 위치를 결정하기 위한 방법 및 장치 |
WO2022250480A1 (ko) * | 2021-05-26 | 2022-12-01 | 포티투닷 주식회사 | 차로 맵 상에 객체의 위치를 결정하기 위한 방법 및 장치 |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0520829D0 (en) | 2005-10-13 | 2005-11-23 | Univ Cambridge Tech | Image processing methods and apparatus |
JP4773794B2 (ja) * | 2005-10-19 | 2011-09-14 | 株式会社岩根研究所 | 新旧映像座標統合装置 |
JP5106771B2 (ja) * | 2005-11-08 | 2012-12-26 | 株式会社トヨタマップマスター | 路面標示計測装置 |
JP4980606B2 (ja) * | 2005-11-15 | 2012-07-18 | 株式会社岩根研究所 | 移動型自動監視装置 |
JP4740723B2 (ja) | 2005-11-28 | 2011-08-03 | 富士通株式会社 | 画像解析プログラム、該プログラムを記録した記録媒体、画像解析装置、および画像解析方法 |
JP2007290551A (ja) * | 2006-04-25 | 2007-11-08 | Kaaz Corp | 走行情報表示装置 |
JP5111785B2 (ja) * | 2006-05-24 | 2013-01-09 | 株式会社岩根研究所 | Cv映像によるcvタグ入出力検索装置 |
JP2010507127A (ja) * | 2006-10-20 | 2010-03-04 | テレ アトラス ベスローテン フエンノートシャップ | 異なるソースの位置データをマッチングさせるためのコンピュータ装置及び方法 |
DE102007022588A1 (de) * | 2007-05-14 | 2008-11-27 | Robert Bosch Gmbh | Verfahren zur Anzeige von Videobildern und Videosystemen |
US8072448B2 (en) * | 2008-01-15 | 2011-12-06 | Google Inc. | Three-dimensional annotations for street view data |
JP5227065B2 (ja) * | 2008-01-25 | 2013-07-03 | 株式会社岩根研究所 | 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置 |
JP5281424B2 (ja) * | 2008-03-18 | 2013-09-04 | 株式会社ゼンリン | 路面標示地図生成方法 |
JP5339753B2 (ja) * | 2008-03-18 | 2013-11-13 | 株式会社ゼンリン | 路面標示地図生成方法 |
US7868821B2 (en) | 2009-01-15 | 2011-01-11 | Alpine Electronics, Inc | Method and apparatus to estimate vehicle position and recognized landmark positions using GPS and camera |
JP5182594B2 (ja) * | 2010-03-31 | 2013-04-17 | アイシン・エィ・ダブリュ株式会社 | 画像処理システム |
JP5333860B2 (ja) * | 2010-03-31 | 2013-11-06 | アイシン・エィ・ダブリュ株式会社 | 風景画像認識を用いた自車位置検出システム |
JP5333862B2 (ja) * | 2010-03-31 | 2013-11-06 | アイシン・エィ・ダブリュ株式会社 | 風景画像認識を用いた自車位置検出システム |
JP5333861B2 (ja) * | 2010-03-31 | 2013-11-06 | アイシン・エィ・ダブリュ株式会社 | 風景画像認識を用いた自車位置検出システム |
ES2788750T3 (es) * | 2011-09-16 | 2020-10-22 | Saab Ab | Procedimiento para mejorar la precisión de un sistema de navegación en base a radio |
WO2014010601A1 (ja) * | 2012-07-10 | 2014-01-16 | 国立大学法人千葉大学 | トラッキングデータ作成方法、及び、トラッキングデータ作成プログラム |
WO2014155884A1 (ja) * | 2013-03-25 | 2014-10-02 | エイディシーテクノロジー株式会社 | 車両 |
US9818196B2 (en) | 2014-03-31 | 2017-11-14 | Xiaomi Inc. | Method and device for positioning and navigating |
CN103968846B (zh) * | 2014-03-31 | 2017-02-08 | 小米科技有限责任公司 | 定位导航方法和装置 |
EP3147629B1 (en) * | 2014-05-20 | 2019-07-10 | Nissan Motor Co., Ltd | Object detection device and object detection method |
JP6667943B2 (ja) * | 2014-10-17 | 2020-03-18 | 日本無線株式会社 | 画像生成装置 |
CN107438754A (zh) | 2015-02-10 | 2017-12-05 | 御眼视觉技术有限公司 | 用于自主车辆导航的稀疏地图 |
WO2017168899A1 (ja) * | 2016-03-30 | 2017-10-05 | ソニー株式会社 | 情報処理方法および情報処理装置 |
KR20250007028A (ko) * | 2016-12-09 | 2025-01-13 | 톰톰 글로벌 콘텐트 비.브이. | 비디오 기반 위치결정 및 매핑을 위한 방법 및 시스템 |
US10401500B2 (en) | 2016-12-30 | 2019-09-03 | DeepMap Inc. | Encoding LiDAR scanned data for generating high definition maps for autonomous vehicles |
JP6913353B2 (ja) * | 2017-05-26 | 2021-08-04 | 株式会社データ変換研究所 | 移動体制御システム |
JP7257737B2 (ja) * | 2017-09-05 | 2023-04-14 | ソニーグループ株式会社 | 情報処理装置、自己位置推定方法、及び、プログラム |
JP7056840B2 (ja) * | 2018-01-16 | 2022-04-19 | 株式会社豊田中央研究所 | 自車位置推定装置、自車位置推定方法、および自車位置推定プログラム |
JP7036400B2 (ja) * | 2018-01-30 | 2022-03-15 | 株式会社豊田中央研究所 | 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム |
JP7428492B2 (ja) * | 2019-08-26 | 2024-02-06 | 株式会社ミツトヨ | 検査方法および補正方法 |
WO2022004603A1 (ja) * | 2020-07-01 | 2022-01-06 | 株式会社多摩川ホールディングス | センシング地図システム及び測位方法 |
JP7607474B2 (ja) | 2021-03-10 | 2024-12-27 | パイオニア株式会社 | 携帯端末、測位方法、測位プログラム及び記録媒体 |
WO2023037594A1 (ja) * | 2021-09-08 | 2023-03-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08247775A (ja) * | 1995-03-15 | 1996-09-27 | Toshiba Corp | 移動体の自己位置同定装置および自己位置同定方法 |
JPH09218955A (ja) * | 1996-02-14 | 1997-08-19 | Hitachi Ltd | 位置認識方法及び装置 |
JPH11271074A (ja) * | 1998-03-20 | 1999-10-05 | Fujitsu Ltd | 目印画像照合装置及び目印画像照合方法及びプログラム記憶媒体 |
JP2002296044A (ja) * | 2001-03-30 | 2002-10-09 | Justec:Kk | 地図情報提供方法、地図情報提供システム、及びコンピュータ読取可能なプログラム |
JP2003287434A (ja) * | 2002-01-25 | 2003-10-10 | Iwane Kenkyusho:Kk | 画像情報検索システム |
-
2004
- 2004-10-04 JP JP2005514748A patent/JP4273119B2/ja not_active Expired - Lifetime
- 2004-10-04 WO PCT/JP2004/014989 patent/WO2005038402A1/ja active Application Filing
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130137076A (ko) * | 2012-06-06 | 2013-12-16 | 삼성전자주식회사 | 실시간 관심 지역을 나타내는 3차원 지도를 제공하는 장치 및 방법 |
KR101996241B1 (ko) * | 2012-06-06 | 2019-07-05 | 삼성전자주식회사 | 실시간 관심 지역을 나타내는 3차원 지도를 제공하는 장치 및 방법 |
KR20170117040A (ko) * | 2014-12-26 | 2017-10-20 | 히어 그로벌 비. 브이. | 디바이스의 위치 확인을 위한 기하학적 지문 감식 |
CN107430183A (zh) * | 2014-12-26 | 2017-12-01 | 赫尔环球有限公司 | 用于装置的定位的几何指纹识别 |
KR102002631B1 (ko) * | 2014-12-26 | 2019-07-22 | 히어 그로벌 비. 브이. | 디바이스의 위치 확인을 위한 기하학적 지문 감식 |
JP2018509668A (ja) * | 2015-08-03 | 2018-04-05 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 道路の3次元モデルのモデリング方法、装置及び記憶媒体 |
US10643378B2 (en) | 2015-08-03 | 2020-05-05 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and device for modelling three-dimensional road model, and storage medium |
JP2017228111A (ja) * | 2016-06-23 | 2017-12-28 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 無人航空機、無人航空機の制御方法、および無人航空機の制御プログラム |
KR20200002219A (ko) * | 2018-06-29 | 2020-01-08 | 현대엠엔소프트 주식회사 | 실내 길안내 장치 및 그 방법 |
KR102622585B1 (ko) * | 2018-06-29 | 2024-01-08 | 현대오토에버 주식회사 | 실내 길안내 장치 및 그 방법 |
CN109087359A (zh) * | 2018-08-30 | 2018-12-25 | 网易(杭州)网络有限公司 | 位姿确定方法、位姿确定装置、介质和计算设备 |
CN109087359B (zh) * | 2018-08-30 | 2020-12-08 | 杭州易现先进科技有限公司 | 位姿确定方法、位姿确定装置、介质和计算设备 |
WO2021241847A1 (ko) * | 2020-05-28 | 2021-12-02 | 네이버랩스 주식회사 | 시각 특징 맵 생성 방법 및 시스템 |
KR20210147855A (ko) * | 2020-05-28 | 2021-12-07 | 네이버랩스 주식회사 | 시각 특징 맵 생성 방법 및 시스템 |
KR102383499B1 (ko) | 2020-05-28 | 2022-04-08 | 네이버랩스 주식회사 | 시각 특징 맵 생성 방법 및 시스템 |
KR102454599B1 (ko) * | 2021-05-26 | 2022-10-17 | 포티투닷 주식회사 | 차로 맵 상에 객체의 위치를 결정하기 위한 방법 및 장치 |
WO2022250480A1 (ko) * | 2021-05-26 | 2022-12-01 | 포티투닷 주식회사 | 차로 맵 상에 객체의 위치를 결정하기 위한 방법 및 장치 |
KR20220159868A (ko) * | 2021-05-26 | 2022-12-05 | 포티투닷 주식회사 | 차로 피팅을 수행하기 위한 방법 및 장치 |
KR102491524B1 (ko) * | 2021-05-26 | 2023-01-27 | 포티투닷 주식회사 | 차로 피팅을 수행하기 위한 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
WO2005038402A1 (ja) | 2005-04-28 |
JPWO2005038402A1 (ja) | 2007-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4273119B2 (ja) | ナビゲーション装置 | |
JP4767578B2 (ja) | 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置 | |
JP5227065B2 (ja) | 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置 | |
JP7040867B2 (ja) | システム、方法およびプログラム | |
US10848732B2 (en) | Free viewpoint movement display device | |
JP6821154B2 (ja) | 基準映像地図を用いた自己位置姿勢標定装置 | |
EP3137850B1 (en) | Method and system for determining a position relative to a digital map | |
JP4854819B2 (ja) | 画像情報出力方法 | |
JP2018165726A (ja) | 点群データ利用システム | |
CN105973236A (zh) | 室内定位或导航方法、装置以及地图数据库生成方法 | |
CN105928498A (zh) | 通过基于模板的uav控制来确定对象数据 | |
JP2010532029A (ja) | 領域の3次元マップ表現を提供するための装置及び方法 | |
JP6446005B2 (ja) | 地中探査装置 | |
US12033407B2 (en) | Recognition and positioning device and information conversion device | |
JP2012118666A (ja) | 三次元地図自動生成装置 | |
US11754415B2 (en) | Sensor localization from external source data | |
JP2022027593A (ja) | 可移動機器の測位方法、装置及び可移動機器 | |
JP4624000B2 (ja) | 複合人工知能装置 | |
Soheilian et al. | Generation of an integrated 3D city model with visual landmarks for autonomous navigation in dense urban areas | |
JP2007089111A (ja) | 二次元図面と映像の合成表示装置 | |
JP4773794B2 (ja) | 新旧映像座標統合装置 | |
JP2022513828A (ja) | 位置決めのための環境モデルを生成する方法およびシステム | |
Grinstead et al. | Mobile scanning system for the fast digitization of existing roadways and structures | |
Grinstead et al. | Developing detailed a priori 3D models of large environments to aid in robotic navigation tasks | |
Gupta et al. | Vehicle state estimation using vision and inertial measurements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090224 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090302 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4273119 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120306 Year of fee payment: 3 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130306 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140306 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |