JP6782903B2 - 自己運動推定システム、自己運動推定システムの制御方法及びプログラム - Google Patents
自己運動推定システム、自己運動推定システムの制御方法及びプログラム Download PDFInfo
- Publication number
- JP6782903B2 JP6782903B2 JP2015255056A JP2015255056A JP6782903B2 JP 6782903 B2 JP6782903 B2 JP 6782903B2 JP 2015255056 A JP2015255056 A JP 2015255056A JP 2015255056 A JP2015255056 A JP 2015255056A JP 6782903 B2 JP6782903 B2 JP 6782903B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- timing
- distance
- light
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本実施形態に係る移動体1000は、例えば自動運転車、ヒューマノイドロボット、パーソナルモビリティなど、自らの判断で自らの運動を自律的に制御することが可能な装置である。
自己運動推定システム100は、図1に示すように、距離画像取得部111、距離測定データ記憶部112、明暗画像取得部121、エッジ検出部122、特徴ペア生成部131、特徴ペア記憶部132、移動量算出部141、移動量記憶部142、3次元地図生成部150を備える。
なおwiはスケールである。そして、エッジ画像Etのqt,iでの画素値が1ならば、pt,iとqt,iを対応づけ、RGBD特徴ペアとする。その画素値が0ならば何もしない。時刻tにおけるRGBD特徴ペアの集合をCtとする。
そして移動量算出部141は、Etの中でqt,iに最も近いエッジ点et,iを、pt-1,iに対応づける。ただしこの際、対応づけの精度を上げるために、原画像It-1とItにおいて、qt-1,iとet,iをそれぞれ中心とする局所画像のコサイン相関あるいは正規化相関を計算して、相関値が閾値を超えた場合に、et,iをpt-1,iに対応づけると良い。
次に、本実施形態に係る自己運動推定システム100の処理の流れを、図6に示すフローチャートに従って説明する。
以下に、自己運動推定システム100のその他の実施形態を説明する。以下に記載する各態様により、より一層効率的かつ正確に自己運動状態を推定することが可能となる。
上述したように、時刻tの距離画像Ptと明暗画像Itとの組を、フレームFt=(Pt,It)と呼ぶが、一般的に画像センサ300の方が距離センサ200よりも取得周期が短い。この場合、明暗画像取得部121が第1時間毎に明暗画像Itを取得するとすると、距離画像取得部111は、第1時間の整数倍(n倍)の第2時間毎に距離画像Ptを取得する。
より具体的には、画像センサ300の取得周期が距離センサ200の取得周期の1/n倍の場合、1つの3D点群Pt-1に対して、n枚の明暗画像It-1,It…It+n-2が対応するが、自己運動推定システム100は、It+k-1(k=0,…,n-1)までの推定移動量が得られているとして、It+kの位置合せを次のように行う。
この際自己運動推定システム100は、第1実施形態と同様に、原画像It+k-1とIt+kにおいて、qt+k-1,iとet,iをそれぞれ中心とする局所画像のコサイン相関あるいは正規化相関を計算して相関値が閾値を超えた場合に、et+k,iをpt-1,iに対応づける。なお相関計算にはqt-1,iを用いてもよいが、qt+k-1,iの方が視点変化による画像の歪みを小さくできる。
次に、本実施形態に係る自己運動推定システム100は、明暗画像Itを階層化して処理することも可能である。
次に、本実施形態に係る自己運動推定システム100は、移動量を推定する処理を以下のように改良することも可能である。つまり、過去のフレームで算出した推定移動量を用いて、ICPの探索範囲を狭める。
次に、本実施形態に係る自己運動推定システム100は、以下のようにして過去Nフレームの距離画像を用いて距離画像Ptを強化することで、よりロバストに運動推定を行うことも可能である。
とくに、移動体1000が単調な環境を走行する場合のように、目立ったランドマークが少なく、また、繰り返し構造があるような場合に顕著である。フレーム間の移動距離が大きいほど予測誤差は大きくなり、はずれる可能性も高くなる。
111 距離画像取得部
112 距離測定データ記憶部
121 明暗画像取得部
122 エッジ検出部
131 特徴ペア生成部
132 特徴ペア記憶部
141 移動量算出部
142 移動量記憶部
150 3次元地図生成部
200 距離センサ
300 画像センサ
400 運動制御部
500 アクチュエータ
1000 移動体
Claims (8)
- 移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより、前記移動体の運動状態を推定する自己運動推定システムであって、
前記移動体に搭載される画像センサによって所定周期で撮影される外界の明暗画像を取得する明暗画像取得部と、
前記移動体に搭載される距離センサによって所定周期で計測される、前記画像センサの撮影範囲に含まれる外界の各点までの複数の距離情報を有する距離画像を取得する距離画像取得部と、
前記明暗画像からエッジを検出するエッジ検出部と、
第1タイミングで取得した前記距離画像と前記明暗画像とを照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定するエッジ位置距離情報特定部と、
前記第1タイミングにおける前記エッジ位置距離情報と、前記第1タイミングから第2タイミングまでの間の所定時間における前記移動体の推定移動量と、を用いて算出される、前記エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される前記明暗画像から検出されるエッジの位置に近づくように、前記移動体の前記推定移動量を算出する移動量算出部と、
を備えることを特徴とする自己運動推定システム。 - 請求項1に記載の自己運動推定システムであって、
前記明暗画像取得部は、第1時間毎に前記明暗画像を取得し、
前記距離画像取得部は、前記第1時間の2以上の整数倍の第2時間毎に前記距離画像を取得し、
前記移動量算出部は、前記明暗画像及び前記距離画像の双方を取得するタイミングを前記第1タイミングとすると共に、新たな前記明暗画像を取得する前記第1時間毎に到来するタイミングを前記第2タイミングとして、前記第1時間毎に、前記推定移動量を算出し、
前記エッジ位置距離情報特定部は、前記明暗画像取得部が前記明暗画像を取得する前記第1時間毎に、前記第1タイミングで取得した前記距離画像と、前記第1タイミングから前記第2タイミングまでの前記推定移動量の累積値とを用いて算出される、前記距離画像の透視変換による前記第2タイミングにおける投影位置と、前記第2タイミングにおける前記明暗画像と、を照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定する
ことを特徴とする自己運動推定システム。 - 請求項1又は2に記載の自己運動推定システムであって、
前記明暗画像には、解像度が相対的に低い第1明暗画像と、解像度が相対的に高い第2明暗画像と、が含まれ、
前記エッジ検出部は、前記第1明暗画像及び前記第2明暗画像のそれぞれについてエッジを検出し、
前記エッジ位置距離情報特定部は、前記第1タイミングで取得した前記距離画像と前記第1明暗画像とを照合し、前記第1明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を第1エッジ位置距離情報として特定すると共に、前記第1タイミングで取得した前記距離画像と前記第2明暗画像とを照合し、前記第2明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を第2エッジ位置距離情報として特定し、
前記移動量算出部は、前記第1タイミングにおける前記第1エッジ位置距離情報と、前記第1タイミングから前記第2タイミングまでの前記所定時間における前記移動体の推定移動量と、を用いて算出される、前記第1エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される第1明暗画像におけるエッジの位置に近づくように、前記推定移動量を算出した後に、前記算出した推定移動量を初期値として、前記第1タイミングにおける前記第2エッジ位置距離情報と、前記第1タイミングから前記第2タイミングまでの前記所定時間における前記移動体の推定移動量と、を用いて算出される、前記第2エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される第2明暗画像におけるエッジの位置に近づくように、前記推定移動量を算出する
ことを特徴とする自己運動推定システム。 - 請求項1〜3のいずれかに記載の自己運動推定システムであって、
前記移動量算出部は、前記所定時間毎に前記推定移動量を算出する際に、直近に算出した前記移動体の推定移動量を予測値として用いる
ことを特徴とする自己運動推定システム。 - 請求項1〜4のいずれかに記載の自己運動推定システムであって、
前記距離画像取得部は、前記距離センサから新たな距離画像を取得した際に、過去に取得した距離画像と、前記過去の距離画像を取得した時点から現在までの前記移動体の推定移動量と、を用いて、前記過去の距離画像に含まれる距離情報の位置を現在の位置に投影し、投影後の前記距離情報を前記新たな距離画像に追加する
ことを特徴とする自己運動推定システム。 - 請求項1〜5のいずれかに記載の自己運動推定システムであって、
前記画像センサは、第1撮影範囲の撮影を行う第1画像センサと、第2撮影範囲の撮影を行う第2画像センサと、を有して構成され、
前記明暗画像取得部が取得する前記明暗画像には、前記第1画像センサにより撮影された第1明暗画像と、前記第2画像センサにより撮影された第2明暗画像と、が含まれる
ことを特徴とする自己運動推定システム。 - 移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより、前記移動体の運動状態を推定する自己運動推定システムの制御方法であって、
前記自己運動推定システムは、前記移動体に搭載される画像センサによって所定周期で撮影される外界の明暗画像を取得し、
前記自己運動推定システムは、前記移動体に搭載される距離センサによって所定周期で計測される、前記画像センサの撮影範囲に含まれる外界の各点までの複数の距離情報を有する距離画像を取得し、
前記自己運動推定システムは、前記明暗画像からエッジを検出し、
前記自己運動推定システムは、第1タイミングで取得した前記距離画像と前記明暗画像とを照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定し、
前記自己運動推定システムは、前記第1タイミングにおける前記エッジ位置距離情報と、前記第1タイミングから第2タイミングまでの間の所定時間における前記移動体の推定移動量と、を用いて算出される、前記エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される前記明暗画像から検出されるエッジの位置に近づくように、前記移動体の前記推定移動量を算出する
ことを特徴とする自己運動推定システムの制御方法。 - 移動体に搭載され、外界の存在物との相対的な位置の変化を検出することにより、前記移動体の運動状態を推定するコンピュータからなる自己運動推定システムに、
前記移動体に搭載される画像センサによって所定周期で撮影される外界の明暗画像を取得する手順と、
前記移動体に搭載される距離センサによって所定周期で計測される、前記画像センサの撮影範囲に含まれる外界の各点までの複数の距離情報を有する距離画像を取得する手順と、
前記明暗画像からエッジを検出する手順と、
第1タイミングで取得した前記距離画像と前記明暗画像とを照合し、前記明暗画像におけるエッジの位置に対応する前記距離画像内の距離情報を、エッジ位置距離情報として特定する手順と、
前記第1タイミングにおける前記エッジ位置距離情報と、前記第1タイミングから第2タイミングまでの間の所定時間における前記移動体の推定移動量と、を用いて算出される、前記エッジ位置距離情報の前記第2タイミングにおける明暗画像内での透視変換による投影位置が、前記第2タイミングで取得される前記明暗画像から検出されるエッジの位置に近づくように、前記移動体の前記推定移動量を算出する手順と、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015255056A JP6782903B2 (ja) | 2015-12-25 | 2015-12-25 | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015255056A JP6782903B2 (ja) | 2015-12-25 | 2015-12-25 | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017117386A JP2017117386A (ja) | 2017-06-29 |
JP6782903B2 true JP6782903B2 (ja) | 2020-11-11 |
Family
ID=59231729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015255056A Active JP6782903B2 (ja) | 2015-12-25 | 2015-12-25 | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6782903B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200264616A1 (en) * | 2017-09-04 | 2020-08-20 | Nidec Corporation | Location estimation system and mobile body comprising location estimation system |
WO2019053986A1 (ja) * | 2017-09-14 | 2019-03-21 | ソニー株式会社 | 自己位置推定装置と自己位置推定方法とプログラムおよび移動体装置 |
JP6875321B2 (ja) * | 2018-04-26 | 2021-05-19 | 株式会社三共 | 遊技機 |
FR3087884B1 (fr) * | 2018-10-31 | 2021-04-02 | Renault Sas | Procede de determination d’un vecteur de deplacement d’un vehicule automobile, procede de determination d’une vitesse du vehicule et vehicule associe |
JP2020148700A (ja) * | 2019-03-15 | 2020-09-17 | オムロン株式会社 | 距離画像センサ、および角度情報取得方法 |
KR102243179B1 (ko) * | 2019-03-27 | 2021-04-21 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
CN112649815B (zh) * | 2019-10-10 | 2023-04-11 | 华为技术有限公司 | 处理数据的方法和装置 |
US12146747B2 (en) | 2020-03-13 | 2024-11-19 | Chiba Institute Of Technology | Self-localization device |
CN111722245B (zh) | 2020-06-22 | 2023-03-10 | 阿波罗智能技术(北京)有限公司 | 定位方法、定位装置和电子设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007316966A (ja) * | 2006-05-26 | 2007-12-06 | Fujitsu Ltd | 移動ロボット、その制御方法及びプログラム |
JP4645601B2 (ja) * | 2007-02-13 | 2011-03-09 | トヨタ自動車株式会社 | 環境地図の生成方法及び移動ロボット |
JP2009017462A (ja) * | 2007-07-09 | 2009-01-22 | Sanyo Electric Co Ltd | 運転支援システム及び車両 |
JP5297727B2 (ja) * | 2008-09-04 | 2013-09-25 | トヨタ自動車株式会社 | ロボット装置及び物体の位置姿勢推定方法 |
JP5839929B2 (ja) * | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
JP5556748B2 (ja) * | 2011-06-21 | 2014-07-23 | 株式会社デンソー | 車両状態検出装置 |
US9424649B1 (en) * | 2013-11-13 | 2016-08-23 | Nissan Motor Co., Ltd. | Moving body position estimation device and moving body position estimation method |
US9151626B1 (en) * | 2014-04-11 | 2015-10-06 | Nissan North America, Inc. | Vehicle position estimation system |
-
2015
- 2015-12-25 JP JP2015255056A patent/JP6782903B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017117386A (ja) | 2017-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6782903B2 (ja) | 自己運動推定システム、自己運動推定システムの制御方法及びプログラム | |
CN112785702A (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
CN108020827B (zh) | 移动成像平台校准 | |
KR101776622B1 (ko) | 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
JP5992184B2 (ja) | 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム | |
KR101776621B1 (ko) | 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US10529076B2 (en) | Image processing apparatus and image processing method | |
KR101776620B1 (ko) | 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
Muñoz-Bañón et al. | Targetless camera-lidar calibration in unstructured environments | |
US20150356357A1 (en) | A method of detecting structural parts of a scene | |
US8428343B2 (en) | VOXEL map generator and method thereof | |
CN105469405A (zh) | 基于视觉测程的同时定位与地图构建方法 | |
JP2005528707A (ja) | データ組間の特徴マッピング | |
CN114140527B (zh) | 一种基于语义分割的动态环境双目视觉slam方法 | |
CN108481327A (zh) | 一种增强视觉的定位装置、定位方法及机器人 | |
US12169135B2 (en) | Information processing apparatus, information processing method, and storage medium | |
El Bouazzaoui et al. | Enhancing RGB-D SLAM performances considering sensor specifications for indoor localization | |
Li et al. | RD-VIO: Robust visual-inertial odometry for mobile augmented reality in dynamic environments | |
CN208289901U (zh) | 一种增强视觉的定位装置及机器人 | |
Herau et al. | Moisst: Multimodal optimization of implicit scene for spatiotemporal calibration | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
Li et al. | Joint intrinsic and extrinsic LiDAR-camera calibration in targetless environments using plane-constrained bundle adjustment | |
JP2017182564A (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
Vaida et al. | Automatic extrinsic calibration of LIDAR and monocular camera images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200929 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6782903 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |