[go: up one dir, main page]

JPS63213005A - Moving object guidance method - Google Patents

Moving object guidance method

Info

Publication number
JPS63213005A
JPS63213005A JP62045314A JP4531487A JPS63213005A JP S63213005 A JPS63213005 A JP S63213005A JP 62045314 A JP62045314 A JP 62045314A JP 4531487 A JP4531487 A JP 4531487A JP S63213005 A JPS63213005 A JP S63213005A
Authority
JP
Japan
Prior art keywords
information
distance
moving object
amount
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62045314A
Other languages
Japanese (ja)
Inventor
Takuji Nishitani
西谷 卓史
Yasuhiro Tomita
富田 保宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Microcomputer System Ltd
Hitachi Ltd
Original Assignee
Hitachi Ltd
Hitachi Microcomputer Engineering Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Microcomputer Engineering Ltd filed Critical Hitachi Ltd
Priority to JP62045314A priority Critical patent/JPS63213005A/en
Publication of JPS63213005A publication Critical patent/JPS63213005A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、自律移動型移動体(例えば移動ロボット)の
誘導制御に関し、特に、外界センサからの情報を用いて
自律移動する型の移動体の誘導に必要な情報の生成に関
する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to the guidance and control of autonomous mobile objects (e.g. mobile robots), and in particular, to the guidance and control of autonomous mobile objects (e.g. mobile robots), and in particular to autonomous mobile objects that move autonomously using information from external sensors. Concerning the generation of information necessary for guidance.

〔従来の技術〕[Conventional technology]

移動体の自律移動に必要な情報の一部を外界センサ(例
えばレンジファインダ、TVカメラ等)から得ることは
、既に公知である。
It is already known that part of the information necessary for autonomous movement of a mobile body is obtained from external sensors (for example, a range finder, a TV camera, etc.).

外界センサからの情報の利用態様の一つは、地図に関連
する。日本ロボット学会誌2巻3号(1984年6月)
第15〜23頁には、レーザビーム投射型のレンジファ
インダから刻々得られる測距データを用いて、連想記憶
想起形補間法と呼ばれるアルゴリズムにより地図を更新
する方法が、記載されている。ただし1.この方法は、
移動体の移動量と視点の方向が常に正確に計測されるこ
とを前提としている。また、IJCAIプロシーディン
ゲス1983 (I J CA I Proceedi
ngs。
One of the ways in which information from external sensors is used is related to maps. Journal of the Robotics Society of Japan, Volume 2, No. 3 (June 1984)
Pages 15 to 23 describe a method of updating a map using an algorithm called associative memory interpolation using ranging data obtained from a laser beam projection type range finder. However, 1. This method is
It is assumed that the amount of movement of the moving object and the direction of the viewpoint are always accurately measured. In addition, IJCAI Proceedings 1983 (IJCAI Proceedings 1983)
ngs.

1983)第1125〜1127頁には、TVカメラか
らの画像情報と地図から正確な位置情報を得る方法が記
載されている。この方法は、位置センサが誤差を持つこ
とを考慮して、位置センサから得られた位置情報と地図
から近似的な画像モデルを生成し、これをTVカメラか
らの画像情報から抽出した垂直エツジ画像と比較して、
対応する垂直エツジの相対位置から正確なカメラ位置を
決定する。次いで、この正確なカメラ位置と地図に基き
、この位置のカメラから得られるはずの正確な画像モデ
ルを生成して、これをカメラ画像から抽出された垂直エ
ツジ画像と比較し、その結果から情景変化の有無を検出
する。
1983), pages 1125 to 1127, describe a method for obtaining accurate location information from image information from a TV camera and a map. This method takes into account that the position sensor has errors, and generates an approximate image model from the position information obtained from the position sensor and a map, and then converts this into a vertical edge image extracted from the image information from the TV camera. compared to
Determine the exact camera position from the relative position of the corresponding vertical edge. Based on this precise camera position and the map, we then generate an accurate image model that would be obtained from the camera at this position, compare this with the vertical edge image extracted from the camera image, and use the result to determine the scene changes. Detect the presence or absence of.

地図とは直接の関係なしに、TVカメラからの画像情報
を用いて移動体の運動ないしは位置に関する情報を得る
方法も、また知られている。情報処理学会コンピュータ
ビジョン分科会のコンピュータビジョン35−5 (1
985年3月12日)に示された「動画像を用いた移動
ロボットの環境認識」は、移動中に得られるTVカメラ
からの複数の相次ぐ画像情報から垂直エツジを抽出して
、Interestオペレータを用いて抽出された特徴
点をこれらの画像間で対応付ける。そして、これらの特
徴点についてオプティカルフロー(画素の明るさパター
ンの動き)を決定し、それを用いて運動パラメータを算
出する。また、アーティフィシャル インテリジェンス
(Artificial Intelligence)
17 (1981年)第185〜203頁にも、相次ぐ
画像情報からオプティカルフローを算出して運動を知る
方法が記載されている。
It is also known to use image information from a TV camera to obtain information regarding the movement or position of a mobile object, without being directly related to a map. Information Processing Society of Japan Computer Vision Subcommittee Computer Vision 35-5 (1
``Environment recognition for mobile robots using moving images'' presented in March 12, 1985) extracts vertical edges from multiple successive image information obtained from TV cameras while moving, and The feature points extracted using this method are associated between these images. Then, optical flow (movement of pixel brightness pattern) is determined for these feature points, and motion parameters are calculated using this. Also, Artificial Intelligence
17 (1981), pages 185 to 203, also describes a method for determining motion by calculating optical flow from successive image information.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

前記日本ロボット学会誌2巻3号に記載された方法は、
エンコーダ等の位置センサから得られる位置情報に必ず
含まれる誤差を考慮しない点で、実用上問題がある。ま
た、前記IJCAIプロシーディンゲス1983に記載
された方法は、画像情報から抽出されるエツジ情報がノ
イズの影響を受けやすいために、誤りを生じる危険があ
り、この点に改善の余地がある。
The method described in the Journal of the Robotics Society of Japan, Vol. 2, No. 3 is as follows:
There is a practical problem in that this method does not take into account errors that are necessarily included in position information obtained from position sensors such as encoders. Furthermore, the method described in IJCAI Proceedings 1983 has the risk of causing errors because edge information extracted from image information is susceptible to noise, and there is room for improvement in this respect.

また、前記コンビ五−タビジョン35−5に示された方
法は、対応付けに利用しうる特徴点の数が少ないために
、高い精度を得ることが困難であり、そして、前記アー
ティフィシャル インテリジェンス 17に記載された
アルゴリズムは、エツジ部分が多い実際の画像において
正確なオプティカルフローを算出することが困難である
In addition, the method shown in Combita Vision 35-5 has difficulty in obtaining high accuracy due to the small number of feature points that can be used for matching, and the method shown in Artificial Intelligence 17 The described algorithm has difficulty calculating accurate optical flow in real images with many edge parts.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は、距離情報の新規な利用方法によって、前記の
問題点を解決しようとするものである。すなわち、本発
明は、測距手段から得られると思われる距離情報を、位
置検知手段から得られた位置情報と記憶手段中の現資料
情報とから予測し、この予測された距離情報と実際に測
距手段から得られた距離情報を対応付けて、正確な現在
位置を推定する。そして、この推定過程で得られた情報
を用いて、記憶手段中の資料情報を更新する。
The present invention attempts to solve the above-mentioned problems by a new method of using distance information. That is, the present invention predicts the distance information that is expected to be obtained from the distance measuring means from the position information obtained from the position detecting means and the current document information in the storage means, and combines this predicted distance information with the actual information. Correlate the distance information obtained from the distance measuring means to estimate the accurate current position. Then, the information obtained in this estimation process is used to update the material information in the storage means.

より具体的に例示すれば、第1の実施例では、資料情報
は地図であり、測距センサから得られるべき距離値群を
、位置検知手段からの位置情報と地図から予測し、この
予測された距離値群と実際に測距センサから得られた距
離値群を対応付けて、正確な現在位置を推定する。そし
て、この推定過程で得られた情報(対応付けの結果と現
在位置)を用いて地図を更新する。
To give a more specific example, in the first embodiment, the material information is a map, and a group of distance values to be obtained from the ranging sensor is predicted from the position information from the position detection means and the map, and this predicted The accurate current position is estimated by associating the distance value group obtained with the distance value group actually obtained from the distance measurement sensor. The map is then updated using the information obtained in this estimation process (results of association and current position).

第2の実施例では、測距手段が、複数の撮像手段からの
画像情報から距離画像情報を(例えば立体視法により)
生成する。前回の処理で測距手段から得られた距離画像
情報と補正された位置情報は、資料情報として記憶手段
中に記憶されている。
In the second embodiment, the distance measuring means obtains distance image information from image information from a plurality of imaging means (for example, by stereoscopic viewing).
generate. The distance image information obtained from the distance measuring means in the previous process and the corrected position information are stored in the storage means as material information.

今回測距手段から得られるべき距離画像情報を、位置検
知手段からの位置情報と記憶手段中の間距離画像情報と
旧位置情報とから予測して、この予測された距離画像情
報と実際に測距手段から得られた距離画像情報とを対応
付け、正確な位置を推定する。そして、今回測距手段か
ら得られた距離画像情報と補正された位置情報で記憶手
段中の旧情報を置換する。
The distance image information to be obtained from the distance measuring means this time is predicted from the position information from the position detecting means, the distance image information in the storage means, and the old position information, and this predicted distance image information is actually used by the distance measuring means. The accurate position is estimated by associating the distance image information obtained from the Then, the old information in the storage means is replaced with the distance image information obtained from the distance measurement means this time and the corrected position information.

〔作用〕[Effect]

本発明によれば、得られるはずの距離情報が位置検知手
段からの誤差を含む位置情報に基いて近似的に予測され
、この予測された距離情報と実際に得られた距離情報の
対応付けにより、現在位置が推定できるとともに、誤差
の影響が修正又は除去される。資料情報は、この推定過
程で得られた情報を用いて、より正確なものに更新され
、その結果、次回の推定の精度が高められる。垂直エツ
ジもオプティカルフローも利用しないので、前述の問題
は生じない。
According to the present invention, the distance information that should be obtained is approximately predicted based on the position information including the error from the position detection means, and the predicted distance information is correlated with the actually obtained distance information. , the current position can be estimated, and the influence of errors can be corrected or removed. The material information is updated to be more accurate using the information obtained in this estimation process, and as a result, the accuracy of the next estimation is increased. Since neither vertical edges nor optical flows are used, the above-mentioned problem does not occur.

例えば、前記第1の実施例では、予測された距離値群と
実際に得られた距離値群の対応付けから地図上の特定点
の実位置が検知できるので、正確な現在位置が推定でき
、この現在位置と対応付けの結果とを用いることにより
、地図はより正確なものに修正される。垂直エツジの利
用に起因する前述の難点は除かれる。
For example, in the first embodiment, the actual position of a specific point on the map can be detected from the association between the predicted distance value group and the actually obtained distance value group, so the accurate current position can be estimated. By using this current position and the results of the correspondence, the map is corrected to be more accurate. The aforementioned difficulties due to the use of vertical edges are eliminated.

また、前記第2の実施例についていえば、予測された距
離画像情報と実際に得られた距離画像情報の各点の対応
付けから、位置検出手段からの位置情報が示す位置と実
際の位置のずれがわかり、したがって、位置検出手段の
出力に対する補正量を決定することができる。補正され
た位置情報と今回の距離画像情報は、次回における距離
画像情報の予測のために利用される。垂直エツジやオプ
ティカルフローの利用に伴う前述の困難は生じなし八〇 〔実施例〕 第1図は、本発明の第1実施例の機能ブロック間の関係
を表したものであり、第2図はこの実施例による処理過
程をフローチャートで表したものである。移動体には、
図示されていないが、例えばエンコーダ等の、移動体の
位置に関する情報(位置、向き等)を計測する位置セン
サと、移動体から外界物体までの距離を計測する測距セ
ンサ(例えばレーザビーム投射型レンジファインダ)が
設けられており、また、平面地図情報(以下単に地図と
いう)が予め与えられている。この予め与えられた地図
(アプリオリ地図)は、壁で囲まれた移動区域の平面形
状と、そこに存在するいくつかの物体の位置と平面形状
とを示すが、物体の位置9寸法及び個数については必ず
しも正確ではない。なお、移動区域内に存在しろる物体
の形は既知であり、本実流側セは平面形状が矩形のもの
(例えば直方体)に限られているとする。
Regarding the second embodiment, from the correspondence between each point of the predicted distance image information and the actually obtained distance image information, it is possible to determine the difference between the position indicated by the position information from the position detection means and the actual position. The deviation is known and therefore the amount of correction to the output of the position detection means can be determined. The corrected position information and the current distance image information are used to predict the next distance image information. The above-mentioned difficulties associated with the use of vertical edges and optical flows do not occur.80 [Embodiment] Fig. 1 shows the relationship between functional blocks in the first embodiment of the present invention, and Fig. 2 shows the relationship between the functional blocks of the first embodiment of the present invention. The processing process according to this embodiment is shown in a flowchart. For mobile objects,
Although not shown, there is a position sensor, such as an encoder, that measures information regarding the position of a moving object (position, orientation, etc.), and a distance sensor (such as a laser beam projection type) that measures the distance from the moving object to an external object. A range finder) is provided, and plane map information (hereinafter simply referred to as a map) is provided in advance. This pre-given map (a priori map) shows the planar shape of the moving area surrounded by walls and the positions and planar shapes of some objects existing there, but it also shows the location, size, and number of objects. is not necessarily accurate. It is assumed that the shapes of objects that may exist within the moving area are known, and that the actual flow side is limited to objects having a rectangular planar shape (for example, a rectangular parallelepiped).

第1図と第2図を参照して、まず概要を説明する。距離
データ生成部11は、位置センサから得られる移動体の
位置及び向きのデータと、アプリオリ地図とから、外界
物体の諸点の距離、すなわち、現時点において測距セン
サから得られるはずの距離データの予測値を算出する(
第2図21)。
First, an overview will be explained with reference to FIGS. 1 and 2. The distance data generation unit 11 predicts the distances of various points on external objects, that is, the distance data that should be obtained from the distance measurement sensor at the present time, from the data on the position and orientation of the moving body obtained from the position sensor and the a priori map. Calculate the value (
Figure 2 21).

この予測値は、地図自体の誤差と、位置センサの誤差と
を含む。このようにして予測された距離データと、測距
センサから実際に得られた距離データは、それぞれセグ
メンテーション部12aと12bにおいて、個々の面に
対応するセグメントに群分けされる(第2図22)。こ
のセグメンテーション処理と独立して、予測された距離
データと実際の距離データは、ローレベルマツチング部
13により、既略的な対応付けを受ける(第2図23)
。第2図のフローチャートでは、セグメンテーションの
後にローレベルマツチングが行われるように図示されて
いるが、これらは、逆の順序で行われても、あるいは並
行して行われてもよい。
This predicted value includes errors in the map itself and errors in the position sensor. The distance data predicted in this way and the distance data actually obtained from the distance measuring sensor are grouped into segments corresponding to individual surfaces in segmentation units 12a and 12b, respectively (FIG. 2 22). . Independently of this segmentation processing, the predicted distance data and the actual distance data are subjected to a default correspondence by the low-level matching unit 13 (FIG. 2 23).
. Although the flowchart of FIG. 2 shows segmentation followed by low-level matching, these may be performed in the reverse order or in parallel.

ハイレベルマツチング部14は、セグメンテーション部
12 a及び12bの処理結果と、ローレベルマツチン
グ部13の処理結果とを受け、これらと環境構造基本知
識(壁と壁が接する角の位置等)15とを用いて、ロー
レベルマツチングによるセグメントの対応付けを必要に
応じて修正する(第2図24)とともに、対応付けの結
果を用いて移動体の正確な位置と向きを決定する(第2
図25)。
The high-level matching unit 14 receives the processing results of the segmentation units 12 a and 12 b and the processing results of the low-level matching unit 13 , and combines these with basic environmental structure knowledge (positions of corners where walls meet, etc.) 15 The mapping of the segments by low-level matching is corrected as necessary (Fig. 2, 24), and the accurate position and orientation of the moving object is determined using the results of the mapping (Fig. 2).
Figure 25).

最後に、地図更新部16は、ハイレベルマツチング部1
4の処理結果に基いて、アプリオリ地図の修正(物体の
加除2位置修正等)を行う(第2図26)。前記のよう
にして決定された正確な位置と向きの情報は、また、移
動体の制御にも必要に応じて利用される。
Finally, the map updating unit 16 updates the high level matching unit 1
Based on the processing result of step 4, the a priori map is corrected (addition/subtraction of objects, correction of two positions, etc.) (FIG. 2, 26). The accurate position and orientation information determined as described above is also used for controlling the moving object as necessary.

次に、各処理の詳細を説明する。エンコーダ等の位置セ
ンサからのデータは、第3図(A)に示されるように、
移動体が座標(X工、y□)にあって向き(X軸からの
角度)ol を向いていることを示しているが、第3図
(B)に示されるように、真の座標は(X21 yz)
であり、真の向きはθ2であるとする。ただし、X21
y21 θ2は未知である。第3図(A)において、ψ
は測距センサの既知の視野角を表わす。距離データ生成
部11は、位置センサから得られたデータX1+Vx+
 01とアプリオリ地図とから、第3図(A)における
視野角ψ内での諸物体の距離を計算する。このようにし
て計算された距離データのグラフの一例を第4図(A)
に示す。この例では、移動区域は壁で囲まれた矩形の領
域であり、アプリオリ地図には、この領域に2個の直方
体の物体が存在することが示されているとする。グラフ
の縦軸は距離であり、その横軸は視野の一端から測った
角度0である(第3図(A)参照)。第4図(B)は、
測距センサから実際に得られた距離データのグラフの一
例を示す。この例では、実際の移動空間には、アプリオ
リ地図に示された2個の直方体に対応する物体が、地図
とは多少異なる大きさと位置を持って置かれ、更に、ア
プリオリ地図には示されていない第3の直方体物体が存
在しているとする。
Next, details of each process will be explained. Data from a position sensor such as an encoder is as shown in Figure 3 (A).
It shows that the moving body is at the coordinates (X-axis, y□) and facing the direction (angle from the X-axis) ol, but as shown in Figure 3 (B), the true coordinates are (X21 yz)
, and the true direction is assumed to be θ2. However, X21
y21 θ2 is unknown. In Figure 3 (A), ψ
represents the known viewing angle of the ranging sensor. The distance data generation unit 11 generates data X1+Vx+ obtained from the position sensor.
01 and the a priori map, calculate the distances of various objects within the viewing angle ψ in FIG. 3(A). An example of a graph of distance data calculated in this way is shown in Figure 4 (A).
Shown below. In this example, assume that the moving area is a rectangular area surrounded by walls, and that the a priori map indicates that two rectangular parallelepiped objects are present in this area. The vertical axis of the graph is the distance, and the horizontal axis is the angle 0 measured from one end of the field of view (see FIG. 3(A)). Figure 4 (B) is
An example of a graph of distance data actually obtained from a distance measurement sensor is shown. In this example, objects corresponding to the two rectangular parallelepipeds shown on the a priori map are placed in the actual movement space with somewhat different sizes and positions from those on the map, and objects that are not shown on the a priori map are placed in the actual movement space. Suppose that there exists a third rectangular parallelepiped object.

セグメンテーション部12a及び12bは、θに対する
距離の変化率を調べ、変化率の大きい点を境界とみなし
て、複数のセグメントを形成する。
The segmentation units 12a and 12b examine the rate of change in distance with respect to θ, consider points with a large rate of change as boundaries, and form a plurality of segments.

その結果、アプリオリ地図から算出された距離データに
対しては、第4図(A)に示されたセグメントao、a
t、a2.a3が得られ、測距センサがらの距離データ
に対しては、第4図(B)に示されたセグメントb。、
b□l b2t b31 b4. bstb6 が得ら
れる。
As a result, for the distance data calculated from the a priori map, the segments ao, a shown in FIG.
t, a2. a3 is obtained, and segment b shown in FIG. 4(B) is obtained for the distance data from the distance measuring sensor. ,
b□l b2t b31 b4. bstb6 is obtained.

ローレベルマツチング部13は、アプリオリ地図から算
出された距離データの測距点と、測距センサからの距離
データの測距点との間で、対応付けを行なう。この対応
付けは、一方の各測距点に対応する他方の測距点を決定
する処理であって、例えば、特開昭61−117672
号公報に記載された方法において、明るさの代りに距離
を用いることにより、実行することができる。この対応
付けとセグメンテーションの結果を組合せれば、第4図
(A)と(B)に示されたセグメントは、暫定的に、次
のように対応付けられる。
The low-level matching unit 13 performs correspondence between distance measurement points of distance data calculated from an a priori map and distance measurement points of distance data from a distance measurement sensor. This association is a process of determining the distance measurement point of the other corresponding to each distance measurement point of one, and is, for example,
The method described in the publication can be implemented by using distance instead of brightness. By combining this correspondence and the segmentation results, the segments shown in FIGS. 4(A) and 4(B) can be tentatively correlated as follows.

a[1(−)bll al、)b□ 2ob2 a3ob3.b4.b5.bG ハイレベルマツチング部14は、上記a3のような1対
1の対応がない場合の処理と、正しい位置の決定とを、
次のように遂行する。
a[1(-)bll al,)b□ 2ob2 a3ob3. b4. b5. bG The high-level matching unit 14 performs processing when there is no one-to-one correspondence as in a3 above, and determines the correct position.
Perform the following:

まず、アプリオリ地図から得られた1個のセグメントi
に対して、測距センサからのデータから得られた複数の
セグメントj1〜jVが対応付けられた場合の処理を説
明する。この場合には、これら複数のセグメントj1〜
jKを、距離値の平均と分散に基いてグループにまとめ
、次に、前後関係が不自然にならないようにグループ化
の修正を行ない、それから、距離値の平均と分散に基い
てセグメントiに対応するセグメントjのグループを決
定する。第5図は、セグメントiに全体として対応付け
られたセグメントj1〜j、を示す。まず、距離の平均
と分散に基いて、(j工+ j31 Js)、(j21
 J9)、(j41 js+ js)、(j7)のグル
ープが形成される。しかし、このグループ化は不自然な
相対位置をもたらす。例えば、グループ(j41 j6
+ je )が単一の物体を示すと仮定すると、j4と
56の間にそれらよりも遠い所にあるj5が存在するこ
とになって、不合理である。けれども、j6とjulの
間にそれらよりも近い所にあるj7が存在するのは、不
合理ではない。同様にして、j2とj9を単一のグルー
プにまとめるのも、不合理な結果を招く。そこで、より
遠くにあるセグメントで隔てられたサブグループは異な
るグループを形成するように修正する。この処理により
、(j工+ J31 j5)、(j2)、(j4)、(
JGrJ8)、(j7)、(jg)のグループが得られ
、各グループを単一の物体に対応する単一のセグメント
とみなす。それから、このようにして得られたセグメン
トの1個を、距離の平均と分散に基いて、セグメントi
に対応付ける。他のセグメントは、アプリオリ地図にな
い物体とみなされて、後述する地図更新において追加処
理を受ける。
First, one segment i obtained from the a priori map
, processing will be described when a plurality of segments j1 to jV obtained from data from a ranging sensor are associated with each other. In this case, these multiple segments j1 to
jK into groups based on the mean and variance of the distance values, then modify the grouping so that the context is not unnatural, and then correspond to segment i based on the mean and variance of the distance values. Determine the group of segment j to be used. FIG. 5 shows segments j1-j, which are generally associated with segment i. First, based on the average and variance of the distances, (j + j31 Js), (j21
The groups J9), (j41 js+js), and (j7) are formed. However, this grouping results in unnatural relative positions. For example, group (j41 j6
+ je ) indicates a single object, there would be j5 between j4 and 56, which is further away than them, which is unreasonable. However, it is not unreasonable that j7 exists between j6 and jul, which is closer than them. Similarly, combining j2 and j9 into a single group would lead to unreasonable results. Therefore, subgroups separated by more distant segments are modified to form different groups. Through this process, (j + J31 j5), (j2), (j4), (
The groups JGrJ8), (j7), (jg) are obtained, and each group is considered as a single segment corresponding to a single object. Then, one of the segments obtained in this way is divided into segments i based on the mean and variance of the distances.
map to. Other segments are considered objects not on the a priori map and undergo additional processing in the map update described below.

また、アプリオリ地図から得られたセグメントiと測距
センサデータから得られたセグメントjの対応付けが、
ローレベルマツチングにより得られていても、より高い
確率でjに対応付けられるアプリオリ地図から得られた
他のセグメントi′が、ハイレベルマツチングにより発
見されれば、対応付けは修正されて、セグメントjは地
図更新における削除の対象となる。
In addition, the correspondence between segment i obtained from the a priori map and segment j obtained from ranging sensor data is
Even if it is obtained by low-level matching, if another segment i′ obtained from the a priori map that is associated with j with a higher probability is found by high-level matching, the association is modified, Segment j is subject to deletion in map update.

次に、正しい位置と向きの決定を説明する。アプリオリ
地図上で、固定的な特徴点を予め決めておくことが、一
般に可能であり、その典形は、壁と壁が接する角(コー
ナ)である。このコーナを形成する一対の壁は地図上で
知られており、したがって、アプリオリ地図から得られ
たセグメントのどれがこれらの壁に対応するかもわかっ
ている。
Next, determining the correct position and orientation will be explained. It is generally possible to predetermine fixed feature points on an a priori map, typically corners where walls meet. The pair of walls forming this corner is known on the map, and therefore it is also known which of the segments obtained from the a priori map correspond to these walls.

第3図(A)の例では、セグメントalと82がこれら
の壁に対応し、両セグメントの接点がコーナに対応する
。それゆえ、前述のようにしてセグメン1−の対応付け
が完了すれば、前記の壁に対応する測距センサデータか
ら得られたセグメントが特定できる。第3図(B)の例
では、blとb2がalと82にそれぞれ対応する。そ
の結果、第6図に示されるような幾何学的関係が得られ
る。第6図において、コーナCの座標は、セグメントa
1と82に対応する壁の交点として既知であり、また、
センサSからセグメントb1への距離ρ。
In the example of FIG. 3A, segments al and 82 correspond to these walls, and the points of contact of both segments correspond to the corners. Therefore, once the association of segment 1- is completed as described above, the segment obtained from the ranging sensor data corresponding to the wall can be specified. In the example of FIG. 3(B), bl and b2 correspond to al and 82, respectively. As a result, a geometrical relationship as shown in FIG. 6 is obtained. In FIG. 6, the coordinates of corner C are segment a
It is known as the intersection of the walls corresponding to 1 and 82, and
Distance ρ from sensor S to segment b1.

ρ′とそれらの間の角度でも測距センサデータから知る
ことができる。したがって、これらを用いて、センサS
の位置と向き、すなわち移動体の位置と向きを算出する
ことができる。
ρ′ and the angle between them can also be known from the ranging sensor data. Therefore, using these, the sensor S
In other words, the position and orientation of the moving object can be calculated.

地図更新部16は、以上に述べたマツチング処理の結果
を用いて、アプリオリ地図を更新する。
The map update unit 16 updates the a priori map using the results of the matching process described above.

まず、測距センサから得られた距離データを、前記のよ
うにして決定されたセンサ位置を加味して、アプリオリ
地図と同じ座標系における座標データに変換する。第7
図(B)はこのようにして変換された測距センサからの
距離データを表わし、第7図(A)は(B)に対応する
アプリオリ地図の部分を表わす。次に、対応するセグメ
ントの頂点が一致するように平行移動を行う。セグメン
トの頂点とは、一般にはセグメントの端点であるが、た
だし、センサから近いセグメントが遠いセグメントの一
部を隠している所では、近い方のセグメントの端点のみ
が頂点として扱われる。例えば、第7図(A)において
、セグメントa1とa2の接点である端点v1は頂点で
あるが、al とその手前にあるaoについては、ao
の端点voのみが頂点である。したがって、第7図(A
)においてはVO,vt、vaが頂点であり、第7図(
B)においてはV’ 0.V’ t、v’ a、V’ 
a、v’ 5が頂点である。
First, the distance data obtained from the ranging sensor is converted into coordinate data in the same coordinate system as the a priori map, taking into account the sensor position determined as described above. 7th
FIG. 7(B) shows the distance data from the ranging sensor converted in this way, and FIG. 7(A) shows the portion of the a priori map corresponding to FIG. 7(B). Next, parallel movement is performed so that the vertices of corresponding segments coincide. The apex of a segment is generally the endpoint of the segment, however, where a segment closer to the sensor hides a portion of a segment further away, only the endpoint of the nearer segment is treated as the apex. For example, in FIG. 7(A), the end point v1, which is the point of contact between segments a1 and a2, is the vertex, but regarding al and ao in front of it, ao
Only the end point vo of is a vertex. Therefore, Fig. 7 (A
), VO, vt, va are the vertices, and Fig. 7 (
In B), V'0. V' t, v' a, V'
a, v' 5 is the vertex.

ところで、前述したセグメントの対応付けの結果から、
これら頂点もまた対応付けができる。第7図(A)及び
(B)の場合には、voにv’ o。
By the way, from the result of segment mapping mentioned above,
These vertices can also be mapped. In the case of FIGS. 7(A) and (B), vo is v'o.

vlにV’ 1.V8にV’8がそれぞれ対応し、v′
4とV’Bには対応する頂点がない。このように定義さ
れた頂点を地図の修正に利用する。まず、コーナに相当
する頂点v1とv’tが重なり、かつ、コーナを作る壁
に相当するセグメントalとbl及びa2とb2がそれ
ぞれ重なるように、アプリオリ地図に平行移動と回転の
操作を施す。次いで、アプリオリ地図上の各頂点をそれ
ぞれ別個に平行移動して、測距センサデータから得た地
図上の対応する頂点に重ね、更に、これらの頂点から延
びるそれぞれのセグメントを回転させて、対応するセグ
メントに重ねて、これにより各物体の位置を修正する。
V' to vl 1. V'8 corresponds to V8, and v'
4 and V'B have no corresponding vertices. The vertices defined in this way are used to modify the map. First, the a priori map is translated and rotated so that vertices v1 and v't corresponding to the corners overlap, and segments al and bl and a2 and b2 corresponding to the walls forming the corners overlap, respectively. Each vertex on the a priori map is then independently translated to overlap the corresponding vertex on the map obtained from the ranging sensor data, and each segment extending from these vertices is rotated to correspond. Overlay the segment, thereby modifying the position of each object.

また、両端に頂点を持つセグメントは、縮小拡大操作に
より、対応するセグメントと一致させ、これにより物体
の寸法を修正する。
Further, a segment having vertices at both ends is matched with a corresponding segment by a reduction/enlargement operation, thereby modifying the dimensions of the object.

測距センサデータ上に対応するセグメントと頂点がない
アプリオリ地図上のセグメントと頂点があれば、それに
相当する物体はアプリオリ地図から削除される。逆に、
第7図(B)におけるb 41t) gg V’ 41
 V’ 5 のように、アプリオリ地図上に対応するセ
グメントと頂点がないセグメントと頂点が測距センサデ
ータ上にあれば、このセグメントと頂点で定められる矩
形を平面形状とする物体が、アプリオリ地図に追加され
る。
If there are segments and vertices on the a priori map that do not have corresponding segments and vertices on the ranging sensor data, the corresponding objects are deleted from the a priori map. vice versa,
b 41t in Figure 7(B)) gg V' 41
If there is a segment and a vertex on the ranging sensor data that do not have a corresponding segment and vertex on the a priori map, as in V' 5, an object whose planar shape is a rectangle defined by this segment and vertex will be on the a priori map. will be added.

本実施例によれば、刻々得られる測距データと誤差を含
む位置データとを用いて、各時点における正確な位置を
決定し、かつ、内蔵された地図を次第に正確なものへと
更新することができる。角(コーナ)のような地図上の
既知の特徴点を利用するので、正確な位置の決定が容易
であり、更に、セグメント化処理と、距離の平均と分散
に基くグループ化(クラスタリング)処理を導入した結
果、測距データ中のノイズの影響が軽減される。
According to this embodiment, the accurate position at each point in time is determined using distance measurement data obtained from moment to moment and position data including errors, and the built-in map is gradually updated to be more accurate. Can be done. Since it uses known feature points on the map such as corners, it is easy to determine the exact location, and it also performs segmentation processing and grouping (clustering) processing based on the average and variance of distances. As a result of its introduction, the influence of noise in ranging data is reduced.

第8図は、本発明の第2の実施例の機能ブロック間の関
係を表わしたものであり、第9図はこの実施例による処
理過程をフローチャートで表わしたものである。この実
施例においては、移動体は、必ずしも正確でない位置セ
ンサ(エンコーダその他)と、立体視の原理により距離
情報を得るための2台のTVカメラとを備える。
FIG. 8 shows the relationship between the functional blocks of the second embodiment of the present invention, and FIG. 9 shows a flowchart of the processing process according to this embodiment. In this embodiment, the mobile object is equipped with a position sensor (encoder, etc.) which is not necessarily accurate, and two TV cameras for obtaining distance information using the principle of stereoscopic vision.

第8図と第9図を参照して、まず概要を説明する。距離
画像生成部31は、2台のTVカメラから送られる生画
像データから、立体視の原理を用いて、外界の距離画像
データを生成する(第9図41)。この距離画像データ
と、位置センサから得られる移動体の位置と向き(視線
)のデータとは、距離画像・位置情報記憶部32に格納
される(第9図42)。予測距離画像生成部33は、新
たに入力された現在位置・向きデータと、記憶部32中
に保持されている前回処理時の位置・向きデータ及び距
離画像データとから、現時点で距離画像生成部31から
得られるべき距離画像データを予測的に生成する(第9
図43)。距離画像マッチング部34は、予測距離画像
生成部33により生成された予測距離画像データと、距
離画像生成部31により生成された現時点での実際の距
離画像データの間で、視野内の各点間の対応付けを行な
い(第9図44)、姿勢検出部35は、前記対応付けの
結果を用いて、エンコーダから得られた位置・向きデー
タに対する補正量を決定し、記憶部32中の位置・向き
データを補正する(第9図45)。この補正量は、また
、必要に応じて移動体の制御にも利用される。
First, an overview will be explained with reference to FIGS. 8 and 9. The distance image generation unit 31 generates distance image data of the outside world from the raw image data sent from the two TV cameras using the principle of stereoscopic vision (FIG. 9, 41). This distance image data and data on the position and orientation (line of sight) of the moving body obtained from the position sensor are stored in the distance image/position information storage section 32 (FIG. 9, 42). The predicted distance image generation unit 33 calculates the current distance image generation unit based on the newly input current position/orientation data and the position/orientation data and distance image data from the previous processing held in the storage unit 32. Predictively generate distance image data to be obtained from 31 (9th
Figure 43). The distance image matching unit 34 matches between each point within the field of view between the predicted distance image data generated by the predicted distance image generation unit 33 and the current actual distance image data generated by the distance image generation unit 31. (FIG. 9, 44), and the attitude detection unit 35 uses the result of the association to determine the amount of correction for the position/orientation data obtained from the encoder, and stores the position/orientation data in the storage unit 32. Correct the orientation data (FIG. 9, 45). This correction amount is also used to control the moving body as necessary.

次に、各処理の細部を説明する。距離画像生成部31に
よる距離画像データの生成は、両眼立体視の原理による
もので、その詳細は特開昭61−117672号公報に
記載されている。約言すれば、この方法は、人の両眼に
相当する2台のTVカメラからの画像の間で、一方の画
像の各画素について、同じ外界点の像である画素を他方
の画像から探し出して、その視差量(ディスパリティ)
Sを決定し、この視差量からその外界点の座標(x、y
t2)を計算するものである。生成された距離画像デー
タは、各画素ごとの視差量及び対応外界点の座標である
Next, details of each process will be explained. The generation of distance image data by the distance image generation section 31 is based on the principle of binocular stereoscopic vision, and the details are described in Japanese Patent Laid-Open No. 117672/1983. In short, this method searches between images from two TV cameras corresponding to a person's eyes, and for each pixel in one image, a pixel that is an image of the same external point is found in the other image. The amount of parallax (disparity)
Determine S, and calculate the coordinates (x, y
t2). The generated distance image data is the amount of parallax for each pixel and the coordinates of the corresponding external boundary point.

予測距離画像生成部33は、前回の(補正された)位置
・向きと今回の位置センサ出力が示す位置・向きとの差
に基いて、前回の距離画像データが示す各点の座標を、
位置センサ出力が示す位置と向きを持つ座標系上の座標
に変換し、そして、この座標変換の結果カメラに写らな
くなる部分を除去して、予測距離画像データを得る。
The predicted distance image generation unit 33 calculates the coordinates of each point indicated by the previous distance image data based on the difference between the previous (corrected) position and orientation and the position and orientation indicated by the current position sensor output.
The predicted distance image data is obtained by converting the coordinates into coordinates on a coordinate system having the position and orientation indicated by the position sensor output, and removing portions that cannot be seen by the camera as a result of this coordinate conversion.

距離画像マツチング部34は、まず、距離画像生成部3
1から送られた距離画像データから、前回と今回の位置
・向きデータを用いて、前回の位置と向きではカメラに
写らなかった部分を除去する。それから1次に述べるよ
うな対応付けを行なう。
The distance image matching section 34 first performs the distance image generation section 3
From the distance image data sent from 1, using the previous and current position and orientation data, remove the part that was not captured by the camera at the previous position and orientation. Then, the correspondence described in the first step is performed.

対応付けは、視差量Sの誤差を考慮して、ある範囲内の
視差量を持つ諸座標点を一つのグループにまとめ、各グ
ループ内で行われる。第10図(A)に示すように、視
差量Sは、O<S<dの範囲(この範囲を以後(0,d
)で表わす)の実数であるが、その値は、距離画像生成
処理に関連する種々の要因から、誤差範囲ΔSを持つ。
The matching is performed within each group by grouping various coordinate points having the amount of parallax within a certain range, taking into account the error in the amount of parallax S. As shown in FIG. 10(A), the amount of parallax S is in the range O<S<d (hereinafter referred to as (0, d
) is a real number, but its value has an error range ΔS due to various factors related to distance image generation processing.

そして、視差量Sの誤差は、それを用いて計算された対
応外界点の座標Cxt y+ z)の誤差をもたらす。
Then, the error in the amount of parallax S causes an error in the coordinates Cxt y+ z) of the corresponding external boundary point calculated using it.

第11図は、−例として、奥行きyと視差量Sの関係を
示す。距離画像生成で得られた視差量βの前後ΔSの範
囲内に真の視差量があるとすれば、yの真の値はy (
s−ΔS)とy(s+ΔS)の間にある。Xと2も、や
はり視差量の誤差に応じて変化する。第10図(B)は
、予測距離画像において、範囲(S−ΔS、s+ΔS〕
内にある異なる視差量から得られる座標点群(Plo、
 P2’。
FIG. 11 shows, as an example, the relationship between the depth y and the amount of parallax S. If the true amount of parallax is within the range of ΔS before and after the amount of parallax β obtained by generating the distance image, the true value of y is y (
s-ΔS) and y(s+ΔS). X and 2 also change depending on the error in the amount of parallax. FIG. 10(B) shows the range (S-ΔS, s+ΔS) in the predicted distance image.
The coordinate point group (Plo,
P2'.

・・・・・・、 PNO)を示し、第10図(C)は、
生画像から得られた現距離画像において、前記と同じ範
囲内にある異なる視差量から得られる座標点群(Pr”
、 P2’、・・・・・・、 PMl)を示す。これら
2群の間で、すべての座標点が対応付けの可能性を持つ
......, PNO), and Fig. 10 (C) shows,
In the current distance image obtained from the raw image, coordinate points (Pr”
, P2',..., PMl). All coordinate points have a possibility of correspondence between these two groups.

そこで、ある視差量Sに対して、範囲(S −ΔS、s
+ΔS〕内の視差量を持つ予測距離画像の座標点の集合
(これをDo(s)で表わす)と、現距離画像の同様な
座標点の集合(これをDz(s)で表わす)の間で、D
o(s)中の各座標点PLOに対応するDz(s)中の
座標点Pkiを、次式により決定する。
Therefore, for a certain amount of parallax S, the range (S - ΔS, s
+ΔS] between the set of coordinate points of the predicted distance image (represented by Do(s)) and the set of similar coordinate points of the current distance image (represented by Dz(s)). So, D
The coordinate point Pki in Dz(s) corresponding to each coordinate point PLO in o(s) is determined by the following equation.

(ただしPJoEDO(S)+ Pl’EDI (S)
)すなわち、それぞれの集合に属する他の全座標点への
距離の和が可及的に類似する一対の座標点が、対応する
ものと決定される、もしも複数個のP、0が単一のPk
”に対応付けられた場合には、逆にPk”から見て最も
良く対応するものを、これらのPIOの内から選ぶ。
(However, PJoEDO (S) + Pl'EDI (S)
) That is, a pair of coordinate points whose sum of distances to all other coordinate points belonging to each set are as similar as possible are determined to be corresponding. Pk
``, conversely, the one that best corresponds to Pk'' is selected from among these PIOs.

以上のような対応付けが、視差量の全範囲(0゜d〕を
適当な間隔(例えば2ΔS)で分割する多値s1. s
2.・・・のそれぞれについて、遂行される。
The above correspondence divides the entire range of parallax amount (0°d) into a multivalued s1.
2. ... will be carried out for each of them.

最後に、姿勢検出部35では、まず、前記のようにして
視差量Sの各範囲(S−ΔS、s+ΔS〕ごとに得られ
た対応座標点の対の組(P l。、 P b ’ )に
ついて、次式により分散σ (s)を計算する。
Finally, the posture detection unit 35 first detects the pair of corresponding coordinate points (P l., P b ') obtained for each range of the amount of parallax S (S-ΔS, s+ΔS) as described above. The variance σ (s) is calculated using the following equation.

ただし、Kは机内の対の個数であり、もしもKが0なら
ば、σ(s)は+ωに設定される。
However, K is the number of pairs in the desk, and if K is 0, σ(s) is set to +ω.

次いで、最小の分散を持つ組(p O□、Plkm)を
選択して、次式により位置補正量Mを計算し、それを位
置センサから得られた位置・向きデータに加える。
Next, the set (p O□, Plkm) with the minimum variance is selected, the position correction amount M is calculated using the following equation, and it is added to the position/orientation data obtained from the position sensor.

M=ΣPOt+++、 P’kwa この処理は、第12図に示されるように、前回における
移動体の真の位置と位置センサの示す位置をそれぞれT
oとFoとし、今回における移動体の真の位置と位置セ
ンサの示す位置をそれぞれT1とFlとするとき、ベク
トル量 を求めて、これをFlに加え、それにより点F*の位置
を求めることに相当する。
M=ΣPOt+++, P'kwa This process, as shown in FIG.
Let o and Fo be the true position of the moving object this time and the position indicated by the position sensor as T1 and Fl, respectively, then find the vector quantity, add it to Fl, and find the position of point F* from this. corresponds to

本実施例によれば、画像から導出される距離情報を用い
て相次ぐ画像の間の対応付けを行うことにより、濃淡画
像についてのオプティカルフローを用いる従来技術によ
るよりも高い精度を得ることができ、また、垂直エツジ
上の特徴点を利用する従来技術と比較しても、非常に多
数の対応点を利用することができるので、精度が向上す
る。更に、誤差範囲を考慮した視差量のある範囲内で、
対応付けを行なうことにより、精度が一層向上する。
According to this embodiment, by performing correspondence between successive images using distance information derived from the images, it is possible to obtain higher accuracy than with the conventional technology using optical flow for gray scale images, Furthermore, compared to the conventional technique that uses feature points on vertical edges, it is possible to use a much larger number of corresponding points, resulting in improved accuracy. Furthermore, within a certain range of parallax considering the error range,
Correlation further improves accuracy.

〔発明の効果〕〔Effect of the invention〕

以上から明らかなように、本発明によれば、正確な位置
の推定と資料情報の更新に距離情報を利用することによ
り、移動体の誘導制御に必要な情報を、高い精度で得る
ことができる。
As is clear from the above, according to the present invention, by using distance information for accurate position estimation and updating of document information, it is possible to obtain information necessary for guiding and controlling a moving object with high accuracy. .

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の第1実施例の機能ブロックの関係を示
すブロックダイヤグラム、第2図は第1実施例のフロー
チャート、第3図は位置センサが示す移動体の位置・向
きと実際の位置・向きを対比的に示す図、第4図は予測
距離データと実際の測距データを対比的に示すグラフ、
第5図はセグメント間の1対多対応の例を示す図、第6
図は正確な位置・向きの決定に利用される幾何学的関係
を示す平面図、第7図はセグメントと頂点の関係の一例
を示す平面図、第8図は本発明の第2実施例の機能ブロ
ックの関係を示すブロックダイヤグラム、第9図は第2
実施例のフローチャート、第10図は視差量の誤差とそ
れに起因する座標点の分布を示す図、第11図は視差量
と奥行きの関係を示すグラフ、第12図は位置補正処理
を説明するためのベクトル図である。 11・・・予測距離データ生成部、12a、12b・・
・セグメンテーション部、13.14・・・対応付けと
位置推定を行なうマツチング部、16・・・地図更新部
、21・・・予測距離データ生成処理、22・・・セグ
メンテーション処理、23〜25・・・対応付は及び位
置推定処理、26・・・地図更新処理、31・・・距離
画像生成部、32・・・距離画像と位置・向きデータの
ための記憶部、33・・・予測距離画像生成部、34・
・・実際の距離画像と予測距離画像を対応付けるマツチ
ング部、35・・・位置補正量を決定する位置検出部、
41・・・距離画像生成処理、42・・・距離画像と位
置・向きデータの記憶、43・・・予測距離画像生成処
理、44・・・対応付は処理、45・・・位置補正処理
Fig. 1 is a block diagram showing the relationship between functional blocks of the first embodiment of the present invention, Fig. 2 is a flowchart of the first embodiment, and Fig. 3 shows the position/direction of the moving body indicated by the position sensor and the actual position.・A diagram showing the orientation in contrast, Figure 4 is a graph showing the predicted distance data and actual distance measurement data in contrast,
Figure 5 is a diagram showing an example of one-to-many correspondence between segments;
The figure is a plan view showing the geometric relationships used to determine accurate position and orientation, FIG. 7 is a plan view showing an example of the relationship between segments and vertices, and FIG. A block diagram showing the relationship between functional blocks, Figure 9 is the second
Flowchart of the embodiment, FIG. 10 is a diagram showing the error in the amount of parallax and the distribution of coordinate points caused by it, FIG. 11 is a graph showing the relationship between the amount of parallax and depth, and FIG. 12 is for explaining the position correction process. is a vector diagram. 11... Predicted distance data generation unit, 12a, 12b...
- Segmentation unit, 13.14...Matching unit that performs correspondence and position estimation, 16...Map update unit, 21...Predicted distance data generation process, 22...Segmentation process, 23-25... - Correspondence is and position estimation processing, 26...Map update processing, 31...Distance image generation unit, 32...Storage unit for distance image and position/orientation data, 33...Predicted distance image Generation section, 34.
. . . A matching unit that matches the actual distance image and the predicted distance image; 35 . . . A position detection unit that determines the amount of position correction;
41...Distance image generation process, 42...Storage of distance image and position/orientation data, 43...Predicted distance image generation process, 44...Associating process, 45...Position correction process.

Claims (1)

【特許請求の範囲】 1、移動体から外界物体上の諸点までの距離に関する情
報を得るための測距手段と、前記移動体の現在位置に関
する情報を得るための位置検知手段と、誘導制御のため
の資料情報を記憶するための記憶手段を有するとともに
前記測距手段と位置検知手段に接続された位置推定手段
とを備えた移動体誘導装置において、前記測距手段によ
り得られるべき情報を前記位置検知手段の出力情報と前
記記憶手段中の資料情報とから予測するステップと、前
記予測ステップにより得られた情報と前記測距手段の出
力情報を対応付けて前記移動体のより正確な現在位置を
推定するステップと、前記推定ステップにより得られた
情報を用いて前記記憶手段中の資料情報を更新するステ
ップとを有する、移動体誘導方法。 2、特許請求の範囲1において、前記測距手段は距離値
を出力する測距センサであり、前記資料情報は地図情報
である、移動体誘導方法。 3、特許請求の範囲2において、前記推定ステップは、
前記測距センサからの距離値群を第1のセグメント群に
群分けするステップと、前記予測ステップにより得られ
た距離値群を第2のセグメント群に群分けするステップ
と、前記第1セグメント群と第2セグメント群の間でセ
グメントを対応付けるステップとを含む、移動体誘導方
法。 4、特許請求の範囲3において、前記対応付けステップ
は、単一のセグメントに対応付けられた複数のセグメン
トをそれらの距離値に基いて複数のセグメント群に群分
けするとともにその一群を前記単一セグメントに対応付
けるステップを含む、移動体誘導方法。 5、特許請求の範囲3又は4において、前記推定ステッ
プは、前記地図情報上の予め定められた特徴点とそれに
対応する前記第1セグメント群上の点とに基いて現在位
置を推定するステップを含む、移動体誘導方法。 6、特許請求の範囲5において、前記予め定められた特
徴点は壁と壁が接する角である、移動体誘導方法。 7、特許請求の範囲3、4、5又は6において、前記更
新ステップは、前記推定された現在位置と前記対応付け
の結果を用いて前記地図を更新する、移動体誘導方法。 8、特許請求の範囲1において、前記測距手段は、複数
の撮像手段と、前記外界物体上の諸点の距離に関する情
報からなる距離画像情報を前記複数の撮像手段の出力か
ら生成する手段とを有し、前記記憶手段中の資料情報は
前回の処理で得られた距離画像情報と移動体位置情報で
あり、前記推定ステップは前記位置検知手段から得られ
る位置情報の補正量を決定し、前記更新ステップは前記
記憶手段中の情報を今回の処理で得られた距離画像情報
と補正された位置情報で置換する、移動体誘導方法。 9、特許請求の範囲8において、前記距離画像情報は立
体視法による対応画素間の視差量を含み、前記推定ステ
ップは、前記測距手段からの距離画像情報が示す座標点
と前記予測により得られた距離画像情報が示す座標点と
の対応付けを、前記視差量のその精度に基いて区分され
る各範囲ごとに行なうステップを含む、移動体誘導方法
。 10、特許請求の範囲9において、前記推定ステップは
、視差量の前記諸範囲における座標点間の対応の程度を
調べるステップと、対応の程度が最も高い範囲に属する
対応座標点の間の距離に基いて前記補正量を決定するス
テップを含む、移動体誘導方法。
[Scope of Claims] 1. Distance measuring means for obtaining information regarding distances from a moving object to various points on external objects, position detecting means for obtaining information regarding the current position of the moving object, and a guidance control system. In the mobile object guidance device, the moving object guidance device includes a storage means for storing document information for the purpose of the present invention, and a position estimating means connected to the distance measuring means and the position detecting means. a step of predicting from the output information of the position detection means and the material information in the storage means; and a more accurate current position of the moving body by associating the information obtained in the prediction step with the output information of the distance measuring means. A method for guiding a moving object, the method comprising: estimating the amount of information obtained by the estimating step; and updating material information in the storage means using the information obtained in the estimating step. 2. The moving object guidance method according to claim 1, wherein the distance measuring means is a distance measuring sensor that outputs a distance value, and the material information is map information. 3. In claim 2, the estimating step includes:
a step of dividing a group of distance values from the distance measuring sensor into a first segment group; a step of dividing a group of distance values obtained in the prediction step into a second group of segments; and a step of associating segments between a second group of segments. 4. In claim 3, the matching step groups a plurality of segments associated with a single segment into a plurality of segment groups based on their distance values, and divides the group into a plurality of segment groups based on their distance values. A method for guiding a mobile object, the method comprising the step of associating with segments. 5. In claim 3 or 4, the estimating step includes estimating the current position based on predetermined feature points on the map information and points on the first segment group corresponding thereto. A mobile object guidance method, including: 6. The moving body guiding method according to claim 5, wherein the predetermined characteristic point is a corner where two walls are in contact with each other. 7. The mobile object guidance method according to claim 3, 4, 5 or 6, wherein the updating step updates the map using the estimated current position and the result of the association. 8. In claim 1, the distance measuring means includes a plurality of imaging means and means for generating distance image information consisting of information regarding distances of various points on the external object from the outputs of the plurality of imaging means. The material information in the storage means is distance image information and moving object position information obtained in the previous process, and the estimation step determines the amount of correction of the position information obtained from the position detection means, In the moving object guidance method, the updating step replaces the information in the storage means with the distance image information obtained in the current process and the corrected position information. 9. In claim 8, the distance image information includes the amount of parallax between corresponding pixels based on a stereoscopic viewing method, and the estimating step includes the coordinate points indicated by the distance image information from the distance measuring means and the amount of parallax obtained from the prediction. A method for guiding a moving object, comprising the step of associating coordinate points indicated by distance image information obtained for each range divided based on the accuracy of the amount of parallax. 10. In claim 9, the estimating step includes a step of examining the degree of correspondence between the coordinate points in the various ranges of the amount of parallax, and a step of determining the distance between the corresponding coordinate points belonging to the range with the highest degree of correspondence. A moving object guidance method, comprising the step of determining the correction amount based on the amount of correction.
JP62045314A 1987-03-02 1987-03-02 Moving object guidance method Pending JPS63213005A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62045314A JPS63213005A (en) 1987-03-02 1987-03-02 Moving object guidance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62045314A JPS63213005A (en) 1987-03-02 1987-03-02 Moving object guidance method

Publications (1)

Publication Number Publication Date
JPS63213005A true JPS63213005A (en) 1988-09-05

Family

ID=12715843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62045314A Pending JPS63213005A (en) 1987-03-02 1987-03-02 Moving object guidance method

Country Status (1)

Country Link
JP (1) JPS63213005A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04227507A (en) * 1990-07-02 1992-08-17 Nec Corp Method for forming and keeping map for moving robot
KR20000017080A (en) * 1998-08-06 2000-03-25 무라타 기카이 가부시키가이샤 Automated transport vehicle system and navigating method of automated transport vehicle
JP2004280451A (en) * 2003-03-14 2004-10-07 Matsushita Electric Works Ltd Autonomous moving device
JP2007094743A (en) * 2005-09-28 2007-04-12 Zmp:Kk Autonomous mobile robot and its system
JP2007200070A (en) * 2006-01-27 2007-08-09 Secom Co Ltd Mobile robot
JP2008158690A (en) * 2006-12-21 2008-07-10 Sogo Keibi Hosho Co Ltd Mobile body detection apparatus, security robot, mobile body detection method, and mobile body detection program
JP2008250905A (en) * 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd Mobile robot, self-location correction method and self-location correction program
JP2008250906A (en) * 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd Mobile robot, and self-location correction method and program
JP2009023740A (en) * 2007-07-17 2009-02-05 Hitachi Ltd Information collection system and information collection robot
JP2009053561A (en) * 2007-08-28 2009-03-12 Panasonic Electric Works Co Ltd Map generation system and map generation method for autonomous mobile device
JP2009093308A (en) * 2007-10-05 2009-04-30 Hitachi Industrial Equipment Systems Co Ltd Robot system
JP2009129277A (en) * 2007-11-26 2009-06-11 Panasonic Electric Works Co Ltd Self-position recognition system
JP2009163156A (en) * 2008-01-10 2009-07-23 Hitachi Industrial Equipment Systems Co Ltd Mobile robot system and control method thereof
JP2010534334A (en) * 2007-07-23 2010-11-04 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Method and system for creating indoor environment map
WO2010140533A1 (en) * 2009-06-01 2010-12-09 株式会社日立製作所 Robot control system, robot control terminal, robot control method and program
JP2011043405A (en) * 2009-08-21 2011-03-03 Toyota Motor Corp Self position estimation apparatus, self position estimation method, and program
JP2011048706A (en) * 2009-08-28 2011-03-10 Fujitsu Ltd Device, method, and program for automatically generating map by sensor fusion and moving mobile body by using the map automatically generated
JP2011210121A (en) * 2010-03-30 2011-10-20 Fuji Soft Inc Program for robot and program for information-processing device
JP2011248648A (en) * 2010-05-27 2011-12-08 Toyota Central R&D Labs Inc Moving body
US8199970B2 (en) 2006-06-06 2012-06-12 Nec Corporation Moving amount calculation system and obstacle detection system
JP2012256344A (en) * 2012-08-06 2012-12-27 Hitachi Industrial Equipment Systems Co Ltd Robot system
JP2013065342A (en) * 2012-12-03 2013-04-11 Hitachi Industrial Equipment Systems Co Ltd Mobile robot
WO2017130590A1 (en) * 2016-01-29 2017-08-03 東芝ライフスタイル株式会社 Electric vacuum cleaner
JP2019518932A (en) * 2016-03-31 2019-07-04 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー How to predict the motion of an object
JP2021033999A (en) * 2019-08-23 2021-03-01 深セン市優必選科技股▲ふん▼有限公司Ubtech Pobotics Corp Ltd Robot, and method and device for determining recharging position thereof

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04227507A (en) * 1990-07-02 1992-08-17 Nec Corp Method for forming and keeping map for moving robot
KR20000017080A (en) * 1998-08-06 2000-03-25 무라타 기카이 가부시키가이샤 Automated transport vehicle system and navigating method of automated transport vehicle
US7684894B2 (en) 2003-03-14 2010-03-23 Panasonic Electric Works Co., Ltd. Autonomously moving robot
JP2004280451A (en) * 2003-03-14 2004-10-07 Matsushita Electric Works Ltd Autonomous moving device
JP2007094743A (en) * 2005-09-28 2007-04-12 Zmp:Kk Autonomous mobile robot and its system
JP2007200070A (en) * 2006-01-27 2007-08-09 Secom Co Ltd Mobile robot
US8199970B2 (en) 2006-06-06 2012-06-12 Nec Corporation Moving amount calculation system and obstacle detection system
JP5257069B2 (en) * 2006-06-06 2013-08-07 日本電気株式会社 Travel amount calculation system and obstacle detection system
JP2008158690A (en) * 2006-12-21 2008-07-10 Sogo Keibi Hosho Co Ltd Mobile body detection apparatus, security robot, mobile body detection method, and mobile body detection program
JP2008250905A (en) * 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd Mobile robot, self-location correction method and self-location correction program
JP2008250906A (en) * 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd Mobile robot, and self-location correction method and program
JP2009023740A (en) * 2007-07-17 2009-02-05 Hitachi Ltd Information collection system and information collection robot
JP2010534334A (en) * 2007-07-23 2010-11-04 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Method and system for creating indoor environment map
US9310807B2 (en) 2007-07-23 2016-04-12 Electronics And Telecommunications Research Institute Method and system for creating indoor environment map
JP2009053561A (en) * 2007-08-28 2009-03-12 Panasonic Electric Works Co Ltd Map generation system and map generation method for autonomous mobile device
JP2009093308A (en) * 2007-10-05 2009-04-30 Hitachi Industrial Equipment Systems Co Ltd Robot system
JP2009129277A (en) * 2007-11-26 2009-06-11 Panasonic Electric Works Co Ltd Self-position recognition system
JP2009163156A (en) * 2008-01-10 2009-07-23 Hitachi Industrial Equipment Systems Co Ltd Mobile robot system and control method thereof
JP2010277548A (en) * 2009-06-01 2010-12-09 Hitachi Ltd Robot management system, robot management terminal, robot management method and program
WO2010140533A1 (en) * 2009-06-01 2010-12-09 株式会社日立製作所 Robot control system, robot control terminal, robot control method and program
CN102449568A (en) * 2009-06-01 2012-05-09 株式会社日立制作所 Robot control system, robot control terminal, robot control method and program
US9242378B2 (en) 2009-06-01 2016-01-26 Hitachi, Ltd. System and method for determing necessity of map data recreation in robot operation
JP2011043405A (en) * 2009-08-21 2011-03-03 Toyota Motor Corp Self position estimation apparatus, self position estimation method, and program
JP2011048706A (en) * 2009-08-28 2011-03-10 Fujitsu Ltd Device, method, and program for automatically generating map by sensor fusion and moving mobile body by using the map automatically generated
JP2011210121A (en) * 2010-03-30 2011-10-20 Fuji Soft Inc Program for robot and program for information-processing device
JP2011248648A (en) * 2010-05-27 2011-12-08 Toyota Central R&D Labs Inc Moving body
JP2012256344A (en) * 2012-08-06 2012-12-27 Hitachi Industrial Equipment Systems Co Ltd Robot system
JP2013065342A (en) * 2012-12-03 2013-04-11 Hitachi Industrial Equipment Systems Co Ltd Mobile robot
WO2017130590A1 (en) * 2016-01-29 2017-08-03 東芝ライフスタイル株式会社 Electric vacuum cleaner
JP2017131556A (en) * 2016-01-29 2017-08-03 東芝ライフスタイル株式会社 Vacuum cleaner
JP2019518932A (en) * 2016-03-31 2019-07-04 エヌイーシー ラボラトリーズ ヨーロッパ ゲーエムベーハー How to predict the motion of an object
US11300663B2 (en) 2016-03-31 2022-04-12 Nec Corporation Method for predicting a motion of an object
JP2021033999A (en) * 2019-08-23 2021-03-01 深セン市優必選科技股▲ふん▼有限公司Ubtech Pobotics Corp Ltd Robot, and method and device for determining recharging position thereof

Similar Documents

Publication Publication Date Title
JPS63213005A (en) Moving object guidance method
KR102728513B1 (en) Slam method and slam system using dual event camaer
CN111561923B (en) SLAM (simultaneous localization and mapping) mapping method and system based on multi-sensor fusion
US11941831B2 (en) Depth estimation
CN105469405B (en) Positioning and map constructing method while view-based access control model ranging
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
CN112785702A (en) SLAM method based on tight coupling of 2D laser radar and binocular camera
CN113674416B (en) Three-dimensional map construction method and device, electronic equipment and storage medium
CN111337947A (en) Instant mapping and positioning method, device, system and storage medium
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
CN112435262A (en) Dynamic environment information detection method based on semantic segmentation network and multi-view geometry
Knorr et al. Online extrinsic multi-camera calibration using ground plane induced homographies
KR20150144731A (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
JP6922348B2 (en) Information processing equipment, methods, and programs
CN112967340A (en) Simultaneous positioning and map construction method and device, electronic equipment and storage medium
US20210118160A1 (en) Methods, devices and computer program products for 3d mapping and pose estimation of 3d images
CN116977362A (en) Target tracking method, device, computer equipment and storage medium
JP5178538B2 (en) Method for determining depth map from image, apparatus for determining depth map
Fan et al. Large-scale dense mapping system based on visual-inertial odometry and densely connected U-Net
JP2009530701A5 (en)
Proença et al. Probabilistic combination of noisy points and planes for RGB-D odometry
CN115797490B (en) Graph construction method and system based on laser vision fusion
Saeedi et al. 3D localization and tracking in unknown environments
Brandt et al. Controlled active exploration of uncalibrated environments
Alenya et al. Depth from the visual motion of a planar target induced by zooming