[go: up one dir, main page]

JPS61183716A - 誘導装置 - Google Patents

誘導装置

Info

Publication number
JPS61183716A
JPS61183716A JP60021692A JP2169285A JPS61183716A JP S61183716 A JPS61183716 A JP S61183716A JP 60021692 A JP60021692 A JP 60021692A JP 2169285 A JP2169285 A JP 2169285A JP S61183716 A JPS61183716 A JP S61183716A
Authority
JP
Japan
Prior art keywords
pattern
predicted
mobile robot
guidance
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60021692A
Other languages
English (en)
Inventor
Koji Kameshima
亀島 鉱二
Yuriko Ogawa
小川 優理子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP60021692A priority Critical patent/JPS61183716A/ja
Priority to US06/825,976 priority patent/US4652803A/en
Priority to EP86101467A priority patent/EP0190742B1/en
Priority to DE8686101467T priority patent/DE3683508D1/de
Priority to CA000501281A priority patent/CA1238103A/en
Publication of JPS61183716A publication Critical patent/JPS61183716A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔発明の利用分野〕 本発明はロボット等の移動体のための誘導装置に係り、
特に周囲の状況を理解し、環境に適応して移動体を目的
地まで移動させることができる誘導装置に関する。
〔発明の背景〕
現在、稼動しているロボットの大部分は工場等の整った
下で使用□されている。しかし、近年では整った環境以
外でも使用できる移動ロボットが要求されている。この
要求を実現するためにはロボットに自律移動機能を与え
ることが必要である。
このような移動ロボットの例については1983年2月
24日発行のMoravecによるrThe 5tan
fordCart and The CMU Rove
r Jと題する文献に開示されている。この種の移動ロ
ボットはテレビカメラで得られた画像を処理して、画像
の特徴点を抽出し、その配置にもとづいて、方向、距離
の3次元的な物体配置を計算し、この結果にもとづいて
物体までの距離を求めた上で移動ロボットに誘導信号を
出力している。このような画像処理では、特微意の検出
並びに3次元情報の抽出に複雑な計算を要し、移動体を
高速で精度良く移動させることが難しいものであった。
〔発明の目的〕
本発明の目的は、移動体の誘導目標となる環境内構酸物
のパターンを選択入力し、画像処理の容易な誘導装置を
提供することにある。
〔発明の概要〕
本発明は、実際の撮影画像から抽出する特徴パターンと
移動体の位置情報に関して予測される環境構成物の予測
パターンとを比較してその差を求め、その差を減少する
ように移動体を誘導制御するものにおいて、誘導目標と
なる環境構造物の選択ルールを操作者によって選択入力
し、この構成物の選択ルールに従って誘導目標のための
予測パターンを生成するようにしたものである。
これにより、予め選定入力されたルールに従う構成物の
予測パターンと観測画像からの特徴パターンとの比較が
すみやかにかつ正確に行うことができるので、移動体の
自律誘導をより信頼性を高いものにすることができる。
〔発明の実施例〕
以下本発明の実施例を図面を参照して説明する。
第1図は本発明の装置の一実施例を示すもので。
この図において、1は移動ロボットで、この移動ロボッ
ト1は特定の環境領域内を走行するための走行装置IA
を備えている。この移動ロボット1の走行装置IAは移
動制御装置2によって制御されると共にその移動量は移
動量検出器3によって検出される。移動ロボット1には
その周囲環境を撮影するためのテレビカメラ4が設置き
れている。
このテレビカメラ4によって撮影された画像は表示装置
5に出力されると共にパターン検出@6に出力される。
パターン検出器6は撮影画像の特徴パターンを検出する
。ルール記憶器7は環境構成物の選択ルールを記憶する
。構成記憶器8は所謂フレーム理論にもとづいて環境構
成物を記憶している。すなわち構成記憶装置8は例えば
第2図に示す部屋に対して第3図に示すようにこの部屋
のフレームを記憶している8要素記憶s9は構成記憶器
8との関連において、第3ζ図に示すように部屋のフレ
ームに対して例えば床のフレーム、壁のフレーム等の構
成要素のフレームを記憶している。前述した構成記憶器
8は環境構成物のリストを表示装置5に出力する。入力
装置lOは操作者によって選択入力される。移動体の誘
導目標となる環境構成物の情報を要素記憶器8に出力す
る。
パターン発生器11は移動量検出器3からの移動ロボッ
トの位置情報にもとづいて環境領域内における選択され
た構成物およびその構成要素の情−報を構成記憶器8お
よび要素記憶器9から読み出し、その予測パターンを求
め、その予測パターンを表示装置5および移動制御装置
2に出力する。移動制御装置2はパターン検出器6から
の特徴パターンとパターン発生器11からの予測パター
ンとにより、両パターンのずれを減少するように移動ロ
ボット1の走行装置IAを制御するために、予測パター
ンと特徴パターンとの間に働くポテンシャルφ1の場合
を演算するポテンシャル場演算手段2Aと、このポテン
シャルφ、の場によって得られる特徴パターンの予測パ
ターンに対する作用力F、の勾配ベクトルを演算しこれ
を誘導信号として出力する作用力演算手段2Bとを備え
ている。
次に上述したパターン間に働く相互作用のΦ1゜につい
て述べる。
以下、説明を単純化するために、第4図に示すように、
空間Sを画面とし、パターンA、Bを2値画像とする。
ここで、パターンAは観測画像にもとづくパターンとし
、パターンBは環境モデルKによって生成された予測画
像にもとづくパターンとする。いま、パターンAが与え
られたとき。
パターンBの位置をパターンAに接近させる適応則を見
い出す必要がある。この適応則は空間S上にパターンA
により生成されるポテンシャルφ。
を導入することによって得られる。このポテンシャルφ
、は次の(1)式により求めることができる。
αφ、+x1±0           ・・・(1)
周索である。ただし、σヨ、σ、はポテンシャルφ1の
空間的法がりを表わすパラメータである。
また、(1)式において、xlはパターンAを空間Sの
部分集合とみなしたときの定義関数である6次に上述し
た空間S上のパターンAのポテンシャル−1場により、
パターンBの受ける作用F。
は、次の(2)式より求めることができる。ここでは説
明の便宜上、2次元平面内でのX軸およびy軸方向への
移動のみを対象としている。
F * = JX m・Dφads       ・・
・(2)ただし、x、はパターンBを空間Sの部分集合
と同一視したときの定義関数であり、Dは勾配作微分作
用素を表している。
上述の(1)式および(2)式により、パターンBをパ
ターンAに対して変形させるための情報、すなわち移動
ロボットの誘導情報を得ることができる。しかし、この
演算における(1)式においては無限次元の連立方程式
を含んでいるため、つぎの近似式(3)を用いることが
よい。
t 上記(3)式のポテンシャルφ、の解を用いて、パター
ンBをパターンAに移動操作するための操作機構M、の
出力U、は、次の(4)式によって求めることができる
U、=−7,x、−D φads     ・(4)次
に上述した本発明の装置の実施例の動作を説明する。
移動ロボット1の誘導開始に先立って、表示装置5には
、テレビカメラ4からの撮影画像と、構成記憶器8から
の構成物のリストとパターン発生器11からの予測パタ
ーンとが表示される0次に、操作者が表示装置5に表示
された撮影画像と構成記憶器8からの構成物のリストと
パターン発生器11からの予測パターンとを参照して移
動ロボット1の誘導目標となる構造物の情報の選択ルー
ルを、入力装置10によってルール記憶器7に入力する
。この選択が完了すると、パターン発生器11は構成記
憶器8および要素記憶器9からそれぞれ構成物の配置お
よび形状データを選択されたルールに従って読み出し、
その予測パターンを求める。この予測パターンは表示装
置5に入力される。これにより、操作者は表示装置5に
表示された撮影画像と予測パターンとを参照し、不適と
判断した場合には入力装置10を操作して構成記憶器8
から他の構成物の予測パターンを生成し、表示装置5に
表示する。この予測パターンが適切であると判断した場
合には、操作者の入力装置10の操作により、この予測
パターンは移動制御装置2に入力される。また、この移
動制御装置2にはパターン検出器6からの観測画像の特
徴パターンが入力される。このため、移動制御装置2は
特徴パターンと予測パターンとを比較して移動ロボット
1を誘導するための誘導信号を移動ロボット1の走行装
置IAに出力する。これにより、移動ロボット1は目標
地点に誘導制御される。
以上述べたように、操作者は入力装置10によって環境
構成物の選択ルールを入力し、また特徴パターン中のあ
る構成要素とに対応する構成要素の予測パターンを選択
することができる。これにより、特徴パターンと予測パ
ターンとの照合が適確に行なわれるので、移動ロボット
を高速で精度良く誘導することができる。
なお上述の例においては移動ロボットを例にとって説明
したが、これに限られるものではない。
〔発明の効果〕
以上述べたように、本発明によれば、撮影画像の特徴パ
ターンと比較される予測パターンをルール選択して入力
設定することができるので、従来のような画像処理のた
めに多大な時間を要しないものである。このため、移動
体を高速で精度良く誘導することができる。
【図面の簡単な説明】
第1図は本発明の装置の一実施例の構成を示す図、第2
図は本発明の装置によって誘導される移動体の誘導対象
の一例である部屋を示す図、第3図は本発明の装置を構
成する構成記憶器および要素記憶器に記憶された第2図
に示す部屋のフレーム内容を示す説明図、第4図は本発
明の装置を構成する移動制御装置に用いられるパターン
マツチング原理を示す説明図である。 1・・、・移動ロボット、2・・・移動制御装置、4・
・・テレビカメラ、5・・・表示装置、6・・・パター
ン検出器、7・・・ルール記憶装置、8・・・構成記憶
器、9・・・要素第 10 箒 2 口 手続補正書(自発) 1.事件の表示 昭和60 年特許願第 21692  号2発明の名称 誘導・装置 3、補正をする者 1市とのj朋 特許出願人 ?1  称   ’510)株式会!F  日  立 
 製  作 所4、代 理 人 5、補正ノ対象  明細書の発明の詳細な説明の欄6、
補正の内容 別紙のとおり (1)明細書の第2頁第13行〜同頁第14行の文章を
下記の通り補正する。 記 「2月24日発行のモラベツク(Moravec )に
よる「ザ スタンフォード カート アンドザ シーエ
ムニー ローバーJ  (The 5tanfordC
art and The CMυRover )と題す
る文献に開示さ」 以上 手続補正書(自発) 1.411件の表示 昭和60年特許願第 21692  号2発明の名称 誘導装置 &補正をする者 1淋との1唾 特許出願人 と1  ビ)、’510川式会用ト  日  立  装
  作  所4、代 理 人 図面の簡単な説明の欄および図面 6、補正の内容 全文訂正明細書 1、発明の名称 誘導装置 2、特許請求の範囲 1、移動体を所定の環境内の径路に沿って誘導する誘導
装置において、前記環 内の構成物おれを表示すると共
に環境内の構成物画像および構成物の予測パターンを表
示する表示゛  と、豊久亙ことを特徴とする誘導装置
。 2、特許請求の範囲第1項記載の誘導装置において、第
1の記憶手段は、環境内の構成物を階層的に記憶する構
成物記憶手段と、構成物の幾何学データを記憶する構成
物要素記憶手段とを備えたことを特徴とする誘導装置。 3、発明の詳細な説明 〔産業上の利用分野〕 本発明のロボット等の移動体のための誘導装置に係り、
特に周囲の状況を理解し、環境に適応して移動体を目的
地まで移動させることができる誘導装置に関する。 〔従来の技術〕 現在、稼動しているロボットの大部分は工場等の整った
環境下で使用されている。しかし、近年では整った環境
以外でも使用できる移動ロボットが要求されている。こ
の要求を実現するためにはロボットに自律移動機能を与
えることが必要である。 このような移動ロボットの例については1983年2月
24日発行のモラベック(Noravsc )による[
ザ・スタンダード カート アンド シーエムニー ロ
ーバーJ  (The 5tanford Cart 
and TheCMυRover )と題する文献に開
示されている。 〔発明が解決しようとする問題点〕 この種の移動ロボットはテレビカメラで得られた画像を
処理して1画像の特徴点を抽出し、その配置にもとづい
て、方向、距離の3次元的な物体、配置を計算し、この
結果にもとづいて物体までの距離を求めた上で移動ロボ
ットに誘導信号を出力している。このような画像処理で
は、特徴点の検出並びに3次元情報の抽出に複雑な計算
を要し、移動体を高速で精度良く移動させることが難し
いものであった。 本発明の目的は、移動体の誘導目標となる環境内構酸物
のパターンを選択入力し1画像処理の容易な誘導装置を
提供することにある。 〔問題点を解決するための手段〕 本発明の上記の目的は実際の撮影画像から抽出する特徴
パターンと移動体の位置情報に関して予測される環境構
成物の予測パターンとを比較してその差を求め、その差
を減少するように移動体を誘導制御するに際して、誘導
目標となる環境構造物の選択順序ルールを操作者によっ
て選択入力し、この構成物の選択順序ルールに従って誘
導目標のための予測パターンを生成することにより達成
される。 〔作用〕 予測パターンと特徴パターンとの照合において。 その照合が不能な場合に、入力装置によって入力された
選択順序ルールに従って構成物の予測パターンを選定す
ることにより、この予測パターンと観測画像からの特徴
パターンとの比較がすみやかにかつ正確に行うことがで
きるので、移動体の自律誘導をより信頼性を高いものに
することができる。 〔実施例〕 以下本発明の実施例を図面を参照して説明する。 第1図は本発明の装置の一実施例を示すもので。 この図において、1は移動ロボットで、この移動ロボッ
ト1は特定の環境領域内を走行するための走行装置IA
を備えている。この移動ロボット1の走行装置IAは移
動制御装置2によって制御されると共にその移動量は移
動量検出器3によって検出される。移動ロボットlには
その周囲環境を撮影するためのテレビカメラ4が設置さ
れている。 このテレビカメラ4によって撮影された画像は表示装置
5に出力されると共に特徴パターン検出手段6に出力さ
れる。特徴パターン検出手段6は撮影画像の特徴パター
ンを検出する。第1の記憶手段7は環境構成物の選択順
序ルールを記憶する。 第2の記憶手段8は構成物記憶手段9と構成物要素記憶
手段10とで構成されている。構成物記憶手段9は所謂
フレーム理論にもとづいて環境構成物を記憶している。 すなわち構成物記憶手段9は例えば第2図に示す部屋に
対して第3図に示すように部屋のフレーム、床のフレー
ム、壁のフレーム等を階層的に記憶している。構成物要
素記憶手段10は構成物記憶手段9との関連において、
第3図に示すように例えば障害物のフレームに対してそ
の高さ、縦の長さ、横の長さ等の構成物要素を記憶して
いる。前述した構成物記憶手段9は環境構成物のリスト
を表示装置!5に出力する。入力装置11は操作者によ
って選択入力される移動体の誘導目標となる環境構成物
の選択順序ルールを選択し入力する。予測パターン発生
手段12は移動量検出器3からの移動ロボットの位置情
報にもとづいて環境領域内における選択された構成物お
よびその構成要素の情報を構成物記憶手段9および構成
物要素記憶手段10から読み出し、その予測パターンを
求め、その予測パターンを表示装置5および移動制御装
置2に出力する。移動制御装置2は特徴パターン検出手
段6からの特徴パターンと予測パターン発生手段12か
らの予測パターンとの照合の可否を判定し、照合否の場
合に、照合不能信号を表示装置5に出力するパターン照
合判定手段20と、パターン照合判定手段からの照合可
能信号にもとづいて濁パターンのずれを減少するように
移動ロボット1の走行袋!IIAを制御するために、予
測パターンと特徴パターンとの間に働くポテンシャルφ
^の場合を演算するポテンシャル場演算手段21と、こ
のポテンシャルφ^の場によって得られる特徴パターン
の予測パターンに対する作用力FBの勾配ベクトルを演
算しこれを誘導信号として出力する作用力演算手段22
     ’とを備えている。 次に上述したパターン間に働く相互作用のφへBについ
て述べる。 以下、説明を単純化するために、第4図に示すように、
空間Sを画面とし、パターン゛A、Bを2値画像とする
。ここで、パターンAは観測画像にもとづくパターンと
し、パターンBは環境モデルKによって生成された予測
画像にもとづくパターンとする。いま、パターンAが与
えられたとき。 パターンBの位置をパターンAに接近させる適応則を見
い出す必要がある。この適応則は空間S上にパターンA
により生成されるポテンシャルφ^を導入することによ
って得られる。このポテンシャルφ^は次の(1)式に
より求めることができる。 αφ^+X^=0          ・・・ (1)
微分作用素である。ただし、σ買、σyはポテンシャル
φ^の空間的法がりを表わすパラメータである。また、
(1)式において、X^はパターンAを空間Sの部分集
合とみなしたときの定義関数である。 次に上述した空間S上のパターンAのポテンシャルφ^
場により、パターンBの受ける作用Faは、次の(2)
式により求めることができる。ここでは説明の便宜上、
2次元平面内でのX軸およびy軸方向への移動のみを対
象としている。 Fa=/、Xa°Dφads     −(2)ただし
、XaはパターンBを空間Sの部分集合と同一視したと
きの定義関数であり、Dは勾配作なる微分作用素を表し
ている。 上述の(1)式および(2)式により、パターンBをパ
ターンAに対して変形させるための情報、すなわち移動
ロボットの誘導情報を得ることができる。しかし、この
演算における(1)式においては無限次元の連立方程式
を含んでいるため、つぎの近似式(3)を用いることが
よい。 at 上記(3)式のポテンシャルφ^の解を用いて、パター
ンBをパターンAに移動操作するための操作機構Maの
出力Uaは、次の(4)式によって求めることができる
。 Ua= −/5Xa−Dφ^ds    −(4)次に
上述した本発明の装置の実施例の動作を説明する。 移動ロボット1の誘導開始に先立って、表示装置5には
、テレビカメラ4からの撮影画像と、構成物記憶手段9
からの構成物のリストと予測パターン発生手段12から
の予測パターンとが表示される。一方、特徴パターン検
出手段6は撮影画像から特徴パターンを検出し、これを
パターン照合手段2oに出力する。また予測パターン発
生手段12は移動量検出器3からの移動量によって予測
パターンをパターン照合手段20に出力する。パターン
照合手段20は両パターンの照合において、照合不能の
場合には照合不能信号を表示装置5に出力する。次に、
表示装置5に表示されたパターン照合不能表示にもとづ
き、操作者は表示装置5に表示された撮影画像と構成物
記憶手段9からの構成物のリストと予測パターン発生手
段12からの予測パターンとを参照して移動ロボット1
の誘導目標となる構成物の情報の選択順序ルールを、入
力装置11によって第1の記憶手段7に入力する。この
選択が完了すると、予測パターン発生手段12は構成物
記憶手段9および構成物要素記憶手段10からそれぞれ
構成物の配置および形状データを選択されたルールに従
って読み出し、その予測パターンを求める。この予測パ
ターンは表示装置5に入力される。これにより、操作者
は表示装置5に表示された撮影画像と予測パターンとを
参照し、不適と判断した場合には入力装置11を操作し
て構成物記憶手段9から他の構成物の予測パターンを生
成し1表示装置5に表示する。この予測パターンが適切
であると判断した場合には、操作者の入力装置11の操
作により、この予測パターンは移動制御装置2に入力さ
れる。また、この移動制御装置2には特徴パターン検出
手段6からの観測画像の特徴パターンが入力される。こ
のため、移動制御装置2は特徴パターンと予測パターン
とを比較して移動ロボット1を誘導するための誘導信号
を移動ロボット1の走行装置IAに出力する。これによ
り、移動ロボット1は目標地点に誘導制御される。 以上述べたように、操作者は入力装置11によって環境
構成物の選択順序ルールを入力し、また特徴パターン中
のある構成要素とに対応する構成要素の予測パターンを
選択することができる。これにより、特徴パターンと予
測パターンとの照合が適確に行われるので、移動ロボッ
トを高速で精度良く誘導することができる。 なお上述の例においては移動ロボットを例にとって説明
したが、これに限られるものではない。 〔発明の効果〕 以上述べたように、本発明によれば、撮影画像の特徴パ
ターンと比較される予測パターンをルール選択して入力
設定することができるので、従来のような画像処理のた
めに多大な時間を要しないものである。このため、移動
体を高速で精度良く誘導することができる。 4、図面の簡単な説明 第1図は本発明の装置の一実施例の構成を示す図、第2
図は本発明の装置によって誘導される移動体の誘導対象
の一例である部屋を示す図、第3図は本発明の装置を構
成する構成物記憶手段および構成物要素記憶手段に記憶
された第2図に示す部屋のフレーム内容を示す説明図、
第4図は本発明の装置を構成する移動制御装置に用いら
れるパターンマツチング原理を示す説明図である。 1・・・移動ロボット、2・・・移動制御装置、4・・
・テレビカメラ、5・・・表示装置、6・・・特徴パタ
ーン検出手段、7・・・第1の記憶手段、8・・・第2
の記憶手段、9・・・構成物記憶手段、10・・・構成
物要素記憶手段、11・・・入力装置、12・・・予測
パターン発生手段。

Claims (1)

    【特許請求の範囲】
  1. 1、移動体を所定の環境内の経路に沿つて誘導する誘導
    装置において、上記環境内の構成物の選択ルールを記憶
    するルール記憶器と、前記構成物を記憶する構成記憶器
    と、この構成記憶器内の構成物の幾何学データを記憶す
    る要素記憶器と、移動体の位置情報にもとづいてこれに
    関する構成物の幾何学データを要素記憶器から取込みそ
    の予測パターンを求めるパターン発生器と、移動体に装
    着したカメラからの画像から特徴パターンを抽出するパ
    ターン検出器と、予測パターンと特徴パターンとを比較
    しこれらの差が減少するように移動体を制御する制御装
    置と、撮影画像、環境内の構成物およびその予測パター
    ンを操作者に表示する表示装置と、構成物の選択ルール
    をルール記憶器に設定入力する入力装置を備えたことを
    特徴とする誘導装置。
JP60021692A 1985-02-08 1985-02-08 誘導装置 Pending JPS61183716A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP60021692A JPS61183716A (ja) 1985-02-08 1985-02-08 誘導装置
US06/825,976 US4652803A (en) 1985-02-08 1986-02-04 Guidance system
EP86101467A EP0190742B1 (en) 1985-02-08 1986-02-05 Guidance system for a mobile robot
DE8686101467T DE3683508D1 (de) 1985-02-08 1986-02-05 Wegfuehrungssystem fuer einen beweglichen automaten.
CA000501281A CA1238103A (en) 1985-02-08 1986-02-06 Guidance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60021692A JPS61183716A (ja) 1985-02-08 1985-02-08 誘導装置

Publications (1)

Publication Number Publication Date
JPS61183716A true JPS61183716A (ja) 1986-08-16

Family

ID=12062119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60021692A Pending JPS61183716A (ja) 1985-02-08 1985-02-08 誘導装置

Country Status (5)

Country Link
US (1) US4652803A (ja)
EP (1) EP0190742B1 (ja)
JP (1) JPS61183716A (ja)
CA (1) CA1238103A (ja)
DE (1) DE3683508D1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0736541A (ja) * 1993-06-14 1995-02-07 Medoman Kk 無人走行台車の走行制御方法
CN107203211A (zh) * 2017-06-19 2017-09-26 上海名护机器人有限公司 一种机器人交互运动的方法

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4845610A (en) * 1984-07-13 1989-07-04 Ford Aerospace & Communications Corporation Target recognition using string-to-string matching
US4940925A (en) * 1985-08-30 1990-07-10 Texas Instruments Incorporated Closed-loop navigation system for mobile robots
US5208750A (en) * 1987-06-17 1993-05-04 Nissan Motor Co., Ltd. Control system for unmanned automotive vehicle
EP0297811A3 (en) * 1987-06-27 1990-08-16 Shinko Electric Co. Ltd. Control systems for self-contained unmanned vehicles
US5229941A (en) * 1988-04-14 1993-07-20 Nissan Motor Company, Limtied Autonomous vehicle automatically running on route and its method
US5155684A (en) * 1988-10-25 1992-10-13 Tennant Company Guiding an unmanned vehicle by reference to overhead features
JP2669043B2 (ja) * 1989-04-12 1997-10-27 日産自動車株式会社 自律走行車両
US5006988A (en) * 1989-04-28 1991-04-09 University Of Michigan Obstacle-avoiding navigation system
JP3002206B2 (ja) * 1989-06-22 2000-01-24 神鋼電機株式会社 移動ロボットの走行制御方法
JPH03201110A (ja) * 1989-12-28 1991-09-03 Toyota Central Res & Dev Lab Inc 自律走行車の位置方位検出装置
JPH07119606B2 (ja) * 1990-03-20 1995-12-20 三菱電機株式会社 追尾式車間距離検出装置
US5170352A (en) * 1990-05-07 1992-12-08 Fmc Corporation Multi-purpose autonomous vehicle with path plotting
US6728404B1 (en) 1991-09-12 2004-04-27 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
US5740274A (en) * 1991-09-12 1998-04-14 Fuji Photo Film Co., Ltd. Method for recognizing object images and learning method for neural networks
KR950009344B1 (ko) * 1992-09-15 1995-08-21 주식회사삼성중공업 무궤도식 크레인 자동주향방법 및 그 장치
SG42898A1 (en) * 1993-01-11 1997-10-17 Hitachi Ltd Production control system
JP2501010B2 (ja) * 1993-10-25 1996-05-29 インターナショナル・ビジネス・マシーンズ・コーポレイション 移動ロボットの誘導装置
US5999866A (en) * 1996-11-05 1999-12-07 Carnegie Mellon University Infrastructure independent position determining system
ATE282845T1 (de) 1998-07-08 2004-12-15 Siemens Ag Verfahren und anordnung zur ermittlung eines ähnlichkeitsmasses einer ersten struktur mit mindestens einer vorgegebenen zweiten struktur
US10488860B1 (en) * 2006-02-21 2019-11-26 Automodality, Inc. Geocoding data for an automated vehicle
JP5112666B2 (ja) * 2006-09-11 2013-01-09 株式会社日立製作所 移動装置
DE102010029241A1 (de) * 2010-05-21 2011-11-24 Alfred Kärcher Gmbh & Co. Kg Bodenbearbeitungsgerät sowie Verfahren zur Bearbeitung einer Bodenfläche
US11947354B2 (en) * 2016-06-07 2024-04-02 FarmX Inc. Geocoding data for an automated vehicle
WO2018064639A1 (en) 2016-09-30 2018-04-05 Staples, Inc. Hybrid modular storage fetching system
US10683171B2 (en) 2016-09-30 2020-06-16 Staples, Inc. Hybrid modular storage fetching system
US10589931B2 (en) 2016-09-30 2020-03-17 Staples, Inc. Hybrid modular storage fetching system
CA3098890A1 (en) 2018-04-30 2019-11-07 Path Robotics, Inc. Reflection refuting laser scanner
US11590997B1 (en) 2018-08-07 2023-02-28 Staples, Inc. Autonomous shopping cart
US11084410B1 (en) 2018-08-07 2021-08-10 Staples, Inc. Automated guided vehicle for transporting shelving units
US11630447B1 (en) 2018-08-10 2023-04-18 Staples, Inc. Automated guided vehicle for transporting objects
US11180069B2 (en) 2018-12-31 2021-11-23 Staples, Inc. Automated loading of delivery vehicles using automated guided vehicles
US11119487B2 (en) 2018-12-31 2021-09-14 Staples, Inc. Automated preparation of deliveries in delivery vehicles using automated guided vehicles
US11124401B1 (en) 2019-03-31 2021-09-21 Staples, Inc. Automated loading of delivery vehicles
WO2022016152A1 (en) 2020-07-17 2022-01-20 Path Robotics, Inc. Real time feedback and dynamic adjustment for welding robots
EP4297923A2 (en) 2021-02-24 2024-01-03 Path Robotics, Inc. Autonomous welding robots

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS51112236A (en) * 1975-03-28 1976-10-04 Hitachi Ltd Shape position recognizer unit
US4146924A (en) * 1975-09-22 1979-03-27 Board Of Regents For Education Of The State Of Rhode Island System for visually determining position in space and/or orientation in space and apparatus employing same
GB1590950A (en) * 1976-12-11 1981-06-10 Emi Ltd System for comparing representations of a scene
DE2939656C2 (de) * 1979-09-29 1983-03-10 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Verfahren zur Verfolgung von Zielen
US4486775A (en) * 1980-10-17 1984-12-04 Micro Consultants Limited Object recognition
US4380696A (en) * 1980-11-12 1983-04-19 Unimation, Inc. Method and apparatus for manipulator welding apparatus with vision correction for workpiece sensing
US4458321A (en) * 1981-08-19 1984-07-03 The Charles Stark Draper Laboratory, Inc. Self-teaching robot feedback system
JPS59122975A (ja) * 1982-12-29 1984-07-16 Mitsubishi Electric Corp 監視用映像記録装置
FR2540263B1 (fr) * 1983-01-31 1988-05-20 Commissariat Energie Atomique Procede de reconnaissance automatique d'une image a partir d'une image correspondante de reference
US4504970A (en) * 1983-02-07 1985-03-12 Pattern Processing Technologies, Inc. Training controller for pattern processing system
JPS6084610A (ja) * 1983-10-17 1985-05-14 Hitachi Ltd 誘導装置
US4611347A (en) * 1984-09-24 1986-09-09 At&T Bell Laboratories Video recognition system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0736541A (ja) * 1993-06-14 1995-02-07 Medoman Kk 無人走行台車の走行制御方法
CN107203211A (zh) * 2017-06-19 2017-09-26 上海名护机器人有限公司 一种机器人交互运动的方法

Also Published As

Publication number Publication date
EP0190742A2 (en) 1986-08-13
DE3683508D1 (de) 1992-03-05
EP0190742B1 (en) 1992-01-22
EP0190742A3 (en) 1987-10-28
US4652803A (en) 1987-03-24
CA1238103A (en) 1988-06-14

Similar Documents

Publication Publication Date Title
JPS61183716A (ja) 誘導装置
KR910013872A (ko) 시점(視点) 위치제어장치
US7802193B1 (en) Controlling motion using a human machine interface
JP7332353B2 (ja) 点検システム及び点検方法
KR102252060B1 (ko) Gps 메타데이터에 기반하여 드론 영상의 시공간 정보를 표시하기 위한 방법 및 그 장치
US11395102B2 (en) Field cooperation system and management device
Cannon Point-and-direct telerobotics: Object level strategic supervisory control in unstructured interactive human-machine system environments
Zhang et al. Agent3d-zero: An agent for zero-shot 3d understanding
Neira et al. Multisensor mobile robot localization
Skubic et al. Hand-drawn maps for robot navigation
Lu et al. Simultaneous tracking and regulation visual servoing of wheeled mobile robots with uncalibrated extrinsic parameters
JP7334460B2 (ja) 作業支援装置及び作業支援方法
JPH07160412A (ja) 指示位置検出方法
JPH09174468A (ja) ロボット教示装置
Reda et al. MoCap systems and hand movement reconstruction using cubic spline
Carff et al. Human-robot team navigation in visually complex environments
JPS61183715A (ja) 誘導装置
Safia et al. Visual path following by an omnidirectional mobile robot using 2d visual servoing
JPS63186308A (ja) 移動体の誘導方法、および装置
Touretzky et al. The Tekkotsu" crew": Teaching robot programming at a higher level
Willis Mind the gap: Mobile applications and wayfinding
Malis Hybrid vision-based robot control robust to large calibration errors on both intrinsic and extrinsic camera parameters
Suryaa et al. ARNAV: Computer vision and Machine Learning-Based Augmented Reality-Based Indoor Navigation System
JP3005246B2 (ja) 衝突回避制御システム
KR102453926B1 (ko) 레일을 활용한 관광장소의 온셋 조성 장치