JPS62199376A - 遠隔マニピユレ−シヨン方法及び装置 - Google Patents
遠隔マニピユレ−シヨン方法及び装置Info
- Publication number
- JPS62199376A JPS62199376A JP61039232A JP3923286A JPS62199376A JP S62199376 A JPS62199376 A JP S62199376A JP 61039232 A JP61039232 A JP 61039232A JP 3923286 A JP3923286 A JP 3923286A JP S62199376 A JPS62199376 A JP S62199376A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- slave
- data
- level
- skill
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 56
- 230000033001 locomotion Effects 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 description 39
- 238000012545 processing Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 241000282412 Homo Species 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 239000013598 vector Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 102100037009 Filaggrin-2 Human genes 0.000 description 3
- 101000878281 Homo sapiens Filaggrin-2 Proteins 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000011017 operating method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 235000017399 Caesalpinia tinctoria Nutrition 0.000 description 1
- 101001137060 Homo sapiens Oligophrenin-1 Proteins 0.000 description 1
- 101000611338 Homo sapiens Rhodopsin Proteins 0.000 description 1
- 102100035592 Oligophrenin-1 Human genes 0.000 description 1
- 102100040756 Rhodopsin Human genes 0.000 description 1
- 241000388430 Tara Species 0.000 description 1
- 235000006732 Torreya nucifera Nutrition 0.000 description 1
- 244000111306 Torreya nucifera Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000003801 milling Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
- G05B19/427—Teaching successive positions by tracking the position of a joystick or handle to control the positioning servo of the tool head, leader-follower control
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Control Of Position Or Direction (AREA)
- Manipulator (AREA)
- Control By Computers (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明はマスタ及びスレーブを用いた遠隔マニピユレー
ション方法及び装置に関する。
ション方法及び装置に関する。
遠隔マニピユレーションは1人間がマスタマニピュレー
タまたは操作レバー等(以下、両者を合わせてマスタと
呼ぶ)を操作し、その操作に応じてスレーブマニピュレ
ータ(以下、スレーブと呼び)が動作し作業をすること
によって実施する。
タまたは操作レバー等(以下、両者を合わせてマスタと
呼ぶ)を操作し、その操作に応じてスレーブマニピュレ
ータ(以下、スレーブと呼び)が動作し作業をすること
によって実施する。
従来の多くのマニピユレーション装置は、マスタの姿勢
にスレーブの姿勢を従わせ、スレーブにかかる反力をマ
スターを介して人間に伝えるように製作されており1通
常スレーブの姿勢や作業状況をモニタするためのTVカ
メラ及びTVディスプレイを併用し、操作を実施する。
にスレーブの姿勢を従わせ、スレーブにかかる反力をマ
スターを介して人間に伝えるように製作されており1通
常スレーブの姿勢や作業状況をモニタするためのTVカ
メラ及びTVディスプレイを併用し、操作を実施する。
またプロシーデイングズ オブ′85インターナショナ
ル コンファレンス オン アドバンスト ロボテイツ
クス(1985年)第329頁から第336頁(Pro
ceedings of ’ 85 Internat
ionalConference on Advanc
ed Robotics (1985年)第329〜3
36頁)において論じられているように1人間がコマン
ドを入力することによって、スレーブの動きの一部にコ
ンピュータが拘束(例えばスレーブの手先を水平に維持
するなどの拘束)を加え1人間の手動操作の一部を介助
する装置もある。
ル コンファレンス オン アドバンスト ロボテイツ
クス(1985年)第329頁から第336頁(Pro
ceedings of ’ 85 Internat
ionalConference on Advanc
ed Robotics (1985年)第329〜3
36頁)において論じられているように1人間がコマン
ドを入力することによって、スレーブの動きの一部にコ
ンピュータが拘束(例えばスレーブの手先を水平に維持
するなどの拘束)を加え1人間の手動操作の一部を介助
する装置もある。
上記従来技術には1人間がマスタを介して、離れた所に
置かれたスレーブを間接的に動かし作業をすることから
くる困難さや、操作のわずられしさが伴う。
置かれたスレーブを間接的に動かし作業をすることから
くる困難さや、操作のわずられしさが伴う。
本発明の目的は、操作者の技能の程度に適した操作手順
を自動的に決定し、コンピュータによる自動操作と人間
による手動操作を織り混ぜながら作業を遂行する遠隔マ
ニピユレーション方法及び装置を得ることにある。
を自動的に決定し、コンピュータによる自動操作と人間
による手動操作を織り混ぜながら作業を遂行する遠隔マ
ニピユレーション方法及び装置を得ることにある。
上記目的を達成するため本発明は、マスタ及びスレーブ
を用いた遠隔マニピユレーションにおいて、操作者の技
能の程度を示すデータ及び与えられた作業目標から手動
操作部分と自動操作部分を織り混ぜた手順プランを作成
し、この手順プランに沿って、自動操作部分は計算機に
よる運動管理によって自動的に実行し、手動操作部分は
操作者による手動操作により実行するようにしたことを
特徴とするものである。
を用いた遠隔マニピユレーションにおいて、操作者の技
能の程度を示すデータ及び与えられた作業目標から手動
操作部分と自動操作部分を織り混ぜた手順プランを作成
し、この手順プランに沿って、自動操作部分は計算機に
よる運動管理によって自動的に実行し、手動操作部分は
操作者による手動操作により実行するようにしたことを
特徴とするものである。
また、本発明の他の特徴は、操作者の技能データ及び作
業目標から手動操作と自動操作を織り混ぜた手順を作成
するプラン作業手段、手動゛操作時の支援動作や自動操
作を実行するスレーブ動作管理手段、及び手動操作時に
人間の操作をうながし円滑に作業を遂行すべく管理する
インターフェース手段を設け、まず手順のプランを作成
し、次いでこれを順次実行することにある。
業目標から手動操作と自動操作を織り混ぜた手順を作成
するプラン作業手段、手動゛操作時の支援動作や自動操
作を実行するスレーブ動作管理手段、及び手動操作時に
人間の操作をうながし円滑に作業を遂行すべく管理する
インターフェース手段を設け、まず手順のプランを作成
し、次いでこれを順次実行することにある。
プラン作成手段は、操作者技能データ及び与えられた作
業目標から、自動操作と手動操作を織り混ぜた手順を作
成する。これによって技能の程度の異なる操作者に対し
ても常に適切な操作手順を作成できる。スレーブ動作管
理手段は、自動操作の実行及び手動操作の際の支援動作
を実行する。
業目標から、自動操作と手動操作を織り混ぜた手順を作
成する。これによって技能の程度の異なる操作者に対し
ても常に適切な操作手順を作成できる。スレーブ動作管
理手段は、自動操作の実行及び手動操作の際の支援動作
を実行する。
これによって不必要に操作者を煩わせずに作業を進める
ことができる。インターフェース°手段は。
ことができる。インターフェース°手段は。
手動操作時に人間の操作をえながすと共に、力党感など
をフィードバックする。これによって操作 1者は実施
すべき操作の内容を理解し、円滑に作業を進めることが
できる。
をフィードバックする。これによって操作 1者は実施
すべき操作の内容を理解し、円滑に作業を進めることが
できる。
まず、本発明を発明する要因となった知見について説明
する。遠隔マニピユレーションに人工知能を応用し、作
業の一部をコンピュータに分担させることが本発明の出
発点である。しかしながら、どのような作業や動作をコ
ンピュータと人間に分担したら良いかを決定することは
容易ではない。
する。遠隔マニピユレーションに人工知能を応用し、作
業の一部をコンピュータに分担させることが本発明の出
発点である。しかしながら、どのような作業や動作をコ
ンピュータと人間に分担したら良いかを決定することは
容易ではない。
人間が遠隔マニピユレーションをする際に特有の問題と
して、TVモニタ等を見ながら離れたところにあるスレ
ーブを間接的に操作することの困難さがあげられる。こ
のような困難な作業を実施するためには、方向感覚や機
械系、制御系のくせに対する感覚などを体得する必要が
ある。実際にマニピユレーション作業を実施してみると
、このような技能には、初歩者と熟練者の間で大きな開
きがあり、熟練者にはできて初歩者にはできない操作や
、同じ作操でも速さや正確さにかなり差異のあることが
わかった。例をあげると、脆弱なものを適切な力で把め
るか、はめ合い作業ができるか、位置決め、軸合せの正
確さ、手先を所望の位置に移動するまでの時間や円滑さ
など様々である。また熟練者でも2〜3時間を経過する
と疲労し、極端に技能が低下した。
して、TVモニタ等を見ながら離れたところにあるスレ
ーブを間接的に操作することの困難さがあげられる。こ
のような困難な作業を実施するためには、方向感覚や機
械系、制御系のくせに対する感覚などを体得する必要が
ある。実際にマニピユレーション作業を実施してみると
、このような技能には、初歩者と熟練者の間で大きな開
きがあり、熟練者にはできて初歩者にはできない操作や
、同じ作操でも速さや正確さにかなり差異のあることが
わかった。例をあげると、脆弱なものを適切な力で把め
るか、はめ合い作業ができるか、位置決め、軸合せの正
確さ、手先を所望の位置に移動するまでの時間や円滑さ
など様々である。また熟練者でも2〜3時間を経過する
と疲労し、極端に技能が低下した。
一方、コンピュータがする操作については、粗い精度で
の手先の位置決めなどは極めて速くできるが、障害物を
回避しながらの手先の移動や、精密な位置合わせなどに
は多くの時間を要する。また人間にしかできない操作も
ある。
の手先の位置決めなどは極めて速くできるが、障害物を
回避しながらの手先の移動や、精密な位置合わせなどに
は多くの時間を要する。また人間にしかできない操作も
ある。
従って、人間が担当すべきもの、コンピュータが担当す
べきもの1人間の技能の程度によりコンピュータないし
は人間が担当すべきものがある。
べきもの1人間の技能の程度によりコンピュータないし
は人間が担当すべきものがある。
このような知見から、まず作業の目的と人間の技能に合
わせて、コンピュータの操作、人間の操作、あるいは両
者の協調操作より成る作業手順のプランを作成し、コン
ピュータが実行する部分は自動時に実施し、人間の操作
部分では人間に操作をうながすことが、遠隔マニピユレ
ーションを最も円滑かつ速やかに実施できる方法である
と考えるに至った。
わせて、コンピュータの操作、人間の操作、あるいは両
者の協調操作より成る作業手順のプランを作成し、コン
ピュータが実行する部分は自動時に実施し、人間の操作
部分では人間に操作をうながすことが、遠隔マニピユレ
ーションを最も円滑かつ速やかに実施できる方法である
と考えるに至った。
以下1本発明の一実施例を第1図により説明する。本実
施例は、マスタ101とTVモニタ102に接続された
インターフェース手段103.プラン作成手段104、
スレーブ動作管理手段1o5゜スレーブ制御手段106
、スレーブ制御手段106により制御されるスレーブ1
07、スレーブの状態を検出するセンシング手段108
、及び前記各手段103,104,105,106,1
08が情報を書き込んだり、読み出したりする記憶手段
109、該記憶手段109内にあって操作者110の、
操作技能に関するデータを格納している操作者技術デー
タ部111によって構成されている。
施例は、マスタ101とTVモニタ102に接続された
インターフェース手段103.プラン作成手段104、
スレーブ動作管理手段1o5゜スレーブ制御手段106
、スレーブ制御手段106により制御されるスレーブ1
07、スレーブの状態を検出するセンシング手段108
、及び前記各手段103,104,105,106,1
08が情報を書き込んだり、読み出したりする記憶手段
109、該記憶手段109内にあって操作者110の、
操作技能に関するデータを格納している操作者技術デー
タ部111によって構成されている。
第2図は第1図の実施例をさらに詳しく説明するための
図である。同図では記憶手段109の内容として、操作
者技能データ部111の他、作業データ部201、環境
データ部202、装置データ部203、プラン部204
、現在状態部205、制御入力部206、センサ情報部
207を有している。第2図中の各々のブロックについ
て以下に説明する。
図である。同図では記憶手段109の内容として、操作
者技能データ部111の他、作業データ部201、環境
データ部202、装置データ部203、プラン部204
、現在状態部205、制御入力部206、センサ情報部
207を有している。第2図中の各々のブロックについ
て以下に説明する。
く現在状態部205〉
現在状態部205の内容は第3図に示すように現在実行
中の演算子番号3a、実行の終了を示すフラグ3b、次
に実行する演算子番号3c、現在状態の記述3dより成
る。3a、3b、3cについてはプラン部の説明の際に
詳しく述べるので。
中の演算子番号3a、実行の終了を示すフラグ3b、次
に実行する演算子番号3c、現在状態の記述3dより成
る。3a、3b、3cについてはプラン部の説明の際に
詳しく述べるので。
ここでは現在状態の記述3dについて説明する。
第4図に示すように、現在状態の記述3dの内容は装置
の状態4a及び作業対象の状!4bに分かれる。
の状態4a及び作業対象の状!4bに分かれる。
装置の状態4aには、マスタ及びスレーブの関節角や手
先の位置、方向、グリッパが物を把んでいるかいないか
などの情報が収納されている。
先の位置、方向、グリッパが物を把んでいるかいないか
などの情報が収納されている。
作業対象の状態4bには、作業対象の相互関係を示すデ
ータ4bl及び位置姿勢を示すデータ4b2が収納され
ている。各々を具体的に説明するために第5図のような
例を考える。この例では、マニピユレーション作業によ
り、弁を分解する。
ータ4bl及び位置姿勢を示すデータ4b2が収納され
ている。各々を具体的に説明するために第5図のような
例を考える。この例では、マニピユレーション作業によ
り、弁を分解する。
すなわちボルト51で固定されたフランジ52及び弁箱
53の内部に゛ある弁体54を取り出す作業をする。通
常はボルトは18個程度あるが、ここでは簡単のために
1個のみと仮定する。、第4図に戻って説明を続ける。
53の内部に゛ある弁体54を取り出す作業をする。通
常はボルトは18個程度あるが、ここでは簡単のために
1個のみと仮定する。、第4図に戻って説明を続ける。
4blには、フランジと弁箱が固定されており、弁体が
弁箱の中にあり、ボルトがフランジと弁箱を固定してい
る状態が記述されている。4b2には、各パーツの空間
座標上の位置ベクトルXi g XJ HXk と各々
の姿勢角ベクトルθ1.θ4.θ、が収納されている。
弁箱の中にあり、ボルトがフランジと弁箱を固定してい
る状態が記述されている。4b2には、各パーツの空間
座標上の位置ベクトルXi g XJ HXk と各々
の姿勢角ベクトルθ1.θ4.θ、が収納されている。
〈作業データ部201〉
作業データ部201の内容は、第6図に示すように作業
目標6a、演算子の定義6b、作業対象に関するデータ
6cより成る。作業口@6aは同図に示す例のように、
弁体が作業台に置かれており、その位置はXr+姿勢は
θ、といった目標状態を定義する。また、作業対象に関
するデータとしては、フランジやボルトなどの形状に関
するデータを収納する。
目標6a、演算子の定義6b、作業対象に関するデータ
6cより成る。作業口@6aは同図に示す例のように、
弁体が作業台に置かれており、その位置はXr+姿勢は
θ、といった目標状態を定義する。また、作業対象に関
するデータとしては、フランジやボルトなどの形状に関
するデータを収納する。
演算子の定義6bは第7図を用いて説明する。
演算子は状態を変化されるための手段のことである。現
在状態(例えば第4図の4b)から目標状態(例えば第
6図の6a)に移行するためには、適切な手段を順に施
して状態を次々と変化させてゆかなければならない。各
手段は後述する理由から幾つかの階層に分けられており
、第7図の例では1作業レベルの演算子「フランジ取外
し」についての定義が示されている6レベルについては
プラン作業手段を説明する際に後述するので、ここでは
前提条件7a、状態変化7bについて説明する。
在状態(例えば第4図の4b)から目標状態(例えば第
6図の6a)に移行するためには、適切な手段を順に施
して状態を次々と変化させてゆかなければならない。各
手段は後述する理由から幾つかの階層に分けられており
、第7図の例では1作業レベルの演算子「フランジ取外
し」についての定義が示されている6レベルについては
プラン作業手段を説明する際に後述するので、ここでは
前提条件7a、状態変化7bについて説明する。
前提条件7aの内容は、この演算子が使えるための条件
を示す。図の例では、フランジがどこにも固定されてお
らず、弁体の上にあることを条件としている。状態変化
7bの内容は、削除項目と追加項目に分けて記述されて
いる。削除項目はこの演算子を施こした後に以前の状態
の記述から削除される項目を表わし、図の例では、フラ
ンジが弁体の上にあるという項目とフランジの位置・姿
勢に関する項目が削除される。追加項目は新たに付は加
わる項目であり1図の例ではフランジが床上にあること
とフランジの新しい位置・姿勢が追加されることを示す
。コストli 7 cはこの演算子を施す際のコスト(
後述)の値、はだは評価する関数を収納する。
を示す。図の例では、フランジがどこにも固定されてお
らず、弁体の上にあることを条件としている。状態変化
7bの内容は、削除項目と追加項目に分けて記述されて
いる。削除項目はこの演算子を施こした後に以前の状態
の記述から削除される項目を表わし、図の例では、フラ
ンジが弁体の上にあるという項目とフランジの位置・姿
勢に関する項目が削除される。追加項目は新たに付は加
わる項目であり1図の例ではフランジが床上にあること
とフランジの新しい位置・姿勢が追加されることを示す
。コストli 7 cはこの演算子を施す際のコスト(
後述)の値、はだは評価する関数を収納する。
く環境データ部202〉
環境データ部には1作業対象とスレーブを除く他の機器
の配置や寸法、形状についてのデータを収納する。スレ
ーブが動作する時の衝突などをチェックする際に用いる
。
の配置や寸法、形状についてのデータを収納する。スレ
ーブが動作する時の衝突などをチェックする際に用いる
。
く操作者技能データ部111〉
操作者の技能を表わす項目について、点数または段階に
より、その程度が示されている。技能の項目としては、 (1)手先の移動時間/軌跡精度 (2)手先の位置合わせ時間/精度 (3)手先の軸合わせ時間/精度 (4)反力検出感度 など様々な内容がある。
より、その程度が示されている。技能の項目としては、 (1)手先の移動時間/軌跡精度 (2)手先の位置合わせ時間/精度 (3)手先の軸合わせ時間/精度 (4)反力検出感度 など様々な内容がある。
く装置データ部203〉
ここには次のようなデータが収納される。
(1)スレーブ107の寸法、形状データ(2)コンピ
ュータによる自動動作の性能9機能〈センシング手段1
08及びセンサ情報部207〉センシング手段108は
、スレーブ107の制御をする際に用いるエンコーダ、
ポテンショメータ、タフジェネレータ、カセンサ、コン
ピュータの自動動作に使用する視覚センサ、TVモニタ
102に情景を映し出すためのTVカメラなどを含み、
センサ情報部207にデータを供給する。
ュータによる自動動作の性能9機能〈センシング手段1
08及びセンサ情報部207〉センシング手段108は
、スレーブ107の制御をする際に用いるエンコーダ、
ポテンショメータ、タフジェネレータ、カセンサ、コン
ピュータの自動動作に使用する視覚センサ、TVモニタ
102に情景を映し出すためのTVカメラなどを含み、
センサ情報部207にデータを供給する。
センサ情報部207には、次のような情報が収納される
。
。
(1)各種センシング結果のデータ
(2)各種センサーの位置や性能、TVカメラの位置や
特性、現在モニタ102に情景を映しているカメラの番
号など 〈制御手段106及び制御入力206〉制御手段106
は、スレーブ107の各関節を、位置制御、速度制御、
力制御する。制御の種類や目標値は制御入力206に収
納されている。
特性、現在モニタ102に情景を映しているカメラの番
号など 〈制御手段106及び制御入力206〉制御手段106
は、スレーブ107の各関節を、位置制御、速度制御、
力制御する。制御の種類や目標値は制御入力206に収
納されている。
くプラン作成手段104及びプラン部204〉プラン作
成手段104についてはさらに具体的実施例を後述する
ので、ここでは概要を述べる。
成手段104についてはさらに具体的実施例を後述する
ので、ここでは概要を述べる。
プラン作成手段104は、現在状態(例えば第4図の4
b)から目標状態(例えば第6図の6a)に移行するた
めに、どのような演算子(第7図)を順に施せばよいか
を判断し、結果をプラン部204に収納する。またプラ
ンが収納されたことを示すために現在状態205の「次
に実行する演算子番号’elc第3図30)」にプラン
の先頭番号を収納する。プランは、−例を第8図に示す
ように5つの階層(レベル)に用けて作る。各々のレベ
ルのプランは第7図のように定義された演算子を並べた
ものであり、第8図から第10図には例が示されている
。まず第8図において、最上位レベル(目的レベル8a
)のプランは1つの演算子8fのみで構成される。この
演算子は作業全体を総括した概念を表わす。この演算子
を作業レベル8bに具体化すると下図のように(ボルト
取外し)8g→(フランジ取外し)8h→(弁体取外し
)81の手順となる。プラン中の番号欄は演算子を施す
順序を示し、上位レベルポインタ欄の番号は1段階上位
レベルのプラン中の、どの番号の演算子を具体化したも
のであることを示す。すなわち図中の例では、作業レベ
ル8b中の3つの演算子はいずれも目的レベル8aの演
子Nα1を具体化したものである。以下、レベルが下が
るにつれて演算子は徐々に具体化されゆき、最下位の軌
跡レベル8eの演算子になって始めて、人間またはコン
ピュータにより実行可能なデータとなる。第9図は手順
レベル8c、及び動作レベル8dの例を示すものである
6作業レベル8bで(ボルト取外し)8gであったもの
が、手順レベル8cでは(ボルト緩め)9a、(ボルト
除去)9bに分けられる。
b)から目標状態(例えば第6図の6a)に移行するた
めに、どのような演算子(第7図)を順に施せばよいか
を判断し、結果をプラン部204に収納する。またプラ
ンが収納されたことを示すために現在状態205の「次
に実行する演算子番号’elc第3図30)」にプラン
の先頭番号を収納する。プランは、−例を第8図に示す
ように5つの階層(レベル)に用けて作る。各々のレベ
ルのプランは第7図のように定義された演算子を並べた
ものであり、第8図から第10図には例が示されている
。まず第8図において、最上位レベル(目的レベル8a
)のプランは1つの演算子8fのみで構成される。この
演算子は作業全体を総括した概念を表わす。この演算子
を作業レベル8bに具体化すると下図のように(ボルト
取外し)8g→(フランジ取外し)8h→(弁体取外し
)81の手順となる。プラン中の番号欄は演算子を施す
順序を示し、上位レベルポインタ欄の番号は1段階上位
レベルのプラン中の、どの番号の演算子を具体化したも
のであることを示す。すなわち図中の例では、作業レベ
ル8b中の3つの演算子はいずれも目的レベル8aの演
子Nα1を具体化したものである。以下、レベルが下が
るにつれて演算子は徐々に具体化されゆき、最下位の軌
跡レベル8eの演算子になって始めて、人間またはコン
ピュータにより実行可能なデータとなる。第9図は手順
レベル8c、及び動作レベル8dの例を示すものである
6作業レベル8bで(ボルト取外し)8gであったもの
が、手順レベル8cでは(ボルト緩め)9a、(ボルト
除去)9bに分けられる。
(ボルト緩め)9aは専用の工具を使った作業である。
(ボルト除去)9bに注目してさらに下位レベルを見て
みると、動作レベル8dでは、(アプローチ(appr
oach)ボルト)9c、(グリップ(grip)ボル
ト)9d、リワインド(rewind)ボルト)9e、
(ムーブ(move) Xd ) 9 fに分解される
。これらは各々「ボルトを把む位置に手先を移動」、「
ボルトを把む」、「ボルトを回す」。
みると、動作レベル8dでは、(アプローチ(appr
oach)ボルト)9c、(グリップ(grip)ボル
ト)9d、リワインド(rewind)ボルト)9e、
(ムーブ(move) Xd ) 9 fに分解される
。これらは各々「ボルトを把む位置に手先を移動」、「
ボルトを把む」、「ボルトを回す」。
「手先を位置xiに移動」を意味する。このうち9c、
9d、9sをさらに具体化した例を第10に示す。同図
は最下位の軌跡レベル8eを示したものである。まず、
(アプローチボルト)9cを具体化すると、(ムーブx
s :condx ) + (ムーブX2: co
ndz ) + (ムーブxs :conda L(o
p−ムーブX番 : cond番)となることが示され
ている。これは、手先がボルトの頭を把む位置x4に移
動するために、xt l XZ g xsを経由して自
動モードで移動し、1BからX4までは手動操作で動か
す(op−ムーブ)ことを意味する。
9d、9sをさらに具体化した例を第10に示す。同図
は最下位の軌跡レベル8eを示したものである。まず、
(アプローチボルト)9cを具体化すると、(ムーブx
s :condx ) + (ムーブX2: co
ndz ) + (ムーブxs :conda L(o
p−ムーブX番 : cond番)となることが示され
ている。これは、手先がボルトの頭を把む位置x4に移
動するために、xt l XZ g xsを経由して自
動モードで移動し、1BからX4までは手動操作で動か
す(op−ムーブ)ことを意味する。
このように手動による操作を示す演算子には名称にro
p−Jを付けるなどして自動のものと区別する。ここで
、演算子に付帯するrcondt Jなとの記号は、演
算子を実施する際の付帯条件を表わし、−例をLogに
示すように、別途まとめて記憶し手先の姿勢や、位置に
関する拘束すなわち手動操作をコンピュータにより介助
する。支援動作などを記述する。この他にもコンプライ
アンス条件、使用するセンシング手段など様々な条件が
あり得る。さて(op−ムーブ)10dの次には、(グ
リップボルト)9dを具体化した(クローズ(clos
e)−ハンド(hand) 10 eがある。この演
算子の付帯条件cond 3には、ボルトを把む力など
が記述されている0次の演算子(ローテイート(rot
ate)−ハンド(hand) 10 fはボルトを1
0回転して抜くことを意味する。付帯条件condsは
、ボルトの頭が抜けてくるに従って、コンプライアンス
制御によりハンドの位置が徐々に移動するとともに1手
先姿勢が一定を保つように記述されている。
p−Jを付けるなどして自動のものと区別する。ここで
、演算子に付帯するrcondt Jなとの記号は、演
算子を実施する際の付帯条件を表わし、−例をLogに
示すように、別途まとめて記憶し手先の姿勢や、位置に
関する拘束すなわち手動操作をコンピュータにより介助
する。支援動作などを記述する。この他にもコンプライ
アンス条件、使用するセンシング手段など様々な条件が
あり得る。さて(op−ムーブ)10dの次には、(グ
リップボルト)9dを具体化した(クローズ(clos
e)−ハンド(hand) 10 eがある。この演
算子の付帯条件cond 3には、ボルトを把む力など
が記述されている0次の演算子(ローテイート(rot
ate)−ハンド(hand) 10 fはボルトを1
0回転して抜くことを意味する。付帯条件condsは
、ボルトの頭が抜けてくるに従って、コンプライアンス
制御によりハンドの位置が徐々に移動するとともに1手
先姿勢が一定を保つように記述されている。
くスレーブ動作管理手段105〉
プラン部204に収納された演算子は、現在状態205
に収納されている「次に実行する演算子番号」に従って
次々と実行されてゆく。実行される演算子は全て軌跡レ
ベル8eのものである。この時、演算子の内容や付帯条
件に従ってスレーブ動作管理手段105がこれを実行す
る。例えば(ムーブXI :condt ) 10
aを実行する際には、cond 1に定められた°条件
を満たしながら、手先が位置x1に到達するように制御
入力206を介してスレーブを制御する。またセンサ情
報207の内容を見ながら実行の終了を判定し、現在状
態部205の各々の項目3a、3b、3c、3dを更新
する。
に収納されている「次に実行する演算子番号」に従って
次々と実行されてゆく。実行される演算子は全て軌跡レ
ベル8eのものである。この時、演算子の内容や付帯条
件に従ってスレーブ動作管理手段105がこれを実行す
る。例えば(ムーブXI :condt ) 10
aを実行する際には、cond 1に定められた°条件
を満たしながら、手先が位置x1に到達するように制御
入力206を介してスレーブを制御する。またセンサ情
報207の内容を見ながら実行の終了を判定し、現在状
態部205の各々の項目3a、3b、3c、3dを更新
する。
くインターフェース手段1o3〉
次に実行する演算子が手動操作、すなわち名称にrop
−Jがついているものである時、インターフェース手段
103はモニタ102上への表示や音声出力、マスタ1
01に発生する力などを介して操作者110の操作をう
ながす。インターフェース手段103は、操作者がマス
タに加えた力や変化を読み取り、制御入力部206に適
切な値を書き込むと同時に、センサ情報部207の内容
を読んでマスターに反力などを発生させ、操作者に力感
覚等のフィードバックを伝える。また現在状態部205
の各項目3a、3b、3c、3dを更新する。
−Jがついているものである時、インターフェース手段
103はモニタ102上への表示や音声出力、マスタ1
01に発生する力などを介して操作者110の操作をう
ながす。インターフェース手段103は、操作者がマス
タに加えた力や変化を読み取り、制御入力部206に適
切な値を書き込むと同時に、センサ情報部207の内容
を読んでマスターに反力などを発生させ、操作者に力感
覚等のフィードバックを伝える。また現在状態部205
の各項目3a、3b、3c、3dを更新する。
演算子が手動操作のものであっても、スレーブ動作管理
手段105が働くこともある。これは手動操作を支援す
る場合であり、例えば演算子の付帯条件が手先姿勢に拘
束を加える場合などである。
手段105が働くこともある。これは手動操作を支援す
る場合であり、例えば演算子の付帯条件が手先姿勢に拘
束を加える場合などである。
このような時には、インターフェース手段103は制御
人力バッファ208にデータを書き込み、これをスレー
ブ動作管理手段105が読み、拘束条件を付加した制御
入力を制御人力206に書き込む。この時には現在状態
205の更新はインターフェース手段103のみが行う
。
人力バッファ208にデータを書き込み、これをスレー
ブ動作管理手段105が読み、拘束条件を付加した制御
入力を制御人力206に書き込む。この時には現在状態
205の更新はインターフェース手段103のみが行う
。
く概略フロー〉
以上述べた各ブロックの動作手順概略を説明する6作業
データ201中の作業目標6aを除く項目と、環境デー
タ202、装置データ203、操作者技能データ111
はあらかじめ与えられているものとする。第11図のフ
ローチャートにおいて、まず作業目標6a及び現在状態
205の初期値を与える(lla)、現在状態205中
の次に実行する演算子番号欄3Cに「目的レベルの1番
」を初期値として入れておくと、これは軌跡レベルの演
算子ではないので、自動操作も手動操作も行われない。
データ201中の作業目標6aを除く項目と、環境デー
タ202、装置データ203、操作者技能データ111
はあらかじめ与えられているものとする。第11図のフ
ローチャートにおいて、まず作業目標6a及び現在状態
205の初期値を与える(lla)、現在状態205中
の次に実行する演算子番号欄3Cに「目的レベルの1番
」を初期値として入れておくと、これは軌跡レベルの演
算子ではないので、自動操作も手動操作も行われない。
またこの欄3cに軌跡レベル以外の演算子が記入される
ことはプラン作成手段104の動作をうながす、そこで
プラン作成手段104は目的レベルのプランをさらに具
体化し、軌跡レベルのプランを作成し、プラン部204
に収納した後に、最初に実行する軌跡レベル演算子の番
号を現在状態部205の次に実行する演算子番号欄3c
に収納する(llb)。1i3cに軌跡レベルのデータ
が収納されると、インターフェース手段103またはス
レーブ動作管理手段105が働き、演算子が実行され(
llc)、さらに現在状態部205を更新した後(li
d)、未実行の演算子がなければ終了する(lla)。
ことはプラン作成手段104の動作をうながす、そこで
プラン作成手段104は目的レベルのプランをさらに具
体化し、軌跡レベルのプランを作成し、プラン部204
に収納した後に、最初に実行する軌跡レベル演算子の番
号を現在状態部205の次に実行する演算子番号欄3c
に収納する(llb)。1i3cに軌跡レベルのデータ
が収納されると、インターフェース手段103またはス
レーブ動作管理手段105が働き、演算子が実行され(
llc)、さらに現在状態部205を更新した後(li
d)、未実行の演算子がなければ終了する(lla)。
ここで未実行の演算子というのは、軌跡レベルでまだ実
行されていないものだけでなく、軌跡レベルよりも上位
レベルのもので、軌跡レベルまで具体化されていないも
のを含む。次に、未実行の演算子の中から次に実行すべ
きものの番号を、次に実行する演算子番号a3cに入れ
ることによって1次の演算子が実行される。この時、欄
3cに書き込まれた番号が、軌跡レベルよりも上位レベ
ルの演算子番号である時には、自動的にプラン作成手段
が起動する(11 f)。
行されていないものだけでなく、軌跡レベルよりも上位
レベルのもので、軌跡レベルまで具体化されていないも
のを含む。次に、未実行の演算子の中から次に実行すべ
きものの番号を、次に実行する演算子番号a3cに入れ
ることによって1次の演算子が実行される。この時、欄
3cに書き込まれた番号が、軌跡レベルよりも上位レベ
ルの演算子番号である時には、自動的にプラン作成手段
が起動する(11 f)。
くプラン作成手段104の詳細説明〉
プラン作成手段104の機能については既に概略を説明
したので、ここでは実現方法について詳細に説明する。
したので、ここでは実現方法について詳細に説明する。
前述のように次に実行する演算子番号欄3cに軌跡レベ
ルよりも高いレベルの演算子番号が記入されると、その
演算子を具体化するためにプラン作成手段104が起動
する。従って、104は様々なレベルの演算子を具体化
できなければならないため、第12図に示すような構造
になっている。プラン作成手段104は、さらに階層別
のプラナ−104a〜104eに分かれており、各々の
プラナ−が、1段上のレベルの演算子を自己のレベルの
演算子の並び(プラン)に具体化する。
ルよりも高いレベルの演算子番号が記入されると、その
演算子を具体化するためにプラン作成手段104が起動
する。従って、104は様々なレベルの演算子を具体化
できなければならないため、第12図に示すような構造
になっている。プラン作成手段104は、さらに階層別
のプラナ−104a〜104eに分かれており、各々の
プラナ−が、1段上のレベルの演算子を自己のレベルの
演算子の並び(プラン)に具体化する。
第8図〜第10図に例を示したように、あるレベルの演
算子は、具体化されてレベルが下がるに従って多くの演
算子を生む。全てを1度に最下位の軌跡レベルにまで分
解してしまうことも可能であるが、他の方法として、演
算子を具体化する適意で、常に各レベルの先頭の演算子
だけを具体化する手法がある。この場合、先頭でない演
算子は一担各々のレベル88〜8eに格納しておき、後
に「次に実行する演算子番号」として選ばれ、具体化さ
れるのを待つ6 各々のレベルのプラナ−は、基本的には同様の動作をす
る。プランの作成は、初期状態から目標とする状態へ移
行するために施す演算子の順序を決めるプロセスである
0通常は、初期状態から目標状態へ様々な移行のし方が
あり、様々な中間状態を経て移行できる。例えば、ある
状態Aに施こすことのできる演算子(前提条件部7aが
状sAで満たされる演算子)が複数個あるとすれば、状
態Aは状1mBやC或いはDに移行できる。さらにB、
C,Dは各々他の状態に移行できる。そこで、各々の状
態をノードとする移行グラフを描くことができる0通常
はグラフ上で、目標とする状態に至る経路は多数存在す
るので、各々のノードにコストを付加し、最小のコスト
で到達するものを選ぶ。このような選択はグラフ探索手
法と呼ばれる一般的な手法で実現することができる。こ
のようにして経路を決定すると、施こすべき演算子の並
びと、それらによって次々と変化してゆく状態(ノード
)の並びが得られるので、両者を各々、プラン部8a〜
8e、ノード部12a〜12eに収納する。プラン部に
収納されたある演算子αを具体化する際には、演算子α
を施す直前のノードPと直後のノードQを、1段下のプ
ラナ−に与える。1段下のプラナ−は、ノードPを初期
状態、ノードQを目標状態として同様にプランを作成す
る。このようにして次々と演算子を具体化することがで
きる。
算子は、具体化されてレベルが下がるに従って多くの演
算子を生む。全てを1度に最下位の軌跡レベルにまで分
解してしまうことも可能であるが、他の方法として、演
算子を具体化する適意で、常に各レベルの先頭の演算子
だけを具体化する手法がある。この場合、先頭でない演
算子は一担各々のレベル88〜8eに格納しておき、後
に「次に実行する演算子番号」として選ばれ、具体化さ
れるのを待つ6 各々のレベルのプラナ−は、基本的には同様の動作をす
る。プランの作成は、初期状態から目標とする状態へ移
行するために施す演算子の順序を決めるプロセスである
0通常は、初期状態から目標状態へ様々な移行のし方が
あり、様々な中間状態を経て移行できる。例えば、ある
状態Aに施こすことのできる演算子(前提条件部7aが
状sAで満たされる演算子)が複数個あるとすれば、状
態Aは状1mBやC或いはDに移行できる。さらにB、
C,Dは各々他の状態に移行できる。そこで、各々の状
態をノードとする移行グラフを描くことができる0通常
はグラフ上で、目標とする状態に至る経路は多数存在す
るので、各々のノードにコストを付加し、最小のコスト
で到達するものを選ぶ。このような選択はグラフ探索手
法と呼ばれる一般的な手法で実現することができる。こ
のようにして経路を決定すると、施こすべき演算子の並
びと、それらによって次々と変化してゆく状態(ノード
)の並びが得られるので、両者を各々、プラン部8a〜
8e、ノード部12a〜12eに収納する。プラン部に
収納されたある演算子αを具体化する際には、演算子α
を施す直前のノードPと直後のノードQを、1段下のプ
ラナ−に与える。1段下のプラナ−は、ノードPを初期
状態、ノードQを目標状態として同様にプランを作成す
る。このようにして次々と演算子を具体化することがで
きる。
本発明の特徴は、演算子のコストの評価法にある。例え
ばノードiに演算子βを施した時ノードjに移行すると
仮定した場合、ノードjのコストは、ノードiのコスト
と演算子βのコストを反映した値となることから、グラ
フ探索の結果として選ばれるプランは、比較的コストの
低い演算子の並びである。従って、演算子のコストをど
のように評価するかによって、作成されるプランは全く
異なったものになる。本実施例では、演算子のコスト欄
7cには、多くの場合、コスト評価関数が入っている。
ばノードiに演算子βを施した時ノードjに移行すると
仮定した場合、ノードjのコストは、ノードiのコスト
と演算子βのコストを反映した値となることから、グラ
フ探索の結果として選ばれるプランは、比較的コストの
低い演算子の並びである。従って、演算子のコストをど
のように評価するかによって、作成されるプランは全く
異なったものになる。本実施例では、演算子のコスト欄
7cには、多くの場合、コスト評価関数が入っている。
この関数は、作業対象に関するデータ6c、環境データ
202、装置データ203、現在状態205の他、操作
者技能データ111を用いてその場、その時に応じたコ
スト評価をする。
202、装置データ203、現在状態205の他、操作
者技能データ111を用いてその場、その時に応じたコ
スト評価をする。
特に、名称にrop−Jのついた手動操作演算子のコス
トを評価する場合には、必ず操作者技能データ111を
参考にしてコストを定める。従って、操作者の技能が高
い場合には、低いコストに評価されプランに組み込まれ
る手動操作演算子であっても、操作者の技能が低いと自
動操作演算子に変えられることになる。
トを評価する場合には、必ず操作者技能データ111を
参考にしてコストを定める。従って、操作者の技能が高
い場合には、低いコストに評価されプランに組み込まれ
る手動操作演算子であっても、操作者の技能が低いと自
動操作演算子に変えられることになる。
次に軌跡レベル演算子の付帯条件Logについて説明す
る。付帯条件Logは、あらかじめ演算子の定義として
与えられているものもあるが、演算子のコストを評価す
る際に、コストが小さくなるように定めることもある。
る。付帯条件Logは、あらかじめ演算子の定義として
与えられているものもあるが、演算子のコストを評価す
る際に、コストが小さくなるように定めることもある。
特に手動操作演算子のコスト評価の際には、操作者の技
能によって。
能によって。
付帯条件がコストに大きな影響を及ぼす。例えば、初心
者は軸合わせ作業が不得手であるから、視覚センサー情
報から適切なコンプライアンスを発生してやるという付
帯条件を付けることによって、コストをかなり小さくす
ることができる。
者は軸合わせ作業が不得手であるから、視覚センサー情
報から適切なコンプライアンスを発生してやるという付
帯条件を付けることによって、コストをかなり小さくす
ることができる。
くインターフェース手段の詳細〉
以下、インターフェース手段の詳細について、第13図
以降を用いて説明する。第13図はインターフェース手
段の構成を示す、インターフェース手段103の各構成
部分について以下説明する。
以降を用いて説明する。第13図はインターフェース手
段の構成を示す、インターフェース手段103の各構成
部分について以下説明する。
インターフェース制御部13o1は内部にメモリプロセ
ッサ等を持ちインターフェース部103全体を統括管理
する。インターフェース部103の他の構成部や記憶手
段109とのデータ交換はバス1310を用いて行う。
ッサ等を持ちインターフェース部103全体を統括管理
する。インターフェース部103の他の構成部や記憶手
段109とのデータ交換はバス1310を用いて行う。
マスタ制御部13o3はマスタ制御入力部1302に入
っている制御データを用いてマスタ101を制御する。
っている制御データを用いてマスタ101を制御する。
マスタ制御入力部1302の制御データはインターフェ
ース制御部13o1が周期的に更新する。操作、指示画
面発生部1304はインターフェース制御部13o1か
ら与えられる現在作業中に演算子内容、及び手先の位置
データを用いて、TVモニタ102に作業内容及びスレ
ーブ手先の口振位置を表示する。操作指示画面発生部1
3o4の出方したTVモニタ用CRT表示データは画面
混合部1305により、記憶手段109中のセンサ情報
207(第2図参照)に格納されているTVモニタ画面
情報(TVカメラによりモニタされた対象物とスレーブ
の手先の画像)にスーパーインポーズされて、TVモニ
タ102に写し出される。
ース制御部13o1が周期的に更新する。操作、指示画
面発生部1304はインターフェース制御部13o1か
ら与えられる現在作業中に演算子内容、及び手先の位置
データを用いて、TVモニタ102に作業内容及びスレ
ーブ手先の口振位置を表示する。操作指示画面発生部1
3o4の出方したTVモニタ用CRT表示データは画面
混合部1305により、記憶手段109中のセンサ情報
207(第2図参照)に格納されているTVモニタ画面
情報(TVカメラによりモニタされた対象物とスレーブ
の手先の画像)にスーパーインポーズされて、TVモニ
タ102に写し出される。
画面の一例を第14図に示す、TVモニタ102のCR
T表示画面1401には次の情報が示される。
T表示画面1401には次の情報が示される。
(1)作業対象物とスレーブ手先部の実際の映像(2)
現在の作業項目内容 本図では作業レベル内容表示部1402に「ボルト取外
し」の表示が、手順レベル内容表示部1403には「ボ
ルト除去」の表示が、動作レベル内容表示部1404に
はr Approachボルト」の表示がある。
現在の作業項目内容 本図では作業レベル内容表示部1402に「ボルト取外
し」の表示が、手順レベル内容表示部1403には「ボ
ルト除去」の表示が、動作レベル内容表示部1404に
はr Approachボルト」の表示がある。
(3)手先目標位置のグラフィック表示現在、動作中の
軌跡レベル演算子の目標位置が目標位置表示1406に
破線でグラフィック表示する。インターフェースの動作
モードは大別すると後述するように自動操作と、手動操
作にわかれるが、自動操作の時には目標位置表示は白色
で、手動操作の時には赤で表示され、区別し易くなって
いる。
軌跡レベル演算子の目標位置が目標位置表示1406に
破線でグラフィック表示する。インターフェースの動作
モードは大別すると後述するように自動操作と、手動操
作にわかれるが、自動操作の時には目標位置表示は白色
で、手動操作の時には赤で表示され、区別し易くなって
いる。
(4)付帯条件表示
手動操作に付帯条件が付く場合には、目標位置表示の傍
に付帯条件表示1406が表示される。
に付帯条件表示1406が表示される。
第13図に戻って説明を続ける。音声出力部1306は
インターフェース制御部1301の指示により、新しい
軌跡レベル演算子の実行開始、及び終了時にスピーカ1
311からブザー音を出力する。もちろん音声合成等に
よる声による表示でも良い。拘束解除スイッチ1312
は操作者が。
インターフェース制御部1301の指示により、新しい
軌跡レベル演算子の実行開始、及び終了時にスピーカ1
311からブザー音を出力する。もちろん音声合成等に
よる声による表示でも良い。拘束解除スイッチ1312
は操作者が。
何らかの原因により手動操作の付帯条件(例えば第14
図の1406)を解除したいときに使用する。本スイッ
チを押すと、拘束解除スイッチインターフェース13o
7を介してインターフェース制御部1301にインタラ
ブドがかかり、付帯条件が解除される。付帯条件の解除
方法については後述する。
図の1406)を解除したいときに使用する。本スイッ
チを押すと、拘束解除スイッチインターフェース13o
7を介してインターフェース制御部1301にインタラ
ブドがかかり、付帯条件が解除される。付帯条件の解除
方法については後述する。
操作検出部1308は操作者がマスタを操作した時のマ
スタの各関節の角度等を取込むセンサであり、ポテンシ
ョメータ、エンコーダ等を使用している。操作出力デー
タ部1309は、操作検出部1308からのデータを格
納しており、インターフェース制御部1301がバス1
31oを介してデータを取込むことができるようになっ
ている。
スタの各関節の角度等を取込むセンサであり、ポテンシ
ョメータ、エンコーダ等を使用している。操作出力デー
タ部1309は、操作検出部1308からのデータを格
納しており、インターフェース制御部1301がバス1
31oを介してデータを取込むことができるようになっ
ている。
以下、インターフェース手段の動作について。
第15図〜第19図のフローチャートを用いて説明する
。第15図はインターフェース制御部1301の実行す
る制御の全体フローチャートである。制御は記憶手段1
09中の現在状態部205をモニタすることにより行わ
れる。制御手順1501〜1519中に現われる記号は
第3図の明1在状態部205の内容に対応している。現
在実行中の演算子番号(第3図3a)を○PNI、実行
の終了フラグ(第3図3b)をFLGl、次に実行する
演算子番号(第3図3c)を0PN2゜現在状態の記述
(第3図3d)を5TATE 、スレーブ動作管理解除
フラグ(第3図3e)をFLG2と記述している。以下
の説明ではこれらの記号を用いる。
。第15図はインターフェース制御部1301の実行す
る制御の全体フローチャートである。制御は記憶手段1
09中の現在状態部205をモニタすることにより行わ
れる。制御手順1501〜1519中に現われる記号は
第3図の明1在状態部205の内容に対応している。現
在実行中の演算子番号(第3図3a)を○PNI、実行
の終了フラグ(第3図3b)をFLGl、次に実行する
演算子番号(第3図3c)を0PN2゜現在状態の記述
(第3図3d)を5TATE 、スレーブ動作管理解除
フラグ(第3図3e)をFLG2と記述している。以下
の説明ではこれらの記号を用いる。
まず第15図を説明する。電源オン状態となると、FL
GIが1′1”になったことを確認して0PN2を読み
込む。0PN2が軌跡レベルの演算子であれば、インタ
ーフェース手段は動作を開始する。インターフェース手
段103の動作モードは大きく分けて5次の3つに分か
れる。
GIが1′1”になったことを確認して0PN2を読み
込む。0PN2が軌跡レベルの演算子であれば、インタ
ーフェース手段は動作を開始する。インターフェース手
段103の動作モードは大きく分けて5次の3つに分か
れる。
(1)自動操作モード(制御手順1511)(2)手動
操作モード(制御手順1513)(3)拘束付手動操作
モード(制御手順1508)自動操作モードは0PN2
中の演算子に。p −が付いていないことから認識でき
る。例えば、第10図の10aのような演算子の場合で
ある。手動操作モードはOp−付いた演算子が0PN2
中にあった場合で、且つ付帯条件cond+ (第1
0図参照)が付いていない場合である。拘束付手動操作
モードはOp−付いた演算子が○PN2中にあった場合
で且つ付帯条件cond+ かつぃている場合である。
操作モード(制御手順1513)(3)拘束付手動操作
モード(制御手順1508)自動操作モードは0PN2
中の演算子に。p −が付いていないことから認識でき
る。例えば、第10図の10aのような演算子の場合で
ある。手動操作モードはOp−付いた演算子が0PN2
中にあった場合で、且つ付帯条件cond+ (第1
0図参照)が付いていない場合である。拘束付手動操作
モードはOp−付いた演算子が○PN2中にあった場合
で且つ付帯条件cond+ かつぃている場合である。
自動操作モードではスレーブ107はスレーブ動作管理
手段105により制御され、1つの演算子が終了すると
スレーブ動作手段105がFLGlを′1″とする。イ
ンターフェース制御部1301は、常時FLGIを監視
しており、FLG1=1となると制御手順1511を終
了し1次の演算子0PN2を読む。
手段105により制御され、1つの演算子が終了すると
スレーブ動作手段105がFLGlを′1″とする。イ
ンターフェース制御部1301は、常時FLGIを監視
しており、FLG1=1となると制御手順1511を終
了し1次の演算子0PN2を読む。
手動操作モード及び拘束手動操作モードではインターフ
ェース手段103がスレーブ107を主に制御する。こ
の場合には1つの演算子(OPNl)の処理が終了する
と、インターフェース制御部1301が第7図の例のよ
うな演算子の定義に従い、現在状態の記述5TATEを
更新しく1510)。
ェース手段103がスレーブ107を主に制御する。こ
の場合には1つの演算子(OPNl)の処理が終了する
と、インターフェース制御部1301が第7図の例のよ
うな演算子の定義に従い、現在状態の記述5TATEを
更新しく1510)。
次に実行する演算子をサーチする(1516)。
演算子のサーチは同レベル(例えば軌跡レベル)内では
番号順で良い(第9図参照)が、同レベルの次の演算子
が無い場合には、上位レベルポインタ欄を参照して上位
レベルに逆昇ってサーチする。
番号順で良い(第9図参照)が、同レベルの次の演算子
が無い場合には、上位レベルポインタ欄を参照して上位
レベルに逆昇ってサーチする。
未実行の演算子が全く無くなった場合には作業が全て完
了したことになる。この場合には0PN2=0とする(
1519)。その後で終了フラグFLGIを“1″とし
て現在状態部205の管理を明渡す。
了したことになる。この場合には0PN2=0とする(
1519)。その後で終了フラグFLGIを“1″とし
て現在状態部205の管理を明渡す。
第16図には自動動作モードの制御手順1511の詳細
フローチャートを示した。自動動作の制御ルーチンは3
つの部分、(1)開始処理、(2)動作中、(3)終了
処理に分れる。
フローチャートを示した。自動動作の制御ルーチンは3
つの部分、(1)開始処理、(2)動作中、(3)終了
処理に分れる。
開始処理16o4では音声出力部1306を用いてスタ
ート音をスピーカ1311から出力しく1610)、操
作者に注意をうながした後、動作内容を文字でTVモニ
タ102上に表示する(1611)、表示内容は第14
図に例を示したように、実施中の作業の作業レベル、手
順レベル。
ート音をスピーカ1311から出力しく1610)、操
作者に注意をうながした後、動作内容を文字でTVモニ
タ102上に表示する(1611)、表示内容は第14
図に例を示したように、実施中の作業の作業レベル、手
順レベル。
動作レベルの内容であり、現在状態205、及びプラン
204を参照することによりわかる。また、0PNIの
軌跡レベル演算子の内容と、センサ情報207に含まれ
ているカメラの位置情報を用いて、TVモニタ画面上に
おけるスレーブの手先の目標位置を計算しTVモニタ画
面上に表示する(1612.1613)。これらの表示
は操作指示画面発生部で発生し、画面混合部1305で
カメラからの映像と混合されTVモニタ102に表示さ
れる。
204を参照することによりわかる。また、0PNIの
軌跡レベル演算子の内容と、センサ情報207に含まれ
ているカメラの位置情報を用いて、TVモニタ画面上に
おけるスレーブの手先の目標位置を計算しTVモニタ画
面上に表示する(1612.1613)。これらの表示
は操作指示画面発生部で発生し、画面混合部1305で
カメラからの映像と混合されTVモニタ102に表示さ
れる。
終了処理1603では、演算子の終了表示をした後、ス
レーブの目標位置をTV画面から消去する。消去する直
前にはスレーブの手先の映像と目標位置は合致している
。
レーブの目標位置をTV画面から消去する。消去する直
前にはスレーブの手先の映像と目標位置は合致している
。
動作中1605.1606ではセンサ情報部207のデ
ータからスレーブからの反力を計算して、計算データを
マスタ制御入力部1302へ出力する」これによりマス
タ制御部はマスタを制御し、操作者へスレーブの手先の
感覚等を伝えることができる。
ータからスレーブからの反力を計算して、計算データを
マスタ制御入力部1302へ出力する」これによりマス
タ制御部はマスタを制御し、操作者へスレーブの手先の
感覚等を伝えることができる。
第17図は手動操作モードの制御手順1513の詳細フ
ローチャートを示す。開始処理1710は第16図の1
604と同じ動作、終了処理1709は第16図の16
03と同じ動作である。
ローチャートを示す。開始処理1710は第16図の1
604と同じ動作、終了処理1709は第16図の16
03と同じ動作である。
但し、開始処理1710において、スレーブの目標位置
表示(グラフィック表示)の色は、前述のように自動の
場合と異なり、操作者の注意を換起するようになってい
る。
表示(グラフィック表示)の色は、前述のように自動の
場合と異なり、操作者の注意を換起するようになってい
る。
手動操作モードではマスタの操作に応じて、スレーブを
制御する。(1702,1703)だけでなく、スレー
ブからの反力を計算し、マスタを動かしく1704.1
705)操作者に手先の感覚を伝える。さらに、センサ
情報207によりスレーブの位置を計算しく1706)
スレーブが目標位置に到達したか否かの判断も行う。
制御する。(1702,1703)だけでなく、スレー
ブからの反力を計算し、マスタを動かしく1704.1
705)操作者に手先の感覚を伝える。さらに、センサ
情報207によりスレーブの位置を計算しく1706)
スレーブが目標位置に到達したか否かの判断も行う。
第18図は拘束付手動操作モードの制御手順1508の
詳細フローチャートである。開始処理18o9は171
0と、終了処理1808は17o9と同じ処理である。
詳細フローチャートである。開始処理18o9は171
0と、終了処理1808は17o9と同じ処理である。
但し、開始処理において拘束付手動操作では、付帯条件
表示1406(第14図の例参照)を表示する必要があ
る。拘束付手動操作では、例えば「手先水平保持」等の
拘束動作の制御をスレーブ動作管理手段105が分担し
てスレーブを制御する。従って、手動操作では操作出力
データ1309からス゛レープの制御入力を計算し、制
御入力部206に出力するが、本動作では操作出力デー
タ1309を処理せず、直接、制御入力バッファ2o8
(記憶手段109中)に出力する(1803)。この場
合はスレーブ管理手段105が制御人力バッファ208
中のデータを用いて、付帯条件下で制御入力部206用
データを計算する。従ってスレーブからの反力の計算1
804では操作者が動かすマスタと付帯条件下で動くス
レーブ間の位置偏差が出ることが予想されるが、この偏
差を小さくする方向にマスタを動作させるような弱い力
を発生させる。これにより、操作者はスムーズに作業を
遂行することができる。
表示1406(第14図の例参照)を表示する必要があ
る。拘束付手動操作では、例えば「手先水平保持」等の
拘束動作の制御をスレーブ動作管理手段105が分担し
てスレーブを制御する。従って、手動操作では操作出力
データ1309からス゛レープの制御入力を計算し、制
御入力部206に出力するが、本動作では操作出力デー
タ1309を処理せず、直接、制御入力バッファ2o8
(記憶手段109中)に出力する(1803)。この場
合はスレーブ管理手段105が制御人力バッファ208
中のデータを用いて、付帯条件下で制御入力部206用
データを計算する。従ってスレーブからの反力の計算1
804では操作者が動かすマスタと付帯条件下で動くス
レーブ間の位置偏差が出ることが予想されるが、この偏
差を小さくする方向にマスタを動作させるような弱い力
を発生させる。これにより、操作者はスムーズに作業を
遂行することができる。
最後に付帯条件を解除して手動操作モードで動作させる
場合の動作について述べる。拘束解除スイッチ1312
を操作者がオン/オフするとインタラブドが発生するこ
とは前に述べた。第19図にインターフェース制御部1
301のインタラブドルーチンのフローチャート(制御
手順1901〜1903)を示す、FLG2にEl I
IIを立てる(1902)ことにより、スレーブ動作
管理手段105は付帯条件下の制御を中止して良いこと
を認識できる。同時に第18図において、拘束付手動操
作が制御手順1802にて手動操作に切換えられる。
場合の動作について述べる。拘束解除スイッチ1312
を操作者がオン/オフするとインタラブドが発生するこ
とは前に述べた。第19図にインターフェース制御部1
301のインタラブドルーチンのフローチャート(制御
手順1901〜1903)を示す、FLG2にEl I
IIを立てる(1902)ことにより、スレーブ動作
管理手段105は付帯条件下の制御を中止して良いこと
を認識できる。同時に第18図において、拘束付手動操
作が制御手順1802にて手動操作に切換えられる。
〈スレーブ動作管理手段105の詳細説明〉次に、第1
図及び第2図に示すスレーブ動作管理手段105の詳細
な実施例を第20図により説明する。
図及び第2図に示すスレーブ動作管理手段105の詳細
な実施例を第20図により説明する。
スレーブ管理手段105では、第3図に示す実行の終了
フラグ(FLGI)を絶えず監視しく処理ブロック10
5a)、軌跡レベルの実行終了フラグが“1″になるま
で待状態を続ける。軌跡レベルの実行が終了(FLG1
=1)L、たら、次に実行する演算子番号(○PN2)
を読込み(処理ブロック105b)、軌跡レベルの演算
子からどうかチェックする(処理ブロック105c)。
フラグ(FLGI)を絶えず監視しく処理ブロック10
5a)、軌跡レベルの実行終了フラグが“1″になるま
で待状態を続ける。軌跡レベルの実行が終了(FLG1
=1)L、たら、次に実行する演算子番号(○PN2)
を読込み(処理ブロック105b)、軌跡レベルの演算
子からどうかチェックする(処理ブロック105c)。
軌跡レベルめ演算子であれば、自動動作か手動動作かを
判別しく処理ブロック105d)、自動操作モードであ
れば実行の終了フラグをII O71とすると同時に次
に実行する演算子番号を現在実行中の演算子番号に置き
替える(処理ブロック105e。
判別しく処理ブロック105d)、自動操作モードであ
れば実行の終了フラグをII O71とすると同時に次
に実行する演算子番号を現在実行中の演算子番号に置き
替える(処理ブロック105e。
105f)。自動操作(処理ブロック105g)では、
第10図の(88の例)の中の番号欄35〜37で示す
ような軌跡レベルでの手先の自動操作を実現するもので
、制約条件の基で3次元的な位置ベクトルxi〜xaを
目標値として第2図に示す制御入力部206に出力する
。自動操作での操作終了判定(処理ブロック105 h
)は、第2図に示すセンシング手段108で得られるセ
ンサ情報207を基に現在の手先の位置が目標値として
与えた3次元的な位置ベクトルに一致したかどうかで決
定する。
第10図の(88の例)の中の番号欄35〜37で示す
ような軌跡レベルでの手先の自動操作を実現するもので
、制約条件の基で3次元的な位置ベクトルxi〜xaを
目標値として第2図に示す制御入力部206に出力する
。自動操作での操作終了判定(処理ブロック105 h
)は、第2図に示すセンシング手段108で得られるセ
ンサ情報207を基に現在の手先の位置が目標値として
与えた3次元的な位置ベクトルに一致したかどうかで決
定する。
自動操作が終了したら、インターフェース手段103で
の詳細説明で述べているのと同様に、第3図の現在状態
の記述(STATE)を変更する(処理ブロック105
i)、さらに1次に実行すべき演算子番号をサーチ(処
理ブロック105j)L、次に実行すべき演算子番号が
あるかどうかをチェックする(処理ブロック105 k
)。次に実行すべき演算子番号があれば○PN2にその
番号を格納し実行すべき演算子番号がなければ、0PN
2=0としたうえ実行終了フラグFLGNIを“′1″
′にして(処理ブロック105M、105m、105n
)次の処理の実行に移行する。
の詳細説明で述べているのと同様に、第3図の現在状態
の記述(STATE)を変更する(処理ブロック105
i)、さらに1次に実行すべき演算子番号をサーチ(処
理ブロック105j)L、次に実行すべき演算子番号が
あるかどうかをチェックする(処理ブロック105 k
)。次に実行すべき演算子番号があれば○PN2にその
番号を格納し実行すべき演算子番号がなければ、0PN
2=0としたうえ実行終了フラグFLGNIを“′1″
′にして(処理ブロック105M、105m、105n
)次の処理の実行に移行する。
一方、処理ブロック105dにおいて、演算子が手動操
作であった場合、その操作が手先の向きを一定にする。
作であった場合、その操作が手先の向きを一定にする。
あるいは手先の速度を一定にする等の付帯条件付きのも
のであるかどうかを判定しく処理ブロック105p)、
付帯条件付動作であれば付帯条件付動作解除の指令がイ
ンターフェース手段より出されるまで付帯条件付動作を
継続する(処理ブロック105q、105r、105s
)。付帯条件付動作解除フラグFLGN2を設けたのは
、付帯条件付手動操作を実行しようとしたが、マスタ操
作者が何らかの原因で付帯条件付操作を外したい場合に
柔軟に対処できるようにするためのものである。
のであるかどうかを判定しく処理ブロック105p)、
付帯条件付動作であれば付帯条件付動作解除の指令がイ
ンターフェース手段より出されるまで付帯条件付動作を
継続する(処理ブロック105q、105r、105s
)。付帯条件付動作解除フラグFLGN2を設けたのは
、付帯条件付手動操作を実行しようとしたが、マスタ操
作者が何らかの原因で付帯条件付操作を外したい場合に
柔軟に対処できるようにするためのものである。
以上述べたスレーブ動作管理手段の内置も特徴的なとこ
ろは、第20図における自動操作の場合の付帯条件付き
の場合の動作である。第21図は第20図の処理ブロッ
ク105p〜105sをさらに詳細に実施例を示したも
のである。第21図において、まず付帯条件手動操作で
あるかどうかを判定(処理ブロック311)L、付帯条
件付手動操作である場合には、第2図のインターフェー
ス手段103から制御人力バッファ20I3に書込まれ
た現在状態でのマスタの各関節角度データθJll、セ
ンサ情報207からスレーブの各関節角度データθ1s
をそれぞれ読込む(処理ブロック312及び313)、
次に、与えられた付帯条件から該付帯条件を満足するス
レーブの各関節角度間の関係に変換(処理ブロック31
4)する、第20図でも述べたように、マスタ操作者か
ら手動操作時の制約条件を解除する指示が発生される場
合もあり、FLG2が“1”か“0”かで判定する(処
理ブロック315)。制約条件解除の指示がない場合(
FLG2=O)+マスタ及びスレーブの現在状態の各関
節の角度データθaml OJIから付帯条件を満足
するスレーブの各関節角度0、′sを計算する(処理ブ
ロック316)。計算した結果のθJ’ 5は第2図の
スレーブ制御手段106の制御目標値として書込む(処
理ブロック317)。第20図及び第21図に示した各
種処理は、制御の周期ごとに実行され、マスタ・スレー
ブ動作及び自動操作が達成される。
ろは、第20図における自動操作の場合の付帯条件付き
の場合の動作である。第21図は第20図の処理ブロッ
ク105p〜105sをさらに詳細に実施例を示したも
のである。第21図において、まず付帯条件手動操作で
あるかどうかを判定(処理ブロック311)L、付帯条
件付手動操作である場合には、第2図のインターフェー
ス手段103から制御人力バッファ20I3に書込まれ
た現在状態でのマスタの各関節角度データθJll、セ
ンサ情報207からスレーブの各関節角度データθ1s
をそれぞれ読込む(処理ブロック312及び313)、
次に、与えられた付帯条件から該付帯条件を満足するス
レーブの各関節角度間の関係に変換(処理ブロック31
4)する、第20図でも述べたように、マスタ操作者か
ら手動操作時の制約条件を解除する指示が発生される場
合もあり、FLG2が“1”か“0”かで判定する(処
理ブロック315)。制約条件解除の指示がない場合(
FLG2=O)+マスタ及びスレーブの現在状態の各関
節の角度データθaml OJIから付帯条件を満足
するスレーブの各関節角度0、′sを計算する(処理ブ
ロック316)。計算した結果のθJ’ 5は第2図の
スレーブ制御手段106の制御目標値として書込む(処
理ブロック317)。第20図及び第21図に示した各
種処理は、制御の周期ごとに実行され、マスタ・スレー
ブ動作及び自動操作が達成される。
スレーブ動作管理手段では、上述の付帯条件付スレーブ
動作の他に次に述べるセンサ情報のフィードバックに基
づくスレーブ動作支援機能を持たせることもできる。第
22図及び第23図は画像情報に基づくスレーブの手先
の誘導の場合を実施例として示したものである。ここで
は、バルブのハンドル操作を例とし、スレーブマニピュ
レータの手先350にテレビカメラ340を設置して。
動作の他に次に述べるセンサ情報のフィードバックに基
づくスレーブ動作支援機能を持たせることもできる。第
22図及び第23図は画像情報に基づくスレーブの手先
の誘導の場合を実施例として示したものである。ここで
は、バルブのハンドル操作を例とし、スレーブマニピュ
レータの手先350にテレビカメラ340を設置して。
テレビカメラ340で撮像した画像データ上の操作対象
(バルブハンドル)を把持する過程での支援動作につい
て説明する。予めバルブハンドルの大きさが既知であり
、完全な円形であるとすると、テレビカメラからバルブ
ハンドルまでの距離(第23図(a)のL2)及び方向
(第23図(b)のL−、Ly)は、画像上のバルブハ
ンドルの画像データからだ円の長軸、短軸及び大きさを
抽出することにより算出することができる。よって、マ
スタに対して操作対象に接近する方向に力を発生し、操
作者に操作方向をうながすことにより、短時間で操作対
象にアクセスすることが可能な動作を実現できる。
(バルブハンドル)を把持する過程での支援動作につい
て説明する。予めバルブハンドルの大きさが既知であり
、完全な円形であるとすると、テレビカメラからバルブ
ハンドルまでの距離(第23図(a)のL2)及び方向
(第23図(b)のL−、Ly)は、画像上のバルブハ
ンドルの画像データからだ円の長軸、短軸及び大きさを
抽出することにより算出することができる。よって、マ
スタに対して操作対象に接近する方向に力を発生し、操
作者に操作方向をうながすことにより、短時間で操作対
象にアクセスすることが可能な動作を実現できる。
く操作者技能を自動的に評価する実施例〉これまでの説
明では操作者の技能データ111は、あらかじめ与えら
れているものであったが、ここでは、第24図の実施例
に示すように、操作者技能評価手段112によって自動
的に作成、更新できる方法について述べる。
明では操作者の技能データ111は、あらかじめ与えら
れているものであったが、ここでは、第24図の実施例
に示すように、操作者技能評価手段112によって自動
的に作成、更新できる方法について述べる。
操作者技能評価手段112の構成を第25図を用いて説
明する。操作者技能評価手段112は、評価手段220
、タイマ221とから構成されており、タイマ221は
1.評価手段220のトリガON信号を受けて1時間(
作業時間や位置決め時間)tを計測し、評価手段220
に伝達する。評価手段220は、プラン204.現在状
態205、センサ情報207、操作者技能データ111
から。
明する。操作者技能評価手段112は、評価手段220
、タイマ221とから構成されており、タイマ221は
1.評価手段220のトリガON信号を受けて1時間(
作業時間や位置決め時間)tを計測し、評価手段220
に伝達する。評価手段220は、プラン204.現在状
態205、センサ情報207、操作者技能データ111
から。
データを受け、計算結果を操作者技能データ111に返
す。
す。
評価手段220は、センサ情報207から、ハンドの位
ex+速度X、力fの現在値を読み込む。
ex+速度X、力fの現在値を読み込む。
ここに、x、、x、fは次式で与えられる。
・・・・・・(1)
ここに。
Xx v Xy HXz aマニピュレータハンドの
先端位置のx、y、z成 分 α、β、γ:ハンドの姿勢の方向余弦 Xz 、 Xy 、 X2 :マニピ・ユレータ
ハンドの先端速度のx、y、z成 分 α、β、γ:ハンドの姿勢の方向余弦の角速度 fx、fy 、f−:ハンドに加わる力のX。
先端位置のx、y、z成 分 α、β、γ:ハンドの姿勢の方向余弦 Xz 、 Xy 、 X2 :マニピ・ユレータ
ハンドの先端速度のx、y、z成 分 α、β、γ:ハンドの姿勢の方向余弦の角速度 fx、fy 、f−:ハンドに加わる力のX。
YrZ成分
子x、Ty 、Tz :ハンドに加わるの:に+ y
+2軸まわりのモーメント 評価手段220は現在状態205から、第3図で示され
る現在実行中の演算子番号0PNI3a、実行の終了フ
ラグFLGI 3b 、次に実行する演算子番号0P
N2 3cを読む。
+2軸まわりのモーメント 評価手段220は現在状態205から、第3図で示され
る現在実行中の演算子番号0PNI3a、実行の終了フ
ラグFLGI 3b 、次に実行する演算子番号0P
N2 3cを読む。
評価手段220は現在実行中の演算子番号0PN1 3
a を用いて、プラン204からタスクデータ(Xr
、 fr t Bo l Go f To 、 Ao
l Vo )を読み込む。
a を用いて、プラン204からタスクデータ(Xr
、 fr t Bo l Go f To 、 Ao
l Vo )を読み込む。
このタスクデータについて詳述する。
評価手段220は、プラン204から1作業標準実行時
間Toe搬送距離Ao、標準搬送速度V。
間Toe搬送距離Ao、標準搬送速度V。
のデータを読み込む、ここに1作業W4準実行時間To
とは、軌跡レベル8eの一作業(以下、これをタスクと
呼ぶ)の実行時間である。Aoは、タスク開始直前のマ
ニピュレータハンド位fil x oとそのタスクのハ
ンド位置の目標値Xrの距離である。
とは、軌跡レベル8eの一作業(以下、これをタスクと
呼ぶ)の実行時間である。Aoは、タスク開始直前のマ
ニピュレータハンド位fil x oとそのタスクのハ
ンド位置の目標値Xrの距離である。
標準搬送速度Voは、指定の軌跡許容値Coを維持して
、ハンドを目標値Xrに移動させるときのハンドの標準
速度である。さらに、評価手段220は、プラン204
から、位置の目標値Xrl力の目標値fry位置決め許
容値Bo 、軌跡追従許容値Goを読み込む。
、ハンドを目標値Xrに移動させるときのハンドの標準
速度である。さらに、評価手段220は、プラン204
から、位置の目標値Xrl力の目標値fry位置決め許
容値Bo 、軌跡追従許容値Goを読み込む。
Xr 、frは(1)式で与えられるx、frと同じ次
元(=6)をもつ。
元(=6)をもつ。
Xrは軌跡レベル8eのxlと同じものである。
frはcondsで規定される(例えば、ある作業対象
では、ION以上の力を加えるといわれる場合など)0
位置決め許容値Boは、Xと同一の次元をもち、目標値
Xrに位置決めしたときの許容値を意味し、軌跡レベル
8eのcond 1で指定される。
では、ION以上の力を加えるといわれる場合など)0
位置決め許容値Boは、Xと同一の次元をもち、目標値
Xrに位置決めしたときの許容値を意味し、軌跡レベル
8eのcond 1で指定される。
軌跡追従許容値Coは、condtの中で軌跡条件が指
定されたとき、軌跡追従誤差の許容値を表わし、con
dt で指定される。
定されたとき、軌跡追従誤差の許容値を表わし、con
dt で指定される。
以上の操作者技能評価手段205と外部の手段との入出
力関係を第26図、第27図に示す。
力関係を第26図、第27図に示す。
第29図は、評価手段の動作原理をフローチャートで示
したものである。以下、第29図を用いて説明する。操
作者は自分の名前をインターフェース手段103から、
キーボード等により入力する(1a)。
したものである。以下、第29図を用いて説明する。操
作者は自分の名前をインターフェース手段103から、
キーボード等により入力する(1a)。
評価手段22oは、操作者の名前が技能データ111に
登録済か否かをチェックする(1b)。
登録済か否かをチェックする(1b)。
登録済の場合は、以下の処理(lc〜if)をスキップ
する。
する。
プラン204にトレーニング作業を要求する。
トレーニング作業とは、適当な目標値X、と許容値Bo
をインターフェース手段103を介して、テレビモニ
タ102に表示し、操作者110にマスタマニピュレー
タ101によって、スレーブマニピュレータ107を目
標値Xrに指定の許容値Bo内に位置決めさせる作業を
いう。
をインターフェース手段103を介して、テレビモニ
タ102に表示し、操作者110にマスタマニピュレー
タ101によって、スレーブマニピュレータ107を目
標値Xrに指定の許容値Bo内に位置決めさせる作業を
いう。
評価手段220は、スタート地点から目標点までの距離
Aoを計算し、スターミル後、スレーブマニピュレータ
107が目標値Xrに許容値B内に位置決めするのに要
する時間tを計測する。
Aoを計算し、スターミル後、スレーブマニピュレータ
107が目標値Xrに許容値B内に位置決めするのに要
する時間tを計測する。
Ao、Boは、Q、ogzl A l 、 Qogzl
B lで3〜4の範囲をカバーするように数点のデー
タをあらかじめ用意しておき、これらの数点のデータに
対する位置決め時間tを測定する。これらの結果から位
置決め時の難易度を示すパラメータQogz2A/B ここに、A=IAI、B=lB+ に対する位置決め時間tの回帰直線 t==Ra+Rp−nogz2A/B から、基本評価パラメータRa 、Rp を決定する(
1e)。この評価パラメータRa 、Rp を技能デー
タ111に操作者の名前とともに登録する(1f)。
B lで3〜4の範囲をカバーするように数点のデー
タをあらかじめ用意しておき、これらの数点のデータに
対する位置決め時間tを測定する。これらの結果から位
置決め時の難易度を示すパラメータQogz2A/B ここに、A=IAI、B=lB+ に対する位置決め時間tの回帰直線 t==Ra+Rp−nogz2A/B から、基本評価パラメータRa 、Rp を決定する(
1e)。この評価パラメータRa 、Rp を技能デー
タ111に操作者の名前とともに登録する(1f)。
次に、評価手段220は、現在状態205からデータ
(OPNI、FLGI、0PN2)tJ2ti’(Ig
−1)。
(OPNI、FLGI、0PN2)tJ2ti’(Ig
−1)。
次に評価手段220は、タスクが実行開始されているか
否かを。
否かを。
FLG1=Oのとき、タスク待ち状態
FLG1=1のとき、タスク実行状態
で判定する。FLG1=Oのとき、タスク待ち伏態とな
って、FLG1=1となるまで待機状態が続<、FLG
1=1のとき、次のステップに進む(Ig−2)。
って、FLG1=1となるまで待機状態が続<、FLG
1=1のとき、次のステップに進む(Ig−2)。
次に評価手段220はタイマ221にトリガ○N信号を
与え、タイマの計測開始を指令する(1h)。
与え、タイマの計測開始を指令する(1h)。
次に、評価手段220は現在実行中のタスク番号○P’
NIに基づいて、プラン部204からタスクデータ(X
r g f r p Bo e Co * To *
Ao eVo)を読む。
NIに基づいて、プラン部204からタスクデータ(X
r g f r p Bo e Co * To *
Ao eVo)を読む。
次に評価手段220は操作者の技能データ(Na 、
Rla、 Rp HRi 、 Rn + Rt r R
a・・・)を読み込む(1,j)。
Rla、 Rp HRi 、 Rn + Rt r R
a・・・)を読み込む(1,j)。
次に、評価手段220は、センサ情報207からデータ
x、x、fを読み込む(1k)。
x、x、fを読み込む(1k)。
次に評価手段220は評価2次パラメータr。。
rltt、 rttを次式に従い計算する。
rzt= I fr f+ l /frrnt= l’
Xr Xt l r Ll= l XI l / V。
Xr Xt l r Ll= l XI l / V。
ここに、lxlはベクトルXのノルムを表わす(IQ)
。
。
次に操作手段220はタイマ221から時間tを読みこ
む(1m)。次に、操作手段220はタイム・アウトか
否かをtとToを比較することで判定する(1n)。
む(1m)。次に、操作手段220はタイム・アウトか
否かをtとToを比較することで判定する(1n)。
t ) n T oの場合、タイムアウトと判定し、疲
労パラメータR1=nとしく1θ)、現在状態205の
データ0PN1.FLGI、0PN2を読み込み、1p
〜1tまでの処理をスキップする。
労パラメータR1=nとしく1θ)、現在状態205の
データ0PN1.FLGI、0PN2を読み込み、1p
〜1tまでの処理をスキップする。
タイムアウトの状態は操作者が疲労のため必要以上の作
業時間を要した場合で、nは作業内容に応じて適当な値
をとる6通常、nは2または3とする。
業時間を要した場合で、nは作業内容に応じて適当な値
をとる6通常、nは2または3とする。
t < n T oの場合、評価手段220は、現在状
態205のデータ0PN1.FLGI、○PN2を読み
込む(ip)。
態205のデータ0PN1.FLGI、○PN2を読み
込む(ip)。
次に、評価手段220はタスク終了か否かをFLGIに
より判定する。FLGl=1の場合タスク継続中と判定
し、(lk)の処理へと戻り、FLG1=Oの場合、タ
スク終了と判定し、次の処理1rへ進む(1q)。
より判定する。FLGl=1の場合タスク継続中と判定
し、(lk)の処理へと戻り、FLG1=Oの場合、タ
スク終了と判定し、次の処理1rへ進む(1q)。
次に、評価手段220は評価パラメータの暫定値Rff
i’ at Rp’ 、 Rz’ 、 RR’ 、 R
t’ を次式に基づいて計算する(1r)。
i’ at Rp’ 、 Rz’ 、 RR’ 、 R
t’ を次式に基づいて計算する(1r)。
1;ffi’ a= (t −To) / T。
Rp’ = (t−Ra)/ (Qn 、2Ao/Bo
)Ri’=rzs RR’=rB Rt’=r目 次に、評価手段220はlRt Rt’ Iに有意
差があるか否かを判定し、有意差がある場合1tの処理
を実行し1.有意差がない場合1tの処理をスキップす
る(1s)。このとき有意差の判定はε1との大小で判
定し、1R1−R1’ l<ε、の場合有意差なしと
する。εiの値は、あらかじめ評価手段220に与えら
れており、一定値である。
)Ri’=rzs RR’=rB Rt’=r目 次に、評価手段220はlRt Rt’ Iに有意
差があるか否かを判定し、有意差がある場合1tの処理
を実行し1.有意差がない場合1tの処理をスキップす
る(1s)。このとき有意差の判定はε1との大小で判
定し、1R1−R1’ l<ε、の場合有意差なしと
する。εiの値は、あらかじめ評価手段220に与えら
れており、一定値である。
1tの処理では有意差のあった技能データを更新し、更
新した技能データを示す技能更新フラグを1にして、他
の手段が更新された技能データをすぐにわかるようにす
る(1t)。
新した技能データを示す技能更新フラグを1にして、他
の手段が更新された技能データをすぐにわかるようにす
る(1t)。
なお、技能更新フラグは第30図の構成とする。
次に、全タスク完了か否かを0PN2,3cにより判定
し、全タスク完了の場合(OPN2=O)評価手段22
0は全ての動作を完了する。ダスクが未完了の場合(O
P N 2≠OIgの処理へ戻る。
し、全タスク完了の場合(OPN2=O)評価手段22
0は全ての動作を完了する。ダスクが未完了の場合(O
P N 2≠OIgの処理へ戻る。
以上の評価パラメータの計算式は第28図にまとめて示
す。
す。
なお、計算機の高機能化・高速化が進むと共に、センシ
ング技術や画像処理技術が進歩すると、自動操作の割合
が多くなることが予想される。この場合には操作者がマ
スタを操作する時間が少なくなり、余裕が生じる。そこ
で、複数のスレーブを1人の操作者で操作することも可
能になる。第31図はこの場合の実施例を示す図である
。図に示すように、2台のスレーブは1台のマスタを使
用して1人の操作者により操作される。モニタ102の
情報は手動操作を必要とするスレーブの情報に切換えら
れ、操作者110に対応するスレーブの操作をうながす
。操作者はマスタ101を操作することにより手動操作
を必要とするスレーブを操作することができる。この場
合、記憶手段109は各々のスレーブに対応して多層構
造になっている。本方式はスレーブの台数が3台以上に
なっても同様に適用できる。
ング技術や画像処理技術が進歩すると、自動操作の割合
が多くなることが予想される。この場合には操作者がマ
スタを操作する時間が少なくなり、余裕が生じる。そこ
で、複数のスレーブを1人の操作者で操作することも可
能になる。第31図はこの場合の実施例を示す図である
。図に示すように、2台のスレーブは1台のマスタを使
用して1人の操作者により操作される。モニタ102の
情報は手動操作を必要とするスレーブの情報に切換えら
れ、操作者110に対応するスレーブの操作をうながす
。操作者はマスタ101を操作することにより手動操作
を必要とするスレーブを操作することができる。この場
合、記憶手段109は各々のスレーブに対応して多層構
造になっている。本方式はスレーブの台数が3台以上に
なっても同様に適用できる。
以上述べたように本発明によれば、どのような技能の人
間が操作をしても、操作者の技能の程度に応じて自動操
作と手動操作を適切に織り混ぜた手順で作業を遂行でき
、極めて効率良く作業を実行することができるという効
果がある。
間が操作をしても、操作者の技能の程度に応じて自動操
作と手動操作を適切に織り混ぜた手順で作業を遂行でき
、極めて効率良く作業を実行することができるという効
果がある。
第1図〜第23図は本発明の一実施例を説明する図で、
第1図及び第2図は本発明の全体構成を示すブロック線
図、第3図は第2図に示す現在状態部の詳細を示す図、
第4図は第3図の一部を更に詳細に説明する図、第5図
は説明のための1例としての状況を説明する斜視図、第
6図及び第7図は第2図の作業データ部を詳細に示す図
、第8図〜第10図は第2図のプラン部を詳細に示す図
。 第11図は本実施例の動作概略を示す流れ図、第12図
はプラン作成手段のブロック線図、第13図及び第14
図はインターフェース手段のブロック線図と動作例を示
す図、第15図〜第19図はインターフェース手段にお
ける処理の流れ図、第20図及び第21図はスレーブ動
作管理手段の流れ図、第22図及び第23図はスレーブ
動作管理手段による動作例を示す図、第24図は操作者
技術評価手段を有する本発明の他の実施例のブロック線
図、第25図は第24図に示す操作者技能評価手段のブ
ロック線図、第26図〜第28図はパラメータの説明図
、第29図は操作者技能評価手段の動作原理を説明する
流れ図、第30図はパラメータの説明図、第31図は本
発明の更に他の実施例を示すブロック線図である。 101・・・マスタ、103・・・インターフェース手
段、104・・・プラン作成手1段、105・・・スレ
ーブ動作管理手段、107・・・スレーブ、112・・
・操作者技現五状填仝’p 205 第4図 第 5 圓 第7囚 第 8 図 (80(/1 夕す ) 第9日 (8J /1 イ9す) ′$10回 CBe /l イクリ) 上4シいν 1Fテ゛十腐コ ボイシクa11
庫![了A稍i21号欄 CcondL ・
イタリ )↓ 、$11 日 $13 回 茅 14図 糸 /乙 図 ′$17国 第 ]8目 第 s’i 阻 第20 国 第21目 叢22図 ′$23 図 茅z1.8 (頂5q)1 )禍ミ能書]Lイi6午1へヒ2\ジタ
フータ潴27因 tAT省1平価+に出2カ丁ニア 第 2δ日 糖I西rYラメータ 基不計算氏 ¥29図 $30@ 技箭史]附7ラグめ構成 Z/z
第1図及び第2図は本発明の全体構成を示すブロック線
図、第3図は第2図に示す現在状態部の詳細を示す図、
第4図は第3図の一部を更に詳細に説明する図、第5図
は説明のための1例としての状況を説明する斜視図、第
6図及び第7図は第2図の作業データ部を詳細に示す図
、第8図〜第10図は第2図のプラン部を詳細に示す図
。 第11図は本実施例の動作概略を示す流れ図、第12図
はプラン作成手段のブロック線図、第13図及び第14
図はインターフェース手段のブロック線図と動作例を示
す図、第15図〜第19図はインターフェース手段にお
ける処理の流れ図、第20図及び第21図はスレーブ動
作管理手段の流れ図、第22図及び第23図はスレーブ
動作管理手段による動作例を示す図、第24図は操作者
技術評価手段を有する本発明の他の実施例のブロック線
図、第25図は第24図に示す操作者技能評価手段のブ
ロック線図、第26図〜第28図はパラメータの説明図
、第29図は操作者技能評価手段の動作原理を説明する
流れ図、第30図はパラメータの説明図、第31図は本
発明の更に他の実施例を示すブロック線図である。 101・・・マスタ、103・・・インターフェース手
段、104・・・プラン作成手1段、105・・・スレ
ーブ動作管理手段、107・・・スレーブ、112・・
・操作者技現五状填仝’p 205 第4図 第 5 圓 第7囚 第 8 図 (80(/1 夕す ) 第9日 (8J /1 イ9す) ′$10回 CBe /l イクリ) 上4シいν 1Fテ゛十腐コ ボイシクa11
庫![了A稍i21号欄 CcondL ・
イタリ )↓ 、$11 日 $13 回 茅 14図 糸 /乙 図 ′$17国 第 ]8目 第 s’i 阻 第20 国 第21目 叢22図 ′$23 図 茅z1.8 (頂5q)1 )禍ミ能書]Lイi6午1へヒ2\ジタ
フータ潴27因 tAT省1平価+に出2カ丁ニア 第 2δ日 糖I西rYラメータ 基不計算氏 ¥29図 $30@ 技箭史]附7ラグめ構成 Z/z
Claims (1)
- 【特許請求の範囲】 1、マスタ及びスレーブを用いた遠隔マニピュレーショ
ンにおいて、操作者の技能の程度を示すデータ及び与え
られた作業目標から手動操作部分と自動操作部分を織り
混ぜた手順プランを作業し、この手順プランに沿つて、
自動操作部分は計算機による運動管理によつて自動的に
実行し、手動操作部分は操作者による手動操作により実
行することを特徴とする遠隔マニピュレーション方法。 2、操作中に操作者の技能の程度を示すデータを更新し
、操作者の技能の程度を逐次評価することを特徴とする
特許請求の範囲第1項記載の遠隔マニピュレーション方
法。 3、操作者の技能データを更新した際に、手順プランも
逐次更新することを特徴とする特許請求の範囲第2項記
載の遠隔マニピュレーション方法。 4、マスタ及びスレーブを備えた遠隔マニピュレーショ
ン装置において、操作者の技能データ及び与えられた作
業目標から手動操作部分と自動操作部分を織り混ぜた手
順プランを作成するプラン作成手段、自動操作部分の実
行及び手動操作部分の実行時に支援動作をするスレーブ
動作管理手段、及び手動操作部分の実行時に実施すべき
操作の内容を人間に指示し、操作をうながすインターフ
ェース手段を備えたことを特徴とする遠隔マニピュレー
ション装置。 5、操作者の技能データを記憶する手段を備えたことを
特徴とする特許請求の範囲第4項記載の遠隔マニピュレ
ーション装置。 6、操作者の技能データから操作者の技能の程度を評価
する手段を備え、操作中に操作者の技能データを更新す
ることを特徴とする特許請求の範囲第4項または第5項
記載の遠隔マニピュレーション装置。 7、インターフェース手段は、テレビモニタの画面上に
、作業対象物とスレーブ手先部の実際の映像、及び現在
の作業項目内容を表示することを特徴とする特許請求の
範囲第4項に記載の遠隔マニピュレーション装置。 8、インターフェース手段はテレビモニタの画面上に更
に、手先目標位置のグラフィック表示をすると共に、付
帯条件の表示も行うことを特徴とする特許請求の範囲第
7項に記載の遠隔マニピュレーション装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61039232A JPH085018B2 (ja) | 1986-02-26 | 1986-02-26 | 遠隔マニピユレ−シヨン方法及び装置 |
DE8787102609T DE3762557D1 (de) | 1986-02-26 | 1987-02-24 | Fernsteuerungsverfahren und anlage fuer handhabunsgeraet. |
EP87102609A EP0235730B1 (en) | 1986-02-26 | 1987-02-24 | Remote manipulation method and system |
US07/019,601 US4837734A (en) | 1986-02-26 | 1987-02-26 | Method and apparatus for master-slave manipulation supplemented by automatic control based on level of operator skill |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61039232A JPH085018B2 (ja) | 1986-02-26 | 1986-02-26 | 遠隔マニピユレ−シヨン方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS62199376A true JPS62199376A (ja) | 1987-09-03 |
JPH085018B2 JPH085018B2 (ja) | 1996-01-24 |
Family
ID=12547380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61039232A Expired - Fee Related JPH085018B2 (ja) | 1986-02-26 | 1986-02-26 | 遠隔マニピユレ−シヨン方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US4837734A (ja) |
EP (1) | EP0235730B1 (ja) |
JP (1) | JPH085018B2 (ja) |
DE (1) | DE3762557D1 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04177511A (ja) * | 1990-11-09 | 1992-06-24 | Yuushin Seiki:Kk | サーボモータ制御装置 |
JP2004114285A (ja) * | 2002-09-02 | 2004-04-15 | Sony Corp | ロボット装置及びその行動制御方法 |
JP2006212741A (ja) * | 2005-02-04 | 2006-08-17 | National Institute Of Advanced Industrial & Technology | タスクスキル生成装置 |
JP2006263897A (ja) * | 2005-03-25 | 2006-10-05 | National Institute Of Advanced Industrial & Technology | タスクスキルによる丸型ハンドルバルブ操作装置 |
WO2017033362A1 (ja) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | 遠隔操縦マニピュレータシステム及びその運転方法 |
JP2020040136A (ja) * | 2018-09-07 | 2020-03-19 | アズビル株式会社 | ロボットの直接教示装置及び直接教示方法 |
JP2020059105A (ja) * | 2018-10-12 | 2020-04-16 | キヤノン株式会社 | ロボット制御方法、物品の製造方法、ロボット装置、プログラム、及び記録媒体 |
JPWO2022131335A1 (ja) * | 2020-12-18 | 2022-06-23 | ||
WO2022209924A1 (ja) * | 2021-03-31 | 2022-10-06 | 本田技研工業株式会社 | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム |
Families Citing this family (152)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0301096B1 (en) * | 1987-01-30 | 1994-03-02 | Kabushiki Kaisha Komatsu Seisakusho | Operation controller |
DE3885437T2 (de) * | 1988-01-05 | 1994-03-17 | Spar Aerospace Ltd | Feingesteuerter Folgeroboter. |
US5038089A (en) * | 1988-03-23 | 1991-08-06 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Synchronized computational architecture for generalized bilateral control of robot arms |
JP2512099B2 (ja) * | 1988-08-24 | 1996-07-03 | 松下電器産業株式会社 | ロボットの動作教示方法および制御装置 |
US5103395A (en) * | 1988-10-07 | 1992-04-07 | Spako David W | System for remote positioning of a radioactive source into a patient including means for protection against improper patient exposure to radiation |
US5019761A (en) * | 1989-02-21 | 1991-05-28 | Kraft Brett W | Force feedback control for backhoe |
ES2085885T3 (es) * | 1989-11-08 | 1996-06-16 | George S Allen | Brazo mecanico para sistema interactivo de cirugia dirigido por imagenes. |
US5631861A (en) | 1990-02-02 | 1997-05-20 | Virtual Technologies, Inc. | Force feedback and texture simulating interface device |
JP2796160B2 (ja) * | 1990-02-21 | 1998-09-10 | 株式会社日立製作所 | 産業用ロボットの教示装置 |
US5086400A (en) * | 1990-05-11 | 1992-02-04 | The United States Of America As Represented The The Administrator Of The National Aeronautics And Space Administration | Bilevel shared control for teleoperators |
US5117992A (en) * | 1991-01-28 | 1992-06-02 | Virginia International Terminals, Inc. | System for learning control commands to robotically move a load, especially suitable for use in cranes to reduce load sway |
JP3065702B2 (ja) * | 1991-04-23 | 2000-07-17 | オリンパス光学工業株式会社 | 内視鏡システム |
US5231693A (en) * | 1991-05-09 | 1993-07-27 | The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration | Telerobot control system |
US5266875A (en) * | 1991-05-23 | 1993-11-30 | Massachusetts Institute Of Technology | Telerobotic system |
US5889670A (en) | 1991-10-24 | 1999-03-30 | Immersion Corporation | Method and apparatus for tactilely responsive user interface |
KR950003286B1 (ko) * | 1992-01-06 | 1995-04-07 | 삼성전자 주식회사 | 리모트 송수신 장치 |
US6788999B2 (en) | 1992-01-21 | 2004-09-07 | Sri International, Inc. | Surgical system |
US6963792B1 (en) | 1992-01-21 | 2005-11-08 | Sri International | Surgical method |
CA2128606C (en) * | 1992-01-21 | 2008-07-22 | Philip S. Green | Teleoperator system and method with telepresence |
US6731988B1 (en) | 1992-01-21 | 2004-05-04 | Sri International | System and method for remote endoscopic surgery |
EP0653078B1 (de) * | 1992-08-01 | 1998-11-18 | Siemens Aktiengesellschaft | Verfahren und leittechnisches system zum steuern, überwachen und regeln insbesondere von komplexen industriellen prozessen, wie z.b. in einem kernkraftwerk |
US5657429A (en) | 1992-08-10 | 1997-08-12 | Computer Motion, Inc. | Automated endoscope system optimal positioning |
US5762458A (en) * | 1996-02-20 | 1998-06-09 | Computer Motion, Inc. | Method and apparatus for performing minimally invasive cardiac procedures |
US5524180A (en) * | 1992-08-10 | 1996-06-04 | Computer Motion, Inc. | Automated endoscope system for optimal positioning |
US7074179B2 (en) | 1992-08-10 | 2006-07-11 | Intuitive Surgical Inc | Method and apparatus for performing minimally invasive cardiac procedures |
US5331413A (en) * | 1992-09-28 | 1994-07-19 | The United States Of America As Represented By The United States National Aeronautics And Space Administration | Adjustable control station with movable monitors and cameras for viewing systems in robotics and teleoperations |
US6801008B1 (en) * | 1992-12-02 | 2004-10-05 | Immersion Corporation | Force feedback system and actuator power management |
US7345672B2 (en) * | 1992-12-02 | 2008-03-18 | Immersion Corporation | Force feedback system and actuator power management |
US5389865A (en) * | 1992-12-02 | 1995-02-14 | Cybernet Systems Corporation | Method and system for providing a tactile virtual reality and manipulator defining an interface device therefor |
US5629594A (en) * | 1992-12-02 | 1997-05-13 | Cybernet Systems Corporation | Force feedback system |
JP3306781B2 (ja) * | 1992-12-31 | 2002-07-24 | 株式会社ダイヘン | 産業用ロボットの手動操作による教示制御装置および教示方法 |
US5499320A (en) * | 1993-03-24 | 1996-03-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Extended task space control for robotic manipulators |
JP2665052B2 (ja) * | 1993-05-14 | 1997-10-22 | エスアールアイ インターナショナル | 遠隔中心位置決め装置 |
US5466213A (en) * | 1993-07-06 | 1995-11-14 | Massachusetts Institute Of Technology | Interactive robotic therapist |
US5734373A (en) | 1993-07-16 | 1998-03-31 | Immersion Human Interface Corporation | Method and apparatus for controlling force feedback interface systems utilizing a host computer |
US5625576A (en) | 1993-10-01 | 1997-04-29 | Massachusetts Institute Of Technology | Force reflecting haptic interface |
US5876325A (en) * | 1993-11-02 | 1999-03-02 | Olympus Optical Co., Ltd. | Surgical manipulation system |
US5473235A (en) * | 1993-12-21 | 1995-12-05 | Honeywell Inc. | Moment cell counterbalance for active hand controller |
JP3823324B2 (ja) * | 1994-03-23 | 2006-09-20 | 株式会社安川電機 | 作業機械の制御装置 |
US6463361B1 (en) | 1994-09-22 | 2002-10-08 | Computer Motion, Inc. | Speech interface for an automated endoscopic system |
US6646541B1 (en) | 1996-06-24 | 2003-11-11 | Computer Motion, Inc. | General purpose distributed operating room control system |
US7053752B2 (en) | 1996-08-06 | 2006-05-30 | Intuitive Surgical | General purpose distributed operating room control system |
US5814038A (en) | 1995-06-07 | 1998-09-29 | Sri International | Surgical manipulator for a telerobotic system |
US5649956A (en) * | 1995-06-07 | 1997-07-22 | Sri International | System and method for releasably holding a surgical instrument |
US6714841B1 (en) | 1995-09-15 | 2004-03-30 | Computer Motion, Inc. | Head cursor control interface for an automated endoscope system for optimal positioning |
US5624398A (en) | 1996-02-08 | 1997-04-29 | Symbiosis Corporation | Endoscopic robotic surgical tools and methods |
US6436107B1 (en) | 1996-02-20 | 2002-08-20 | Computer Motion, Inc. | Method and apparatus for performing minimally invasive surgical procedures |
US5855583A (en) * | 1996-02-20 | 1999-01-05 | Computer Motion, Inc. | Method and apparatus for performing minimally invasive cardiac procedures |
US6063095A (en) * | 1996-02-20 | 2000-05-16 | Computer Motion, Inc. | Method and apparatus for performing minimally invasive surgical procedures |
US6111577A (en) | 1996-04-04 | 2000-08-29 | Massachusetts Institute Of Technology | Method and apparatus for determining forces to be applied to a user through a haptic interface |
US7225404B1 (en) | 1996-04-04 | 2007-05-29 | Massachusetts Institute Of Technology | Method and apparatus for determining forces to be applied to a user through a haptic interface |
US6243619B1 (en) | 1996-05-10 | 2001-06-05 | Amada Company, Ltd. | Control method and apparatus for plate material processing machine |
EP0902920A1 (en) * | 1996-06-07 | 1999-03-24 | Amada Company Limited | Control method and apparatus for plate material processing machine |
US6911916B1 (en) | 1996-06-24 | 2005-06-28 | The Cleveland Clinic Foundation | Method and apparatus for accessing medical data over a network |
US6496099B2 (en) | 1996-06-24 | 2002-12-17 | Computer Motion, Inc. | General purpose distributed operating room control system |
US6084587A (en) | 1996-08-02 | 2000-07-04 | Sensable Technologies, Inc. | Method and apparatus for generating and interfacing with a haptic virtual reality environment |
US6024576A (en) * | 1996-09-06 | 2000-02-15 | Immersion Corporation | Hemispherical, high bandwidth mechanical interface for computer systems |
US6132441A (en) | 1996-11-22 | 2000-10-17 | Computer Motion, Inc. | Rigidly-linked articulating wrist with decoupled motion transmission |
JP3628826B2 (ja) * | 1996-12-24 | 2005-03-16 | 本田技研工業株式会社 | 脚式移動ロボットの遠隔制御システム |
US20040236352A1 (en) * | 1997-09-22 | 2004-11-25 | Yulun Wang | Method and apparatus for performing minimally invasive cardiac procedures |
US6281651B1 (en) | 1997-11-03 | 2001-08-28 | Immersion Corporation | Haptic pointing devices |
US6252583B1 (en) | 1997-11-14 | 2001-06-26 | Immersion Corporation | Memory and force output management for a force feedback system |
US6191796B1 (en) | 1998-01-21 | 2001-02-20 | Sensable Technologies, Inc. | Method and apparatus for generating and interfacing with rigid and deformable surfaces in a haptic virtual reality environment |
US6184868B1 (en) | 1998-09-17 | 2001-02-06 | Immersion Corp. | Haptic feedback control devices |
US6429846B2 (en) | 1998-06-23 | 2002-08-06 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
US6421048B1 (en) | 1998-07-17 | 2002-07-16 | Sensable Technologies, Inc. | Systems and methods for interacting with virtual objects in a haptic virtual reality environment |
US6985133B1 (en) | 1998-07-17 | 2006-01-10 | Sensable Technologies, Inc. | Force reflecting haptic interface |
US6552722B1 (en) | 1998-07-17 | 2003-04-22 | Sensable Technologies, Inc. | Systems and methods for sculpting virtual objects in a haptic virtual reality environment |
US6417638B1 (en) | 1998-07-17 | 2002-07-09 | Sensable Technologies, Inc. | Force reflecting haptic interface |
US6659939B2 (en) | 1998-11-20 | 2003-12-09 | Intuitive Surgical, Inc. | Cooperative minimally invasive telesurgical system |
US6398726B1 (en) | 1998-11-20 | 2002-06-04 | Intuitive Surgical, Inc. | Stabilizer for robotic beating-heart surgery |
US8527094B2 (en) | 1998-11-20 | 2013-09-03 | Intuitive Surgical Operations, Inc. | Multi-user medical robotic system for collaboration or training in minimally invasive surgical procedures |
US6852107B2 (en) | 2002-01-16 | 2005-02-08 | Computer Motion, Inc. | Minimally invasive surgical training using robotics and tele-collaboration |
US6951535B2 (en) * | 2002-01-16 | 2005-10-04 | Intuitive Surgical, Inc. | Tele-medicine system that transmits an entire state of a subsystem |
US6493608B1 (en) | 1999-04-07 | 2002-12-10 | Intuitive Surgical, Inc. | Aspects of a control system of a minimally invasive surgical apparatus |
US6424885B1 (en) | 1999-04-07 | 2002-07-23 | Intuitive Surgical, Inc. | Camera referenced control in a minimally invasive surgical apparatus |
US8944070B2 (en) | 1999-04-07 | 2015-02-03 | Intuitive Surgical Operations, Inc. | Non-force reflecting method for providing tool force information to a user of a telesurgical system |
US7217240B2 (en) * | 1999-10-01 | 2007-05-15 | Intuitive Surgical, Inc. | Heart stabilizer |
US6822635B2 (en) | 2000-01-19 | 2004-11-23 | Immersion Corporation | Haptic interface for laptop computers and other portable devices |
US6726699B1 (en) | 2000-08-15 | 2004-04-27 | Computer Motion, Inc. | Instrument guide |
EP2441395A3 (en) | 2000-11-28 | 2014-06-18 | Intuitive Surgical Operations, Inc. | Endoscope beating-heart stabilizer and vessel occlusion fastener |
US6867770B2 (en) * | 2000-12-14 | 2005-03-15 | Sensable Technologies, Inc. | Systems and methods for voxel warping |
US6958752B2 (en) * | 2001-01-08 | 2005-10-25 | Sensable Technologies, Inc. | Systems and methods for three-dimensional modeling |
JP3392120B2 (ja) * | 2001-03-23 | 2003-03-31 | 任天堂株式会社 | ゲーム装置及びそのプログラム |
US20020165524A1 (en) * | 2001-05-01 | 2002-11-07 | Dan Sanchez | Pivot point arm for a robotic system used to perform a surgical procedure |
US6817974B2 (en) | 2001-06-29 | 2004-11-16 | Intuitive Surgical, Inc. | Surgical tool having positively positionable tendon-actuated multi-disk wrist joint |
US20060178556A1 (en) | 2001-06-29 | 2006-08-10 | Intuitive Surgical, Inc. | Articulate and swapable endoscope for a surgical robot |
US6728599B2 (en) | 2001-09-07 | 2004-04-27 | Computer Motion, Inc. | Modularity system for computer assisted surgery |
US6839612B2 (en) | 2001-12-07 | 2005-01-04 | Institute Surgical, Inc. | Microwrist system for surgical procedures |
US6793653B2 (en) | 2001-12-08 | 2004-09-21 | Computer Motion, Inc. | Multifunctional handle for a medical robotic system |
US7164968B2 (en) * | 2002-04-05 | 2007-01-16 | The Trustees Of Columbia University In The City Of New York | Robotic scrub nurse |
US6671651B2 (en) * | 2002-04-26 | 2003-12-30 | Sensable Technologies, Inc. | 3-D selection and manipulation with a multiple dimension haptic interface |
US7386365B2 (en) * | 2004-05-04 | 2008-06-10 | Intuitive Surgical, Inc. | Tool grip calibration for robotic surgery |
AU2003293353A1 (en) | 2002-12-06 | 2004-06-30 | Intuitive Surgical, Inc. | Flexible wrist for surgical tool |
US8059088B2 (en) | 2002-12-08 | 2011-11-15 | Immersion Corporation | Methods and systems for providing haptic messaging to handheld communication devices |
US8830161B2 (en) | 2002-12-08 | 2014-09-09 | Immersion Corporation | Methods and systems for providing a virtual touch haptic effect to handheld communication devices |
GB2428118B (en) * | 2002-12-08 | 2007-08-22 | Immersion Corp | Haptic Communication devices |
US20060275103A1 (en) * | 2003-07-01 | 2006-12-07 | Yoshito Otake | Device and method of transporting and installing component |
US7411576B2 (en) | 2003-10-30 | 2008-08-12 | Sensable Technologies, Inc. | Force reflecting haptic interface |
US7889209B2 (en) * | 2003-12-10 | 2011-02-15 | Sensable Technologies, Inc. | Apparatus and methods for wrapping texture onto the surface of a virtual object |
US7626589B2 (en) * | 2003-12-10 | 2009-12-01 | Sensable Technologies, Inc. | Haptic graphical user interface for adjusting mapped texture |
US7149596B2 (en) * | 2004-01-13 | 2006-12-12 | Sensable Technologies, Inc. | Apparatus and methods for modifying a model of an object to enforce compliance with a manufacturing constraint |
EP1562099A1 (en) * | 2004-02-09 | 2005-08-10 | SAP Aktiengesellschaft | Method and computer system for document encryption |
US7632265B2 (en) | 2004-05-28 | 2009-12-15 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Radio frequency ablation servo catheter and method |
US7974674B2 (en) * | 2004-05-28 | 2011-07-05 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic surgical system and method for surface modeling |
US10258285B2 (en) * | 2004-05-28 | 2019-04-16 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic surgical system and method for automated creation of ablation lesions |
US10863945B2 (en) * | 2004-05-28 | 2020-12-15 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic surgical system with contact sensing feature |
US8755864B2 (en) | 2004-05-28 | 2014-06-17 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic surgical system and method for diagnostic data mapping |
US8528565B2 (en) | 2004-05-28 | 2013-09-10 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic surgical system and method for automated therapy delivery |
US9782130B2 (en) | 2004-05-28 | 2017-10-10 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Robotic surgical system |
US9789608B2 (en) | 2006-06-29 | 2017-10-17 | Intuitive Surgical Operations, Inc. | Synthetic representation of a surgical robot |
US8155910B2 (en) | 2005-05-27 | 2012-04-10 | St. Jude Medical, Atrial Fibrillation Divison, Inc. | Robotically controlled catheter and method of its calibration |
US7860614B1 (en) * | 2005-09-13 | 2010-12-28 | The United States Of America As Represented By The Secretary Of The Army | Trainer for robotic vehicle |
JP5044968B2 (ja) * | 2006-04-03 | 2012-10-10 | オムロン株式会社 | 要因推定装置、要因推定方法、プログラムおよびコンピュータ読取可能記録媒体 |
CN104720887B (zh) | 2006-06-13 | 2017-05-10 | 直观外科手术操作公司 | 微创手术系统 |
US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
US9718190B2 (en) | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US10258425B2 (en) | 2008-06-27 | 2019-04-16 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide |
US20090192523A1 (en) | 2006-06-29 | 2009-07-30 | Intuitive Surgical, Inc. | Synthetic representation of a surgical instrument |
US7457686B2 (en) * | 2007-03-14 | 2008-11-25 | Ortho—Clinical Diagnostics, Inc. | Robotic arm alignment |
US9138129B2 (en) | 2007-06-13 | 2015-09-22 | Intuitive Surgical Operations, Inc. | Method and system for moving a plurality of articulated instruments in tandem back towards an entry guide |
US9089256B2 (en) | 2008-06-27 | 2015-07-28 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
US8620473B2 (en) | 2007-06-13 | 2013-12-31 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US9469034B2 (en) | 2007-06-13 | 2016-10-18 | Intuitive Surgical Operations, Inc. | Method and system for switching modes of a robotic system |
US9084623B2 (en) | 2009-08-15 | 2015-07-21 | Intuitive Surgical Operations, Inc. | Controller assisted reconfiguration of an articulated instrument during movement into and out of an entry guide |
US8864652B2 (en) | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
US12239396B2 (en) | 2008-06-27 | 2025-03-04 | Intuitive Surgical Operations, Inc. | Medical robotic system providing an auxiliary view including range of motion limitations for articulatable instruments extending out of a distal end of an entry guide |
TWI373361B (en) * | 2008-10-09 | 2012-10-01 | Univ Nat Chiao Tung | Glove puppet manipulation system |
DE102009012328A1 (de) * | 2009-03-09 | 2010-09-16 | Weber Maschinenbau Gmbh Breidenbach | Vorrichtung zum Betreiben eines Roboters |
US12266040B2 (en) | 2009-03-31 | 2025-04-01 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
US8918211B2 (en) | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
US9492927B2 (en) | 2009-08-15 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Application of force feedback on an input device to urge its operator to command an articulated instrument to a preferred pose |
US8602456B2 (en) | 2010-12-09 | 2013-12-10 | Harris Corporation | Ball joint having a passageway for routing a cable therethrough |
US8606403B2 (en) | 2010-12-14 | 2013-12-10 | Harris Corporation | Haptic interface handle with force-indicating trigger mechanism |
US8918214B2 (en) | 2011-01-19 | 2014-12-23 | Harris Corporation | Telematic interface with directional translation |
US8918215B2 (en) | 2011-01-19 | 2014-12-23 | Harris Corporation | Telematic interface with control signal scaling based on force sensor feedback |
JP5669590B2 (ja) * | 2011-01-20 | 2015-02-12 | オリンパス株式会社 | マスタスレーブマニピュレータ及び医療用マスタスレーブマニピュレータ |
US9205555B2 (en) | 2011-03-22 | 2015-12-08 | Harris Corporation | Manipulator joint-limit handling algorithm |
US8694134B2 (en) | 2011-05-05 | 2014-04-08 | Harris Corporation | Remote control interface |
US8639386B2 (en) | 2011-05-20 | 2014-01-28 | Harris Corporation | Haptic device for manipulator and vehicle control |
FR2976681B1 (fr) * | 2011-06-17 | 2013-07-12 | Inst Nat Rech Inf Automat | Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme |
US9026250B2 (en) | 2011-08-17 | 2015-05-05 | Harris Corporation | Haptic manipulation system for wheelchairs |
US8996244B2 (en) | 2011-10-06 | 2015-03-31 | Harris Corporation | Improvised explosive device defeat system |
US9802364B2 (en) | 2011-10-18 | 2017-10-31 | 3D Systems, Inc. | Systems and methods for construction of an instruction set for three-dimensional printing of a user-customizableimage of a three-dimensional structure |
US9582178B2 (en) | 2011-11-07 | 2017-02-28 | Immersion Corporation | Systems and methods for multi-pressure interaction on touch-sensitive surfaces |
US8954195B2 (en) | 2012-11-09 | 2015-02-10 | Harris Corporation | Hybrid gesture control haptic system |
US8965620B2 (en) | 2013-02-07 | 2015-02-24 | Harris Corporation | Systems and methods for controlling movement of unmanned vehicles |
US10507066B2 (en) | 2013-02-15 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Providing information of tools by filtering image areas adjacent to or on displayed images of the tools |
CN104885028B (zh) * | 2013-03-05 | 2018-03-27 | 奥林巴斯株式会社 | 操作输入装置和主从系统 |
US9128507B2 (en) | 2013-12-30 | 2015-09-08 | Harris Corporation | Compact haptic interface |
US10514687B2 (en) * | 2015-01-08 | 2019-12-24 | Rethink Robotics Gmbh | Hybrid training with collaborative and conventional robots |
JP6706489B2 (ja) * | 2015-11-24 | 2020-06-10 | 川崎重工業株式会社 | ロボットのダイレクト教示方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59160181A (ja) * | 1983-03-02 | 1984-09-10 | フアナツク株式会社 | Nc用カラ−グラフイツク表示装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3923166A (en) * | 1973-10-11 | 1975-12-02 | Nasa | Remote manipulator system |
DE2530261C2 (de) * | 1974-10-22 | 1986-10-23 | Asea S.p.A., Mailand/Milano | Programmiereinrichtung für einen Manipulator |
US4124944A (en) * | 1977-07-08 | 1978-11-14 | Lenco, Inc. | Device for teaching and evaluating a person's skill as a welder |
GB2003103B (en) * | 1977-08-27 | 1982-01-06 | British Aircraft Corp Ltd | Simulators |
US4360886A (en) * | 1980-04-04 | 1982-11-23 | Nordson Corporation | Method and apparatus for analyzing the feasibility of performing a programmed sequence of motions with a robot |
US4481591A (en) * | 1982-03-03 | 1984-11-06 | Nordson Corporation | Method and apparatus for modifying a prerecorded sequence of ON/OFF commands for controlling a bistable device operating in conjunction with a moving robot under program control |
US4518361A (en) * | 1982-08-05 | 1985-05-21 | Conway Malcolm J | Method and apparatus for effecting and evaluating action upon visual imaging |
US4573925A (en) * | 1982-09-14 | 1986-03-04 | Rockwell International Corporation | Electronic flight instrument design and evaluation tool |
DE3240251A1 (de) * | 1982-10-30 | 1984-05-03 | Deutsche Forschungs- und Versuchsanstalt für Luft- und Raumfahrt e.V., 5000 Köln | Verfahren zum programmieren von bewegungen und erforderlichenfalls von bearbeitungskraeften bzw. -momenten eines roboters oder manipulators und einrichtung zu dessen durchfuehrung |
EP0125776A2 (en) * | 1983-04-13 | 1984-11-21 | Nordson Corporation | Robot control system |
US4484120A (en) * | 1983-04-13 | 1984-11-20 | Nordson Corporation | Auxiliary function command presequencing for a robot controller |
JPH0327675Y2 (ja) * | 1984-12-12 | 1991-06-14 | ||
JPS61146482A (ja) * | 1984-12-20 | 1986-07-04 | 工業技術院長 | 異構造異自由度バイラテラル・マスタスレイブ・マニピユレ−タの制御装置 |
-
1986
- 1986-02-26 JP JP61039232A patent/JPH085018B2/ja not_active Expired - Fee Related
-
1987
- 1987-02-24 DE DE8787102609T patent/DE3762557D1/de not_active Expired - Lifetime
- 1987-02-24 EP EP87102609A patent/EP0235730B1/en not_active Expired
- 1987-02-26 US US07/019,601 patent/US4837734A/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59160181A (ja) * | 1983-03-02 | 1984-09-10 | フアナツク株式会社 | Nc用カラ−グラフイツク表示装置 |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04177511A (ja) * | 1990-11-09 | 1992-06-24 | Yuushin Seiki:Kk | サーボモータ制御装置 |
JP2004114285A (ja) * | 2002-09-02 | 2004-04-15 | Sony Corp | ロボット装置及びその行動制御方法 |
JP2006212741A (ja) * | 2005-02-04 | 2006-08-17 | National Institute Of Advanced Industrial & Technology | タスクスキル生成装置 |
JP4534015B2 (ja) * | 2005-02-04 | 2010-09-01 | 独立行政法人産業技術総合研究所 | マスタ・スレーブ式ロボット制御情報確定方法 |
JP2006263897A (ja) * | 2005-03-25 | 2006-10-05 | National Institute Of Advanced Industrial & Technology | タスクスキルによる丸型ハンドルバルブ操作装置 |
KR20180042332A (ko) * | 2015-08-25 | 2018-04-25 | 카와사키 주코교 카부시키 카이샤 | 원격조작 로봇시스템 및 그 운전방법 |
JPWO2017033362A1 (ja) * | 2015-08-25 | 2018-06-14 | 川崎重工業株式会社 | 遠隔操縦マニピュレータシステム及びその運転方法 |
CN107848113A (zh) * | 2015-08-25 | 2018-03-27 | 川崎重工业株式会社 | 机器人系统及其运转方法 |
CN107848111A (zh) * | 2015-08-25 | 2018-03-27 | 川崎重工业株式会社 | 远程操作机械手系统及其运转方法 |
CN107921642A (zh) * | 2015-08-25 | 2018-04-17 | 川崎重工业株式会社 | 远程操作机械手系统及其运转方法 |
WO2017033362A1 (ja) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | 遠隔操縦マニピュレータシステム及びその運転方法 |
JPWO2017033350A1 (ja) * | 2015-08-25 | 2018-06-07 | 川崎重工業株式会社 | 遠隔操作ロボットシステム及びその運転方法 |
WO2017033350A1 (ja) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | 遠隔操作ロボットシステム及びその運転方法 |
JP2022119943A (ja) * | 2015-08-25 | 2022-08-17 | 川崎重工業株式会社 | 産業用ロボットおよびその運転方法 |
US10980606B2 (en) | 2015-08-25 | 2021-04-20 | Kawasaki Jukogyo Kabushiki Kaisha | Remote-control manipulator system and method of operating the same |
US10959795B2 (en) | 2015-08-25 | 2021-03-30 | Kawasaki Jukogyo Kabushiki Kaisha | Remote-control manipulator system and method of operating the same |
JP2020040136A (ja) * | 2018-09-07 | 2020-03-19 | アズビル株式会社 | ロボットの直接教示装置及び直接教示方法 |
JP2020059105A (ja) * | 2018-10-12 | 2020-04-16 | キヤノン株式会社 | ロボット制御方法、物品の製造方法、ロボット装置、プログラム、及び記録媒体 |
JPWO2022131335A1 (ja) * | 2020-12-18 | 2022-06-23 | ||
WO2022131335A1 (ja) * | 2020-12-18 | 2022-06-23 | 川崎重工業株式会社 | 制御装置、ロボットシステム及び学習装置 |
WO2022209924A1 (ja) * | 2021-03-31 | 2022-10-06 | 本田技研工業株式会社 | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US4837734A (en) | 1989-06-06 |
EP0235730A1 (en) | 1987-09-09 |
EP0235730B1 (en) | 1990-05-02 |
DE3762557D1 (de) | 1990-06-07 |
JPH085018B2 (ja) | 1996-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPS62199376A (ja) | 遠隔マニピユレ−シヨン方法及び装置 | |
US10905508B2 (en) | Remote control robot system | |
Akan et al. | Intuitive industrial robot programming through incremental multimodal language and augmented reality | |
JPS6051121B2 (ja) | ロボツトア−ム用のプログラムを発生する方法 | |
TW202244643A (zh) | 數值控制裝置及數值控制系統 | |
JPS6179589A (ja) | ロボツト運転装置 | |
Penco et al. | Mixed reality teleoperation assistance for direct control of humanoids | |
Sharp et al. | Semiautonomous dual-arm mobile manipulator system with intuitive supervisory user interfaces | |
JP2013226602A (ja) | 産業用機械システム | |
JPS63139689A (ja) | 遠隔マニピユレ−シヨン・システムの画像表示装置 | |
JPH01131904A (ja) | ロボット操作支援システム | |
Kulakov et al. | Information Technology for Interactive Robot Task Training Through Demonstration of Movement 1 | |
Dogangun et al. | RAMPA: Robotic Augmented Reality for Machine Programming and Automation | |
Touretzky et al. | The Tekkotsu" crew": Teaching robot programming at a higher level | |
De La Guardia | Programming manipulators by instructions | |
Freund et al. | Projective Virtual Reality in space applications: A telerobotic ground station for a space mission | |
JPS63179383A (ja) | 操作技能評価装置 | |
JPH0355185A (ja) | 工業用ロボット | |
Sopon et al. | Mixed reality framework for eye-in-hand collaborative robot-human interaction | |
Freund et al. | Cooperative control of robots as a basis for projective virtual reality | |
Brookshire | Enhancing multi-robot coordinated teams with sliding autonomy | |
JPH06110545A (ja) | 教示データのプログラミング方法 | |
JPH0760342B2 (ja) | ロボット支援システム | |
Frizzell et al. | Modifiable intuitive robot controller: Computer vision-based controller for various robotic designs | |
JPS62165208A (ja) | ロボツト動作教示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |