JPH06110543A - 直接教示装置 - Google Patents
直接教示装置Info
- Publication number
- JPH06110543A JPH06110543A JP26208792A JP26208792A JPH06110543A JP H06110543 A JPH06110543 A JP H06110543A JP 26208792 A JP26208792 A JP 26208792A JP 26208792 A JP26208792 A JP 26208792A JP H06110543 A JPH06110543 A JP H06110543A
- Authority
- JP
- Japan
- Prior art keywords
- teaching
- data
- sensor
- manipulator
- route
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
(57)【要約】
【目的】 簡単な操作により教示データを取得できる直
接教示装置を提供する。 【構成】 教示作業者が、マニピュレータ1の手先部に
設けられた触覚センサ5を教示対象物6の所望の教示経
路開始点に位置づける。同期信号発生部13からの同期
信号に基づいて触覚センサ5の中心位置における位置・
姿勢データが制御部8の位置検出部12で取得されると
同時に触覚センサ5によって経路に関するセンサデータ
が得られる。位置検出部12で得られた位置・姿勢デー
タは位置記憶部18に送られる。また、触覚センサ5で
得られたセンサデータはセンサデータ処理部14によっ
て雑音除去等の前処理実行後、センサデータ認識部16
に送られ教示対象物6の教示経路形状が認識される。位
置記憶部17の位置・姿勢データとセンサデータ認識部
16のセンサデータが経路演算部18に送られ、経路の
位置データが演算され、この結果が経路データ記憶部1
9に記憶される。
接教示装置を提供する。 【構成】 教示作業者が、マニピュレータ1の手先部に
設けられた触覚センサ5を教示対象物6の所望の教示経
路開始点に位置づける。同期信号発生部13からの同期
信号に基づいて触覚センサ5の中心位置における位置・
姿勢データが制御部8の位置検出部12で取得されると
同時に触覚センサ5によって経路に関するセンサデータ
が得られる。位置検出部12で得られた位置・姿勢デー
タは位置記憶部18に送られる。また、触覚センサ5で
得られたセンサデータはセンサデータ処理部14によっ
て雑音除去等の前処理実行後、センサデータ認識部16
に送られ教示対象物6の教示経路形状が認識される。位
置記憶部17の位置・姿勢データとセンサデータ認識部
16のセンサデータが経路演算部18に送られ、経路の
位置データが演算され、この結果が経路データ記憶部1
9に記憶される。
Description
【0001】
【産業上の利用分野】本発明はロボットシステムにおけ
る直接教示装置に関する。
る直接教示装置に関する。
【0002】
【従来の技術】従来、ロボットへの教示にはテイーチン
グペンダント等を用いた直接教示方法とロボット言語を
用いたオフライン教示方法がある。テイーチングペンダ
ントによる教示方法は、教示作業者がテイーチングペン
ダントを操作しワークの所望の教示点へマニピュレータ
の手先部につけた効果器を位置づけ、その教示点でのマ
ニピュレータの位置・姿勢をマニピュレータの制御装置
等に記憶させる。この処理をワークの必要な教示点すべ
てに対して実行する。また、ロボット言語を用いたオフ
ライン教示方法では、教示対象物のCADモデルとロボ
ット言語を用いグラフィックシミュレータ上にロボット
と教示対象物を表示し、画面内でロボットを動作させ教
示ポイント毎の教示を実行する。この教示された位置・
姿勢データを記憶しておき、実際にロボットを作業させ
るときにロボットのコントローラに転送する。その他の
教示方法として、力制御を用いた直接教示方法がある。
この方法は、教示作業者がマニピュレータの手先部に取
付けられた効果器に力を加え、この力をマニピュレータ
の手先部に付けた力センサで検出し、その出力信号に従
った力制御の制御手段に従って力を加えた方向に移動す
るマニピュレータを使って効果器を移動させ、所望の教
示点へ効果器を位置づけその位置・姿勢を制御手段等に
記憶させるものである。
グペンダント等を用いた直接教示方法とロボット言語を
用いたオフライン教示方法がある。テイーチングペンダ
ントによる教示方法は、教示作業者がテイーチングペン
ダントを操作しワークの所望の教示点へマニピュレータ
の手先部につけた効果器を位置づけ、その教示点でのマ
ニピュレータの位置・姿勢をマニピュレータの制御装置
等に記憶させる。この処理をワークの必要な教示点すべ
てに対して実行する。また、ロボット言語を用いたオフ
ライン教示方法では、教示対象物のCADモデルとロボ
ット言語を用いグラフィックシミュレータ上にロボット
と教示対象物を表示し、画面内でロボットを動作させ教
示ポイント毎の教示を実行する。この教示された位置・
姿勢データを記憶しておき、実際にロボットを作業させ
るときにロボットのコントローラに転送する。その他の
教示方法として、力制御を用いた直接教示方法がある。
この方法は、教示作業者がマニピュレータの手先部に取
付けられた効果器に力を加え、この力をマニピュレータ
の手先部に付けた力センサで検出し、その出力信号に従
った力制御の制御手段に従って力を加えた方向に移動す
るマニピュレータを使って効果器を移動させ、所望の教
示点へ効果器を位置づけその位置・姿勢を制御手段等に
記憶させるものである。
【0003】
【発明が解決しようとする課題】前記のテイーチングペ
ンダントによる教示方法においては、1点1点教示点を
読み込み記憶するため、複雑な形状をしたワークに対し
ては教示点の個数が膨大となり多数の教示点で位置と姿
勢を教示しなければならず、多大な時間と労力を要する
という欠点がある。また、この教示方法はテイーチング
ペンダントを使ってマニピュレータを動作させるため、
所望の教示点へマニピュレータの手先部につけた効果器
を移動させ、精度よく所望の位置・姿勢で位置づけるた
めにはかなりの熟練度が必要となる。ロボット言語を用
いたオフライン教示方法では、シミュレータ内のモデル
と実際に置かれている教示対象物の寸法あるいは据付位
置に誤差が生じるため、この誤差を補償するための教示
されたポイントを微調整する作業である習熟運転に多大
の時間を要するという問題点がある。力制御を用いた直
接教示方法は、マニピュレータの手先部に付けた効果器
を実際に教示作業者が持って所望の教示点へ位置づける
方法であるが、効果器の先端を高精度に位置づけながら
全教示点を獲得するには上記と同様に熟練度が要求され
るという問題点がある。
ンダントによる教示方法においては、1点1点教示点を
読み込み記憶するため、複雑な形状をしたワークに対し
ては教示点の個数が膨大となり多数の教示点で位置と姿
勢を教示しなければならず、多大な時間と労力を要する
という欠点がある。また、この教示方法はテイーチング
ペンダントを使ってマニピュレータを動作させるため、
所望の教示点へマニピュレータの手先部につけた効果器
を移動させ、精度よく所望の位置・姿勢で位置づけるた
めにはかなりの熟練度が必要となる。ロボット言語を用
いたオフライン教示方法では、シミュレータ内のモデル
と実際に置かれている教示対象物の寸法あるいは据付位
置に誤差が生じるため、この誤差を補償するための教示
されたポイントを微調整する作業である習熟運転に多大
の時間を要するという問題点がある。力制御を用いた直
接教示方法は、マニピュレータの手先部に付けた効果器
を実際に教示作業者が持って所望の教示点へ位置づける
方法であるが、効果器の先端を高精度に位置づけながら
全教示点を獲得するには上記と同様に熟練度が要求され
るという問題点がある。
【0004】本発明の目的は、簡便な操作により教示デ
ータを取得でき、教示作業時間が短縮され、したがって
教示作業効率が向上した直接教示装置を提供することで
ある。
ータを取得でき、教示作業時間が短縮され、したがって
教示作業効率が向上した直接教示装置を提供することで
ある。
【0005】
【課題を解決するための手段】本発明の第1の直接教示
装置は、マニピュレータの手先部に取付けられた触覚セ
ンサと、前記触覚センサから観測される圧力分布を距離
データに変換する変換手段と、前記マニピュレータの手
先に関する位置・姿勢データと前記変換手段で得られた
距離データから注目点の絶対位置を教示データとして算
出する演算手段とを有する。
装置は、マニピュレータの手先部に取付けられた触覚セ
ンサと、前記触覚センサから観測される圧力分布を距離
データに変換する変換手段と、前記マニピュレータの手
先に関する位置・姿勢データと前記変換手段で得られた
距離データから注目点の絶対位置を教示データとして算
出する演算手段とを有する。
【0006】本発明の第2の直接教示装置は、マニピュ
レータの手先部に取付けられ、経路データを取得する触
覚センサと、マニピュレータの手先部に取付けられ、教
示対象物の形状に関するデータと教示対象物までの距離
に関するデータを取得する視覚センサと、前記触覚セン
サで獲得した経路データに基づいて前記視覚センサの観
測領域を制御し、前記触覚センサで得られた経路データ
と前記視覚センサで得られたデータとから注目点の絶対
位置を演算する演算手段とを有する。
レータの手先部に取付けられ、経路データを取得する触
覚センサと、マニピュレータの手先部に取付けられ、教
示対象物の形状に関するデータと教示対象物までの距離
に関するデータを取得する視覚センサと、前記触覚セン
サで獲得した経路データに基づいて前記視覚センサの観
測領域を制御し、前記触覚センサで得られた経路データ
と前記視覚センサで得られたデータとから注目点の絶対
位置を演算する演算手段とを有する。
【0007】
【作用】したがって、教示作業者がマニピュレータの手
先部を所望の教示点付近に移動させ、手先部を教示作業
者が持って経路に沿って操作することにより簡単に教示
座標データを得ることができる。あるいはセンサデータ
の情報を使って自動的に経路を作成し、経路に倣ってマ
ニピュレータが動作し教示座標データを取得できる。し
たがって、本発明による直接教示装置により簡単な操作
で精度良くかつ信頼度の高い教示データを得ることがで
きるため、教示作業の効率化に寄与できる。
先部を所望の教示点付近に移動させ、手先部を教示作業
者が持って経路に沿って操作することにより簡単に教示
座標データを得ることができる。あるいはセンサデータ
の情報を使って自動的に経路を作成し、経路に倣ってマ
ニピュレータが動作し教示座標データを取得できる。し
たがって、本発明による直接教示装置により簡単な操作
で精度良くかつ信頼度の高い教示データを得ることがで
きるため、教示作業の効率化に寄与できる。
【0008】
【実施例】次に、本発明の実施例について図面を参照し
て説明する。
て説明する。
【0009】図1は本発明の一実施例の直接教示装置を
含むロボットシステムの全体構成図、図2はコントロー
ラ7のブロック図である。
含むロボットシステムの全体構成図、図2はコントロー
ラ7のブロック図である。
【0010】複数のアーム2から構成されるマニピュレ
ータ1は、アーム2の関節部が動くことによりマニピュ
レータ1の手先部を所望の位置に移動させる。アーム2
の先端に位置する手先部3には6軸の力覚センサ4およ
び触覚センサ5が取付けられている。コントローラ7
は、マニピュレータ1を教示作業者が教示のために力を
加えると、力覚センサ4で検出された力に基づいて力が
加えられた方向にマニピュレータ1の手先部を滑らかに
動作させるための制御を行なう制御部8と、制御部8の
マニピュレータ1の位置・姿勢データ取得と同時に触覚
センサ5から得られるデータを処理し、両データから所
望の教示点を演算する経路データ演算部9とから構成さ
れている。制御部8は、力覚センサ4の出力から、加え
られた力を検出し、解析する力検出部10と、同期信号
発生部13からの同期信号に基づいて触覚センサ5の中
心位置におけるマニピュレータ1の位置・姿勢データを
取得する位置検出部12と、力検出部10で検出・解析
された力の制御に必要なパラメータを、設定されている
演算式でマニピュレータ1に設定する座標変換部11と
から構成されている。経路データ演算部9は、位置検出
部12で得られた位置・姿勢データを記憶する位置記憶
部17と、同期信号を発生する同期信号発生部13と、
触覚センサ5によって得られた、経路に関するセンサデ
ータを同期信号に基づいて入力し、雑音除去等の前処理
を実行するセンサデータ処理部14と、前処理が実行さ
れたセンサデータを入力し、教示対象物6の教示経路形
状を認識するセンサデータ認識部16と、位置記憶部1
7に記憶されている位置・姿勢データとセンサデータ認
識部16のセンサデータを入力し、教示経路の位置デー
タを演算する経路演算部18と、経路演算部18で演算
された教示経路の位置データを記憶する経路データ記憶
部19と、センサデータ処理部14で前処理が実行され
たセンサデータと経路データ記憶部19に記憶されてい
る、教示経路の位置データを可視表示するセンサデータ
・経路軌跡表示部15で構成されている。触覚センサ5
で得られ、センサデータ処理部14で前処理されたセン
サデータをセンサデータ・経路軌跡表示部15で実時間
でモニタすることにより教示作業の補助となる。
ータ1は、アーム2の関節部が動くことによりマニピュ
レータ1の手先部を所望の位置に移動させる。アーム2
の先端に位置する手先部3には6軸の力覚センサ4およ
び触覚センサ5が取付けられている。コントローラ7
は、マニピュレータ1を教示作業者が教示のために力を
加えると、力覚センサ4で検出された力に基づいて力が
加えられた方向にマニピュレータ1の手先部を滑らかに
動作させるための制御を行なう制御部8と、制御部8の
マニピュレータ1の位置・姿勢データ取得と同時に触覚
センサ5から得られるデータを処理し、両データから所
望の教示点を演算する経路データ演算部9とから構成さ
れている。制御部8は、力覚センサ4の出力から、加え
られた力を検出し、解析する力検出部10と、同期信号
発生部13からの同期信号に基づいて触覚センサ5の中
心位置におけるマニピュレータ1の位置・姿勢データを
取得する位置検出部12と、力検出部10で検出・解析
された力の制御に必要なパラメータを、設定されている
演算式でマニピュレータ1に設定する座標変換部11と
から構成されている。経路データ演算部9は、位置検出
部12で得られた位置・姿勢データを記憶する位置記憶
部17と、同期信号を発生する同期信号発生部13と、
触覚センサ5によって得られた、経路に関するセンサデ
ータを同期信号に基づいて入力し、雑音除去等の前処理
を実行するセンサデータ処理部14と、前処理が実行さ
れたセンサデータを入力し、教示対象物6の教示経路形
状を認識するセンサデータ認識部16と、位置記憶部1
7に記憶されている位置・姿勢データとセンサデータ認
識部16のセンサデータを入力し、教示経路の位置デー
タを演算する経路演算部18と、経路演算部18で演算
された教示経路の位置データを記憶する経路データ記憶
部19と、センサデータ処理部14で前処理が実行され
たセンサデータと経路データ記憶部19に記憶されてい
る、教示経路の位置データを可視表示するセンサデータ
・経路軌跡表示部15で構成されている。触覚センサ5
で得られ、センサデータ処理部14で前処理されたセン
サデータをセンサデータ・経路軌跡表示部15で実時間
でモニタすることにより教示作業の補助となる。
【0011】この直接教示装置では、教示作業者が、ま
ずマニピュレータ1の手先部に設けられた触覚センサ5
を教示対象物6の所望の教示経路開始点に位置づける。
すると、同期信号発生部13からの同期信号に基づいて
触覚センサ5の中心位置における位置・姿勢データが制
御部8の位置検出部12で取得されると同時に触覚セン
サ5によって経路に関するセンサデータが得られる。セ
ンサデータ・経路軌跡表示部15で、触覚センサ5から
得られるセンサデータを実時間でモニタすることにより
教示作業の補助とする。次に、位置検出部12で得られ
た位置・姿勢データは位置記憶部17に送られる。ま
た、触覚センサ5で得られたセンサデータはセンサデー
タ処理部14によって雑音除去等の前処理実行後、セン
サデータ認識部16に送られ教示対象物6の教示経路形
状が認識される。次に、位置記憶部17の位置・姿勢デ
ータとセンサデータ認識部16のセンサデータが経路演
算部18に送られ、経路の位置データが演算され、この
結果が経路データ記憶部19に記憶される。また、セン
サデータ・経路軌跡表示部15にこのデータが送られ、
得られた経路データの可視化が行なわれる。なお、セン
サデータ処理部14とセンサデータ認識部16は変換手
段を構成し、経路演算部18は演算手段に相当する。
ずマニピュレータ1の手先部に設けられた触覚センサ5
を教示対象物6の所望の教示経路開始点に位置づける。
すると、同期信号発生部13からの同期信号に基づいて
触覚センサ5の中心位置における位置・姿勢データが制
御部8の位置検出部12で取得されると同時に触覚セン
サ5によって経路に関するセンサデータが得られる。セ
ンサデータ・経路軌跡表示部15で、触覚センサ5から
得られるセンサデータを実時間でモニタすることにより
教示作業の補助とする。次に、位置検出部12で得られ
た位置・姿勢データは位置記憶部17に送られる。ま
た、触覚センサ5で得られたセンサデータはセンサデー
タ処理部14によって雑音除去等の前処理実行後、セン
サデータ認識部16に送られ教示対象物6の教示経路形
状が認識される。次に、位置記憶部17の位置・姿勢デ
ータとセンサデータ認識部16のセンサデータが経路演
算部18に送られ、経路の位置データが演算され、この
結果が経路データ記憶部19に記憶される。また、セン
サデータ・経路軌跡表示部15にこのデータが送られ、
得られた経路データの可視化が行なわれる。なお、セン
サデータ処理部14とセンサデータ認識部16は変換手
段を構成し、経路演算部18は演算手段に相当する。
【0012】図3(a)は触覚センサ5の構造を示す
図、図3(b)は触覚センサ5の出力の例を示す図であ
る。触覚センサ5は図3(a)に示すように、マニピュ
レータ1の手先部に取り付けられた力覚センサ4に固定
された治具20と、治具20に張り付けられた触覚セン
サシート21と、触覚センサシート21に張り付けら
れ、教示対象物6に押し当てられる、ゴム等の弾性体2
2とから構成されている。触覚センサシート21は、圧
力に応じて電気抵抗値が変化する物質で形成された薄膜
で、電極が一定の間隔でマトリックス状に配置された構
造を有している。したがって、教示対象物6からの圧力
がかかった時の各交点の電気抵抗値を力情報に変換する
ことができる。触覚センサ5は本実施例では、電極が1
0×10のマトリックス状に配置されており、その出力
データ24が図3(b)に示すように2次元的に表示さ
れる。また、図3(b)では、各電極の圧力が適当な分
解能(この場合、256諧調)で量子化され、8段階表
示されている。教示対象物6の位置・姿勢を求めるため
には、まず図3(a)にあるように触覚センサシート2
1の中心位置25にマニピュレータ1の手先部の位置・
姿勢座標を設定しておく。これによって、触覚センサシ
ート21の分解能(mm/pixel)と圧力分布、つ
まり力情報から周囲のアレイの位置座標(x,y,z)
を求めることができる。具体的には、図3(a)の状態
の時の触覚センサ5の力情報の出力が図3(b)である
場合、圧力が観測されている周囲の各アレイの(x,
y)座標は、触覚センサシート21の中心位置25(X
c,Yc,Zc)、中心からのアレイ個数とアレイの分
解能(mm/pixel)および中心位置25の姿勢
(α,β,γ)によって簡単な座標変換で求めることが
できる。また、z座標に関しては力の大きさに対するZ
(深さ)方向の距離をあらかじめキャリブレーションし
て、座標変換テーブルを作っておくことによって計算す
ることができる。また、姿勢はマニピュレータ1の姿勢
座標を簡単のためそのまま使う。なお、ここで求める座
標は全てロボット座標系に関するものである。
図、図3(b)は触覚センサ5の出力の例を示す図であ
る。触覚センサ5は図3(a)に示すように、マニピュ
レータ1の手先部に取り付けられた力覚センサ4に固定
された治具20と、治具20に張り付けられた触覚セン
サシート21と、触覚センサシート21に張り付けら
れ、教示対象物6に押し当てられる、ゴム等の弾性体2
2とから構成されている。触覚センサシート21は、圧
力に応じて電気抵抗値が変化する物質で形成された薄膜
で、電極が一定の間隔でマトリックス状に配置された構
造を有している。したがって、教示対象物6からの圧力
がかかった時の各交点の電気抵抗値を力情報に変換する
ことができる。触覚センサ5は本実施例では、電極が1
0×10のマトリックス状に配置されており、その出力
データ24が図3(b)に示すように2次元的に表示さ
れる。また、図3(b)では、各電極の圧力が適当な分
解能(この場合、256諧調)で量子化され、8段階表
示されている。教示対象物6の位置・姿勢を求めるため
には、まず図3(a)にあるように触覚センサシート2
1の中心位置25にマニピュレータ1の手先部の位置・
姿勢座標を設定しておく。これによって、触覚センサシ
ート21の分解能(mm/pixel)と圧力分布、つ
まり力情報から周囲のアレイの位置座標(x,y,z)
を求めることができる。具体的には、図3(a)の状態
の時の触覚センサ5の力情報の出力が図3(b)である
場合、圧力が観測されている周囲の各アレイの(x,
y)座標は、触覚センサシート21の中心位置25(X
c,Yc,Zc)、中心からのアレイ個数とアレイの分
解能(mm/pixel)および中心位置25の姿勢
(α,β,γ)によって簡単な座標変換で求めることが
できる。また、z座標に関しては力の大きさに対するZ
(深さ)方向の距離をあらかじめキャリブレーションし
て、座標変換テーブルを作っておくことによって計算す
ることができる。また、姿勢はマニピュレータ1の姿勢
座標を簡単のためそのまま使う。なお、ここで求める座
標は全てロボット座標系に関するものである。
【0013】図4,図5はセンサデータ処理部14、セ
ンサデータ認識部16および経路演算部18において、
教示対象物6の所望の教示経路データを取得する方法の
説明図である。ここでは、教示対象物6に対して所望の
経路が教示対象物6の稜線(エッジ)である場合につい
て説明する。図4(a)は触覚センサ5を教示対象物6
に対して図のように押しつけながら稜線の位置座標を教
示しようとする場合である。このような押しつけ方の場
合、出力データは、経路形状が直線28の場合には同図
(b)のような出力データ24となり、また、経路形状
が曲線31の場合には同図(c)のような出力データ2
4となる。また、図5は、教示対象物6に対して所望の
教示経路に対してある角度で触覚センサ5を押し当てた
場合を示している。この場合は、図4と比較すると、教
示経路が例えば曲面を持ったエッジなどにも適用できる
特徴を持っている。この場合の触覚センサ5の出力デー
タ24は、経路形状が直線の場合は同図(a)、経路形
状が曲線の場合は同図(b)となる。このような場合に
おいて、教示対象物6の経路座標である座標値27を求
めるためには、まず触覚センサ5のアレイ上での経路点
を画像処理技術を用いて求める必要がある。次に、この
経路点とあらかじめ触覚センサシート21の中心29に
設定してあるマニピュレータ1の手首位置・姿勢座標2
6を使い経路座標30を求める。
ンサデータ認識部16および経路演算部18において、
教示対象物6の所望の教示経路データを取得する方法の
説明図である。ここでは、教示対象物6に対して所望の
経路が教示対象物6の稜線(エッジ)である場合につい
て説明する。図4(a)は触覚センサ5を教示対象物6
に対して図のように押しつけながら稜線の位置座標を教
示しようとする場合である。このような押しつけ方の場
合、出力データは、経路形状が直線28の場合には同図
(b)のような出力データ24となり、また、経路形状
が曲線31の場合には同図(c)のような出力データ2
4となる。また、図5は、教示対象物6に対して所望の
教示経路に対してある角度で触覚センサ5を押し当てた
場合を示している。この場合は、図4と比較すると、教
示経路が例えば曲面を持ったエッジなどにも適用できる
特徴を持っている。この場合の触覚センサ5の出力デー
タ24は、経路形状が直線の場合は同図(a)、経路形
状が曲線の場合は同図(b)となる。このような場合に
おいて、教示対象物6の経路座標である座標値27を求
めるためには、まず触覚センサ5のアレイ上での経路点
を画像処理技術を用いて求める必要がある。次に、この
経路点とあらかじめ触覚センサシート21の中心29に
設定してあるマニピュレータ1の手首位置・姿勢座標2
6を使い経路座標30を求める。
【0014】図6は触覚センサアレイ上の経路点を求め
る処理のフローチャートである。経路点の位置を演算す
るためのアルゴリズムは簡単で、画像処理の分野で公知
の技術であるエッジ検出技術を使用すれば可能である。
図6はその一例を示している。ここでの手順はまず、触
覚センサアレイの中心アレイ(このアレイの中心にマニ
ピュレータ1の手首位置・姿勢座標を設定)からx方向
に正の数+Nだけスキャンして、触覚センサアレイの輝
度値f(x+N,y)を求める(ステップ50)。この
f(x+N,y)の値と予め設定してあるスレッショル
ドthresholdの値と比較して経路点の判定を行
なう(ステップ51)。そこでの輝度値f(x+N,
y)の値が急激に変化すればその点を経路点として検出
することができる(ステップ52)。そうでなけらば、
次にxの負方向、yの正方向、yの負方向に同様な処理
を繰り返し経路点データを検出する(ステップ53〜6
2)。4方向に対して処理を実行しても経路点を検出で
きないときは、更にスキャン値を+M(正の整数)して
(ステップ62)同様な処理を4方向にセンサアレイが
無くなるまで実行して経路点のアレイ座標を求める(ス
テップ63)。この値とマニピュレータ1の手先部の位
置・姿勢座標を使い、経路点30の座標値(x,y,
z)を求める。座標位置26を(Xc,Yc,Zc,
0,0,0)、触覚センサ5のX方向の分解能をΔx
(mm/pixel)、Y方向の分解能をΔy(mm/
pixel)、Z方向については、力情報の大きさに対
する深さ方向の距離をキャリブレーションして作成した
変換テーブルから読みだした値をΔz(mm/forc
e)とすると、この例の場合、X=Xc=2*Δx,Y
=Yc,Z=Zc−Δzと計算できる。
る処理のフローチャートである。経路点の位置を演算す
るためのアルゴリズムは簡単で、画像処理の分野で公知
の技術であるエッジ検出技術を使用すれば可能である。
図6はその一例を示している。ここでの手順はまず、触
覚センサアレイの中心アレイ(このアレイの中心にマニ
ピュレータ1の手首位置・姿勢座標を設定)からx方向
に正の数+Nだけスキャンして、触覚センサアレイの輝
度値f(x+N,y)を求める(ステップ50)。この
f(x+N,y)の値と予め設定してあるスレッショル
ドthresholdの値と比較して経路点の判定を行
なう(ステップ51)。そこでの輝度値f(x+N,
y)の値が急激に変化すればその点を経路点として検出
することができる(ステップ52)。そうでなけらば、
次にxの負方向、yの正方向、yの負方向に同様な処理
を繰り返し経路点データを検出する(ステップ53〜6
2)。4方向に対して処理を実行しても経路点を検出で
きないときは、更にスキャン値を+M(正の整数)して
(ステップ62)同様な処理を4方向にセンサアレイが
無くなるまで実行して経路点のアレイ座標を求める(ス
テップ63)。この値とマニピュレータ1の手先部の位
置・姿勢座標を使い、経路点30の座標値(x,y,
z)を求める。座標位置26を(Xc,Yc,Zc,
0,0,0)、触覚センサ5のX方向の分解能をΔx
(mm/pixel)、Y方向の分解能をΔy(mm/
pixel)、Z方向については、力情報の大きさに対
する深さ方向の距離をキャリブレーションして作成した
変換テーブルから読みだした値をΔz(mm/forc
e)とすると、この例の場合、X=Xc=2*Δx,Y
=Yc,Z=Zc−Δzと計算できる。
【0015】図7(a),(b)は触覚センサシート2
1の圧力分布をそれぞれ2次元平面上に表示、3次元表
示したものである。圧力分布に対するキャリブレーショ
ンを予め実行しておき、これを適当な分解能で量子化し
ておくことにより個々のアレイにかかる圧力の大きさを
図7(a)のように可視化することができる。圧力分布
を図7(b)のように3次元表示することにより、触覚
センサ5にかかっている圧力分布をアナログ的にモニタ
することができる。
1の圧力分布をそれぞれ2次元平面上に表示、3次元表
示したものである。圧力分布に対するキャリブレーショ
ンを予め実行しておき、これを適当な分解能で量子化し
ておくことにより個々のアレイにかかる圧力の大きさを
図7(a)のように可視化することができる。圧力分布
を図7(b)のように3次元表示することにより、触覚
センサ5にかかっている圧力分布をアナログ的にモニタ
することができる。
【0016】図8はセンサデータ・経路軌跡表示部15
の表示例を示している。ディスプレイ33に表示される
画面は教示対象物6の経路軌跡34および各経路位置で
の圧力分布35である。これらの画面は本発明の直接教
示装置によって教示作業を実行しながら実時間でディス
プレイ33に表示される。また、画面35は図7(b)
にキー操作で変更することも可能である。
の表示例を示している。ディスプレイ33に表示される
画面は教示対象物6の経路軌跡34および各経路位置で
の圧力分布35である。これらの画面は本発明の直接教
示装置によって教示作業を実行しながら実時間でディス
プレイ33に表示される。また、画面35は図7(b)
にキー操作で変更することも可能である。
【0017】図9は触覚センサ5の圧力分布を用いて経
路座標データの精度を向上させる方法の説明図である。
路座標データの精度を向上させる方法の説明図である。
【0018】前記で触覚センサ5のアレイ座標から所望
の経路座標を計算できることを示したが、アレイのx方
向の分解能Δx/pixel[mm]、y方向の分解能
Δy/pixel[mm]によって座標値の精度は決ま
ってくる。従って、これ以上の精度で座標値を計算する
ことができない。そこで、図9に示すように、注目点ア
レイ近傍のアレイの圧力分布を利用した座標値データの
修正法を考えると、図において、触覚センサ5のアレイ
シートの2次元データの出力が例えば24であるとき、
経路データは図の黒で塗りつぶした部分に存在すると考
えられる。そして直線36上のアレイにある経路座標を
求める場合、黒で塗りつぶしたアレイの中心に経路座標
を取ると、前記の精度から1アレイ分の誤差が生じる。
そこで、その点の周囲の圧力分布を考える。つまり経路
座標と思われるアレイの周囲のアレイの圧力分布を調
べ、周囲の圧力が高いほうに経路座標が存在すると考え
る。そこで、この図の場合の圧力分布が正規分布37で
あるとみなし、これらの分布の平均した正規分布38を
計算する。そして、この平均正規圧力分布38の中央値
でのx,y座標をあらたな座標値とし、このアレイ位置
を経路座標に変換することにより高精度な経路座標デー
タを取得することができる。
の経路座標を計算できることを示したが、アレイのx方
向の分解能Δx/pixel[mm]、y方向の分解能
Δy/pixel[mm]によって座標値の精度は決ま
ってくる。従って、これ以上の精度で座標値を計算する
ことができない。そこで、図9に示すように、注目点ア
レイ近傍のアレイの圧力分布を利用した座標値データの
修正法を考えると、図において、触覚センサ5のアレイ
シートの2次元データの出力が例えば24であるとき、
経路データは図の黒で塗りつぶした部分に存在すると考
えられる。そして直線36上のアレイにある経路座標を
求める場合、黒で塗りつぶしたアレイの中心に経路座標
を取ると、前記の精度から1アレイ分の誤差が生じる。
そこで、その点の周囲の圧力分布を考える。つまり経路
座標と思われるアレイの周囲のアレイの圧力分布を調
べ、周囲の圧力が高いほうに経路座標が存在すると考え
る。そこで、この図の場合の圧力分布が正規分布37で
あるとみなし、これらの分布の平均した正規分布38を
計算する。そして、この平均正規圧力分布38の中央値
でのx,y座標をあらたな座標値とし、このアレイ位置
を経路座標に変換することにより高精度な経路座標デー
タを取得することができる。
【0019】図10,図11は上記で説明した触覚セン
サ5を用いた教示対象物の経路としてエッジの3次元位
置座標を求める直接教示装置の実施例を示している。図
10において、マニピュレータは手先部につけた力覚セ
ンサ4によるコンプライアンス制御によりマニピュレー
タの手先部を自由に操作できる状態になっている。この
マニピュレータの手先部に操作ハンドル39とゴム等の
弾性体22を張り付けた触覚センサシート21を備えた
治具20を教示対象物6の所望の教示経路に前記の押し
つけ方法のどちらかを用い押しつける。この状態を維持
したままで操作ハンドル39を持って経路に沿って動か
すことにより前記で記述した原理でロボット座標での経
路位置座標を短時間で計算することができる。また、図
11は、コンプライアンス制御のマニピュレータの手先
部を教示作業者が持って操作せずにロボットが自動的に
経路形状情報を認識して経路に沿って動作し経路座標を
取得できる実施例(請求項2に対応)を示している。こ
の場合、マニピュレータの手先部につけた触覚センサ2
1、ゴム等の弾性体22およびそれをとりつけた治具2
0を教示対象物6の所望の経路の開始点付近にまず位置
づける。そこでまず、その点での触覚センサ5の圧力デ
ータから経路の開始点データの位置・姿勢座標を前記の
方法で計算する。さらに、触覚センサ5の圧力分布から
経路形状、ここでは経路のエッジ座標を求めることがで
きるため、同様の方法で進行方向の経路座標を何点か計
算することができる。これらの先行した経路座標を使
い、これから進むべき経路を2次あるいは多次元の曲線
で近似する。これにより、あるサンプリング周期でこの
経路点データの計算及び先行経路近似曲線の計算を実行
すればマニピュレータは経路に倣って自動的に滑らかに
移動しながら教示経路座標データを取得することができ
る。
サ5を用いた教示対象物の経路としてエッジの3次元位
置座標を求める直接教示装置の実施例を示している。図
10において、マニピュレータは手先部につけた力覚セ
ンサ4によるコンプライアンス制御によりマニピュレー
タの手先部を自由に操作できる状態になっている。この
マニピュレータの手先部に操作ハンドル39とゴム等の
弾性体22を張り付けた触覚センサシート21を備えた
治具20を教示対象物6の所望の教示経路に前記の押し
つけ方法のどちらかを用い押しつける。この状態を維持
したままで操作ハンドル39を持って経路に沿って動か
すことにより前記で記述した原理でロボット座標での経
路位置座標を短時間で計算することができる。また、図
11は、コンプライアンス制御のマニピュレータの手先
部を教示作業者が持って操作せずにロボットが自動的に
経路形状情報を認識して経路に沿って動作し経路座標を
取得できる実施例(請求項2に対応)を示している。こ
の場合、マニピュレータの手先部につけた触覚センサ2
1、ゴム等の弾性体22およびそれをとりつけた治具2
0を教示対象物6の所望の経路の開始点付近にまず位置
づける。そこでまず、その点での触覚センサ5の圧力デ
ータから経路の開始点データの位置・姿勢座標を前記の
方法で計算する。さらに、触覚センサ5の圧力分布から
経路形状、ここでは経路のエッジ座標を求めることがで
きるため、同様の方法で進行方向の経路座標を何点か計
算することができる。これらの先行した経路座標を使
い、これから進むべき経路を2次あるいは多次元の曲線
で近似する。これにより、あるサンプリング周期でこの
経路点データの計算及び先行経路近似曲線の計算を実行
すればマニピュレータは経路に倣って自動的に滑らかに
移動しながら教示経路座標データを取得することができ
る。
【0020】図12は前記で説明した触覚センサ5を用
いた直接教示装置において経路座標の精度を高めること
ができる装置の実施例(請求項3に対応)を示してい
る。本図では、マニピュレータの手先に触覚センサシー
ト21およびゴム等弾性体22がついている治具20と
レンジセンサ等の視覚センサ40を取付け、教示対象物
6のエッジの経路データを取得する場合を示している。
この場合、まず前記で説明した方法により触覚センサ単
体で経路座標データを演算する。次に、視覚センサ40
によって、触覚センサ5で得た経路座標データに対して
その点の近傍でのセンサデータを取得して経路データの
値の精度を高める。例えば、視覚センサ40がレンジセ
ンサの場合には同図(b)に示すように触覚センサ5で
得た座標データ(x,y,z)に対してセンサのスキャ
ン幅を座標データ中心に範囲を限定することができ、経
路特徴であるエッジ座標を高速に計算できるとともに座
標値の精度を高めることができる。また、同図(c)に
示すように視覚センサ40がCCDカメラのようなエリ
アセンサの場合は、経路座標データ中心に適当な大きさ
のウインドウ41を設定し、ウインドウ内部のみの画像
認識を行なうことによってエッジデータを検出できるた
め短時間で高精度の経路データ座標を得ることができ
る。
いた直接教示装置において経路座標の精度を高めること
ができる装置の実施例(請求項3に対応)を示してい
る。本図では、マニピュレータの手先に触覚センサシー
ト21およびゴム等弾性体22がついている治具20と
レンジセンサ等の視覚センサ40を取付け、教示対象物
6のエッジの経路データを取得する場合を示している。
この場合、まず前記で説明した方法により触覚センサ単
体で経路座標データを演算する。次に、視覚センサ40
によって、触覚センサ5で得た経路座標データに対して
その点の近傍でのセンサデータを取得して経路データの
値の精度を高める。例えば、視覚センサ40がレンジセ
ンサの場合には同図(b)に示すように触覚センサ5で
得た座標データ(x,y,z)に対してセンサのスキャ
ン幅を座標データ中心に範囲を限定することができ、経
路特徴であるエッジ座標を高速に計算できるとともに座
標値の精度を高めることができる。また、同図(c)に
示すように視覚センサ40がCCDカメラのようなエリ
アセンサの場合は、経路座標データ中心に適当な大きさ
のウインドウ41を設定し、ウインドウ内部のみの画像
認識を行なうことによってエッジデータを検出できるた
め短時間で高精度の経路データ座標を得ることができ
る。
【0021】
【発明の効果】以上説明したように本発明は、以下に示
すような効果がある。 (1)請求項1の発明は、触覚センサから観測された圧
力分布を距離データに変換し、該距離データと、マニピ
ュレータの手先部に関する位置・姿勢データとから教示
データを算出することにより、教示データを簡便な操作
により取得でき、教示作業時間が短縮され、教示作業効
率等が向上する。 (2)請求項2の発明は、経路座標を触覚センサデータ
の画像処理によって求めることにより、教示データが自
動的に得られる。 (3)請求項3の発明は、触覚センサで得られた経路デ
ータと視覚センサで得られたデータとから教示データを
求めることにより、短時間で高精度の教示データが得ら
れる。
すような効果がある。 (1)請求項1の発明は、触覚センサから観測された圧
力分布を距離データに変換し、該距離データと、マニピ
ュレータの手先部に関する位置・姿勢データとから教示
データを算出することにより、教示データを簡便な操作
により取得でき、教示作業時間が短縮され、教示作業効
率等が向上する。 (2)請求項2の発明は、経路座標を触覚センサデータ
の画像処理によって求めることにより、教示データが自
動的に得られる。 (3)請求項3の発明は、触覚センサで得られた経路デ
ータと視覚センサで得られたデータとから教示データを
求めることにより、短時間で高精度の教示データが得ら
れる。
【図1】本発明の一実施例の直接教示装置を含むロボッ
トシステムの全体構成図である。
トシステムの全体構成図である。
【図2】図1中のコントローラ7のブロック図である。
【図3】触覚センサ5の構造(同図(a))と出力の例
(同図(b))を示す図である。
(同図(b))を示す図である。
【図4】教示対象物6の所望の教示経路データを取得す
る方法の説明図である。
る方法の説明図である。
【図5】教示対象物6の所望の教示経路データを取得す
る方法の説明図である。
る方法の説明図である。
【図6】触覚センサアレイ上の経路点を求める処理のフ
ローチャートである。
ローチャートである。
【図7】触覚センサシート21の圧力分布を2次元平面
上に表示した図(同図(a))および3次元表示した図
(同図(b))である。
上に表示した図(同図(a))および3次元表示した図
(同図(b))である。
【図8】センサデータ・経路軌跡表示部15の表示例を
示す図である。
示す図である。
【図9】触覚センサ5の圧力分布を用いて経路座標デー
タの精度を向上させる方法の説明図である。
タの精度を向上させる方法の説明図である。
【図10】触覚センサ5を用いた、教示対象物6の経路
としてエッジの3次元位置座標を求める直接教示装置を
示す図である。
としてエッジの3次元位置座標を求める直接教示装置を
示す図である。
【図11】コンプライアンス制御のマニピュレータの手
先を教示作業者が持って操作せずにロボットが自動的に
経路形状情報を認識して経路に沿って動作し経路座標を
取得する直接教示装置を示す図である。
先を教示作業者が持って操作せずにロボットが自動的に
経路形状情報を認識して経路に沿って動作し経路座標を
取得する直接教示装置を示す図である。
【図12】触覚センサ5と視覚センサ40を有し、高精
度の経路データが得られる直接教示装置を示す図であ
る。
度の経路データが得られる直接教示装置を示す図であ
る。
1 マニピュレータ 2 アーム 3 手先部 4 力覚センサ 5 触覚センサ 6 教示対象物 7 コントローラ 8 制御部 9 経路データ演算部 10 力検出部 11 座標変換部 12 位置検出部 13 同期信号発生部 14 センサデータ処理部 15 センサデータ・経路軌跡表示部 16 センサデータ認識部 17 位置記憶部 18 経路演算部 19 経路データ記憶部 20 治具 21 触覚センサシート 22 弾性体 23 ロボット手首座標 24 触覚センサ5の出力 25 触覚センサアレイ中心 26 ロボット手首位置・姿勢座標 27 経路座標 28 経路(直線) 29 触覚センサアレイ中心 30 経路座標 31 経路(曲線) 32 触覚センサ3次元出力 33 表示用ディスプレイ 34 経路軌跡表示 35 センサデータ表示 36 アレイ選択ライン 37,38 触覚センサ圧力 39 操作ハンドル 40 視覚センサ 41 認識ウインドウ 50〜63 ステップ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G05B 19/19 F 9064−3H
Claims (3)
- 【請求項1】 ロボットのマニピュレータを所望の教示
位置へ位置づけることにより教示データを獲得する直接
教示装置において、 前記マニピュレータの手先部に取付けられた触覚センサ
と、前記触覚センサから観測される圧力分布を距離デー
タに変換する変換手段と、前記マニピュレータの手先に
関する位置・姿勢データと前記変換手段で得られた距離
データから注目点の絶対位置を教示データとして算出す
る演算手段とを有することを特徴とする直接教示装置。 - 【請求項2】 前記変換手段は距離データを画像処理に
よって求める請求項1記載の直接教示装置。 - 【請求項3】 ロボットのマニピュレータを所望の教示
位置へ位置づけることにより教示データを獲得する直接
教示装置において、 前記マニピュレータの手先部に取付けられ、経路データ
を取得する触覚センサと、前記マニピュレータの手先部
に取付けられ、教示対象物の形状に関するデータと教示
対象物までの距離に関するデータを取得する視覚センサ
と、前記触覚センサで獲得した経路データに基づいて前
記視覚センサの観測領域を制御し、前記触覚センサで得
られた経路データと前記視覚センサで得られたデータと
から注目点の絶対位置を演算する演算手段とを有するこ
とを特徴とする直接教示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26208792A JPH06110543A (ja) | 1992-09-30 | 1992-09-30 | 直接教示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26208792A JPH06110543A (ja) | 1992-09-30 | 1992-09-30 | 直接教示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06110543A true JPH06110543A (ja) | 1994-04-22 |
Family
ID=17370853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26208792A Pending JPH06110543A (ja) | 1992-09-30 | 1992-09-30 | 直接教示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06110543A (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1989003375A1 (en) * | 1987-10-16 | 1989-04-20 | Terumo Kabushiki Kaisha | Isoprenoid derivatives and pharmaceutical preparation containing same |
EP1290452A1 (en) * | 2000-06-13 | 2003-03-12 | Berkeley Process Control, Inc. | Self teaching robotic carrier handling system |
WO2004037498A1 (en) * | 2002-10-21 | 2004-05-06 | Fsi International, Inc. | Teaching of a robot with a tactile sensor |
JP2006047145A (ja) * | 2004-08-05 | 2006-02-16 | Hyogo Prefecture | 計測システムおよび計測方法並びに把持装置制御システム |
JP2014213399A (ja) * | 2013-04-24 | 2014-11-17 | 国立大学法人横浜国立大学 | ロボット教示方法及び教示システム |
US9071889B2 (en) | 2010-04-27 | 2015-06-30 | Nec Corporation | Systems and methods for sensor spatial distribution mapping using assigned sensor regions |
CN106239476A (zh) * | 2015-06-08 | 2016-12-21 | 发那科株式会社 | 机器人与具备力的显示功能的机器人控制装置 |
WO2017033380A1 (ja) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | ロボットシステム |
US9782896B2 (en) | 2013-11-28 | 2017-10-10 | Mitsubishi Electric Corporation | Robot system and control method for robot system |
US9795446B2 (en) | 2005-06-06 | 2017-10-24 | Intuitive Surgical Operations, Inc. | Systems and methods for interactive user interfaces for robotic minimally invasive surgical systems |
CN108705549A (zh) * | 2018-08-14 | 2018-10-26 | 上海岭先机器人科技股份有限公司 | 一种带有触觉和力觉的机械手关节 |
JP2019046404A (ja) * | 2017-09-07 | 2019-03-22 | 富士ゼロックス株式会社 | 造形制御装置、造形制御プログラム |
US10603127B2 (en) | 2005-06-06 | 2020-03-31 | Intuitive Surgical Operations, Inc. | Laparoscopic ultrasound robotic surgical system |
CN112912706A (zh) * | 2020-04-22 | 2021-06-04 | 南京阿凡达机器人科技有限公司 | 一种机械手指部件的测试系统、方法和存储介质 |
US11259870B2 (en) | 2005-06-06 | 2022-03-01 | Intuitive Surgical Operations, Inc. | Interactive user interfaces for minimally invasive telesurgical systems |
WO2023218536A1 (ja) * | 2022-05-10 | 2023-11-16 | ファナック株式会社 | ロボット制御装置、ロボットシステム、及び教示装置 |
-
1992
- 1992-09-30 JP JP26208792A patent/JPH06110543A/ja active Pending
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1989003375A1 (en) * | 1987-10-16 | 1989-04-20 | Terumo Kabushiki Kaisha | Isoprenoid derivatives and pharmaceutical preparation containing same |
EP1290452A1 (en) * | 2000-06-13 | 2003-03-12 | Berkeley Process Control, Inc. | Self teaching robotic carrier handling system |
EP1290452A4 (en) * | 2000-06-13 | 2006-06-21 | Berkeley Process Control Inc | SYSTEM FOR HANDLING SELF-LEARNING ROBOTIC SUPPORTS |
WO2004037498A1 (en) * | 2002-10-21 | 2004-05-06 | Fsi International, Inc. | Teaching of a robot with a tactile sensor |
US6996456B2 (en) | 2002-10-21 | 2006-02-07 | Fsi International, Inc. | Robot with tactile sensor device |
JP2006047145A (ja) * | 2004-08-05 | 2006-02-16 | Hyogo Prefecture | 計測システムおよび計測方法並びに把持装置制御システム |
US12108998B2 (en) | 2005-06-06 | 2024-10-08 | Intuitive Surgical Operations, Inc. | Laparoscopic ultrasound robotic surgical system |
US11399909B2 (en) | 2005-06-06 | 2022-08-02 | Intuitive Surgical Operations, Inc. | Laparoscopic ultrasound robotic surgical system |
US10646293B2 (en) | 2005-06-06 | 2020-05-12 | Intuitive Surgical Operations, Inc. | Laparoscopic ultrasound robotic surgical system |
US10603127B2 (en) | 2005-06-06 | 2020-03-31 | Intuitive Surgical Operations, Inc. | Laparoscopic ultrasound robotic surgical system |
US9795446B2 (en) | 2005-06-06 | 2017-10-24 | Intuitive Surgical Operations, Inc. | Systems and methods for interactive user interfaces for robotic minimally invasive surgical systems |
US11259870B2 (en) | 2005-06-06 | 2022-03-01 | Intuitive Surgical Operations, Inc. | Interactive user interfaces for minimally invasive telesurgical systems |
US11717365B2 (en) | 2005-06-06 | 2023-08-08 | Intuitive Surgical Operations, Inc. | Laparoscopic ultrasound robotic surgical system |
US9071889B2 (en) | 2010-04-27 | 2015-06-30 | Nec Corporation | Systems and methods for sensor spatial distribution mapping using assigned sensor regions |
JP2014213399A (ja) * | 2013-04-24 | 2014-11-17 | 国立大学法人横浜国立大学 | ロボット教示方法及び教示システム |
US9782896B2 (en) | 2013-11-28 | 2017-10-10 | Mitsubishi Electric Corporation | Robot system and control method for robot system |
DE102016006704B4 (de) * | 2015-06-08 | 2021-02-11 | Fanuc Corporation | Robotersteuerung mit Funktion zum Anzeigen von Roboter und Kraft |
US9889561B2 (en) | 2015-06-08 | 2018-02-13 | Fanuc Corporation | Robot controller having function for displaying robot and force |
JP2017001122A (ja) * | 2015-06-08 | 2017-01-05 | ファナック株式会社 | ロボットと力の表示機能を備えたロボット制御装置 |
CN106239476A (zh) * | 2015-06-08 | 2016-12-21 | 发那科株式会社 | 机器人与具备力的显示功能的机器人控制装置 |
CN107921622A (zh) * | 2015-08-25 | 2018-04-17 | 川崎重工业株式会社 | 机器人系统 |
JPWO2017033380A1 (ja) * | 2015-08-25 | 2018-06-07 | 川崎重工業株式会社 | ロボットシステム |
WO2017033380A1 (ja) * | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | ロボットシステム |
JP2019046404A (ja) * | 2017-09-07 | 2019-03-22 | 富士ゼロックス株式会社 | 造形制御装置、造形制御プログラム |
CN108705549A (zh) * | 2018-08-14 | 2018-10-26 | 上海岭先机器人科技股份有限公司 | 一种带有触觉和力觉的机械手关节 |
CN112912706A (zh) * | 2020-04-22 | 2021-06-04 | 南京阿凡达机器人科技有限公司 | 一种机械手指部件的测试系统、方法和存储介质 |
CN112912706B (zh) * | 2020-04-22 | 2024-03-22 | 南京阿凡达机器人科技有限公司 | 一种机械手指部件的测试系统、方法和存储介质 |
WO2023218536A1 (ja) * | 2022-05-10 | 2023-11-16 | ファナック株式会社 | ロボット制御装置、ロボットシステム、及び教示装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH06110543A (ja) | 直接教示装置 | |
US9731419B2 (en) | System and method for programming robots | |
US6763284B2 (en) | Robot teaching apparatus | |
US9519736B2 (en) | Data generation device for vision sensor and detection simulation system | |
JP2018167334A (ja) | 教示装置および教示方法 | |
JPH0869314A (ja) | リードスルーによるロボットプログラミングシステム | |
JP2000024968A (ja) | ロボット制御装置 | |
US11123864B2 (en) | Motion teaching apparatus, robot system, and motion teaching method | |
JPH02262982A (ja) | ツールセンタポイントの設定方法 | |
WO2022163580A1 (ja) | 視覚センサにて取得される3次元の位置情報から断面画像を生成する処理装置および処理方法 | |
WO2023102647A1 (en) | Method for automated 3d part localization and adjustment of robot end-effectors | |
CN114536346A (zh) | 一种基于人机协作和视觉检测的机械臂精确路径规划方法 | |
JP2004243215A (ja) | シーラー塗布装置のロボットティーチング方法及びシーラー塗布装置 | |
JPH0976065A (ja) | 溶接用ロボット | |
JPH07266272A (ja) | マニピュレータ用追従方法及び装置 | |
JPH0780790A (ja) | 三次元物体把持システム | |
JPH07120211B2 (ja) | 知能ロボツトにおける座標合わせ方法 | |
JPH09300256A (ja) | ロボット教示方法及び装置 | |
JP3543329B2 (ja) | ロボットの教示装置 | |
JP2616225B2 (ja) | 相対位置決め方式 | |
JPS62165213A (ja) | 作業環境教示装置 | |
JPH06250730A (ja) | 産業用ロボットの教示装置 | |
JPH06102919A (ja) | ロボット軌道を教示するための方法 | |
CN116728397A (zh) | 机器人系统、机器人控制方法和计算机可读存储介质 | |
JPH05301182A (ja) | ロボットの直接教示装置 |