JP6445092B2 - ロボットの教示のための情報を表示するロボットシステム - Google Patents
ロボットの教示のための情報を表示するロボットシステム Download PDFInfo
- Publication number
- JP6445092B2 JP6445092B2 JP2017108247A JP2017108247A JP6445092B2 JP 6445092 B2 JP6445092 B2 JP 6445092B2 JP 2017108247 A JP2017108247 A JP 2017108247A JP 2017108247 A JP2017108247 A JP 2017108247A JP 6445092 B2 JP6445092 B2 JP 6445092B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- sampling point
- unit
- camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
- B25J9/12—Programme-controlled manipulators characterised by positioning means for manipulator elements electric
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39449—Pendant, pda displaying camera images overlayed with graphics, augmented reality
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Description
ロボットの教示操作では、教示操作盤に配置されたロボット動作方向を指定するキーを押しながらロボットを所望の位置に動かす操作、いわゆるジョグ操作を行う場合が殆どである。ジョグ操作の主な操作方法としては、ロボットに固定した直交座標系のX軸、Y軸またはZ軸の方向にロボットの手先部を動かす直交ジョグ操作と、ロボットの各軸部ごとに軸まわりの方向にロボットを動かす各軸ジョグ操作とがある。直交ジョグ操作は人間が理解しやすい直交座標系に基づいた操作であるため、オペレータは、直交ジョグ操作でロボットの教示操作を行うことが多い。
また、従来、オペレータがロボット制御装置の教示操作盤を操作して、ジョグモードの指定を行うと、ロボットの画像と共に、指定されたジョグモードの内容、例えばジョグ送り方向を画面上にグラフィック表示する技術が提案されている(例えば特許文献1)。
しかし、特異点はロボットの機構に依存するため、オペレータはロボットの姿勢が特異点に近づいていることを認知できない場合が多く、特異点近傍と判断される領域も特異点の位置に依存する。このため、特異点から効率的に退避する方法をオペレータが見つけ出すことは非常に難しい。前述した特許文献1に開示される方法では、ジョグ送り方向をグラフィック表示するだけなので、ロボット教示中のオペレータに特異点の位置を認識させることができない。
そこで、直交ジョグ操作において、ロボットの手先部の移動方向と共にその移動方向に特異点が在ることをオペレータに容易に認識させることができる技術が望まれている。
前記ロボット制御装置は、
前記直交ジョグ操作部により指定された移動方向に前記ロボットの手先部が通りうる前記ロボット座標系上の複数の位置をそれぞれ所定の周期で算出してサンプリング点とするサンプリング点算出部と、
各前記サンプリング点が各前記サンプリング点が前記ロボットの特異点近傍であるか否かを判定する判定処理を行う判定部と、
各前記サンプリング点の位置と、各前記サンプリング点の前記判定処理の結果を示す判定結果情報とを前記情報表示装置に通知する通知部と、を具備し、
前記情報表示装置は、
前記ロボットを撮影するカメラと、
前記カメラにより撮影されている前記ロボットの映像を表示する表示部と、
各前記サンプリング点の位置および前記判定結果情報を用いて、各前記サンプリング点を通る直線状軌跡を表すように且つ、該直線状軌跡における、前記手先部の可動範囲内の部分と前記手先部の可動範囲外の部分と前記特異点近傍の部分とをそれぞれ視覚的に区別するようにグラフィック画像を生成して、前記ロボットの映像に重畳する処理を行う表示処理部と、を具備する、ロボットシステムでありうる。
本実施形態のロボットシステム1は、ロボット10を制御するロボット制御装置11と、ロボット10の教示操作を行うための教示操作盤12と、ロボット10の制御に関する情報を表示する情報表示装置13と、を備える。
各軸部10aのモータは、該モータの回転角度や回転速度を検出するエンコーダ10cを備えている。各軸部10aの回転角度や回転速度は、各軸部10aのモータに備えられたエンコーダ10cにより取得される。ロボット制御装置11は、エンコーダ10cにより出力される回転角度や回転速度と動作指令(位置指令や速度指令)とが一致するようにロボット10を制御するようになっている。各軸部10aにはエンコーダ10cに限られず、軸部10aの回転位置や回転速度を計測できる計測器を備えていればよい。
また本実施形態の直交ジョブ操作部14は、X軸方向ジョグキー、Y軸方向ジョグキー、およびZ軸方向ジョグキーのうちの少なくとも2つのジョグキーを同時に操作することにより、操作された少なくとも2つのジョグキーの各々に対応する方向を合成した方向にロボット10を移動させることもできる。例えば、+X軸方向ジョグキーと+Y軸方向ジョグキーを同時操作すると、XY平面の斜め45度方向にロボット10は移動することになる。
例えば図3Aおよび図3Bは、多関節ロボットの特異点を例示した模式図である。これらの図では、図2に示されたロボット10の軸部10a1〜10a6を模式的に描いている。図3Aに示されるように、第4の軸部10a4の回転中心と第6の軸部10a6の回転中心とが同一直線上に並んだロボット姿勢の場合、ロボット手先部のツール29の回転は第4の軸部10a4の回転で行うことが可能であり、第6の軸部10a6の回転で行うこともまた可能である。図3Bに示されるように、第1の軸部10a1の回転中心と第6の軸部10a6の回転中心とが同一直線上に並んだロボット姿勢の場合でも、ロボット手先部のツール29の回転は第1の軸部10a1の回転で行うことが可能であり、第6の軸部10a6の回転で行うこともまた可能である。よって、図3Aや図3Bに示されたロボット姿勢となるようなTCP27の目標位置に対しては、逆運動学計算によって各軸部の回転角度が一意に決まらない。このため、ロボット10の2つ以上の軸部の回転中心が同一直線上に並ぶような3次元位置およびその近傍にTCP27を移動させると、ロボット10が制御不能になる場合がある。
図1に示されるように、ロボット制御装置11は、サンプリング点算出部15と、判定部16と、通知部17と、を具備する。
具体的には、サンプリング点算出部15は、ロボット10の各軸部10aに備わるエンコーダの出力値から得られる各軸部10aの回転角度に基づいて、ロボット10の手先部(例えばTCP)の現在位置を算出する。この現在位置は、順運動学計算により求めることができる。サンプリング点算出部15は、求めた現在位置と、直交ジョグ操作部14により指定された移動方向(以下、指定の移動方向と略記する。)とに基づき、上記の各サンプリング点を所定の周期で算出する。
この所定の周期は、ロボット教示操作で生成されるロボット10の動作指令の生成周期よりも極めて短い周期である。このことにより、ロボット10の教示操作中の動作速度よりも各サンプリング点が早く算出される。さらに、所定の周期は、後述するロボット10の特異点近傍を判定するのに予め定められた領域よりも短い間隔で各サンプリング点を算出できる周期とする。
すなわち、本願でいうロボットの特異点は、上述したように逆運動学計算の解が得られないロボット手先部の位置に相当し、さらに、本願でいうロボットの特異点近傍は、その逆運動学計算の解が得られても所望のモータ制御が行えない軸部が生じるようなロボット手先部の位置範囲に相当する。
上述した特異点近傍の判定については、ロボットの特異点と判定されるロボット手先部の位置(TCPの位置)から所定の設定範囲を加算した領域内にサンプリング点があるか否かで判定すればよい。
情報表示装置13は、例えば、カメラ一体型のヘッドマウントディスプレイ装置により構成される。このヘッドマウントディスプレイ装置に備わるカメラ部がカメラ18となり、ヘッドマウントディスプレイ装置の、人の眼に対応して配置される眼鏡型表示部が表示部19になりうる。
拡張現実表示処理部20は、ロボット制御装置11の通知部17から通知された各サンプリング点の位置および判定結果情報を用いて、グラフィック画像を生成して表示部19のロボット10の映像に重畳する処理を行うことができる。そのグラフィック画像は、各サンプリング点を通る直線状軌跡を表すように且つ、該直線状軌跡における、ロボット10の手先部の可動範囲内の部分と該手先部の可動範囲外の部分とロボット10の特異点近傍の部分とをそれぞれ視覚的に区別するように生成される。
例えば、拡張現実表示処理部20は、可動範囲内に在るサンプリング点、可動範囲外に在るサンプリング点、および特異点近傍に在るサンプリング点の夫々に対して、表示色または表示形状などを互いに異ならせてグラフィック画像を生成することができる。
相関関係推定部21は、カメラ18に固定したカメラ座標系の原点と、ロボット座標系の原点との相関関係を推定する機能を有する。例えば、相関関係推定部21は、カメラ座標系の原点から見たロボット座標系の原点位置と向きを求めるための座標変換行列を算出する。これは、ロボット10に対してカメラ18の相対位置および相対角度が変わっても、カメラ18によるロボット10の映像上に前述のグラフィック画像を適切な向き及び位置で重畳表示する必要があるからである。
グラフィック画像生成部23は、各サンプリング点のカメラ座標系での位置と、通知部17から通知された各サンプリング点の判定結果情報とを用いて、前述したようなグラフィック画像を生成する機能を有する。前述のグラフィック画像をロボット10の映像に適合するように生成するために、グラフィック画像生成部23は、各サンプリング点のカメラ座標系での位置を用いている。
画像処理部24は、各サンプリング点のカメラ座標系での位置に基づいて、前述のグラフィック画像を、表示部19のロボット10の映像に重畳する処理を行う機能を有する。
例えば図4に示されたグラフィック画像30においては、符号Aの領域(図中の斜線部)が特異点近傍を、符号Bの領域(図中の破線枠内の空白部)が可動範囲外を、符号Cの領域(図中のドット描画部)が通常の動作範囲を表している。符号A、B、Cの各領域を異なる色で区別してもよい。
例えば、情報表示装置13は教示操作盤12に組込まれていてもよい。この場合、教示操作盤12に設けられた表示パネル12aを情報表示装置13の表示部19として使用することができる。教示操作盤12の表示パネル12aは、カメラ18により撮影されているロボット10の映像を表示する機能を有する。さらに、拡張現実表示処理部20は、表示パネル12aに表示されたロボット10の映像に前述したグラフィック画像を重畳して表示できるようになっている。
上記のサンプリング範囲は、例えば、床上に設置されたロボット10の可動範囲を大きく包含する直方体の内側として設定される。この場合には、直方体の頂点の座標値が、ロボット制御装置11に接続された教示操作盤12もしくはコンピュータ装置(不図示)などの入力装置から数値入力されてロボット制御装置11の記憶部に保存されるものとする。その座標値は、ロボット座標系における位置とする。サンプリング範囲の形状は直方体に限定されない。
その後、ステップS20においては、ロボット制御装置11は、判定部16の処理対象を、次に算出されたサンプリング点に変更し、再びステップS14〜ステップS19の処理を行う。ステップS14において、サンプリング点がサンプリング範囲内でないと判定されると、ロボット制御装置11は処理を終了する。
次のステップS23において、情報表示装置13の相関関係推定部21は、カメラ18に固定したカメラ座標系の原点と、ロボット10に固定したロボット座標系の原点との相関関係を推定する。
例えば、相関関係推定部21は、カメラ座標系の原点から見たロボット座標系の原点位置と向きを求めるための座標変換行列を算出する。このとき、例えば、ロボット10の特徴点(輪郭や角部など)に基づいてカメラ18の映像からロボット10を検出すると共に、ロボット10の現在位置の情報(位置姿勢の情報)を各軸部10aのエンコーダ10cの出力値から取得する。検出されたロボット10のカメラ画像系での位置とロボット10の現在位置の情報とに基づいて、カメラ座標系とロボット座標系との相関関係を推定することができる。
次のステップS25において、情報表示装置13のグラフィック画像生成部23は、各サンプリング点のカメラ座標系での位置および判定結果情報を用いて、グラフィック画像を生成する。このグラフィック画像は、各サンプリング点を通る直線状軌跡を表すように且つ、該直線状軌跡における、ロボット10の手先部の可動範囲内の部分と該手先部の可動範囲外の部分とロボット10の特異点近傍の部分とをそれぞれ視覚的に区別するように生成される(例えば図4に示されたグラフィック画像30を参照)。
以上に説明したステップS21〜ステップS26の処理により、情報表示装置13は、各サンプリング点の位置および判定結果情報を受信する度に、受信した各サンプリング点ごとに判定結果情報に応じたグラフィック画像を表示部19のロボット10の映像上に重畳表示することができる。
本開示の第一態様は、ロボット(10)を制御するロボット制御装置(11)と、該ロボット(10)に固定したロボット座標系の直交3軸方向の各方向または合成方向に関して前記ロボット(10)の手動操作を行う直交ジョグ操作部(14)を含む教示操作盤(12)と、前記ロボット(10)の教示のための情報を表示する情報表示装置(13)と、を備えるロボットシステム(1)であって、
前記ロボット制御装置(11)は、
前記直交ジョグ操作部(14)により指定された移動方向に前記ロボット(10)の手先部が通りうる前記ロボット座標系上の複数の位置をそれぞれ所定の周期で算出してサンプリング点とするサンプリング点算出部(15)と、
各前記サンプリング点が前記手先部の可動範囲内であるか否かを判定する第1判定処理と各前記サンプリング点が特異点近傍であるか否かを判定する第2判定処理とを行う判定部(16)と、
各前記サンプリング点の位置と、各前記サンプリング点の、前記第1判定処理および前記第2判定処理の結果を示す判定結果情報とを前記情報表示装置(13)に通知する通知部(17)と、を具備し、
前記情報表示装置(13)は、
前記ロボット(10)を撮影するカメラ(18)と、
前記カメラ(18)により撮影されている前記ロボット(10)の映像を表示する表示部(19)と、
各前記サンプリング点の位置および前記判定結果情報を用いて、各前記サンプリング点を通る直線状軌跡を表すように且つ、該直線状軌跡における、前記手先部の可動範囲内の部分と前記手先部の可動範囲外の部分と前記特異点近傍の部分とをそれぞれ視覚的に区別するようにグラフィック画像を生成して、前記ロボット(10)の映像に重畳する処理を行う表示処理部(20)と、を具備する、
ロボットシステム(1)でありうる。
上記の第一態様によれば、直交ジョグ操作でロボット教示を行う際に、ロボットの手先部の移動方向と共にその移動方向に特異点が在ることをオペレータに容易に認識させることができる。
本開示の第二態様は、上記第一態様のロボットシステム(1)であって、
前記表示処理部(20)は、
前記カメラ(18)に固定したカメラ座標系の原点と前記ロボット座標系の原点との相関関係を推定する相関関係推定部(21)と、
前記相関関係を用いて各前記サンプリング点の位置を前記カメラ座標系での位置に変換する位置データ変換部(22)と、
各前記サンプリング点の前記カメラ座標系での位置と各前記サンプリング点の前記判定結果情報とを用いて、前記グラフィック画像を生成するグラフィック画像生成部(23)と、
各前記サンプリング点の前記カメラ座標系での位置に基づいて、前記グラフィック画像を前記ロボット(10)の映像に重畳する処理を行う画像処理部(24)と、を具備する、ロボットシステム(1)でありうる。
上記の第二態様によれば、ロボットに対してカメラの相対位置および相対角度が変わっても、カメラによるロボットの映像上に前述のグラフィック画像を適切な向き及び位置で重畳表示することができる。
本開示の第三態様は、上記の第一態様または第二態様のロボットシステム(1)であって、前記情報表示装置(13)は、前記指定された移動方向の変更に応じて、前記ロボット(10)の映像に重畳させる前記グラフィック画像を更新するように構成されている、ロボットシステム(1)でありうる。
上記の第三態様によれば、直交ジョグ操作部で指定された移動方向が切替えられた場合でも、その切替えられた指定の移動方向と、その移動方向に存在する特異点近傍となる位置範囲とをオペレータに容易に認識させることができる。
本開示の第四態様は、上記の第一態様から第三態様のいずれかのロボットシステム(1)であって、前記情報表示装置(13)はカメラ一体型のヘッドマウントディスプレイ装置により構成される、ロボットシステム(1)でありうる。
上記の第四態様によれば、ロボット教示中のオペレータは、情報表示装置を装着して、眼に対応する表示部のロボットの映像および前述のグラフィック画像を視認しながら教示操作盤で直交ジョグ操作することができる。
本開示の第五態様は、上記の第一態様から第三態様のいずれかのロボットシステム(1)であって、
前記情報表示装置(13)は前記教示操作盤(12)に組込まれており、
前記教示操作盤(12)は、前記カメラ(18)により撮影されている前記ロボット(10)の映像を表示する表示パネル(12a)を有し、前記表示処理部(20)は、前記表示パネル(12a)に表示された前記ロボット(10)の映像に前記グラフィック画像を重畳して表示する、ロボットシステム(1)でありうる。
上記の第五態様によれば、ロボット教示中のオペレータは、表示操作盤の表示パネルで前述のグラフィック画像を視認しながら直交ジョグ操作することができる。
10 ロボット
10a、10a1〜10a6 軸部
10b アーム部
10c エンコーダ
11 ロボット制御装置
12 教示操作盤
12a 表示パネル
13 情報表示装置
14 直交ジョグ操作部
15 サンプリング点算出部
16 判定部
17 通知部
18 カメラ
19 表示部
20 拡張現実表示処理部
21 相関関係推定部
22 位置データ変換部
23 グラフィック画像生成部
24 画像処理部
25 オペレータ
26 ロボット座標系
27 TCP
28 フランジ面
29 ツール
30 グラフィック画像
Claims (5)
- ロボットを制御するロボット制御装置と、該ロボットに固定したロボット座標系の直交3軸方向の各方向または合成方向に関して前記ロボットの手動操作を行う直交ジョグ操作部を含む教示操作盤と、前記ロボットの教示のための情報を表示する情報表示装置と、を備えるロボットシステムであって、
前記ロボット制御装置は、
前記直交ジョグ操作部により指定された移動方向に前記ロボットの手先部が通りうる前記ロボット座標系上の複数の位置をそれぞれ所定の周期で算出してサンプリング点とするサンプリング点算出部と、
各前記サンプリング点が前記手先部の可動範囲内であるか否かを判定する第1判定処理と各前記サンプリング点がロボットの特異点近傍であるか否かを判定する第2判定処理とを行う判定部と
各前記サンプリング点の位置と、各前記サンプリング点の、前記第1判定処理および前記第2判定処理の結果を示す判定結果情報とを前記情報表示装置に通知する通知部と、を具備し、
前記情報表示装置は、
前記ロボットを撮影するカメラと、
前記カメラにより撮影されている前記ロボットの映像を表示する表示部と、
各前記サンプリング点の位置および前記判定結果情報を用いて、各前記サンプリング点を通る直線状軌跡を表すように且つ、該直線状軌跡における、前記手先部の可動範囲内の部分と前記手先部の可動範囲外の部分と前記特異点近傍の部分とをそれぞれ視覚的に区別するようにグラフィック画像を生成して、前記ロボットの映像に重畳する処理を行う表示処理部と、を具備する、ロボットシステム。 - 前記表示処理部は、
前記カメラに固定したカメラ座標系の原点と前記ロボット座標系の原点との相関関係を推定する相関関係推定部と、
前記相関関係を用いて各前記サンプリング点の位置を前記カメラ座標系での位置に変換する位置データ変換部と、
各前記サンプリング点の前記カメラ座標系での位置と各前記サンプリング点の前記判定結果情報とを用いて、前記グラフィック画像を生成するグラフィック画像生成部と、
各前記サンプリング点の前記カメラ座標系での位置に基づいて、前記グラフィック画像を前記ロボットの映像に重畳する処理を行う画像処理部と、を具備する、
請求項1に記載のロボットシステム。 - 前記情報表示装置は、前記指定された移動方向の変更に応じて、前記ロボットの映像に重畳させる前記グラフィック画像を更新するように構成されている、請求項1または2に記載のロボットシステム。
- 前記情報表示装置は、カメラ一体型のヘッドマウントディスプレイ装置により構成される、請求項1から3のいずれか一項に記載のロボットシステム。
- 前記情報表示装置は前記教示操作盤に組込まれており、
前記教示操作盤は、前記カメラにより撮影されている前記ロボットの映像を表示する表示パネルを有し、前記表示処理部は、前記表示パネルに表示された前記ロボットの映像に前記グラフィック画像を重畳して表示する、請求項1から3のいずれか一項に記載のロボットシステム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017108247A JP6445092B2 (ja) | 2017-05-31 | 2017-05-31 | ロボットの教示のための情報を表示するロボットシステム |
US15/987,935 US10427298B2 (en) | 2017-05-31 | 2018-05-24 | Robot system displaying information for teaching robot |
DE102018112403.1A DE102018112403B4 (de) | 2017-05-31 | 2018-05-24 | Robotersystem, das informationen zur unterweisung eines roboters anzeigt |
CN201810517632.3A CN108972568B (zh) | 2017-05-31 | 2018-05-25 | 显示用于机器人的示教的信息的机器人系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017108247A JP6445092B2 (ja) | 2017-05-31 | 2017-05-31 | ロボットの教示のための情報を表示するロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6445092B2 true JP6445092B2 (ja) | 2018-12-26 |
JP2018202514A JP2018202514A (ja) | 2018-12-27 |
Family
ID=64279117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017108247A Active JP6445092B2 (ja) | 2017-05-31 | 2017-05-31 | ロボットの教示のための情報を表示するロボットシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10427298B2 (ja) |
JP (1) | JP6445092B2 (ja) |
CN (1) | CN108972568B (ja) |
DE (1) | DE102018112403B4 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113500602A (zh) * | 2021-07-23 | 2021-10-15 | 鲁东大学 | 多连杆机械手系统的分布式采样控制 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018109828A1 (ja) * | 2016-12-13 | 2018-06-21 | 株式会社Fuji | 作業ロボットの目的位置補正方法 |
JP7259284B2 (ja) * | 2017-11-28 | 2023-04-18 | 株式会社デンソーウェーブ | 教示装置、教示方法 |
JP7146402B2 (ja) * | 2018-01-18 | 2022-10-04 | キヤノン株式会社 | 情報処理装置、および情報処理方法 |
JP2020013242A (ja) * | 2018-07-17 | 2020-01-23 | 富士ゼロックス株式会社 | ロボット制御システム、ロボット装置およびプログラム |
JP7000364B2 (ja) * | 2019-01-29 | 2022-01-19 | ファナック株式会社 | ロボットシステム |
CN110087190A (zh) * | 2019-05-16 | 2019-08-02 | 北京云迹科技有限公司 | 一种用于通知用户的方法及装置 |
JP7294980B2 (ja) * | 2019-10-15 | 2023-06-20 | ファナック株式会社 | 制御システム、制御装置、及びロボット |
EP4190513A4 (en) * | 2020-08-03 | 2024-01-24 | Mitsubishi Electric Corporation | REMOTE CONTROL DEVICE |
JP2022088884A (ja) * | 2020-12-03 | 2022-06-15 | セイコーエプソン株式会社 | コンピュータープログラム、及び、ロボットの教示方法 |
JP7598839B2 (ja) | 2021-09-24 | 2024-12-12 | 株式会社ダイヘン | 溶接ロボットシステム |
JP7598840B2 (ja) | 2021-09-24 | 2024-12-12 | 株式会社ダイヘン | 溶接ロボットシステム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5047916A (en) | 1988-03-25 | 1991-09-10 | Kabushiki Kaisha Toshiba | Method and apparatus of free space enumeration for collision avoidance |
JPH07295625A (ja) | 1994-04-28 | 1995-11-10 | Fanuc Ltd | ロボットのジョグ送り情報表示装置 |
SE0303384D0 (sv) | 2003-12-15 | 2003-12-15 | Abb Ab | Control system, method and computer program |
KR100786351B1 (ko) * | 2006-08-29 | 2007-12-14 | 울산대학교 산학협력단 | Ar을 이용한 작업로봇 티칭 시스템 및 방법 |
JP5103237B2 (ja) * | 2008-03-25 | 2012-12-19 | 株式会社神戸製鋼所 | ロボットの動作余裕量演算表示方法及びその装置 |
CN101791801B (zh) * | 2010-01-15 | 2012-06-06 | 广东工业大学 | 工业机器人运动规划与性能测试系统及其实现方法 |
JP5246672B2 (ja) | 2011-02-17 | 2013-07-24 | 独立行政法人科学技術振興機構 | ロボットシステム |
JP2012218120A (ja) | 2011-04-12 | 2012-11-12 | Seiko Epson Corp | マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法 |
EP2699392B1 (en) * | 2011-04-19 | 2015-10-21 | ABB Research Ltd. | An industrial robot having a kinematically redundant arm and a method for controlling the robot |
JP5742862B2 (ja) * | 2013-03-18 | 2015-07-01 | 株式会社安川電機 | ロボット装置及び被加工物の製造方法 |
JP2015066668A (ja) * | 2013-10-01 | 2015-04-13 | キヤノン株式会社 | ロボットの教示点調整方法、ロボットの設置位置算出方法、ロボットシステム、プログラム及び記録媒体 |
CN105637435B (zh) | 2013-10-07 | 2018-04-17 | Abb技术有限公司 | 用于验证针对可移动的机械单元的一个或多个安全容积的方法和装置 |
JP6418483B2 (ja) * | 2014-06-18 | 2018-11-07 | 株式会社Ihi | 加工軌道生成装置と方法 |
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
CN206105869U (zh) * | 2016-10-12 | 2017-04-19 | 华南理工大学 | 一种机器人快速示教装置 |
-
2017
- 2017-05-31 JP JP2017108247A patent/JP6445092B2/ja active Active
-
2018
- 2018-05-24 DE DE102018112403.1A patent/DE102018112403B4/de active Active
- 2018-05-24 US US15/987,935 patent/US10427298B2/en active Active
- 2018-05-25 CN CN201810517632.3A patent/CN108972568B/zh active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113500602A (zh) * | 2021-07-23 | 2021-10-15 | 鲁东大学 | 多连杆机械手系统的分布式采样控制 |
CN113500602B (zh) * | 2021-07-23 | 2023-09-05 | 鲁东大学 | 多连杆机械手系统的分布式采样控制 |
Also Published As
Publication number | Publication date |
---|---|
US20180345490A1 (en) | 2018-12-06 |
CN108972568B (zh) | 2019-11-15 |
CN108972568A (zh) | 2018-12-11 |
DE102018112403A1 (de) | 2018-12-06 |
US10427298B2 (en) | 2019-10-01 |
JP2018202514A (ja) | 2018-12-27 |
DE102018112403B4 (de) | 2019-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6445092B2 (ja) | ロボットの教示のための情報を表示するロボットシステム | |
JP6420229B2 (ja) | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム | |
CN110394780B (zh) | 机器人的仿真装置 | |
JP4167940B2 (ja) | ロボットシステム | |
JP4167954B2 (ja) | ロボット及びロボット移動方法 | |
CN105666505B (zh) | 具备扩展现实对应显示器的机器人系统 | |
JP4763074B2 (ja) | ロボットのツール先端点の位置の計測装置および計測方法 | |
JP2020075354A (ja) | 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体 | |
KR20180038479A (ko) | 로봇시스템 | |
JP2005106825A (ja) | 受像装置の位置および方向づけの決定方法および装置 | |
JP2018167334A (ja) | 教示装置および教示方法 | |
JP2013049102A (ja) | ロボットの制御装置及びロボットの姿勢決定方法 | |
JP5729226B2 (ja) | ロボットの位置姿勢補間方法及びロボットの制御装置 | |
JP2018001393A (ja) | ロボット装置、ロボット制御方法、プログラム及び記録媒体 | |
JP2014065100A (ja) | ロボットシステム、及びロボットのティーチング方法 | |
JP2015174184A (ja) | 制御装置 | |
US11618166B2 (en) | Robot operating device, robot, and robot operating method | |
JP6457587B2 (ja) | ワークの動画に基づいて教示点を設定するロボットの教示装置 | |
TW202218836A (zh) | 機器人控制裝置及機器人系統 | |
JP6917551B2 (ja) | ロボット制御方法およびロボット | |
JPH1177568A (ja) | 教示支援方法及び装置 | |
JP2020175453A (ja) | 遠隔操作装置 | |
US12226914B2 (en) | Generation of image for robot operation | |
US20220226982A1 (en) | Method Of Creating Control Program For Robot, System Executing Processing Of Creating Control Program For Robot, And Non-Transitory Computer-Readable Storage Medium | |
WO2020203819A1 (ja) | 遠隔操作装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180920 |
|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20181029 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6445092 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |