[go: up one dir, main page]

JP6445092B2 - ロボットの教示のための情報を表示するロボットシステム - Google Patents

ロボットの教示のための情報を表示するロボットシステム Download PDF

Info

Publication number
JP6445092B2
JP6445092B2 JP2017108247A JP2017108247A JP6445092B2 JP 6445092 B2 JP6445092 B2 JP 6445092B2 JP 2017108247 A JP2017108247 A JP 2017108247A JP 2017108247 A JP2017108247 A JP 2017108247A JP 6445092 B2 JP6445092 B2 JP 6445092B2
Authority
JP
Japan
Prior art keywords
robot
sampling point
unit
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017108247A
Other languages
English (en)
Other versions
JP2018202514A (ja
Inventor
友則 松嶋
友則 松嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2017108247A priority Critical patent/JP6445092B2/ja
Priority to US15/987,935 priority patent/US10427298B2/en
Priority to DE102018112403.1A priority patent/DE102018112403B4/de
Priority to CN201810517632.3A priority patent/CN108972568B/zh
Application granted granted Critical
Publication of JP6445092B2 publication Critical patent/JP6445092B2/ja
Publication of JP2018202514A publication Critical patent/JP2018202514A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/12Programme-controlled manipulators characterised by positioning means for manipulator elements electric
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Description

本発明は、ロボットの教示のための情報を表示するロボットシステムに関する。
生産現場での作業に対して多関節ロボットを使用する場合、ロボットのオペレータは、ロボット制御装置に接続された教示操作盤を使って実際にロボットを操作して、ロボットに所望の作業動作を教示することがある。
ロボットの教示操作では、教示操作盤に配置されたロボット動作方向を指定するキーを押しながらロボットを所望の位置に動かす操作、いわゆるジョグ操作を行う場合が殆どである。ジョグ操作の主な操作方法としては、ロボットに固定した直交座標系のX軸、Y軸またはZ軸の方向にロボットの手先部を動かす直交ジョグ操作と、ロボットの各軸部ごとに軸まわりの方向にロボットを動かす各軸ジョグ操作とがある。直交ジョグ操作は人間が理解しやすい直交座標系に基づいた操作であるため、オペレータは、直交ジョグ操作でロボットの教示操作を行うことが多い。
また、従来、オペレータがロボット制御装置の教示操作盤を操作して、ジョグモードの指定を行うと、ロボットの画像と共に、指定されたジョグモードの内容、例えばジョグ送り方向を画面上にグラフィック表示する技術が提案されている(例えば特許文献1)。
特開平7−295625号公報
一般に、前述の直交ジョグ操作でロボット手先部の移動方向を指定して指令位置を生成すると、指令位置から逆運動学計算により各軸部の回転角度が算出され、その算出値に基づいて、ロボット手先部を指令位置に移動するように各軸部が協調動作される。このため、逆運動学計算の解を得られない指令位置に対してロボットを移動させるのは困難となる。例えば、2つ以上の軸部の回転軸が一直線上に並ぶようなロボット姿勢となる指令位置については、それらの軸部の回転角度を一意に決めることができないので、そのような位置にロボットを動かせない。このようにロボットを制御できなくなる位置は特異点と呼ばれており、直交ジョグ操作でロボット教示を行う際には、特異点やその近傍を避けてロボットの手先部を移動させる必要がある。
しかし、特異点はロボットの機構に依存するため、オペレータはロボットの姿勢が特異点に近づいていることを認知できない場合が多く、特異点近傍と判断される領域も特異点の位置に依存する。このため、特異点から効率的に退避する方法をオペレータが見つけ出すことは非常に難しい。前述した特許文献1に開示される方法では、ジョグ送り方向をグラフィック表示するだけなので、ロボット教示中のオペレータに特異点の位置を認識させることができない。
そこで、直交ジョグ操作において、ロボットの手先部の移動方向と共にその移動方向に特異点が在ることをオペレータに容易に認識させることができる技術が望まれている。
本発明の一態様は、ロボットを制御するロボット制御装置と、該ロボットに固定したロボット座標系の直交3軸方向の各方向または合成方向に関して前記ロボットの手動操作を行う直交ジョグ操作部を含む教示操作盤と、前記ロボットの教示のための情報を表示する情報表示装置と、を備えるロボットシステムであって、
前記ロボット制御装置は、
前記直交ジョグ操作部により指定された移動方向に前記ロボットの手先部が通りうる前記ロボット座標系上の複数の位置をそれぞれ所定の周期で算出してサンプリング点とするサンプリング点算出部と、
各前記サンプリング点が各前記サンプリング点が前記ロボットの特異点近傍であるか否かを判定する判定処理を行う判定部と、
各前記サンプリング点の位置と、各前記サンプリング点の前記判定処理の結果を示す判定結果情報とを前記情報表示装置に通知する通知部と、を具備し、
前記情報表示装置は、
前記ロボットを撮影するカメラと、
前記カメラにより撮影されている前記ロボットの映像を表示する表示部と、
各前記サンプリング点の位置および前記判定結果情報を用いて、各前記サンプリング点を通る直線状軌跡を表すように且つ、該直線状軌跡における、前記手先部の可動範囲内の部分と前記手先部の可動範囲外の部分と前記特異点近傍の部分とをそれぞれ視覚的に区別するようにグラフィック画像を生成して、前記ロボットの映像に重畳する処理を行う表示処理部と、を具備する、ロボットシステムでありうる。
上記の一態様によれば、直交ジョグ操作でロボット教示を行う際に、ロボットの手先部の移動方向と共にその移動方向に特異点が在ることをオペレータに容易に認識させることができる。
添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれらの目的、特徴および利点ならびに他の目的、特徴および利点がさらに明確になるであろう。
一実施形態のロボットシステムを示す機能ブロック図である。 ロボットの一構成例を示した側面図である。 多関節ロボットの特異点の一例を示した模式図である。 多関節ロボットの特異点の他の例を示した模式図である。 一実施形態のロボットシステムによりグラフィック画像が重畳されたロボットの映像例を模式的に示した図である。 図1のロボット制御装置の処理フローを示したフローチャートである。 図1の情報表示装置の処理フローを示したフローチャートである。
次に、本発明の実施形態について図面を参照して説明する。参照する図面において、同様の構成部分または機能部分には同様の参照符号が付けられている。理解を容易にするために、これらの図面は縮尺を適宜変更している。また、図面に示される形態は本発明を実施するための一つの例であり、本発明は図示された形態に限定されるものではない。
図1は、一実施形態のロボットシステム1を示す機能ブロック図である。
本実施形態のロボットシステム1は、ロボット10を制御するロボット制御装置11と、ロボット10の教示操作を行うための教示操作盤12と、ロボット10の制御に関する情報を表示する情報表示装置13と、を備える。
図2は、ロボット10の一構成例を示した側面図である。図示されたロボット10は6軸の垂直多関節ロボットである。ロボット10は、図2に示されているように、6つの軸部(関節部)10a1〜10a6と、軸部10a1〜10b6により各々連結された複数のアーム部(リンク部)10bとを具備する。軸部10a1〜10b6の各々には、各アーム部10bを回転駆動するモータ(不図示)が内蔵されている。なお、本発明を適用可能なロボットの形態は複数の関節部を有する多関節ロボットであればよく、図2のロボット形態に限定されない。
さらに、ロボット10の本体上にはロボット座標系26が固定されている。本実施形態ではロボット座標系26の原点はロボット10のベース部に設定されている。図2の中には、破線の丸枠によってロボット座標系26の拡大図も示している。図2の例では、ロボット座標系26の原点はロボット10のベース部に設定されており、この原点を中心として、図2の右方向を+X軸方向、図2の上方向を+Z軸方向、図2の紙面に対して奥行方向を+Y軸方向としている。ロボット制御装置11および教示操作盤12は、前述したロボット座標系26における位置(座標)を使って、ロボット10の手先部の位置、例えばTCP(ツールセンタポイント)27を制御することができる。
再び図1を参照すると、教示操作盤12は、ロボット制御装置11と有線または無線で相互通信可能に接続されている。教示操作盤12は、ロボット10に固定したロボット座標系の直交3軸方向(X軸方向、Y軸方向、Z軸方向)の各方向または合成方向に関してロボット10の手動操作を行うための直交ジョグ操作部14を含む。
教示操作盤12は、直交ジョグ操作部14の他にも、各軸ジョグ操作部やツールジョグ操作部など(不図示)も有する。各軸ジョグ操作部は、ロボット10の各軸部10aを個別に手動操作するための操作部であり、ツールジョグ操作部は、ツールを取付可能に設けられたロボット10の手先部のフランジ面28(図2参照)に固定したツール座標系に基づいてロボット10を手動操作するための操作部である。ツールとしては、ハンド部、ボルト締め具、溶接ガンなどを使用することができる。
ロボット制御装置11は、ロボット制御装置11に予め記憶された動作プログラムに従ってロボット10の各軸部10aの動作指令を生成して各軸部10aのモータに送信するとともに、ロボット10の各軸部10aの回転角度や回転速度を受信する機能を有する。
各軸部10aのモータは、該モータの回転角度や回転速度を検出するエンコーダ10cを備えている。各軸部10aの回転角度や回転速度は、各軸部10aのモータに備えられたエンコーダ10cにより取得される。ロボット制御装置11は、エンコーダ10cにより出力される回転角度や回転速度と動作指令(位置指令や速度指令)とが一致するようにロボット10を制御するようになっている。各軸部10aにはエンコーダ10cに限られず、軸部10aの回転位置や回転速度を計測できる計測器を備えていればよい。
ロボット10に所望の作業動作を教示する場合には、オペレータは教示操作盤12を使ってロボット10の教示操作を行う。例えば、オペレータが教示操作盤12の直交ジョブ操作部14における+X軸方向ジョグキーを押下すると、教示操作盤12内のプロセッサ(不図示)は、押下されたジョグキーに対応する+X軸方向の動作指令を生成してロボット制御装置11に出力する。教示操作時は、ロボット制御装置11は、教示操作盤12から入力される動作指令によってロボット10を制御するようになっている。
また本実施形態の直交ジョブ操作部14は、X軸方向ジョグキー、Y軸方向ジョグキー、およびZ軸方向ジョグキーのうちの少なくとも2つのジョグキーを同時に操作することにより、操作された少なくとも2つのジョグキーの各々に対応する方向を合成した方向にロボット10を移動させることもできる。例えば、+X軸方向ジョグキーと+Y軸方向ジョグキーを同時操作すると、XY平面の斜め45度方向にロボット10は移動することになる。
ところで、ロボット10には、ロボット10の手先部に対する移動指令(位置指令や速度指令)から逆運動学計算によってロボット10の各軸部10aの回転角度や回転速度を決定できない問題が発生するようなロボット位置、いわゆる特異点が存在する。
例えば図3Aおよび図3Bは、多関節ロボットの特異点を例示した模式図である。これらの図では、図2に示されたロボット10の軸部10a1〜10a6を模式的に描いている。図3Aに示されるように、第4の軸部10a4の回転中心と第6の軸部10a6の回転中心とが同一直線上に並んだロボット姿勢の場合、ロボット手先部のツール29の回転は第4の軸部10a4の回転で行うことが可能であり、第6の軸部10a6の回転で行うこともまた可能である。図3Bに示されるように、第1の軸部10a1の回転中心と第6の軸部10a6の回転中心とが同一直線上に並んだロボット姿勢の場合でも、ロボット手先部のツール29の回転は第1の軸部10a1の回転で行うことが可能であり、第6の軸部10a6の回転で行うこともまた可能である。よって、図3Aや図3Bに示されたロボット姿勢となるようなTCP27の目標位置に対しては、逆運動学計算によって各軸部の回転角度が一意に決まらない。このため、ロボット10の2つ以上の軸部の回転中心が同一直線上に並ぶような3次元位置およびその近傍にTCP27を移動させると、ロボット10が制御不能になる場合がある。
このため、本実施形態においては、直交ジョブ操作の際に前述のような特異点およびその近傍にロボット姿勢が近づいていることをオペレータに容易に認識させられるように、ロボット制御装置11および情報表示装置13は、以下のような機能部分を具備する。
図1に示されるように、ロボット制御装置11は、サンプリング点算出部15と、判定部16と、通知部17と、を具備する。
具体的には、サンプリング点算出部15は、直交ジョグ操作部14により指定された移動方向(例えば+X軸方向または、+X軸方向と+Y軸方向の合成方向など)にロボット10の手先部(例えばTCP27)が通りうる複数の位置をそれぞれ算出してサンプリング点とする機能を有する。算出される複数の位置(サンプリング点)は、前述したロボット座標系上の位置(座標)である。
具体的には、サンプリング点算出部15は、ロボット10の各軸部10aに備わるエンコーダの出力値から得られる各軸部10aの回転角度に基づいて、ロボット10の手先部(例えばTCP)の現在位置を算出する。この現在位置は、順運動学計算により求めることができる。サンプリング点算出部15は、求めた現在位置と、直交ジョグ操作部14により指定された移動方向(以下、指定の移動方向と略記する。)とに基づき、上記の各サンプリング点を所定の周期で算出する。
この所定の周期は、ロボット教示操作で生成されるロボット10の動作指令の生成周期よりも極めて短い周期である。このことにより、ロボット10の教示操作中の動作速度よりも各サンプリング点が早く算出される。さらに、所定の周期は、後述するロボット10の特異点近傍を判定するのに予め定められた領域よりも短い間隔で各サンプリング点を算出できる周期とする。
判定部16は、算出された各サンプリング点がロボット10の手先部の可動範囲内であるか否かを判定する第1判定処理と、算出された各サンプリング点がロボット10の特異点近傍であるか否かを判定する第2判定処理とを行う機能を有する。
前述したロボット10の手先部の可動範囲については、ロボット10の機構部を設計したときの寸法データ、例えば、各軸部の間隔やアーム部の長さなどを用いて、ロボット座標系上でロボット10の手先部が到達可能な範囲を事前に求めることができる。このような可動範囲をロボット制御装置11の記憶部(不図示)に予め記憶しておくことにより、判定部16は、ロボット10の手先部の可動範囲内にサンプリング点があるか否かを判定できる。
特異点は、ロボット手先部に対する移動指令(位置指令や速度指令)からロボット10の各軸部10aの回転角度や回転速度を一意に決定することが困難となるような、ロボット手先部の位置である。そのため、算出されたサンプリング点の位置に対して逆運動学計算の解を得るのが困難な軸部10aが有るか否かで、そのサンプリング点がロボット10の特異点であるか否かの判定を行うことができる。さらに、逆運動学計算の解が得られてもその解の回転角度にモータを追従制御できない軸部10aが有るか否かで、そのサンプリング点がロボット10の特異点の近傍であるか否かの判定を行うことができる。
すなわち、本願でいうロボットの特異点は、上述したように逆運動学計算の解が得られないロボット手先部の位置に相当し、さらに、本願でいうロボットの特異点近傍は、その逆運動学計算の解が得られても所望のモータ制御が行えない軸部が生じるようなロボット手先部の位置範囲に相当する。
上述した特異点近傍の判定については、ロボットの特異点と判定されるロボット手先部の位置(TCPの位置)から所定の設定範囲を加算した領域内にサンプリング点があるか否かで判定すればよい。
通知部17は、各サンプリング点のロボット座標系での位置と、各サンプリング点の、第1判定処理および第2判定処理の結果を示す判定結果情報とを情報表示装置13に通知する機能を有する。情報表示装置13は、ロボット制御装置11と有線または無線で相互通信可能に接続されている。
情報表示装置13は、図1に示されるように、カメラ18と、表示部19と、拡張現実表示処理部20と、を具備する。
情報表示装置13は、例えば、カメラ一体型のヘッドマウントディスプレイ装置により構成される。このヘッドマウントディスプレイ装置に備わるカメラ部がカメラ18となり、ヘッドマウントディスプレイ装置の、人の眼に対応して配置される眼鏡型表示部が表示部19になりうる。
具体的には、カメラ18は、現実空間上のロボット10を撮影する。表示部19は、カメラ18により撮影されているロボット10の映像を表示することができる。
拡張現実表示処理部20は、ロボット制御装置11の通知部17から通知された各サンプリング点の位置および判定結果情報を用いて、グラフィック画像を生成して表示部19のロボット10の映像に重畳する処理を行うことができる。そのグラフィック画像は、各サンプリング点を通る直線状軌跡を表すように且つ、該直線状軌跡における、ロボット10の手先部の可動範囲内の部分と該手先部の可動範囲外の部分とロボット10の特異点近傍の部分とをそれぞれ視覚的に区別するように生成される。
例えば、拡張現実表示処理部20は、可動範囲内に在るサンプリング点、可動範囲外に在るサンプリング点、および特異点近傍に在るサンプリング点の夫々に対して、表示色または表示形状などを互いに異ならせてグラフィック画像を生成することができる。
さらに詳述すると、前述の拡張現実表示処理部20は、図1に示されるように、相関関係推定部21と、位置データ変換部22と、グラフィック画像生成部23と、画像処理部24と、を具備している。
相関関係推定部21は、カメラ18に固定したカメラ座標系の原点と、ロボット座標系の原点との相関関係を推定する機能を有する。例えば、相関関係推定部21は、カメラ座標系の原点から見たロボット座標系の原点位置と向きを求めるための座標変換行列を算出する。これは、ロボット10に対してカメラ18の相対位置および相対角度が変わっても、カメラ18によるロボット10の映像上に前述のグラフィック画像を適切な向き及び位置で重畳表示する必要があるからである。
位置データ変換部22は、相関関係推定部21により推定された相関関係を用いて、通知部17から通知された各サンプリング点の位置をカメラ座標系での位置に変換する機能を有する。
グラフィック画像生成部23は、各サンプリング点のカメラ座標系での位置と、通知部17から通知された各サンプリング点の判定結果情報とを用いて、前述したようなグラフィック画像を生成する機能を有する。前述のグラフィック画像をロボット10の映像に適合するように生成するために、グラフィック画像生成部23は、各サンプリング点のカメラ座標系での位置を用いている。
画像処理部24は、各サンプリング点のカメラ座標系での位置に基づいて、前述のグラフィック画像を、表示部19のロボット10の映像に重畳する処理を行う機能を有する。
ここで、図4は、前述のようなグラフィック画像が重畳されたロボット10の映像例を模式的に示した図である。図4に示されるように、ロボット10のオペレータ25は、カメラ一体型のヘッドマウントディスプレイ装置により構成された情報表示装置13を装着して、眼に対応する表示部19のロボット10の映像および前述のグラフィック画像を視認しながら教示操作盤12で直交ジョグ操作することができる。また、ロボット10のオペレータ25は、直交ジョグ操作で所定の移動方向にロボット10の手先部を移動させた時に、その移動方向にロボット手先部を移動できない特異点近傍や可動範囲外などが存在することを表示部19から容易に認識できるようになる。
例えば図4に示されたグラフィック画像30においては、符号Aの領域(図中の斜線部)が特異点近傍を、符号Bの領域(図中の破線枠内の空白部)が可動範囲外を、符号Cの領域(図中のドット描画部)が通常の動作範囲を表している。符号A、B、Cの各領域を異なる色で区別してもよい。
また、以上のように構成された情報表示装置13は、直交ジョグ操作部14により指定された移動方向が別の移動方向に変更された時(例えば、+X軸方向から+Y軸方向への変更時)に、その変更した方向に応じて、前述のようにロボット10の映像に重畳させるグラフィック映像を更新することができる。
上述した情報表示装置13はカメラ一体型のヘッドマウントディスプレイ装置により構成されているとしたが、情報表示装置13は様々な態様で実現されてもよい。
例えば、情報表示装置13は教示操作盤12に組込まれていてもよい。この場合、教示操作盤12に設けられた表示パネル12aを情報表示装置13の表示部19として使用することができる。教示操作盤12の表示パネル12aは、カメラ18により撮影されているロボット10の映像を表示する機能を有する。さらに、拡張現実表示処理部20は、表示パネル12aに表示されたロボット10の映像に前述したグラフィック画像を重畳して表示できるようになっている。
なお、上述したロボット制御装置11および情報表示装置13は、バスを介して互いに接続された、記憶部、CPU(control processing unit)、および通信制御部などを備えたコンピュータシステムを用いて構成されうる。該記憶部は、ROM(read only memory)、RAM(random access memory)、HDD(hard disk drive)やSSD(solid state drive)などといったメモリ装置である。また、ロボット制御装置11が備えるサンプリング点算出部15、判定部16、および通知部17の夫々の機能、ならびに、情報表示装置13が備える相関関係推定部21、位置データ変換部22、グラフィック画像生成部23、画像処理部24および拡張現実表示処理部20の夫々の機能は、上記CPUが上記の記憶部と協働して動作することで達成されうる。
次に、図5および図6を参照して、本実施形態のロボットシステム1の動作について説明する。図5は、図1のロボット制御装置11の処理フローを示したフローチャートであり、図6は、図1の情報表示装置13の処理フローを示したフローチャートである。但し、図5のステップS11が実施されるときには、ロボット制御装置11は、人が教示操作盤を使ってロボットの手動操作を行う教示操作モードに設定されているものとする。
はじめに、図5のステップS11において、ロボット制御装置11は、直交ジョグ操作部14により指定された移動方向を受信する。次いで、ロボット制御装置11は、ロボット10の各軸部10aに備わる各エンコーダ10cの出力値から各軸部10aの回転角度を取得する。次のステップS12において、ロボット制御装置11は、順運動学計算によって各軸部10aの回転角度からロボット10の手先部(例えばTCP)の現在位置を取得する。
次のステップS13において、ロボット制御装置11のサンプリング点算出部15は、直交ジョグ操作部14による指定の移動方向にロボット10の手先部が通りうるロボット座標系上の複数の位置をそれぞれ順次算出し、算出位置をサンプリング点とする。ロボット10の手先部(例えばTCP27)の現在位置と、その手先部のジョグ操作で指定された移動方向とが取得されているので、上記の各サンプリング点は現在位置と移動方向とを基に上述した所定の周期で算出可能である。
次のステップS14において、ロボット制御装置11の判定部16は、算出したサンプリング点がサンプリング範囲内であるか否かを判定する。サンプリング点がサンプリング範囲内である場合は、ステップS15が行われるが、サンプリング点がサンプリング範囲内でない場合は、ロボット制御装置11は処理を終了する。
上記のサンプリング範囲は、例えば、床上に設置されたロボット10の可動範囲を大きく包含する直方体の内側として設定される。この場合には、直方体の頂点の座標値が、ロボット制御装置11に接続された教示操作盤12もしくはコンピュータ装置(不図示)などの入力装置から数値入力されてロボット制御装置11の記憶部に保存されるものとする。その座標値は、ロボット座標系における位置とする。サンプリング範囲の形状は直方体に限定されない。
上記ステップS15においては、判定部16は、算出したサンプリング点がロボット10の手先部の可動範囲外であるか否かを判定する。可動範囲の判定方法は前に述べたとおりである。サンプリング点が可動範囲外である場合は、ロボット制御装置11の通知部17は、サンプリング点の位置と共に、当該サンプリング点が可動範囲外であるとした判定結果情報を情報表示装置13に通知し(ステップS16)、後述するステップS20が行われる。一方、サンプリング点が可動範囲外でない場合は、ステップS17が行われる。
上記ステップS17においては、判定部16は、算出したサンプリング点がロボット10の特異点近傍であるか否かを判定する。ロボットの特異点近傍の判定方法は前に述べたとおりである。サンプリング点が特異点近傍である場合は、通知部17は、サンプリング点の位置と共に、当該サンプリング点が特異点近傍であるとした判定結果情報を情報表示装置13に通知し(ステップS18)、後述するステップS20が行われる。一方、サンプリング点が特異点近傍でない場合は、ステップS19が行われる。
上記ステップS19においては、通知部17は、サンプリング点の位置と共に、当該サンプリング点が通常の動作範囲内であるとした判定結果情報を情報表示装置13に通知する。
その後、ステップS20においては、ロボット制御装置11は、判定部16の処理対象を、次に算出されたサンプリング点に変更し、再びステップS14〜ステップS19の処理を行う。ステップS14において、サンプリング点がサンプリング範囲内でないと判定されると、ロボット制御装置11は処理を終了する。
一方、図6に示されるように、情報表示装置13は、ロボット制御装置の通知部17から、算出したサンプリング点の位置と当該サンプリング点の判定結果情報とを受信する(ステップS21)。受信する判定結果情報は、上述したステップS16、ステップS18、およびステップ19(図5参照)の各々において得られた判定結果である。
次のステップS22において、情報表示装置13は、カメラ18により撮影されているロボット10の映像を取得する。
次のステップS23において、情報表示装置13の相関関係推定部21は、カメラ18に固定したカメラ座標系の原点と、ロボット10に固定したロボット座標系の原点との相関関係を推定する。
例えば、相関関係推定部21は、カメラ座標系の原点から見たロボット座標系の原点位置と向きを求めるための座標変換行列を算出する。このとき、例えば、ロボット10の特徴点(輪郭や角部など)に基づいてカメラ18の映像からロボット10を検出すると共に、ロボット10の現在位置の情報(位置姿勢の情報)を各軸部10aのエンコーダ10cの出力値から取得する。検出されたロボット10のカメラ画像系での位置とロボット10の現在位置の情報とに基づいて、カメラ座標系とロボット座標系との相関関係を推定することができる。
次のステップS24において、情報表示装置13の位置データ変換部22は、相関関係推定部21により推定された相関関係に基づいて、通知部17から通知されたサンプリング点の位置をカメラ座標系での位置に変換する。
次のステップS25において、情報表示装置13のグラフィック画像生成部23は、各サンプリング点のカメラ座標系での位置および判定結果情報を用いて、グラフィック画像を生成する。このグラフィック画像は、各サンプリング点を通る直線状軌跡を表すように且つ、該直線状軌跡における、ロボット10の手先部の可動範囲内の部分と該手先部の可動範囲外の部分とロボット10の特異点近傍の部分とをそれぞれ視覚的に区別するように生成される(例えば図4に示されたグラフィック画像30を参照)。
次のステップS26において、情報表示装置13の画像処理部24は、各サンプリング点のカメラ座標系での位置に基づいて、前述のようなグラフィック画像を、表示部19のロボット10の映像に重畳する処理を行う。
以上に説明したステップS21〜ステップS26の処理により、情報表示装置13は、各サンプリング点の位置および判定結果情報を受信する度に、受信した各サンプリング点ごとに判定結果情報に応じたグラフィック画像を表示部19のロボット10の映像上に重畳表示することができる。
以上、典型的な実施形態を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、上述の各実施形態に変更及び種々の他の変更、省略、追加を行うことができるのを理解できるであろう。
また、本開示の少なくとも一つの課題を解決するために、以下のような各種の態様とその効果を提供することができる。
本開示の第一態様は、ロボット(10)を制御するロボット制御装置(11)と、該ロボット(10)に固定したロボット座標系の直交3軸方向の各方向または合成方向に関して前記ロボット(10)の手動操作を行う直交ジョグ操作部(14)を含む教示操作盤(12)と、前記ロボット(10)の教示のための情報を表示する情報表示装置(13)と、を備えるロボットシステム(1)であって、
前記ロボット制御装置(11)は、
前記直交ジョグ操作部(14)により指定された移動方向に前記ロボット(10)の手先部が通りうる前記ロボット座標系上の複数の位置をそれぞれ所定の周期で算出してサンプリング点とするサンプリング点算出部(15)と、
各前記サンプリング点が前記手先部の可動範囲内であるか否かを判定する第1判定処理と各前記サンプリング点が特異点近傍であるか否かを判定する第2判定処理とを行う判定部(16)と、
各前記サンプリング点の位置と、各前記サンプリング点の、前記第1判定処理および前記第2判定処理の結果を示す判定結果情報とを前記情報表示装置(13)に通知する通知部(17)と、を具備し、
前記情報表示装置(13)は、
前記ロボット(10)を撮影するカメラ(18)と、
前記カメラ(18)により撮影されている前記ロボット(10)の映像を表示する表示部(19)と、
各前記サンプリング点の位置および前記判定結果情報を用いて、各前記サンプリング点を通る直線状軌跡を表すように且つ、該直線状軌跡における、前記手先部の可動範囲内の部分と前記手先部の可動範囲外の部分と前記特異点近傍の部分とをそれぞれ視覚的に区別するようにグラフィック画像を生成して、前記ロボット(10)の映像に重畳する処理を行う表示処理部(20)と、を具備する、
ロボットシステム(1)でありうる。
上記の第一態様によれば、直交ジョグ操作でロボット教示を行う際に、ロボットの手先部の移動方向と共にその移動方向に特異点が在ることをオペレータに容易に認識させることができる。
本開示の第二態様は、上記第一態様のロボットシステム(1)であって、
前記表示処理部(20)は、
前記カメラ(18)に固定したカメラ座標系の原点と前記ロボット座標系の原点との相関関係を推定する相関関係推定部(21)と、
前記相関関係を用いて各前記サンプリング点の位置を前記カメラ座標系での位置に変換する位置データ変換部(22)と、
各前記サンプリング点の前記カメラ座標系での位置と各前記サンプリング点の前記判定結果情報とを用いて、前記グラフィック画像を生成するグラフィック画像生成部(23)と、
各前記サンプリング点の前記カメラ座標系での位置に基づいて、前記グラフィック画像を前記ロボット(10)の映像に重畳する処理を行う画像処理部(24)と、を具備する、ロボットシステム(1)でありうる。
上記の第二態様によれば、ロボットに対してカメラの相対位置および相対角度が変わっても、カメラによるロボットの映像上に前述のグラフィック画像を適切な向き及び位置で重畳表示することができる。
本開示の第三態様は、上記の第一態様または第二態様のロボットシステム(1)であって、前記情報表示装置(13)は、前記指定された移動方向の変更に応じて、前記ロボット(10)の映像に重畳させる前記グラフィック画像を更新するように構成されている、ロボットシステム(1)でありうる。
上記の第三態様によれば、直交ジョグ操作部で指定された移動方向が切替えられた場合でも、その切替えられた指定の移動方向と、その移動方向に存在する特異点近傍となる位置範囲とをオペレータに容易に認識させることができる。
本開示の第四態様は、上記の第一態様から第三態様のいずれかのロボットシステム(1)であって、前記情報表示装置(13)はカメラ一体型のヘッドマウントディスプレイ装置により構成される、ロボットシステム(1)でありうる。
上記の第四態様によれば、ロボット教示中のオペレータは、情報表示装置を装着して、眼に対応する表示部のロボットの映像および前述のグラフィック画像を視認しながら教示操作盤で直交ジョグ操作することができる。
本開示の第五態様は、上記の第一態様から第三態様のいずれかのロボットシステム(1)であって、
前記情報表示装置(13)は前記教示操作盤(12)に組込まれており、
前記教示操作盤(12)は、前記カメラ(18)により撮影されている前記ロボット(10)の映像を表示する表示パネル(12a)を有し、前記表示処理部(20)は、前記表示パネル(12a)に表示された前記ロボット(10)の映像に前記グラフィック画像を重畳して表示する、ロボットシステム(1)でありうる。
上記の第五態様によれば、ロボット教示中のオペレータは、表示操作盤の表示パネルで前述のグラフィック画像を視認しながら直交ジョグ操作することができる。
1 ロボットシステム
10 ロボット
10a、10a1〜10a6 軸部
10b アーム部
10c エンコーダ
11 ロボット制御装置
12 教示操作盤
12a 表示パネル
13 情報表示装置
14 直交ジョグ操作部
15 サンプリング点算出部
16 判定部
17 通知部
18 カメラ
19 表示部
20 拡張現実表示処理部
21 相関関係推定部
22 位置データ変換部
23 グラフィック画像生成部
24 画像処理部
25 オペレータ
26 ロボット座標系
27 TCP
28 フランジ面
29 ツール
30 グラフィック画像

Claims (5)

  1. ロボットを制御するロボット制御装置と、該ロボットに固定したロボット座標系の直交3軸方向の各方向または合成方向に関して前記ロボットの手動操作を行う直交ジョグ操作部を含む教示操作盤と、前記ロボットの教示のための情報を表示する情報表示装置と、を備えるロボットシステムであって、
    前記ロボット制御装置は、
    前記直交ジョグ操作部により指定された移動方向に前記ロボットの手先部が通りうる前記ロボット座標系上の複数の位置をそれぞれ所定の周期で算出してサンプリング点とするサンプリング点算出部と、
    各前記サンプリング点が前記手先部の可動範囲内であるか否かを判定する第1判定処理と各前記サンプリング点がロボットの特異点近傍であるか否かを判定する第2判定処理とを行う判定部と
    各前記サンプリング点の位置と、各前記サンプリング点の、前記第1判定処理および前記第2判定処理の結果を示す判定結果情報とを前記情報表示装置に通知する通知部と、を具備し、
    前記情報表示装置は、
    前記ロボットを撮影するカメラと、
    前記カメラにより撮影されている前記ロボットの映像を表示する表示部と、
    各前記サンプリング点の位置および前記判定結果情報を用いて、各前記サンプリング点を通る直線状軌跡を表すように且つ、該直線状軌跡における、前記手先部の可動範囲内の部分と前記手先部の可動範囲外の部分と前記特異点近傍の部分とをそれぞれ視覚的に区別するようにグラフィック画像を生成して、前記ロボットの映像に重畳する処理を行う表示処理部と、を具備する、ロボットシステム。
  2. 前記表示処理部は、
    前記カメラに固定したカメラ座標系の原点と前記ロボット座標系の原点との相関関係を推定する相関関係推定部と、
    前記相関関係を用いて各前記サンプリング点の位置を前記カメラ座標系での位置に変換する位置データ変換部と、
    各前記サンプリング点の前記カメラ座標系での位置と各前記サンプリング点の前記判定結果情報とを用いて、前記グラフィック画像を生成するグラフィック画像生成部と、
    各前記サンプリング点の前記カメラ座標系での位置に基づいて、前記グラフィック画像を前記ロボットの映像に重畳する処理を行う画像処理部と、を具備する、
    請求項1に記載のロボットシステム。
  3. 前記情報表示装置は、前記指定された移動方向の変更に応じて、前記ロボットの映像に重畳させる前記グラフィック画像を更新するように構成されている、請求項1または2に記載のロボットシステム。
  4. 前記情報表示装置は、カメラ一体型のヘッドマウントディスプレイ装置により構成される、請求項1から3のいずれか一項に記載のロボットシステム。
  5. 前記情報表示装置は前記教示操作盤に組込まれており、
    前記教示操作盤は、前記カメラにより撮影されている前記ロボットの映像を表示する表示パネルを有し、前記表示処理部は、前記表示パネルに表示された前記ロボットの映像に前記グラフィック画像を重畳して表示する、請求項1から3のいずれか一項に記載のロボットシステム。
JP2017108247A 2017-05-31 2017-05-31 ロボットの教示のための情報を表示するロボットシステム Active JP6445092B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017108247A JP6445092B2 (ja) 2017-05-31 2017-05-31 ロボットの教示のための情報を表示するロボットシステム
US15/987,935 US10427298B2 (en) 2017-05-31 2018-05-24 Robot system displaying information for teaching robot
DE102018112403.1A DE102018112403B4 (de) 2017-05-31 2018-05-24 Robotersystem, das informationen zur unterweisung eines roboters anzeigt
CN201810517632.3A CN108972568B (zh) 2017-05-31 2018-05-25 显示用于机器人的示教的信息的机器人系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017108247A JP6445092B2 (ja) 2017-05-31 2017-05-31 ロボットの教示のための情報を表示するロボットシステム

Publications (2)

Publication Number Publication Date
JP6445092B2 true JP6445092B2 (ja) 2018-12-26
JP2018202514A JP2018202514A (ja) 2018-12-27

Family

ID=64279117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017108247A Active JP6445092B2 (ja) 2017-05-31 2017-05-31 ロボットの教示のための情報を表示するロボットシステム

Country Status (4)

Country Link
US (1) US10427298B2 (ja)
JP (1) JP6445092B2 (ja)
CN (1) CN108972568B (ja)
DE (1) DE102018112403B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113500602A (zh) * 2021-07-23 2021-10-15 鲁东大学 多连杆机械手系统的分布式采样控制

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018109828A1 (ja) * 2016-12-13 2018-06-21 株式会社Fuji 作業ロボットの目的位置補正方法
JP7259284B2 (ja) * 2017-11-28 2023-04-18 株式会社デンソーウェーブ 教示装置、教示方法
JP7146402B2 (ja) * 2018-01-18 2022-10-04 キヤノン株式会社 情報処理装置、および情報処理方法
JP2020013242A (ja) * 2018-07-17 2020-01-23 富士ゼロックス株式会社 ロボット制御システム、ロボット装置およびプログラム
JP7000364B2 (ja) * 2019-01-29 2022-01-19 ファナック株式会社 ロボットシステム
CN110087190A (zh) * 2019-05-16 2019-08-02 北京云迹科技有限公司 一种用于通知用户的方法及装置
JP7294980B2 (ja) * 2019-10-15 2023-06-20 ファナック株式会社 制御システム、制御装置、及びロボット
EP4190513A4 (en) * 2020-08-03 2024-01-24 Mitsubishi Electric Corporation REMOTE CONTROL DEVICE
JP2022088884A (ja) * 2020-12-03 2022-06-15 セイコーエプソン株式会社 コンピュータープログラム、及び、ロボットの教示方法
JP7598839B2 (ja) 2021-09-24 2024-12-12 株式会社ダイヘン 溶接ロボットシステム
JP7598840B2 (ja) 2021-09-24 2024-12-12 株式会社ダイヘン 溶接ロボットシステム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5047916A (en) 1988-03-25 1991-09-10 Kabushiki Kaisha Toshiba Method and apparatus of free space enumeration for collision avoidance
JPH07295625A (ja) 1994-04-28 1995-11-10 Fanuc Ltd ロボットのジョグ送り情報表示装置
SE0303384D0 (sv) 2003-12-15 2003-12-15 Abb Ab Control system, method and computer program
KR100786351B1 (ko) * 2006-08-29 2007-12-14 울산대학교 산학협력단 Ar을 이용한 작업로봇 티칭 시스템 및 방법
JP5103237B2 (ja) * 2008-03-25 2012-12-19 株式会社神戸製鋼所 ロボットの動作余裕量演算表示方法及びその装置
CN101791801B (zh) * 2010-01-15 2012-06-06 广东工业大学 工业机器人运动规划与性能测试系统及其实现方法
JP5246672B2 (ja) 2011-02-17 2013-07-24 独立行政法人科学技術振興機構 ロボットシステム
JP2012218120A (ja) 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
EP2699392B1 (en) * 2011-04-19 2015-10-21 ABB Research Ltd. An industrial robot having a kinematically redundant arm and a method for controlling the robot
JP5742862B2 (ja) * 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法
JP2015066668A (ja) * 2013-10-01 2015-04-13 キヤノン株式会社 ロボットの教示点調整方法、ロボットの設置位置算出方法、ロボットシステム、プログラム及び記録媒体
CN105637435B (zh) 2013-10-07 2018-04-17 Abb技术有限公司 用于验证针对可移动的机械单元的一个或多个安全容积的方法和装置
JP6418483B2 (ja) * 2014-06-18 2018-11-07 株式会社Ihi 加工軌道生成装置と方法
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
CN206105869U (zh) * 2016-10-12 2017-04-19 华南理工大学 一种机器人快速示教装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113500602A (zh) * 2021-07-23 2021-10-15 鲁东大学 多连杆机械手系统的分布式采样控制
CN113500602B (zh) * 2021-07-23 2023-09-05 鲁东大学 多连杆机械手系统的分布式采样控制

Also Published As

Publication number Publication date
US20180345490A1 (en) 2018-12-06
CN108972568B (zh) 2019-11-15
CN108972568A (zh) 2018-12-11
DE102018112403A1 (de) 2018-12-06
US10427298B2 (en) 2019-10-01
JP2018202514A (ja) 2018-12-27
DE102018112403B4 (de) 2019-10-02

Similar Documents

Publication Publication Date Title
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
CN110394780B (zh) 机器人的仿真装置
JP4167940B2 (ja) ロボットシステム
JP4167954B2 (ja) ロボット及びロボット移動方法
CN105666505B (zh) 具备扩展现实对应显示器的机器人系统
JP4763074B2 (ja) ロボットのツール先端点の位置の計測装置および計測方法
JP2020075354A (ja) 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
KR20180038479A (ko) 로봇시스템
JP2005106825A (ja) 受像装置の位置および方向づけの決定方法および装置
JP2018167334A (ja) 教示装置および教示方法
JP2013049102A (ja) ロボットの制御装置及びロボットの姿勢決定方法
JP5729226B2 (ja) ロボットの位置姿勢補間方法及びロボットの制御装置
JP2018001393A (ja) ロボット装置、ロボット制御方法、プログラム及び記録媒体
JP2014065100A (ja) ロボットシステム、及びロボットのティーチング方法
JP2015174184A (ja) 制御装置
US11618166B2 (en) Robot operating device, robot, and robot operating method
JP6457587B2 (ja) ワークの動画に基づいて教示点を設定するロボットの教示装置
TW202218836A (zh) 機器人控制裝置及機器人系統
JP6917551B2 (ja) ロボット制御方法およびロボット
JPH1177568A (ja) 教示支援方法及び装置
JP2020175453A (ja) 遠隔操作装置
US12226914B2 (en) Generation of image for robot operation
US20220226982A1 (en) Method Of Creating Control Program For Robot, System Executing Processing Of Creating Control Program For Robot, And Non-Transitory Computer-Readable Storage Medium
WO2020203819A1 (ja) 遠隔操作装置

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180920

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181029

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181128

R150 Certificate of patent or registration of utility model

Ref document number: 6445092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150