[go: up one dir, main page]

JP6450960B2 - ロボット、ロボットシステム及び教示方法 - Google Patents

ロボット、ロボットシステム及び教示方法 Download PDF

Info

Publication number
JP6450960B2
JP6450960B2 JP2014057671A JP2014057671A JP6450960B2 JP 6450960 B2 JP6450960 B2 JP 6450960B2 JP 2014057671 A JP2014057671 A JP 2014057671A JP 2014057671 A JP2014057671 A JP 2014057671A JP 6450960 B2 JP6450960 B2 JP 6450960B2
Authority
JP
Japan
Prior art keywords
arm
touch panel
robot
panel monitor
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014057671A
Other languages
English (en)
Other versions
JP2015182142A (ja
Inventor
優 ▲高▼橋
優 ▲高▼橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014057671A priority Critical patent/JP6450960B2/ja
Publication of JP2015182142A publication Critical patent/JP2015182142A/ja
Application granted granted Critical
Publication of JP6450960B2 publication Critical patent/JP6450960B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39427Panel on arm, hand of robot, controlled axis

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボット、ロボットシステム及び教示方法に関する。
特許文献1には、ロボットの制御装置に接続されて教示データを入力するためのティーチングペンダントに、タッチパネル付き表示画面を配置し、そのタッチパネル付き表示画面に、教示対象ロボットのグラフィック画像を表示するとともに、その教示対象ロボットの動作を指示するための複数のタッチキーを表示し、タッチパネル付き表示画面を参照しながらタッチパネル付き表示画面上に表示された複数のタッチキーのうちの少なくとも1つを押圧操作もしくはタッチ操作することにより、ロボットに対する教示操作を行なうロボットの教示操作方法が開示されている。
特開平10−146782号公報
しかしながら、特許文献1に記載の発明では、教示者がロボットから離れた位置で教示を行うことになり、利便性が低いという問題がある。
そこで、本発明は、ロボットの近くで容易に教示を行うことができるロボット、ロボットシステム及び教示方法を提供することを目的とする。
上記課題を解決するための第一の態様は、ロボットであって、アームと、前記アームに設けられたタッチパネルモニターと、を備え、前記タッチパネルモニターを用いて前記アームのダイレクトティーチングを行うことを特徴とする。これにより、ロボットの近くで容易に教示を行うことができる。
ここで、前記ダイレクトティーチングは、前記アームを直接動作させ、当該動作を前記ロボットに記憶させる処理を含んでもよい。これにより、ロボットの近くで容易に教示を行うことができる。
上記課題を解決するための第二の態様は、ロボットであって、ロボット本体と、前記ロボット本体に設けられたアームと、前記アームに設けられたタッチパネルモニターと、前記アームの手先に加えられた外力に応じて前記アームの姿勢を変化させ、その後前記タッチパネルモニターへの入力を取得すると、当該変化させた後の前記アームの姿勢を教示情報として生成するダイレクトティーチングを行う制御部と、を備えたことを特徴とする。
第二の態様によれば、アームの手先に加えられた外力に応じてアームの姿勢を変化させ、その後アームに設けられたタッチパネルモニターへの入力を取得すると、変化させた後の前記アームの姿勢を教示情報として生成する。これにより、ロボットの近くで容易に教示を行うことができる。
ここで、前記アームは、前記ロボット本体側から順にN個(Nは3以上)の関節を有し、前記タッチパネルモニターは、N−2番目の関節とN−1番目の関節との間に設けられてもよい。これにより、教示者が外力を加えるアームの手先に近い位置にタッチパネルモニターを設けることができる。したがって、教示がさらに容易になる。
ここで、前記制御部は、前記アームの姿勢に応じて前記タッチパネルモニターの表示の向きを変更してもよい。これにより、教示者がタッチパネルモニターに表示された画面を確認しやすくなる。
ここで、前記タッチパネルモニターは、前記アームから取り外し可能に設けられてもよい。これにより、アームの姿勢によりアームに設けられたタッチパネルモニターが視認できない場合にも、タッチパネルモニターを使用することができる。
ここで、前記アームに設けられた撮像部を備え、前記制御部は、前記撮像部が撮像した撮像画像を前記タッチパネルモニターに表示させ、その後前記タッチパネルモニターへの入力を取得すると、前記撮像部への撮像指示を前記教示情報として生成してもよい。これにより、撮像についての教示を行うことができる。
ここで、明るさの変更可能な照明を備え、前記制御部は、前記タッチパネルモニターへの入力を取得すると、前記撮像部への撮像指示に前記照明の明るさを含めて前記教示情報を生成してもよい。これにより、撮像された画像に含まれる対象物が認識可能な明るさで画像を撮像することができる。
ここで、力検出器を備え、前記制御部は、前記力検出器での検出結果を前記タッチパネルモニターに表示させ、その後前記タッチパネルモニターへの入力を取得すると、前記力検出器での検出結果を前記教示情報として生成してもよい。これにより、力制御についての教示を行うことができる。
ここで、把持部を備え、前記制御部は、前記タッチパネルモニターからの入力に基づいて前記把持部を移動させ、その後前記タッチパネルモニターへの入力を取得すると、前記把持部の移動後の姿勢を前記教示情報として生成してもよい。これにより、把持部の動作について教示を行うことができる。
ここで、前記アームを複数備え、前記複数備えられたアームのそれぞれに前記タッチパネルモニターが設けられてもよい。これにより、複数のアームを備えたロボットについて、ロボットの近くで容易に教示を行うことができる。
上記課題を解決するための第三の態様は、ロボットと、制御部とを備えたロボットシステムであって、前記ロボットは、ロボット本体と、前記ロボット本体に設けられたアームと、前記アームに設けられたタッチパネルモニターと、を備え、前記制御部は、前記アームの手先に加えられた外力に応じて前記アームの姿勢を変化させ、その後前記タッチパネルモニターへの入力を取得すると、当該変化させた後の前記アームの姿勢を教示情報として生成するダイレクトティーチングを行うことを特徴とする。これにより、ロボットの近くで容易に教示を行うことができる。
上記課題を解決するための第四の態様は、教示方法であって、ロボット本体に設けられたアームの手先に加えられた外力に応じて前記アームの姿勢を変化させるステップと、前記アームに設けられたタッチパネルモニターへの入力を取得するステップと、前記変化させた後の前記アームの姿勢を教示情報として生成するステップと、を含むことを特徴とする。これにより、ロボットの近くで容易に教示を行うことができる。
本発明の一実施形態におけるロボット1の正面斜視図である。 ロボット1の背面斜視図である。 アーム11の詳細を示す図である。 制御部20の機能ブロックを示す図である。 制御部20の概略構成の一例を示すブロック図である。 ダイレクトティーチング処理の流れを示すフローチャートである。 ダイレクトティーチング処理の流れを示すフローチャートである。 ダイレクトティーチング処理の流れを示すフローチャートである。 ダイレクトティーチング処理の流れを示すフローチャートである。 タッチパネルモニター17に表示される画面の一例である。 タッチパネルモニター17に表示される画面の一例である。 タッチパネルモニター17に表示される画面の一例である。
本発明の一実施形態について、図面を参照しながら説明する。
図1は、本発明の一実施形態におけるロボット1の正面斜視図である。図2は、ロボット1の背面斜視図である。
本実施形態におけるロボット1は、主として、ロボット本体10と、アーム11と、タッチパネルモニター12と、バンパー13と、搬送用ハンドル14と、電子カメラ15と、タッチパネルモニター17と、ハンドアイカメラ18と、照明19と、を備える。ロボット1は、人間型双腕ロボットであり、ロボット1の内部に設けられた制御部20(図4参照)からの制御信号に従い処理を行う。
なお、以下では、説明の都合上、図1、図2中の上側を「上」または「上方」、下側を「下」または「下方」と言う。また、図1の手前側を「正面側」または「正面」といい、図2の手前側を「背面側」または「背面」という。
ロボット本体10は、主として、肩部10Aと、ロボット本体10Bとを備える。肩部10Aは、ロボット本体10Bに対して回動自在に設けられる。
肩部10Aの両側面の上端近傍には、それぞれアーム11(いわゆるマニピュレーター)が設けられる。
アーム11は、複数のアーム部材がジョイント(図示せず)により連結されて構成される。アーム11については、後に詳述する。
ロボット本体10Bの背面(正面と反対側の面)側には、ロボット1の背面側から視認可能なモニターを有するタッチパネルモニター12が配置されている。タッチパネルモニター12は、搬送用ハンドル14に設けられる。
ロボット本体10Bの正面(ロボット1がアーム11で作業する際に、ロボットが作業を行う作業台と対向する側の面)には、取付部10Dを介して、作業台との水平方向の距離を一定に保つためのバンパー13が設けられる。
肩部10Aから上に突出する、頭部に当たる部分には、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を有する電子カメラ15が設けられる。
図3は、アーム11の詳細を示す図である。
アーム11は、ロボット本体10側から順に、アーム部材11A、11B、11C、11D、11Eがジョイント(図示せず)により連結されて構成される。ジョイントには、それらを動作させるためのアクチュエーター11a(図4参照)が設けられる。
アーム11は7個の回動軸を有する7軸ロボットである。ロボット本体10側から順に、1番目の回動軸はJ1であり、2番目の回動軸はJ2であり、3番目の回動軸はJ3であり、4番目の回動軸はJ4であり、5番目の回動軸はJ5であり、6番目の回動軸はJ6であり、7番目の回動軸はJ7である。回動軸J1、J2、J3、J4、J5、J6、J7は、それぞれ、ジョイントに設けられたアクチュエーター11aの回転軸である。アーム部材11A、11B、11C、11D、11E及びハンド111は、回動軸J1、J2、J3、J4、J5、J6、J7回りに独立して回動可能に設けられる。
アクチュエーター11aは、例えば、サーボモーターやエンコーダーなどを備える。エンコーダーが出力するエンコーダー値は、制御部20によるロボット1のフィードバック制御に使用される。また、アクチュエーター11aには、回転軸を固定する電磁ブレーキが設けられる。
アーム部材11Eの先端(アーム11の手首部分に相当)には、図示しない力覚センサー16(図4参照)が設けられている。力覚センサー16は、ロボット1が出している力に対する反力として受けている力や、モーメントを検出するセンサーである。力覚センサー16として、例えば、並進3軸方向(x、y、z成分)の力成分と、回転3軸(u、v、w成分)回りのモーメント成分の6成分を同時に検出することができる6軸力覚センサーを用いることができる。力覚センサー16は、本発明の力検出器に相当する。なお、力覚センサー16は、6軸に限らず、例えば3軸でもよい。
本実施の形態では、力覚センサー16が設けられた位置をアーム11のエンドポイントの位置とする。なお、力覚センサー16が設けられる位置はこれに限定されない。
アーム11の先端には、ワークや道具を把持するハンド111(いわゆるエンドエフェクター)が設けられる。ただし、エンドエフェクターはハンド111に限られない。
ハンド111は、4本のフィンガー111Aを有する。2本のフィンガー111Aは、対向して設けられる。図示しない駆動機構により、対向する2本のフィンガー111A同士を互いに接近させることにより、対向する2本のフィンガー111Aで部品等の対象物を挟持する。また、駆動機構によりこの挟持状態からフィンガー111A同士を互いに離間させることにより、対象物を解放する。
また、ハンド111は、フィンガー111Aの移動方向と直交する方向に移動する当接部111Bを有する。2組の2本のフィンガー111Aの間で部品等の対象物を挟持し、当接部111Bを対象物に当接させることで、ハンド111により対象物が把持される。
アーム部材11Dには、タッチパネルモニター17が設けられる。タッチパネルモニター17は、ダイレクトティーチング(後に詳述)用のティーチングペンダントとして機能する。タッチパネルモニター17は、主として、画像を表示する表示部と、入力を受け付けるタッチパネルと、を有する。タッチパネルモニター17には、抵抗膜方式、電磁誘導方式、静電容量方式等の様々な方式のタッチパネルを使用することができるが、ワークの衝突等による誤作動を防止するため、静電容量方式のタッチパネルを使用することが望ましい。
タッチパネルモニター17は、アーム11内部に設けられたコード(図示せず)により、ロボット1内部に設けられた制御部20(図4参照)に接続される。また、タッチパネルモニター17は、アーム部材11Dに対して取り外し可能に設けられる。タッチパネルモニター17をアーム部材11Dから取り外した場合に対応するため、タッチパネルモニター17と制御部20との間には、コードを巻き取り可能なコードリール等が設けられている。なお、タッチパネルモニター17と制御部20との間を無線(例えば、Wi−Fi)で接続してもよい。
なお、本実施の形態では、タッチパネルモニター17は、アーム部材11D(回転軸J5(N−2軸)と回動軸J6(N−1軸)との間、N=7)に設けられているが、タッチパネルモニター17が設けられるのはこの位置に限られない。例えば、アーム部材11B(回転軸J3と回動軸J4との間)にタッチパネルモニター17を設けてもよい。つまり、ロボット本体10にもっとも近い位置(アーム部材11A)以外の位置(例えば、回転軸J3〜J7(N−4〜N軸、N=7)の間)であれば、アーム11の任意の位置にタッチパネルモニター17を設けることができる。しかしながら、タッチパネルモニター17は、ダイレクトティーチングを容易にするため、できるだけアーム11の先端に近い位置に設けることが望ましい。特に、ダイレクトティーチングではエンドポイントの位置及び向きを教示者が指示するため、エンドポイントの位置及び向きや、ハンド111の回転方向の位置(回転軸J7の回転角)等を指示するときに最も視認しやすい位置であるアーム部材11Dに、タッチパネルモニター17を設けることが最も望ましい。また、アーム11の最も先端に近いアーム部材11E(回動軸J6と回動軸はJ7との間)にタッチパネルモニター17を設けることも望ましい。
アーム部材11Eには、作業台の上に載置されたワーク等を撮影するハンドアイカメラ18が設けられる。また、ハンドアイカメラ18に隣接して、ハンドアイカメラ18の撮像対象を照らす照明19が設けられる。照明19は、明るさの変更が可能である。ハンドアイカメラ18及び照明19は、一般的であるため説明を省略する。
なお、ロボット1に設けられるのはアーム11に限られない。例えば、複数のジョイントとリンクとにより構成され、ジョイントを動かすことで全体が動くマニピュレーターであれば、どのような形態でもよい。
次に、ロボット1の機能構成例について説明する。図4は、制御部20の機能ブロック図を示している。制御部20は、主として、ダイレクトティーチング部200と、駆動制御部201と、表示制御部202と、全体制御部203とを備える。
ダイレクトティーチング部200は、いわゆるダイレクトティーチングを行う。ロボット1のダイレクトティーチングとは、教示者がロボット1の姿勢を変化させ、それに基づいて教示情報を生成するものである。
具体的には、教示者がアーム部材11E等に直接触れてアーム11に外力を付与すると、ダイレクトティーチング部200は、この外力に基づいて、駆動制御部201を介してアーム11の姿勢を変える。その後、ダイレクトティーチング部200は、表示制御部202を介してタッチパネルモニター17への入力が行われたことを取得すると、その時のアーム11の姿勢を、ジョイントに設けられたアクチュエーター11aから検出する。そして、ダイレクトティーチング部200は、検出したアーム11の姿勢と、その検出された姿勢が指定された順序と関連付けられた教示情報を生成する。ダイレクトティーチング部200が行う処理については、後に詳述する。
駆動制御部201は、エンドポイントを目標位置に移動させると、ハンド111へ作業を行わせるための信号を出力する。この信号は、アンプ111bで増幅され、アクチュエーター111aに入力される。これにより、ハンド111を用いた作業を行うことができる。
また、駆動制御部201は、アクチュエーターのエンコーダー値、力覚センサーのセンサー値等に基づいて、アーム11を駆動するための信号を出力する。この信号は、アンプ11bで増幅され、アクチュエーター11aに入力される。これにより、アーム11が制御される。駆動制御部201が行う処理は一般的であるため、説明を省略する。
表示制御部202は、表示部に表示する各種表示画面の表示状態を制御する。また、表示制御部202は、表示部に重ねて設けられたタッチパネルへの入力(例えば、押圧)を検出する。そして、表示制御部202は、タッチパネル上の押圧された位置と、表示部における表示画面とに基づいて、表示部に表示されたボタンのうちのどのボタンへの入力が行われたかを検出する。表示制御部202は、検出結果をダイレクトティーチング部200に出力する。
また、表示制御部202は、ダイレクトティーチング部200によりダイレクトティーチングが行われているときは、アーム11の姿勢に応じて、表示部へ表示する画像の向きを変更する。例えば、アーム11がエンドポイントを下方に向けている場合には、表示制御部202は、辺17X(図3参照)が上側となるように表示部に画像を表示させる。また、例えば、アーム11がエンドポイントを前方に向けている場合(図3に示す姿勢)には、表示制御部202は、辺17Y(図3参照)が上側となるように表示部に画像を表示させる。
全体制御部203は、制御部20の全体を制御する処理を行う。
図5は、制御部20の概略構成の一例を示すブロック図である。図示するように、例えばコンピューターなどで構成される制御部20は、演算装置であるCPU(Central Processing Unit)21と、揮発性の記憶装置であるRAM(Random Access Memory)や不揮発性の記憶装置であるROM(Read only Memory)からなるメモリー22と、外部記憶装置23と、ロボット1等の外部の装置と通信を行う通信装置24と、タッチパネルモニター等の入力装置を接続する入力装置インターフェイス(I/F)25と、タッチパネルモニター等の出力装置を接続する出力装置I/F26と、制御部20と他のユニットを接続するI/F27と、を備える。
上記の各機能部は、例えば、CPU21が所定のプログラムをメモリー22に読み出して実行することにより実現される。なお、所定のプログラムは、例えば、予めメモリー22にインストールされてもよいし、通信装置24を介してネットワークからダウンロードされてインストール又は更新されてもよい。
以上のロボット1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。例えば、制御部20は、ロボット1の外部にあってもよい。また、一般的なロボットシステムが備える構成を排除するものではない。
次に、本実施形態における、上記構成からなるロボット1の特徴的な処理について説明する。図6、7は、ダイレクトティーチング処理の流れを示すフローチャートである。図10〜12は、タッチパネルモニター17に表示される画面の一例である。当該処理は、ロボット本体10に設けたモード切り替えスイッチ(図示せず)を介して、教示者により、ロボット1が教示モードに設定されることにより行われる。
教示者がタッチパネルモニター17へ触れると、表示制御部202は、タッチパネルモニター17への入力を検出し、図10(A)に示すようなメニュー画面17Aをタッチパネルモニター17に表示させる(ステップS100)。本実施の形態では、メニュー画面17Aには、新規ボタン17aと、編集ボタン17bとが表示されている。
次に、表示制御部202は、教示者がタッチパネルモニター17における新規ボタン17aへの入力が行われたか、編集ボタン17bへの入力が行われたかを判断する(ステップS102)。表示制御部202により判断結果がダイレクトティーチング部200に出力されると、ダイレクトティーチング部200はこれを取得する。
新規ボタン17aへの入力が行われたことが取得された場合(ステップS102で「新規」)には、ダイレクトティーチング部200は、ダイレクトティーチングを開始する(ステップS104)。具体的には、ダイレクトティーチング部200は、駆動制御部201を介して、アーム11の各関節軸(回動軸J1〜J7)の保持用ブレーキを解除する。すると、各関節軸のアクチュエーター11aがONになり、アーム11が現在の姿勢で保持される。それと共に、ダイレクトティーチング部200は、表示制御部202を介して、図10(B)に示すような作業画面17Bをタッチパネルモニター17に表示させる。
作業画面17Bには、位置の記憶を指示する位置記憶ボタン17cと、ハンド111への教示を入力するハンド教示ボタン17dと、力覚センサーの検出値の表示を指示する力覚表示ボタン17eと、ハンドアイカメラ18を起動させるHカメラ(ハンドアイカメラ)起動ボタン17fとが表示される。
次に、ダイレクトティーチング部200は、教示者によりアーム11が移動されたか、すなわちアーム11に外力が加えられたか否かを判断する(ステップS106)。ダイレクトティーチング部200は、アーム11に外力が加えられたか否かを、力覚センサー16における検出結果や、アクチュエーター11aの回転軸の回転の有無等に基づいて判定できる。
外力が加えられていないと判断された(ステップS106でNO)場合については、後に詳述する。
外力が加えられたと判断された(ステップS106でYES)場合には、ダイレクトティーチング部200は、駆動制御部201を介して、外力に応じてアーム11の姿勢を変化させる(ステップS108)。具体的には、ダイレクトティーチング部200は、駆動制御部201を解して、力覚センサーに加えられるXYZ成分の力、UVW成分のモーメントを検出し、それを各回動軸J1〜J7のエンコーダー情報に変換し、各回動軸J1〜J7のアクチュエーター11aを動かす。なお、教示モードに設定されている場合は、駆動制御部201は、アーム11を、安全と思われる(例えば、教示者にアームが当たったとしても教示者が怪我しない)最大スピード(最大スピードは、任意に設定可能である)以下の速度で移動させる。これにより、力を受けた方向に向けてアーム11が移動される。
駆動制御部201によりアーム11が移動されると、表示制御部202は、作業画面17Bに表示された位置記憶ボタン17c(図10(B)参照)への入力が行われたか否かを判断し、ダイレクトティーチング部200は、この結果を取得する(ステップS110)。
位置記憶ボタン17cへの入力が行われなかったことが検出された場合(ステップS110でNO)には、ダイレクトティーチング部200は、ステップS108に処理を戻す。
位置記憶ボタン17cへの入力が行われたことが検出された場合(ステップS110でYES)には、駆動制御部201は、現在のアーム11の姿勢を検出する(ステップS112)。
そして、ダイレクトティーチング部200は、ステップS110で検出したアーム11の姿勢と、順番とを関連付けた教示情報を生成し、これをメモリー22等に記憶する(ステップS114)。ここで、順番とは、教示情報に記憶された作業の順番である。例えば、教示情報が生成されていない場合には、ダイレクトティーチング部200は、ステップS110で検出されたアーム11の姿勢を、順番1と関連付けた教示情報を生成する。また、例えば、教示情報に順番2までの情報が記憶されている場合には、ダイレクトティーチング部200は、ステップS112で検出されたアーム11の姿勢を、順番3と関連付けた教示情報を生成し、これを現在の教示情報に追加する。なお、本実施の形態では、最初に教示情報を生成した場合のみでなく、新たに生成した教示情報を現在の教示情報に追加した場合も、教示情報の生成と定義する。
ダイレクトティーチング部200は、生成した教示情報を、メモリー22等に記憶させる。
編集ボタン17bへの入力が行われたことが取得された場合(ステップS102で「編集」)には、ダイレクトティーチング部200は、生成された教示情報を編集するために、表示制御部202を介して教示情報をタッチパネルモニター17に表示させる(ステップS116)。教示情報の表示及び編集処理については、図示及び詳細な説明を省略する。
ステップS114又はステップS116の処理が終了したら、全体制御部203は、タッチパネルモニター17を介してダイレクトティーチングの終了指示が入力されたか否かを判断する(ステップS118)。
ダイレクトティーチングの終了指示が入力されていない場合(ステップS118でNO)は、全体制御部203は、ステップS106へ処理を戻す。ダイレクトティーチングの終了指示が入力された場合(ステップS118でYES)は、全体制御部203は、処理を終了する。
次に、外力が加えられなかったと判断された場合(ステップS106でNO)について、まず、図7のフローチャートを用いて説明する。
ダイレクトティーチング部200は、ハンド111の教示を行うか否かを判断する(ステップS120)。具体的には、表示制御部202を介して、図10(B)に表示されたハンド教示ボタン17dへの入力が行われたことを取得した場合には、ダイレクトティーチング部200は、ハンド111の教示を行うと判断する。
ハンド111の教示を行う場合(ステップS120でYES)には、ダイレクトティーチング部200は、表示制御部202を介して、図11(A)に示すハンド教示画面17Dをタッチパネルモニター17に表示させる(ステップS122)。本実施の形態では、ハンド111は、2組のフィンガー111Aと、当接部111Bとの3自由度を有する。したがって、ハンド教示画面17Dには、2組のフィンガー111Aに対する指示を入力する「把持1」、「把持2」と、当接部111Bに対する指示を入力する「掌」の3組のボタン17kが表示される。
例えば、駆動制御部201は、「把持1」、「把持2」、「掌」の各ボタン17kが押下されている間、ハンド111の押下されたボタンに対応する部位(フィンガー111A又は当接部111B)を移動させる(ステップS124)。なお、駆動制御部201は、「把持1」、「把持2」、「掌」の各ボタン17kが一度押下される毎に、ハンド111の押下されたボタンに対応する部位(フィンガー111A又は当接部111B)を一定量だけ移動させてもよい。
なお、本実施の形態では、ステップS124において駆動制御部201によりハンド111を移動させたが、ステップS108と同様に、フィンガー111A間の幅や当接部111Bの高さ等を、外力に応じて動かすようにしてもよい。
また、本実施の形態では、2組のフィンガー111Aと、当接部111Bとの3自由度を有するハンド111を採用しているが、1自由度(1組のフィンガー111A)を有するハンドを採用することができる。図11(B)は、1自由度を有するハンドを採用する場合のハンド教示画面17D’の一例である。ハンド教示画面17D’は、1自由度を有するハンドの場合に対応するため、ハンド教示画面17D’においては、ボタン17k’は「把持」のみである。
駆動制御部201によりハンド111が移動されると、ダイレクトティーチング部200は、表示制御部202を介して、ハンド教示画面17Dにおける記憶ボタン17iへの入力が行われたか否かの判断結果を取得する(ステップS126)。
記憶ボタン17iへの入力が行われなかったことが検出された場合(ステップS126でNO)には、ダイレクトティーチング部200は、表示制御部202を介して、戻るボタン17jへの入力が行われたか否かの判断結果を取得する(ステップS128)。戻るボタン17jへの入力が行われたことが取得された場合(ステップS128でYES)には、ダイレクトティーチング部200は、ステップS106(図6参照)に処理を戻す。戻るボタン17jへの入力が行われなかったことが取得された場合(ステップS128でNO)には、ダイレクトティーチング部200は、ステップS124に処理を戻す。
記憶ボタン17iへの入力が行われたことが検出された場合(ステップS126でYES)には、駆動制御部201は、現在のハンド111の姿勢、すなわちフィンガー111A及び当接部111Bの位置を検出する(ステップS130)。
そして、ダイレクトティーチング部200は、ステップS130で検出されたハンド111の姿勢と、順番とを関連付けた教示情報を生成し、これをメモリー22等に記憶する(ステップS132)。これにより、把持部の動作を教示することができる。その後、全体制御部203は、ステップS118へ処理を戻す。
次に、ハンド111の教示を行わない場合(ステップS120でNO)について、図8を用いて説明する。
ハンド111の教示を行わない場合(ステップS120でNO)には、ダイレクトティーチング部200は、力覚表示画面17Cの表示指示が入力されたかを判断する(ステップS140)。具体的には、ダイレクトティーチング部200は、表示制御部202を介して、図10(B)に表示された力覚表示ボタン17eへの入力が行われたか否かを判断する。
力覚表示画面17Cの表示指示が入力された場合(ステップS140でYES)には、ダイレクトティーチング部200は、表示制御部202を介して、図10(C)に示す力覚表示画面17Cをタッチパネルモニター17に表示させる(ステップS142)。
力覚表示画面17Cでは、力覚センサー16でのx、y、z方向の検出結果17g及びu、v、w方向の検出結果17hがそれぞれ表示される。教示者がハンド111等を対象物に押し付けたり、ハンド111を回転させたりすると、力覚センサー16がこれを検出する。ダイレクトティーチング部200は検出結果を取得し、表示制御部202を介して検出結果を力覚表示画面17Cに表示させる。
ダイレクトティーチング部200は、表示制御部202を介して、力覚表示画面17Cにおける記憶ボタン17iへの入力が行われたか否かの判断結果を取得する(ステップS144)。
記憶ボタン17iへの入力が行われなかったことが検出された場合(ステップS144でNO)には、ダイレクトティーチング部200は、表示制御部202を介して、戻るボタン17jへの入力が行われたか否かの判断結果を取得する(ステップS146)。戻るボタン17jへの入力が行われたことが取得された場合(ステップS146でYES)には、ダイレクトティーチング部200は、ステップS106(図6参照)に処理を戻す。戻るボタン17jへの入力が行われなかったことが取得された場合(ステップS146でNO)には、ダイレクトティーチング部200は、ステップS142に処理を戻す。
記憶ボタン17iへの入力が行われたことが検出された場合(ステップS144でYES)には、ダイレクトティーチング部200は、力覚センサー16で検出された力覚の値と、順番とを関連付けた教示情報を生成し、これをメモリー22等に記憶する(ステップS148)。これにより、力制御についての教示を行うことができる。その後、全体制御部203は、ステップS118へ処理を戻す。
次に、力覚表示画面17Cの表示指示が入力されなかった場合(ステップS140でNO)について、図9を用いて説明する。
力覚表示画面17Cの表示指示が入力が入力されなかった場合(ステップS140でNO)には、ダイレクトティーチング部200は、ハンドアイカメラ18の起動指示が入力されたか否かを判断する(ステップS150)。具体的には、ダイレクトティーチング部200は、表示制御部202を介して、作業画面17BのHカメラ起動ボタン17fへの入力が行われたか否かの判断結果を取得する。
Hカメラ起動ボタン17fへの入力が行われなかったことが取得された場合(ステップS150でNO)場合には、全体制御部203は、ステップS106(図6参照)へ処理を戻す。
Hカメラ起動ボタン17fへの入力が行われたことが取得された場合(ステップS150でYES)には、ダイレクトティーチング部200は、ハンドアイカメラ18で撮像した画像を取得し、表示制御部202は、この画像をタッチパネルモニター17に表示させる(ステップS152)。
図12(A)は、ハンドアイカメラ18で撮像した画像がタッチパネルモニター17に表示された画像表示画面17Eの一例である。画像表示画面17Eには、ハンドアイカメラ18で撮像した画像Pが表示される。また、画像表示画面17Eには、画像Pに重ねて、照明19の明るさのオン、オフや明るさの変更を行うための照明調整ボタン群17lと、対象物認識を指示する認識ボタン17mと、処理を戻す戻るボタン17nとが表示される。
ダイレクトティーチング部200は、表示制御部202を介して、画像表示画面17Eの認識ボタン17mへの入力が行われたか否かの判断結果を取得する(ステップS154)。
認識ボタン17mへの入力が行われなかったことが検出された場合(ステップS154でNO)は、ダイレクトティーチング部200は、表示制御部202を介して戻るボタン17nへの入力が行われたか否かの判断結果を取得する(ステップS155)。戻るボタン17nへの入力が行われたことが検出された場合(ステップS155でYES)は、ダイレクトティーチング部200は、ステップS106(図6参照)へ処理を戻す。戻るボタン17nへの入力が行われなかったことが検出された場合(ステップS155でNO)は、ダイレクトティーチング部200は、ステップS152へ処理を戻す。
認識ボタン17mへの入力が行われたことが検出された場合(ステップS154でYES)は、ダイレクトティーチング部200は、ハンドアイカメラ18で撮像した画像から対象物が認識できたか否かを判断する(ステップS156)。本実施の形態では、ダイレクトティーチング部200は、予めメモリー22等に登録してある対象物の3次元データと、ハンドアイカメラ18で撮像した画像とを照合することで、ハンドアイカメラ18で撮像した画像から対象物を認識する。画像から対象物を認識する技術は一般的であるため、説明を省略する。
ハンドアイカメラ18で撮像した画像から対象物が認識できた場合(ステップS156でYES)には、表示制御部202は、図12(B)に示すように、画像表示画面17Eに表示された画像Pのうちの、対象物の位置をハイライト表示する(ステップS158)。図12(B)においては、ハイライト表示の部分にハッチングが施されている。
そして、ダイレクトティーチング部200は、ステップS158でハイライト表示した対象物をハンドアイカメラ18で撮像する指示(この指示には、照明19の点灯の有無、明るさに関する情報等を含む)と、順番とを関連付けた教示情報を生成し、これをメモリー22等に記憶する(ステップS160)。これにより、撮像についての教示を行うことができる。順番については、ステップS114と同様である。その後、全体制御部203は、ステップS118へ処理を戻す。
ハンドアイカメラ18で撮像した画像から対象物が認識できなかった場合(ステップS156でNO)には、表示制御部202は、画像表示画面17Eに重ねて、対象物が認識できなかったことを示すエラー表示(図示せず)を表示させる(ステップS162)。
全体制御部203は、表示制御部202を介して、照明調整ボタン群17lへの入力が行われたか否かの判断結果を取得する(ステップS164)。照明調整ボタン群17lへの入力が行われなかったことが検出された場合(ステップS164でNO)は、全体制御部203は、ステップS152へ処理を戻す。
照明調整ボタン群17lへの入力が行われたことが検出された場合(ステップS164でYES)には、全体制御部203は、照明調整ボタン群17lの押下に応じて照明19の明るさを変更し(ステップS166)、ステップS152へ処理を戻す。
ステップS150〜S166では、ダイレクトティーチング部200は、ハンドアイカメラ18で撮像した画像を画像表示画面17Eに表示させたが、画像表示画面17Eに表示させる画像はこれに限られない。例えば、ダイレクトティーチング部200は、電子カメラ15で撮像された画像を画像表示画面17Eに表示させてもよい。この場合には、戻るボタン17nへの入力が行われたことが検出された場合(ステップS155でYES)に、ダイレクトティーチング部200は、ステップS106へ処理を戻す代わりに、肩部10Aをロボット本体10Bに対して回動させるようにしてもよい。
本実施の形態によれば、ダイレクトティーチング用のティーチングペンダントがアーム11に設けられているため、ロボットの近くで容易に教示を行うことができる。
また、本実施の形態によれば、教示者が外力を加えるアーム11の手先に近い位置にタッチパネルモニター17を設けるため、教示をさらに容易に行うことができる。また、教示者が外力を加えるアーム11の手先に近い位置にタッチパネルモニター17を設けるため、教示者がタッチパネルモニター17に表示された各種表示画面を確認しやすくなる。
また、本実施の形態によれば、タッチパネルモニター17がアーム11から取り外し可能であるため、アームの姿勢によりアームに設けられたタッチパネルモニター17が視認できない場合にも、タッチパネルモニターを使用することができる。
また、本実施の形態によれば、タッチパネルモニター17を用いることで撮像についての教示を行うことができる。さらに、照明の明るさ等の変更が可能であるため、撮像された画像に含まれる対象物が認識可能な明るさで画像を撮像することができる。
なお、本実施の形態では、複数のアーム11を備えたロボット1を例に説明したが、本発明は、アーム11が1本のロボットにも適用可能であるし、アーム11が3本のロボットにも適用可能である。ただし、アーム11の本数によらず、アーム11にタッチパネルモニター17が設けられている必要がある。アーム11にタッチパネルモニター17が設けられてさえいれば、本発明は適用可能である。
また、本実施の形態では、7軸のアーム11(N=7)を用いたが、アーム11の軸は3軸(N=3)以上であればどのような形態でもよい。そして、タッチパネルモニター17は、N−2軸とN−1軸との間に設けられることが望ましい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。さらに、本発明の説明において、「・・・近傍」は、完全同一に限定されず、課題、目的を達成可能な形態も含むことを意味する。
1 :ロボット
10 :ロボット本体
10A :肩部
10B :胴部
10D :取付部
11 :アーム
11A :アーム部材
11B :アーム部材
11C :アーム部材
11D :アーム部材
11E :アーム部材
11a :アクチュエーター
11b :アンプ
12 :タッチパネルモニター
13 :バンパー
14 :搬送用ハンドル
15 :電子カメラ
16 :力覚センサー
17 :タッチパネルモニター
17A :メニュー画面
17B :作業画面
17C :力覚表示画面
17D :ハンド教示画面
17E :画像表示画面
17X :辺
17Y :辺
17a :新規ボタン
17b :編集ボタン
17c :位置記憶ボタン
17d :ハンド教示ボタン
17e :力覚表示ボタン
17f :Hカメラ起動ボタン
17g :検出結果
17h :検出結果
17i :記憶ボタン
17j :ボタン
17k :ボタン
17l :照明調整ボタン
17m :認識ボタン
17n :ボタン
18 :ハンドアイカメラ
19 :照明
20 :制御部
21 :CPU
22 :メモリー
23 :外部記憶装置
24 :通信装置
25 :入力装置I/F
26 :出力装置I/F
27 :I/F
111 :ハンド
111A :フィンガー
111B :当接部
111a :アクチュエーター
111b :アンプ
127C :力覚表示画面
200 :ダイレクトティーチング部
201 :駆動制御部
202 :表示制御部
203 :全体制御部

Claims (9)

  1. ロボット本体と、
    前記ロボット本体に設けられたアームと、
    前記アームに設けられたタッチパネルモニターと、
    前記アームに設けられた撮像部と、
    明るさを変更可能な照明と、
    前記アームの手先に加えられた外力に応じて前記アームの姿勢を変化させ、その後前記タッチパネルモニターへの入力を取得すると、当該変化させた後の前記アームの姿勢を教示情報として生成するダイレクトティーチングを行う制御部と、を備え、
    前記制御部は、前記撮像部が撮像した撮像画像を前記タッチパネルモニターに表示させ、前記タッチパネルモニターへの入力を取得すると、前記撮像部への、前記照明の明るさを含む撮像指示を前記教示情報として生成する、ロボット。
  2. 請求項1に記載のロボットにおいて、
    前記アームは、前記ロボット本体側から順にN個(Nは3以上)の関節を有し、
    前記タッチパネルモニターは、N−2番目の関節とN−1番目の関節との間に設けられる
    ことを特徴とするロボット。
  3. 請求項1又は2に記載のロボットにおいて、
    前記制御部は、前記アームの姿勢に応じて前記タッチパネルモニターの表示の向きを変更する
    ことを特徴とするロボット。
  4. 請求項1から3のいずれか一項に記載のロボットにおいて、
    前記タッチパネルモニターは、前記アームから取り外し可能に設けられる
    ことを特徴とするロボット。
  5. 請求項1から4のいずれか一項に記載のロボットにおいて、
    力検出器を備え、
    前記制御部は、前記力検出器での検出結果を前記タッチパネルモニターに表示させ、その後前記タッチパネルモニターへの入力を取得すると、前記力検出器での検出結果を前記教示情報として生成する
    ことを特徴とするロボット。
  6. 請求項1から5のいずれか一項に記載のロボットにおいて、
    把持部を備え、
    前記制御部は、前記タッチパネルモニターからの入力に基づいて前記把持部を移動させ、その後前記タッチパネルモニターへの入力を取得すると、前記把持部の移動後の姿勢を前記教示情報として生成する
    ことを特徴とするロボット。
  7. 請求項1から6のいずれか一項に記載のロボットにおいて、
    前記アームを複数備え、
    前記複数備えられたアームのそれぞれに前記タッチパネルモニターが設けられる
    ことを特徴とするロボット。
  8. ロボットと、制御部とを備えたロボットシステムであって、
    前記ロボットは、
    ロボット本体と、
    前記ロボット本体に設けられたアームと、
    前記アームに設けられたタッチパネルモニターと、
    前記アームに設けられた撮像部と、
    明るさを変更可能な照明と、を備え、
    前記制御部は、前記アームの手先に加えられた外力に応じて前記アームの姿勢を変化させ、その後前記タッチパネルモニターへの入力を取得すると、当該変化させた後の前記アームの姿勢を教示情報として生成するダイレクトティーチングを行い、前記撮像部が撮像した撮像画像を前記タッチパネルモニターに表示させ、前記タッチパネルモニターへの入力を取得すると、前記撮像部への、前記照明の明るさを含む撮像指示を前記教示情報として生成する、ロボットシステム。
  9. ロボット本体に設けられたアームの手先に加えられた外力に応じて前記アームの姿勢を変化させるステップと、
    前記アームに設けられたタッチパネルモニターへの入力を取得するステップと、
    前記アームに設けられた撮像部が撮像した撮像画像を前記タッチパネルモニターに表示させるステップと、
    前記変化させた後の前記アームの姿勢を教示情報として生成するステップと、
    前記タッチパネルモニターへの入力を取得すると、前記撮像部への、ロボットに設けられた明るさを変更可能な照明の明るさを含む撮像指示を前記教示情報として生成するステップと、
    を含むことを特徴とする教示方法。
JP2014057671A 2014-03-20 2014-03-20 ロボット、ロボットシステム及び教示方法 Expired - Fee Related JP6450960B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014057671A JP6450960B2 (ja) 2014-03-20 2014-03-20 ロボット、ロボットシステム及び教示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014057671A JP6450960B2 (ja) 2014-03-20 2014-03-20 ロボット、ロボットシステム及び教示方法

Publications (2)

Publication Number Publication Date
JP2015182142A JP2015182142A (ja) 2015-10-22
JP6450960B2 true JP6450960B2 (ja) 2019-01-16

Family

ID=54349300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014057671A Expired - Fee Related JP6450960B2 (ja) 2014-03-20 2014-03-20 ロボット、ロボットシステム及び教示方法

Country Status (1)

Country Link
JP (1) JP6450960B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015012962B4 (de) * 2015-10-08 2024-08-22 Franka Emika Gmbh Robotersystem
CN106607874A (zh) * 2015-10-26 2017-05-03 广明光电股份有限公司 机器手臂撷取影像的装置及方法
JP6823795B2 (ja) * 2015-12-01 2021-02-03 パナソニックIpマネジメント株式会社 作業装置および作業装置における教示方法
JP6657868B2 (ja) * 2015-12-01 2020-03-04 セイコーエプソン株式会社 ロボットシステム
JP2018054563A (ja) 2016-09-30 2018-04-05 セイコーエプソン株式会社 力検出装置、駆動ユニットおよびロボット
DE102017204676A1 (de) * 2017-03-21 2018-09-27 Robert Bosch Gmbh Verfahren zum Bedienen einer Arbeitsmaschine mittels eines berührungsempfindlichen Bildschirms, Steuergerät und Bediensystem zum Bedienen einer Arbeitsmaschine
JP2018176288A (ja) 2017-04-03 2018-11-15 ファナック株式会社 ロボットの教示装置
JP6953778B2 (ja) * 2017-04-28 2021-10-27 オムロン株式会社 協調ロボット、コントローラ、および方法
JP6633580B2 (ja) 2017-08-02 2020-01-22 ファナック株式会社 ロボットシステム及びロボット制御装置
JP6763846B2 (ja) * 2017-11-24 2020-09-30 ファナック株式会社 ロボットの教示操作を行う教示装置および教示方法
JP6730247B2 (ja) * 2017-11-28 2020-07-29 ファナック株式会社 ロボット操作装置
JP6882249B2 (ja) 2018-11-29 2021-06-02 ファナック株式会社 ロボット用操作装置
JP7053443B2 (ja) 2018-12-07 2022-04-12 ファナック株式会社 操作装置にて手動操作を行うロボットの制御装置
JP7287048B2 (ja) 2019-03-27 2023-06-06 セイコーエプソン株式会社 ロボット
JP6826153B2 (ja) * 2019-05-07 2021-02-03 ファナック株式会社 ロボットの教示装置
JP7483420B2 (ja) * 2020-03-12 2024-05-15 キヤノン株式会社 ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体
JP2020157475A (ja) * 2020-07-01 2020-10-01 セイコーエプソン株式会社 制御装置、ロボットシステム及びロボット制御方法
TW202228949A (zh) * 2021-01-28 2022-08-01 日商發那科股份有限公司 教示裝置
TW202239555A (zh) * 2021-03-31 2022-10-16 日商發那科股份有限公司 具備具有顯示部之機器人之機器人系統

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60163108A (ja) * 1984-02-03 1985-08-26 Hitachi Ltd ロボツトの直接教示装置
JPH03218502A (ja) * 1990-01-24 1991-09-26 Murata Mach Ltd ロボットの教示装置
JP3901772B2 (ja) * 1996-11-13 2007-04-04 三菱重工業株式会社 ロボットの教示操作方法
JP2000010733A (ja) * 1998-06-22 2000-01-14 Denso Corp タッチパネル
JP2003186426A (ja) * 2001-12-14 2003-07-04 Minolta Co Ltd 表裏両面で表示を行う表示装置
JP3940998B2 (ja) * 2002-06-06 2007-07-04 株式会社安川電機 ロボット装置
CN102037437B (zh) * 2009-03-23 2014-04-16 松下电器产业株式会社 信息处理装置、信息处理方法、记录介质、以及集成电路
JP5526881B2 (ja) * 2010-03-12 2014-06-18 株式会社デンソーウェーブ ロボットシステム
JP2013184257A (ja) * 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム

Also Published As

Publication number Publication date
JP2015182142A (ja) 2015-10-22

Similar Documents

Publication Publication Date Title
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
US11090814B2 (en) Robot control method
JP6788593B2 (ja) マニピュレータシステム
JP6924145B2 (ja) ロボット教示方法及びロボットアーム制御装置
EP2917001B1 (en) Hybrid gesture control haptic system
JP6454960B2 (ja) ロボット、ロボットシステム、ロボット制御装置
US10807240B2 (en) Robot control device for setting jog coordinate system
US10618181B2 (en) Robot control device, robot, and robot system
CN113056351A (zh) 外部输入设备、机器人系统、机器人系统的控制方法、控制程序及记录介质
US9919424B1 (en) Analog control switch for end-effector
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
JP2018161692A (ja) 情報処理装置、情報処理方法およびプログラム
CN106493711B (zh) 控制装置、机器人以及机器人系统
CN107717981A (zh) 机械手臂的控制装置及其教导系统与方法
JP2015085458A (ja) ロボット制御装置、ロボットシステム、及びロボット
CN110709211A (zh) 机器人系统和机器人系统的控制方法
TWI651175B (zh) 機械手臂之控制裝置及其教導系統與方法
JP2017205819A (ja) ロボット、制御装置、及びロボットシステム
JP2015186834A (ja) ロボット制御装置、把持部制御装置、ロボット、把持部、ロボット制御方法、及びプログラム
JP2019042853A (ja) 画像情報処理装置、把持システム、および画像情報処理方法
TW201819126A (zh) 非接觸式的手勢教導機器人
JP6314431B2 (ja) ロボットシステム、制御装置、ロボット、及び駆動方法
JP2017100197A (ja) ロボット、及び制御方法
JP2015085457A (ja) ロボット、ロボットシステム及びロボット制御装置
US20240256229A1 (en) Program creation device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180622

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181119

R150 Certificate of patent or registration of utility model

Ref document number: 6450960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees