[go: up one dir, main page]

JP7035555B2 - 教示装置、及びシステム - Google Patents

教示装置、及びシステム Download PDF

Info

Publication number
JP7035555B2
JP7035555B2 JP2018008603A JP2018008603A JP7035555B2 JP 7035555 B2 JP7035555 B2 JP 7035555B2 JP 2018008603 A JP2018008603 A JP 2018008603A JP 2018008603 A JP2018008603 A JP 2018008603A JP 7035555 B2 JP7035555 B2 JP 7035555B2
Authority
JP
Japan
Prior art keywords
robot
teaching
image
indicator
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018008603A
Other languages
English (en)
Other versions
JP2019126861A (ja
Inventor
良至 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2018008603A priority Critical patent/JP7035555B2/ja
Priority to US16/253,610 priority patent/US11123863B2/en
Publication of JP2019126861A publication Critical patent/JP2019126861A/ja
Application granted granted Critical
Publication of JP7035555B2 publication Critical patent/JP7035555B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31048Project on workpiece, image of finished workpiece, info or a spot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36447Project light on path to be followed, keep also distance constant
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36453Handheld tool like probe
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

本発明は、教示装置、ロボット制御装置、ロボット、及びロボットシステムに関するものである。
従来、ロボットを任意の位置へ移動させるとき、PCのシミュレーターを用いた方法では実空間とは異なるディスプレイ上の画面を見ながら教示しなければならないため、実空間での位置を正しく指定することが難しかった。
また、PC上やティーチングペンダントを用いたジョグ動作は、操作が煩雑なため、ロボットを意図した位置へスムーズに移動させるには習熟が必要であった。
さらに、ダイレクトティーチを用いて教示する方法ではロボットに直接触れる必要があるため、ロボットがサーボON状態で行うダイレクトティーチは、危険な場合があった。
そこで、予め作業データを入力し、プロジェクターでロボットや作業対象物を投影する教示装置が提案されている(例えば、特許文献1参照)。
特開平11-237902号公報
しかしながら、特許文献1では、作業者は、ロボットや作業対象を投影しながら教示するが、教示方法はPCから投影画像を操作する。つまり、作業者は、シミュレーション画像を見て操作を行うため、実際にロボットを見ながら教示を行えないという課題があった。
本発明は、上述の課題を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
[適用例1]本適用例に係る教示装置は、ロボットの動作を教示する教示装置であって、前記ロボットの作業空間に含まれる投射面に画像を投射する画像投影部と、前記投射面に対する指示体の位置を検出する指示体位置検出部と、前記指示体位置検出部により検出された前記指示体の位置に基づき前記画像を生成又は更新する画像生成部と、前記指示体の位置に基づいて前記ロボットの動作を教示する教示点を演算する演算部と、を有することを特徴とする。
本適用例によれば、作業領域に入力させる画像を投影し、指示体の位置を検出して入力することができる。これにより、実際のロボットの作業領域で直接教示することができる。その結果、ロボットの動作を直感的に教示することができる。
[適用例2]上記適用例に記載の教示装置において、前記指示体位置検出部は、前記指示体の位置の変化を表す軌跡を取得し、前記演算部は、前記軌跡に沿って、複数の前記教示点を生成することが好ましい。
本適用例によれば、実際のロボットの作業領域で直接教示することが容易にできる。
[適用例3]上記適用例に記載の教示装置において、前記投射面に対する法線方向の距離であるZ座標の入力を受け付ける受付部を有し、前記演算部は、前記教示点と前記教示点に対応した前記Z座標に基づいて空間教示点を演算し、前記空間教示点に基づいて前記ロボットの動作を教示することが好ましい。
本適用例によれば、実際のロボットの作業領域で直接教示することが容易にできる。
[適用例4]上記適用例に記載の教示装置において、前記演算部は、複数の前記教示点と、複数の前記空間教示点と、によって囲まれた領域を、前記ロボットの非作業領域として前記ロボットの動作を教示することが好ましい。
本適用例によれば、実際のロボットの作業領域で直接教示することが容易にできる。
[適用例5]上記適用例に記載の教示装置において、前記演算部は、複数の前記教示点と、前記複数の空間教示点と、によって囲まれた領域を、前記ロボットの移動速度制限領域として前記ロボットの動作を教示することが好ましい。
本適用例によれば、実際のロボットの作業領域で直接教示することが容易にできる。
[適用例6]上記適用例に記載の教示装置において、前記画像生成部は、複数の前記教示点によって囲まれた領域に、前記ロボットの操作を示す操作画像が投射されるように画像を生成し、前記演算部は、前記操作画像が示す操作に基づいて前記ロボットの動作を教示することが好ましい。
本適用例によれば、実際のロボットの作業領域で直接教示することが容易にできる。
[適用例7]上記適用例に記載の教示装置において、前記操作画像は、前記ロボットの位置及び姿勢を一定量変化させる操作を示すことが好ましい。
本適用例によれば、実際のロボットの作業領域で直接教示することが容易にできる。
[適用例8]上記適用例に記載の教示装置において、前記操作画像は、前記ロボットのモーターの励磁状態を変更する操作を示すことが好ましい。
本適用例によれば、実際のロボットの作業領域で直接教示することが容易にできる。
[適用例9]本適用例に係るロボット制御装置は、上記のうちいずれか一項に記載の教示装置と接続され、前記教示点若しくは前記空間教示点を受け付けて前記ロボットを制御することを特徴とする。
本適用例によれば、作業領域に入力させる画像を投影し、指示体の位置を検出して入力することができる。これにより、実際のロボットの作業領域で直接教示することができる。その結果、ロボットの動作を直感的に教示することができる。
[適用例10]本適用例に係るロボットは、上記に記載のロボット制御装置により制御されることを特徴とする。
本適用例によれば、作業領域に入力させる画像を投影し、指示体の位置を検出して入力することができる。これにより、実際のロボットの作業領域で直接教示することができる。その結果、ロボットの動作を直感的に教示することができる。
[適用例11]本適用例に係るロボットシステムは、ロボットと、上記のうちいずれか一項に記載の教示装置と、上記に記載のロボット制御装置と、を有することを特徴とする。
本適用例によれば、作業領域に入力させる画像を投影し、指示体の位置を検出して入力することができる。これにより、実際のロボットの作業領域で直接教示することができる。その結果、ロボットの動作を直感的に教示することができる。
本実施形態に係るロボットシステムの斜視図。 本実施形態に係る教示装置の内部構成を示すブロック図。 本実施形態に係るロボットシステムの斜視図。 本実施形態に係わる軌跡教示を説明するフローチャート。 本実施形態に係わるポイント教示を説明するフローチャート。 本実施形態に係るロボットシステムの斜視図。 本実施形態に係るロボットシステムの斜視図。 本実施形態に係わるJOGモードを説明するフローチャート。 本実施形態に係るロボットシステムの斜視図。 本実施形態に係るロボットシステムの斜視図。 本実施形態に係るロボットシステムの斜視図。 本実施形態に係るロボットシステムの斜視図。 変形例のロボットシステムの斜視図。
以下、本発明を具体化した実施形態について図面に従って説明する。なお、使用する図面は、説明する部分が認識可能な状態となるように、適宜拡大又は縮小して表示している。
図1は、本実施形態に係るロボットシステム2の斜視図である。
本実施形態に係るロボットシステム2は、教示装置4と、ロボット制御装置8と、ロボット6と、を備えている。
教示装置4は、画像投影部10と、投射面22と、指示体24と、を備えている。投射面22は、ロボット6の作業領域30面として利用される。教示装置4は、画像投影部10により作業領域30に入力させる画像を投影し、画像投影部10がホワイトボードモード(後述)の動作により指示体24の位置を検出して入力をさせる教示装置である。
ロボット制御装置8は、教示装置4と接続され、教示点P1若しくは空間教示点P1´を受け付けてロボット6を制御する(図3参照)。
ロボット6は、ロボット制御装置8により制御される。
図2は、本実施形態に係る教示装置4の内部構成を示すブロック図である。
教示装置4は、画像投影部10と、指示体位置検出部12と、画像生成部14と、演算部20と、を備えている。教示装置4は、ロボット6の動作を教示する教示装置である。
教示装置4は、投射面22に対する法線方向Sの距離であるZ座標の入力を受け付ける受付部32を備えている。演算部20は、教示点P1と教示点P1に対応したZ座標に基づいて空間教示点P1´を演算する。演算部20は、空間教示点P1´に基づいてロボット6の動作を教示する。これによれば、実際のロボット6の作業空間としての作業領域30で直接教示することが容易にできる。
画像投影部10は、ロボット6の作業空間に含まれる投射面22に画像を投射する。なお、図1では投射面22を水平に配置しているが、投射面22を鉛直に配置してもよいし、投射面22が鉛直面から任意の角度をもつ面としてこのロボットシステム2を使用することも可能である。画像投影部10は、画像生成部14で生成された投射画像を投射面22上に投射する機能を備える。
指示体位置検出部12は、投射面22に対する指示体24(図3参照)の位置を検出する。指示体位置検出部12は、指示体24の位置の変化を表す軌跡40(図3参照)を取得する。演算部20は、軌跡40に沿って、複数の教示点Pnを生成する(図3参照)。これによれば、実際のロボット6の作業領域30で直接教示することが容易にできる。指示体位置検出部12は、指示体24による、投射面22に対する位置指示操作を検出する。
指示体24は、発光可能な先端部と、ユーザーが保持する軸部と、軸部に設けられたボタンスイッチと、を有するペン型の指示体である。このロボットシステム2では、1つ又は複数の指示体24とともに、1つ又は複数の非発光指示体(非発光のペンや指など)を利用可能である。
画像生成部14は、指示体位置検出部12により検出された指示体24の位置に基づき画像を生成又は更新する。画像生成部14は、複数の教示点Pnによって囲まれた領域に、ロボット6の操作を示す操作画像としてのツールボックス44(図7参照)が投射されるように画像を生成する。演算部20は、ツールボックス44が示す操作に基づいてロボット6の動作を教示する。これによれば、実際のロボット6の作業領域30で直接教示することが容易にできる。
ツールボックス44は、ロボット6の位置及び姿勢を一定量変化させる操作を示す。これによれば、実際のロボット6の作業領域30で直接教示することが容易にできる。
ツールボックス44は、ロボット6のモーターの励磁状態を変更する操作を示す。これによれば、実際のロボット6の作業領域30で直接教示することが容易にできる。
演算部20は、複数の教示点Pnと、複数の空間教示点Pn´と、によって囲まれた領域を、ロボット6の非作業領域としてロボット6の動作を教示する(図6参照)。これによれば、実際のロボット6の作業領域30で直接教示することが容易にできる。演算部20は、指示体24の位置に基づいてロボット6の動作を教示する教示点Pnを演算する。
演算部20は、複数の教示点Pnと、複数の空間教示点Pn´と、によって囲まれた領域を、ロボット6の移動速度制限領域としてロボット6の動作を教示する。これによれば、実際のロボット6の作業領域30で直接教示することが容易にできる。
教示装置4で指示体24の位置を検出して入力させるものとしては、例えば、ジョグ(例えば、XYZ方向や各軸の回転方向にロボット6を移動させるコマンド)、教示点(を平面に投影した位置)、非作業領域、移動速度制限領域、ハンドの動作、原点復帰、カメラ撮像指示(シャッター)、サーボオン、オフ等がある。以下、具体例を示す。
図3は、本実施形態に係るロボットシステム2の斜視図である。
指示体位置検出部12は、指示体24の位置の変化を表す軌跡40を取得する。演算部20は、軌跡40に沿って、複数の教示点Pnを生成する。記述した軌跡40をなぞるような動作教示である。矢印を書くと矢印の軌跡をなぞるようなロボット6の動作軌跡を教示できる。画像投影部10の作業領域30に特定の色で点を打つとその点の直上へロボット6が移動する教示が行えるようにしてもよい。
図4は、本実施形態に係わる軌跡教示を説明するフローチャートである。
先ず、ステップS10において、演算部20は、受付部32より軌跡教示モードの選択を受け付ける。
次に、ステップS12において、演算部20は、指示体位置検出部12によりロボット6が移動する指示体24の軌跡40の記述を検出する。
次に、ステップS14において、演算部20は、受付部32より始点の高さの指定を受け付ける。
次に、ステップS16において、演算部20は、受付部32より終点の高さの指定を受け付ける。
次に、ステップS18において、演算部20は、軌跡教示モード終了を判断する。NOの場合は、ステップS12に戻る。YESの場合は、軌跡教示モードを終了する。
図5は、本実施形態に係わるポイント教示を説明するフローチャートである。
なお、ポイントとは、ロボット6が次に移動する箇所を示している。
先ず、ステップS20において、演算部20は、受付部32よりポイント教示モードの選択を受け付ける。
次に、ステップS22において、演算部20は、指示体位置検出部12によりロボット6が移動する指示体24のポイントの記述を検出する。
次に、ステップS24において、演算部20は、受付部32より作業空間30の高さの指定を受け付ける。
次に、ステップS26において、演算部20は、ポイント教示モード終了を判断する。NOの場合は、ステップS22に戻る。YESの場合は、ポイント教示モードを終了する。
図6は、本実施形態に係るロボットシステム2の斜視図である。
演算部20は、複数の教示点Pnと、複数の空間教示点Pn´と、によって囲まれた領域42を、ロボット6の非作業領域としてロボット6の動作を教示する。領域42をロボット6の進入禁止範囲とする。特定の色で領域42を囲うと、そのエリアは、ロボット6の進入禁止エリアとして教示されるようにしてもよい。
演算部20は、複数の教示点Pnと、複数の空間教示点Pn´と、によって囲まれた領域42を、ロボット6の移動速度制限領域としてロボット6の動作を教示してもよい。領域42をロボット6の動作速度制限範囲としてもよい。特定の色で領域42を囲うと、そのエリアにロボット6が進入する場合は、指定した速度でロボット6が移動するように教示されるようにしてもよい。
図7は、本実施形態に係るロボットシステム2の斜視図である。
画像生成部14は、複数の教示点Pnによって囲まれた領域に、ロボット6の操作を示すツールボックス44が投射されるように画像を生成する。演算部20は、ツールボックス44が示す操作に基づいてロボット6の動作を教示する。
ツールボックス44は、ロボット6の位置及び姿勢を一定量変化させる操作を示す。ツールボックス44に表示されたボタンをタップするとそのボタンに表記される動作をロボット6が行う(JOGモード)。画像投影部10によって投影されるボタンをタップするとその通りにロボット6が動作する。ロボット6の動作とは、一般的なジョグ動作、ハンドを開く・閉じる、アームを初期姿勢に移動する、カメラで撮影する、サーボオフする、サーボオンする、などである。ボタンのタップや特定の文字や記号記入による教示やロボット6の動作は、ユーザーが指定できてもよい。
教示装置4は、画像投影部10により作業領域30に入力させる画像を投影し、画像投影部10がホワイトボードモードの動作により指示体24の位置を検出して入力をさせる。
ホワイトボードモードとは、指示体24を用いて投射面22上にユーザーが任意に描画できるモードである。投射面22上には、操作画像としてのツールボックス44を含む投射画像が投射されている。このツールボックス44は、処理を元に戻す取消ボタンと、マウスポインターを選択するポインターボタンと、描画用のペンツールを選択するペンボタンと、描画された画像を消去する消しゴムツールを選択する消しゴムボタンと、画面を次に進めたり前に戻したりする前方/後方ボタンと、を含んでいる。ユーザーは、指示体24を用いてこれらのボタンをクリックすることによって、そのボタンに応じた処理を行ったり、ツールを選択したりすることが可能である。なお、ロボットシステム2の起動直後は、マウスポインターがデフォールトツールとして選択されるようにしてもよい。図7の例では、ユーザーがペンツールを選択した後、指示体24の先端部を投射面22に接した状態で投射面22内で移動させることにより、投射画像内に線が描画されてゆく様子が描かれている。この線の描画は、教示装置4の内部の画像生成部14によって行われる。
なお、画像投影部10は、ホワイトボードモード以外の他のモードでも動作可能である。例えば、このロボットシステム2は、パーソナルコンピューター(図示せず)から通信回線を介して転送されたデータの画像を投射面22に表示するPCインタラクティブモードでも動作可能である。PCインタラクティブモードにおいては、例えば、表計算ソフトウェアなどのデータの画像が表示され、その画像内に表示された各種のツールやアイコンを利用してデータの入力、作成、修正等を行うことが可能となる。
図8は、本実施形態に係わるJOGモードを説明するフローチャートである。
先ず、ステップS30において、演算部20は、受付部32よりJOGモードの選択を受け付ける。
次に、ステップS32において、演算部20は、指示体位置検出部12によりロボット6が移動する座標系の選択を検出する。
次に、ステップS34において、演算部20は、受付部32より作業空間30の高さの指定を受け付ける。
次に、ステップS36において、演算部20は、JOGモード終了を判断する。NOの場合は、ステップS32に戻る。YESの場合は、JOGモードを終了する。
図9は、本実施形態に係るロボットシステム2の斜視図である。
作業領域30に指示体24により、例えば、「1st、2nd、3rd、・・・」と記入していくと、その順にロボット6が移動する教示が行える。記入した記号や文字で動作教示が行えるようにしてもよい。特定の文字列を記述すると予め定めた動作をするようにしてもよい。例えば、一般的なジョグ動作、ハンドを開く・閉じる、アームを初期姿勢に移動する、カメラで撮影する、サーボオフする、サーボオンする、などである。
図10は、本実施形態に係るロボットシステム2の斜視図である。
作業環境を投影して、次回以降の環境再現を用意する。一つのロボット6及び一つの作業領域30で、複数の作業をさせるような場合(今週は作業A、来週は作業B、再来週は作業Aのような・・・)、それぞれの作業で使用する治具46や部品48を設置する場所は毎回同じ位置に設置したい。そうした場合、教示時の環境を撮影しておき、次回以降にその映像を投影して、同じ位置に治具46や部品48を設置することにより、採寸などの必要がなく、環境を簡単に再現できる。
図11は、本実施形態に係るロボットシステム2の斜視図である。
ロボット6の動作する方向や、次に移動する先、ロボットアームの通過する最外殻50、画像処理などによる物体の検出結果などを画像投影部10で投影する。
一見、ロボット6を外から見ているだけではロボット6が次にどのような動作をするかわからない。また、ユーザーの腕とロボットアームは、構造が異なるため、ロボット6が次にどこに移動するのかわかっていても、想像していた経路ではなく思わぬ方向に関節が張り出すようなことがある。予想外の動作をした場合、周辺物とユーザーなどとの衝突を防ぐために緊急停止ボタンなどでロボット6を停止させることがある。しかし、実際はユーザーがロボット6の動作を予測できなかっただけで、ロボット6の動作としては正しい場合もあり、そのような場合にロボット6を停止させていては作業効率が上がらない。これによれば、教示データを元にロボット6を動作させる際には、ロボット6の軌跡や次に移動するポイント等に記号等を表示することができる。
図12は、本実施形態に係るロボットシステム2の斜視図である。
また、ビジョンの検出結果から物体をロボット6が取りにいくような場合に、それを見ているユーザーが実空間で正しく検出できたのかそうでないのかを、ロボット6が動作する前に判断したい。そこで、図12に示すように、ロボット6の動作する方向や次に移動する先、ロボットアームの通過する最外殻、画像処理などの物体の検出結果52などを画像投影部10で投影することで、ロボット6を見ている人がロボット6の動作や正しい検出が行えているのかを認識することができるようになる。
従来のロボットの教示作業において、1.ティーチングペンダントを使った教示では、操作が煩雑であり、ロボットを意図通りに動かして教示するには習熟が必要であった。2.シミュレーター上で教示する場合において、実空間とは異なるディスプレイ上で教示を行うため、習熟が必要であった。3.ダイレクトティーチングにおいても、ロボットが作業を行わない非作業空間や、ロボットが動作速度を遅くする領域を指定することが困難であった。
本実施形態によれば、作業領域30に入力させる画像を投影し、指示体24の位置を検出して入力することができる。これにより、実際のロボット6の作業領域30で直接教示することができる。その結果、ロボット6の動作を直感的に教示することができる。
なお、実施形態は上記に限定されず、以下のような形態で実施することもできる。
図13は、変形例のロボットシステム2の斜視図である。
上記した実施形態において、教示装置4の指示体位置検出部12により指示体24を検出したが、これに限定されず、例えば、図11のように教示装置4に指示体位置検出部12を含まない構成であってもよい。また、図13に示すように、タッチユニット54を設けて指示体24を検出してもよい。タッチユニット54は、撮像装置であってもよいし、赤外線を投影して、その反射を検出するセンサであってもよく、指示体24の位置を検出するものであれば、その検出原理を限定するものではない。
また、インタラクティブプロジェクターの機能を用いてロボット6の教示を行ってもよい。インタラクティブプロジェクターのホワイトボード機能(電子黒板機能)を用いてロボット6の教示を行ってもよい。例えば、教示装置4は、投射面22に対する法線方向Sの距離であるZ座標の入力を、受付部32の代わりに、画像投影部10により作業領域30に入力させる画像を投影し、画像投影部10がホワイトボードモードの動作により指示体24の位置を検出して入力をさせ、入力された情報をZ座標としてもよい。
以上、本発明の教示装置、ロボット、及びロボットシステムを、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、他の任意の構成物が付加されていてもよい。
2…ロボットシステム 4…教示装置 6…ロボット 8…ロボット制御装置 10…画像投影部 12…指示体位置検出部 14…画像生成部 20…演算部 22…投射面 24…指示体 30…作業領域(作業空間) 32…受付部 40…軌跡 42…領域 44…ツールボックス(操作画像) 46…治具 48…部品 50…最外殻 52…検出結果 54…タッチユニット。

Claims (7)

  1. ロボットの動作を教示する教示装置であって、
    前記ロボットの作業空間に含まれる投射面に画像を投射する画像投影部と、
    前記投射面に対する指示体の位置を検出する指示体位置検出部と、
    前記指示体位置検出部により検出された前記指示体の位置に基づき前記画像を生成又は更新する画像生成部と、
    前記指示体の位置に基づいて前記ロボットの動作を教示する教示点を演算する演算部と、
    を有し、
    前記投射面に対する法線方向の距離であるZ座標の入力を受け付ける受付部を有し、
    前記演算部は、前記教示点と前記教示点に対応した前記Z座標に基づいて空間教示点を演算し、複数の前記教示点と、複数の前記空間教示点と、によって囲まれた領域を、前記ロボットの非作業領域として、前記空間教示点に基づいて前記ロボットの動作を教示することを特徴とする教示装置。
  2. 請求項1に記載の教示装置において、
    前記指示体位置検出部は、前記指示体の位置の変化を表す軌跡を取得し、
    前記演算部は、前記軌跡に沿って、複数の前記教示点を生成することを特徴とする教示装置。
  3. 請求項1又は2に記載の教示装置において、
    前記画像生成部は、複数の前記教示点によって囲まれた領域に、前記ロボットの操作を示す操作画像が投射されるように画像を生成し、
    前記演算部は、前記操作画像が示す操作に基づいて前記ロボットの動作を教示することを特徴とする教示装置。
  4. 請求項に記載の教示装置において、
    前記操作画像は、前記ロボットの位置及び姿勢を一定量変化させる操作を示すことを特徴とする教示装置。
  5. 請求項3又は4に記載の教示装置において、
    前記操作画像は、前記ロボットのモーターの励磁状態を変更する操作を示すことを特徴とする教示装置。
  6. ロボットの動作を教示する教示装置であって、
    前記ロボットの作業空間に含まれる投射面に画像を投射する画像投影部と、
    前記投射面に対する指示体の位置を検出する指示体位置検出部と、
    前記指示体位置検出部により検出された前記指示体の位置に基づき前記画像を生成又は更新する画像生成部と、
    前記指示体の位置に基づいて前記ロボットの動作を教示する教示点を演算する演算部と、
    を有し、
    前記投射面に対する法線方向の距離であるZ座標の入力を受け付ける受付部を有し、
    前記演算部は、前記教示点と前記教示点に対応した前記Z座標に基づいて空間教示点を演算し、複数の前記教示点と、複数の前記空間教示点と、によって囲まれた領域を、前記ロボットの移動速度制限領域として、前記空間教示点に基づいて前記ロボットの動作を教示することを特徴とする教示装置。
  7. 請求項1~6のいずれかに記載の教示装置と、
    ロボット制御装置と、
    を含む、ロボットを制御するためのシステムであって、
    前記ロボット制御装置は、当該教示装置に接続されて、前記教示点若しくは前記空間教示点を受け付けて前記ロボットを制御することを特徴とする、システム。
JP2018008603A 2018-01-23 2018-01-23 教示装置、及びシステム Active JP7035555B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018008603A JP7035555B2 (ja) 2018-01-23 2018-01-23 教示装置、及びシステム
US16/253,610 US11123863B2 (en) 2018-01-23 2019-01-22 Teaching device, robot control device, and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018008603A JP7035555B2 (ja) 2018-01-23 2018-01-23 教示装置、及びシステム

Publications (2)

Publication Number Publication Date
JP2019126861A JP2019126861A (ja) 2019-08-01
JP7035555B2 true JP7035555B2 (ja) 2022-03-15

Family

ID=67299643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018008603A Active JP7035555B2 (ja) 2018-01-23 2018-01-23 教示装置、及びシステム

Country Status (2)

Country Link
US (1) US11123863B2 (ja)
JP (1) JP7035555B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7035555B2 (ja) * 2018-01-23 2022-03-15 セイコーエプソン株式会社 教示装置、及びシステム
AU2020309946A1 (en) 2019-07-08 2022-03-03 Daiichi Sankyo Company, Limited Method for producing insulin-producing cell using dihydroindolizinone derivatives
WO2025009420A1 (ja) * 2023-07-05 2025-01-09 パナソニックIpマネジメント株式会社 制御装置、情報処理装置及び方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000288432A (ja) 1999-03-31 2000-10-17 Tokico Ltd 塗装ロボット
JP2004209641A (ja) 2002-12-30 2004-07-29 Abb Res Ltd 工業ロボットをプログラミングするための方法およびシステム
US20050149231A1 (en) 2004-01-05 2005-07-07 John Pretlove Method and a system for programming an industrial robot
JP2014136275A (ja) 2013-01-16 2014-07-28 Yaskawa Electric Corp ロボット教示システム、ロボット教示プログラムの生成方法および教示ツール
JP2016013607A (ja) 2014-07-03 2016-01-28 川崎重工業株式会社 ロボットへの動作指示システム及び動作指示方法
JP2016186672A (ja) 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
JP2016186668A (ja) 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクター、インタラクティブプロジェクションシステム、及び、インタラクティブプロジェクターの制御方法
JP2017148908A5 (ja) 2016-02-25 2019-02-28

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4380696A (en) * 1980-11-12 1983-04-19 Unimation, Inc. Method and apparatus for manipulator welding apparatus with vision correction for workpiece sensing
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
JP2955654B2 (ja) * 1998-02-23 1999-10-04 工業技術院長 マニピュレータ作業教示装置
JP3165824B2 (ja) 1999-09-02 2001-05-14 経済産業省産業技術総合研究所長 情報共有装置、その情報提示方法および記録媒体
US6587752B1 (en) * 2001-12-25 2003-07-01 National Institute Of Advanced Industrial Science And Technology Robot operation teaching method and apparatus
NO317898B1 (no) * 2002-05-24 2004-12-27 Abb Research Ltd Fremgangsmate og system for a programmere en industrirobot
SE525108C2 (sv) * 2002-12-30 2004-11-30 Abb Research Ltd Metod och system för programmering av en industrirobot, datorprogramprodukt, datorläsbart medium samt användning
EP1633534B1 (en) * 2003-04-28 2018-09-12 Nikon Metrology NV Cmm arm with exoskeleton
DE10354642A1 (de) * 2003-11-22 2005-06-16 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zum Programmieren eines Industrieroboters
SE526119C2 (sv) * 2003-11-24 2005-07-05 Abb Research Ltd Metod och system för programmering av en industrirobot
US20100222925A1 (en) * 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
US8792688B2 (en) * 2007-03-01 2014-07-29 Titan Medical Inc. Methods, systems and devices for three dimensional input and control methods and systems based thereon
JP4844453B2 (ja) * 2007-04-09 2011-12-28 株式会社デンソーウェーブ ロボットの教示装置及び教示方法
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
CA2797302C (en) * 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US8996174B2 (en) * 2012-06-21 2015-03-31 Rethink Robotics, Inc. User interfaces for robot training
US9142019B2 (en) * 2013-02-28 2015-09-22 Google Technology Holdings LLC System for 2D/3D spatial feature processing
US20150002734A1 (en) * 2013-07-01 2015-01-01 Motorola Mobility Llc Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor
JP5975010B2 (ja) * 2013-10-17 2016-08-23 株式会社安川電機 ティーチングシステムおよびティーチング方法
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US9840003B2 (en) * 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
KR20170073798A (ko) * 2015-12-18 2017-06-29 삼성전자주식회사 반송 로봇 및 그 제어 방법
JP6816364B2 (ja) * 2016-02-25 2021-01-20 セイコーエプソン株式会社 制御装置、ロボット、及びロボットシステム
TWI581731B (zh) * 2016-05-05 2017-05-11 Solomon Tech Corp Automatic shopping the method and equipment
CA3071332A1 (en) * 2017-07-25 2019-01-31 Mbl Limited Systems and methods for operations a robotic system and executing robotic interactions
JP7035555B2 (ja) * 2018-01-23 2022-03-15 セイコーエプソン株式会社 教示装置、及びシステム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000288432A (ja) 1999-03-31 2000-10-17 Tokico Ltd 塗装ロボット
JP2004209641A (ja) 2002-12-30 2004-07-29 Abb Res Ltd 工業ロボットをプログラミングするための方法およびシステム
US20050149231A1 (en) 2004-01-05 2005-07-07 John Pretlove Method and a system for programming an industrial robot
JP2014136275A (ja) 2013-01-16 2014-07-28 Yaskawa Electric Corp ロボット教示システム、ロボット教示プログラムの生成方法および教示ツール
JP2016013607A (ja) 2014-07-03 2016-01-28 川崎重工業株式会社 ロボットへの動作指示システム及び動作指示方法
JP2016186672A (ja) 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクター及びインタラクティブプロジェクションシステム
JP2016186668A (ja) 2015-03-27 2016-10-27 セイコーエプソン株式会社 インタラクティブプロジェクター、インタラクティブプロジェクションシステム、及び、インタラクティブプロジェクターの制御方法
JP2017148908A5 (ja) 2016-02-25 2019-02-28

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
古川大介 他,ガイドロボットのための情報投影提示インタフェースの検討 第2報爪先検出手法の改善,第30回日本ロボット学会学術講演会予稿集DVD-ROM 2012年,日本,2012年09月17日
齋藤渉 他,人間共存型ロボットの操作手法に関する研究(第11報),ロボティクス・メカトロニクス講演会 ’11 講演論文集,日本,一般社団法人日本機械学会,2011年05月26日

Also Published As

Publication number Publication date
US20190224842A1 (en) 2019-07-25
US11123863B2 (en) 2021-09-21
JP2019126861A (ja) 2019-08-01

Similar Documents

Publication Publication Date Title
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
US9415509B2 (en) Robot teach device with 3-D display
EP0792726B1 (en) Teach pendant
US20190202058A1 (en) Method of programming an industrial robot
EP2923806A1 (en) Robot control device, robot, robotic system, teaching method, and program
US20050251290A1 (en) Method and a system for programming an industrial robot
US20180178389A1 (en) Control apparatus, robot and robot system
US20180178388A1 (en) Control apparatus, robot and robot system
Huy et al. See-through and spatial augmented reality-a novel framework for human-robot interaction
JP7035555B2 (ja) 教示装置、及びシステム
CN108981567B (zh) 位置测量装置的操作方法
CN115803155A (zh) 编程装置
JP6625266B1 (ja) ロボット制御装置
Dinh et al. Augmented reality interface for taping robot
KR102403021B1 (ko) 로봇 교시 장치 및 이를 이용한 로봇 교시 방법
WO2022163590A1 (ja) 教示装置
JP7068416B2 (ja) 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
US20240256229A1 (en) Program creation device
US20230330847A1 (en) Method and System for Training a Robot
WO2024028977A1 (ja) 教示装置
JP2023180509A (ja) マーカ位置登録プログラム、マーカ位置登録装置、マーカ位置登録方法及びその方法に用いるマーカ
RS et al. Artificial Intelligence in the Future of Mocobot Camera in Film Making and Camera Control by Voice Command
JP2025014356A (ja) オフラインダイレクトティーチング装置
JP2024025076A (ja) マーカ位置登録装置、マーカ位置登録プログラム及びマーカ位置登録方法
JP2023017441A (ja) 画像処理装置

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180910

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190920

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210924

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R150 Certificate of patent or registration of utility model

Ref document number: 7035555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150