JP2012030320A - 作業システム、作業ロボット制御装置および作業プログラム - Google Patents
作業システム、作業ロボット制御装置および作業プログラム Download PDFInfo
- Publication number
- JP2012030320A JP2012030320A JP2010171866A JP2010171866A JP2012030320A JP 2012030320 A JP2012030320 A JP 2012030320A JP 2010171866 A JP2010171866 A JP 2010171866A JP 2010171866 A JP2010171866 A JP 2010171866A JP 2012030320 A JP2012030320 A JP 2012030320A
- Authority
- JP
- Japan
- Prior art keywords
- work
- tray
- imaging
- trays
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
- 238000003384 imaging method Methods 0.000 claims description 144
- 238000003860 storage Methods 0.000 claims description 20
- 238000000034 method Methods 0.000 abstract description 31
- 230000036544 posture Effects 0.000 abstract description 21
- 230000008569 process Effects 0.000 abstract description 12
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000000712 assembly Effects 0.000 description 3
- 238000000429 assembly Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 108010076504 Protein Sorting Signals Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009469 supplementation Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】各トレイ上の部品の位置等が変更されても、効率的にその部品を認識して作業動作を実行できる作業システムを提供することを目的とする。
【解決手段】この作業システムは、移動可能に配置された複数のトレイ4を、低空間分解能・広視野の画像上で認識した後、高空間分解能・狭視野の画像処理を行うことで、トレイ4に載置される部品3を特定し、トレイ4の配置位置を認識する。トレイ認識段階では低空間分解能であるため大量の画像処理を必要とせず、また部品認識段階では狭視野であるため大量の画像処理を必要としない。よって、当該トレイ4に載置される部品3の3次元位置・姿勢を効率的に認識できる。この2段階の画像認識によって、作業ロボット2による作業動作を効率的に行うことができる。
【選択図】図3
【解決手段】この作業システムは、移動可能に配置された複数のトレイ4を、低空間分解能・広視野の画像上で認識した後、高空間分解能・狭視野の画像処理を行うことで、トレイ4に載置される部品3を特定し、トレイ4の配置位置を認識する。トレイ認識段階では低空間分解能であるため大量の画像処理を必要とせず、また部品認識段階では狭視野であるため大量の画像処理を必要としない。よって、当該トレイ4に載置される部品3の3次元位置・姿勢を効率的に認識できる。この2段階の画像認識によって、作業ロボット2による作業動作を効率的に行うことができる。
【選択図】図3
Description
本発明は作業システム、作業ロボット制御装置および作業プログラムに関し、特に複数のトレイに載置された部品を用いて作業動作する作業ロボット、およびその制御に関する。
作業ロボットを用いて製品を生産するシステム(例えばライン生産やセル生産等。以降、作業システム)では、作業ロボットに対し適切に作業指示を与え、作業ロボットは当該作業指示に従って製品の生産を行う。
例えば特許文献1では、作業対象物の物体モデルと、それら作業対象物に対応する作業モデルとを予め記憶しておき、ロボットが画像認識した作業対象物を記憶した物体モデルと照合し、対応する作業モデルを選択してロボットに作業させている。
また、特許文献2では、作業対象物の認識に際し、予めマークを撮像し、作業対象物の3次元位置を修正および調整している。このようにして、作業対象物の3次元位置を把握しながら作業を行っている。
また、特許文献3のように、作業対象物の認識に際し、ランダムに積まれた作業対象物を一つずつ取り出して作業エリアに置き、その3次元位置・姿勢を認識することで画像解析を簡易にしているものもある。また、特許文献4のように、複数の作業ロボットにより作業を行う際に、作業信頼度に応じて作業ロボット間の作業計画を変更し、作業の効率化を図るものもある。
作業システムにおける作業ロボットの動作には、例えばシステムが置かれた工場内の環境や生産される個別の製品に合わせて、作業対象の3次元位置等が適切に教示される必要があり、それに応じて動作が適切に制御される必要がある。
一方、製品の生産のために必要な部品の供給は、その部品が予め定められた3次元位置に配置され、その部品を載置する容器であるトレイ等も既定の配置位置に設置されて行われることが前提となり、部品の3次元位置・姿勢に関して作業ロボットに予め教示されていることで、作業ロボットは部品を把持し、それらを組み合わせること等の動作ができる。
供給された部品を組み合わせた後も、組み合わせて作成された中間組立品の置き場所等を予め作業ロボットに教示しておくことで、さらに部品を組み合わせて製品を生産できる。
このような作業システムでは、部品、それらを組み合わせた中間組立品の3次元位置・姿勢等が一定であることが必要とされており、例えば、工程中にそれらの3次元位置・姿勢等の変化が許容範囲を超えると作業対象物を把握できなくなり、システム全体が一時停止し人の手により復旧作業をしなければならない等の問題があった。部品を載置するトレイ等も、作業ロボットが認識できるように予め決められた配置位置への正確な位置決めが必要とされており、部品の補充等によりトレイ等の3次元位置・姿勢が変化した場合には、その度に正確な位置決めをしなおし、作業ロボットのティーチングを行う必要があった。
また、位置決めをせずに部品の3次元位置・姿勢を認識しようとする場合には、作業エリア全体を撮像してその中から部品を発見するとともに、その部品の3次元的な位置(3次元位置)および3次元位置・姿勢を画像処理によって認識することが必要である。それにあたって、認識精度を向上させるために、作業エリア全体にわたって空間的に高い分解能で撮像および画像処理を行うと、認識の完了までに長時間を要するという問題があった。
本発明は上記のような問題を解決するためになされたものであり、部品の3次元位置・姿勢が変更されても、効率的にその部品の3次元位置・姿勢を認識し作業動作ができる作業ロボットシステムおよびその関連技術を提供することを目的とする。
請求項1の発明である作業システムは、所定の作業エリア内に移動可能に配置された複数のトレイから作業対象となる部品を取り出し、前記部品を用いて所定の作業を行う作業システムであって、各トレイとそれに載置される各部品の種類との対応関係を示すトレイ対応データを記憶する対応記憶手段と、前記作業エリア内に存在する前記複数のトレイを、比較的広視野で集合的に撮像する第1撮像モードと、前記複数のトレイを比較的狭視野で個別的に撮像する第2撮像モードとを有する撮像部と、前記撮像部による前記第1撮影モードでの撮像結果に基づいて、比較的低い空間分解能の第1画像処理を行い、各トレイの識別とその配置位置の特定とを行う第1認識手段と、特定された各トレイの配置位置に応じて前記撮像部による撮像方向を変更しつつ、トレイごとに当該トレイに載置された部品を第2撮影モードで前記撮像部に撮像させる撮像制御手段と、前記トレイ対応データに基づいて各トレイ上の部品の種類を限定しつつ、前記第2撮像モードでの各部品の撮像結果に基づいて、比較的高い空間分解能の第2画像処理を行うことによって、各トレイ上の各部品の3次元位置・姿勢を認識する第2認識手段と、3次元位置・姿勢が特定された各トレイ上の各部品に所定の順序でアクセスし、各部品を用いて所定の作業を行う作業ロボットとを備えることを特徴とする。
請求項2の発明は、請求項1に記載の作業システムであって、前記所定の作業に実行中に割り込みを行って前記所定の作業を中断させ、各トレイ上の各部品の3次元位置・姿勢の認識を再度実行させてから前記所定の作業を再開する割り込み制御手段をさらに備えることを特徴とする。
請求項3の発明は、請求項1または2に記載の作業システムであって、前記撮像部は、前記作業ロボットに付設されていることを特徴とする。
請求項4の発明は、請求項1〜3のいずれかに記載の作業システムであって、前記撮像部は、前記第1撮像モードでの撮像を行う第1撮像部と、撮像位置および撮像方向が可変であって、前記第2撮像モードでの撮像を行う第2撮像部と備えることを特徴とする。
請求項5の発明は、請求項4に記載の作業システムであって、前記作業ロボットは、前記部品を保持するハンド部がその一端に連結された可動の腕部を備え、前記第2撮像部は、前記腕部に付設されることを特徴とする。
請求項6の発明は、請求項1〜5のいずれかに記載の作業システムであって、前記対応記憶手段は、前記部品ごとに予め設定された作業内容を指示する、作業データをさらに記憶し、前記作業ロボットは、特定された前記部品および前記作業データに基づいて、当該部品についての作業を実行することを特徴とする。
請求項7の発明は、請求項1〜6のいずれかに記載の作業システムであって、前記対応記憶手段は、前記部品ごとの3次元形状を示す、部品形状データをさらに記憶し、前記第2認識手段は、特定した前記部品および前記部品形状データに基づいて、当該部品の3次元位置・姿勢を認識することを特徴とする。
請求項8の発明は、請求項1〜7のいずれかに記載の作業システムであって、前記対応記憶手段は、前記トレイごとの3次元形状を示す、トレイ形状データをさらに記憶し、前記第1認識手段は、前記第1撮像モードで撮像した前記トレイの画像および前記トレイ形状データに基づいて、当該トレイの配置位置を認識することを特徴とする。
請求項9の発明は、請求項1〜8のいずれかに記載の作業システムであって、前記複数のトレイのうち少なくとも一部のトレイは、複数種の部品を載置可能であることを特徴とする。
また、請求項10の発明である作業ロボット制御装置は、所定の作業エリア内に移動可能に配置された複数のトレイから作業対象となる部品を取り出し、前記部品を用いて所定の作業を行う作業ロボット制御装置であって、前記作業エリア内に存在する前記複数のトレイを、比較的広視野で集合的に撮像する第1撮像モードと、前記複数のトレイを比較的狭視野で個別的に撮像する第2撮像モードとを有する撮像部が前記作業ロボットに付随しており、前記制御装置が、各トレイとそれに載置される各部品の種類との対応関係を示すトレイ対応データを記憶する対応記憶手段と、前記撮像部による前記第1撮影モードでの撮像結果に基づいて、比較的低い空間分解能の第1画像処理を行い、各トレイの識別とその配置位置の特定とを行う第1認識手段と、特定された各トレイの配置位置に応じて前記撮像部による撮像方向を変更しつつ、トレイごとに当該トレイに載置された部品を第2撮影モードで前記撮像部に撮像させる撮像制御手段と、前記トレイ対応データに基づいて各トレイ上の部品の種類を限定しつつ、前記第2撮像モードでの各部品の撮像結果に基づいて、比較的高い空間分解能の第2画像処理を行うことによって、各トレイ上の各部品の3次元位置・姿勢を認識する第2認識手段と、3次元位置・姿勢が特定された各トレイ上の部品を取り出して所定の作業を行う動作指令を作業ロボットに与える動作指令手段とを備えることを特徴とする。
また、請求項11の発明は、請求項10の発明に対応するプログラム発明である。
請求項1〜11の発明によれば、複数のトレイの識別およびその配置位置を認識し、さらにトレイとトレイに載置される部品との対応関係を参照することにより、複数のトレイが移動し載置される部品の3次元位置・姿勢が変化する場合であっても、認識したトレイの配置位置に基づいて載置された部品を効率的に把握することで、部品の3次元位置・姿勢を認識し、作業ロボットにより部品を用いた作業動作を行うことができる。
そして、トレイを集合的に撮像して各トレイの認識を行う第1画像処理では広視野かつ低空間分解能とされ、トレイを個別的に撮像してその中の部品の認識を行う第2画像処理では狭視野かつ高空間分解能としているため、過剰なデータ処理が不要となる。広視野かつ高空間分解能で1段階画像処理を行う場合と比較して、この発明の2段階処理ではデータ量が少なくなるために処理時間が短縮され、効率が高い。
特に請求項2の発明によれば、トレイまたはトレイ上の部品の状況が変化したときに割り込み処理によって部品の位置の再認識を行うため、トレイや部品の搬入・搬出のほか、不慮の位置ずれなどが生じたときにも、古い位置データを使用して誤った作業を続行することを防止することが可能となる。
特に請求項4、5の発明によれば、トレイを撮像する第1撮像部と部品を撮像する第2撮像部とを備え、第2撮像部は作業ロボットの腕部に備えられることにより、撮像対象の役割分担ができ、また第2撮像部は腕部の動作に従って移動することができるので、部品を効率的に撮像できる。
特に請求項9の発明によれば、1つのトレイに複数種の部品を載置することにより、例えば工程段階ごとに部品をトレイに割り当て、工程の進行状況が視覚的に確認することが可能となるので、部品の補充等のタイミングの調整等に適している。
<A.システム構成>
図1は、本発明の第1実施形態にかかる作業システムWSの構成を概念的に示す平面図である。図1に示すように作業システムWSは、作業エリア1内に、移動可能に分布して水平配置された複数のトレイ4と、作業エリア1内において作業動作を行う作業ロボット2とを備える。また複数のトレイ4には、部品組み立ての作業動作に用いられる複数の部品3が所定の規則で各トレイ4に振り分けて載置されている。
図1は、本発明の第1実施形態にかかる作業システムWSの構成を概念的に示す平面図である。図1に示すように作業システムWSは、作業エリア1内に、移動可能に分布して水平配置された複数のトレイ4と、作業エリア1内において作業動作を行う作業ロボット2とを備える。また複数のトレイ4には、部品組み立ての作業動作に用いられる複数の部品3が所定の規則で各トレイ4に振り分けて載置されている。
複数のトレイ4は、たとえば、後述する図2にも示されているように、部品3が載置される天板部分が複数の脚部によって支持されるとともに、トレイ4が床面上を移動可能となるように各脚部の下端に車輪等を備えたものであってもよい。後述するように、各トレイ4上とその上に載置される部品3との対応関係はあらかじめ定められているが、各トレイ4上における各部品3の位置や姿勢については任意である。すなわち、いわゆる「ばら状態」で部品3がトレイ4上に載置されるものであり、部品3をトレイ4上に高精度で位置決めされる必要はない。また、複数のトレイ4の配置も図1の場合に限られず、様々な配置のバリエーションが可能である。さらに、トレイ4に載置された部品3は、作業ロボット2による作業動作の進行によって適宜に外部から補充等が可能である。
図1では、それぞれのトレイ4に載置される部品3は単一種となっているが、数種の部品がひとつのトレイ4に混在している場合があってもよい。また、トレイの総数も固定ではなく、作業内容に応じて可変である。
作業ロボット2は、トレイ4に載置されている部品3を用いて作業動作する。例えば複数の部品3をそれぞれトレイ4から取り出し、互いを組み合わせて製品またはその中間組立品を生成し、生成した組立体を作業エリア1内の所定の場所に載置する。載置する場所は専用の場所であってもよく、空のトレイ4や、その時点で載置されている部品3が少ないトレイの空き部分であってもよい。
図1においては、作業ロボット2が組み立て作業を行う組み立てエリア11として所定のテーブルが備えられている。この組み立てエリア11は、たとえば第1部品をその上に載置して作業ロボット2の一方のハンド部H(図2、図3参照)で把持して固定し、他方のハンド部Hで第2部品を第1部品に組み付けるような用途として使用される。第1部品を載置せずに作業ロボット2の両ハンド部H上(つまり空中)での組み立てが可能な作業の場合には、当該組み立てエリア11は特に備えられていなくともよい。また、組み立てエリア11が備えられない場合には、後述する全体認識作業によって作業エリア1内において空いているスペースを見出し、そこで作業動作をするようにしてもよい。
組み立てエリア11としてテーブル等を用いる場合には、組み立て作業がしやすいように、組み立てエリア11にて部品3の姿勢を適宜変更することも可能である。
図2は、本発明の第1実施形態にかかる作業ロボット2を示す図である。図1においては当該作業ロボット2を上面から見ていることになる。
図2に示すように作業ロボット2は、撮像部として全体カメラ5とステレオカメラ6(6A、6B)とを備えており、これら全体カメラ5、ステレオカメラ6はデジタルカメラであって、画素ごとの画像情報をデジタル信号列として出力する。
図2においては例として、全体カメラ5は作業ロボット2の頭部に付設され、ステレオカメラ6(6A、6B)は作業ロボット2の2つの腕部7(7A、7B)にそれぞれ付設されている。全体カメラ5が付設されたロボット頭部は首部を介して作業ロボット2の筐体(基台)と可動に連結されており、首部の水平旋回と鉛直方向への伸縮とによって、全体カメラ5の視野方向(撮像方向)を変化させることができる。ステレオカメラ6の付設位置は、作業ロボット2の腕部7に限られるものではなく、ハンド部Hに付設してもよい。ステレオカメラ6がハンド部Hの指の構造に対して十分小さい場合は、ハンド部Hの指に付設してもよい。ハンド部Hに付設する場合、ハンド部Hに例えば人間の手の甲に相当する部位があれば、その部位に付設すればよい。このようにすることで、ステレオカメラ6をより撮像対象物に近接させることができるという効果がある。
一対のステレオカメラ6A、6Bのそれぞれは撮像位置および視野方向(撮像方向)を個別に変化させることが可能であるが、それは、各ステレオカメラ6A、6Bが固定されている腕部7A、7Bの動きに伴って生じる動きである。各ステレオカメラ6A、6Bからの画像を取得することで、撮影対象物の3次元位置情報を得ることができる。作業エリア1内の任意の部分を撮像可能であれば、ステレオカメラ6は1台でもよい。
第1撮像部としての全体カメラ5は、広い視野を確保し、作業エリア1内の複数のトレイ4の配置位置を認識するための広視野(広画角)カメラである。第2撮像部としてのステレオカメラ6は、全体カメラ5より視野は狭いが、作業ロボット2に備えられた腕部7の稼働に合わせて移動し、トレイ4に載置された部品3の3次元位置・姿勢を認識するための狭視野(狭画角)カメラである。ここで3次元位置・姿勢とは、対象体の空間位置および空間姿勢の少なくとも一方(典型的には双方)を含む座標値の組として定義されるものである。全体カメラ5の視野がステレオカメラ6の視野よりも広いという条件を、以下では「視野条件」と呼ぶ。
全体カメラ5およびステレオカメラ6のそれぞれの撮像画素数は、同じであってもよく、互いに異なっていてもよい。ただし、全体カメラ5は作業エリア1を比較的広視野で撮像した際の撮像結果(広視野画像)と、ステレオカメラ6によってそれぞれのトレイ4を比較的狭視野で撮像した際の撮像結果(狭視野画像)との間で比較したときには、全体カメラ5の空間分解能よりもステレオカメラ6の空間分解能の方が高くなる(より小さな距離を区別できる)ように、それぞれのカメラでの撮像素子数と光学系とが決定されている。このような「広視野画像の空間分解能を、狭視野画像の空間分解能よりも小さくする」という条件を、以下では「空間分解能条件」と呼ぶが、ここにおける「空間分解能」とは、撮像された画像中の1画素に対応する実空間での距離の大小を示し、「空間分解能が高い」とは、実空間での短い距離が画素配列上で区別可能であるという意味で定義する。
たとえば、撮像された画像での1画素が実空間での3mmに相当する場合と、1画素が実空間での1mmに相当する場合とでは、後者の方が空間分解能が高い。
全体カメラ5およびステレオカメラ6のそれぞれの撮像素子数が同じ場合でも、全体カメラ5は比較的遠距離から対象物を撮像するからその空間分解能は低くなり、ステレオカメラ6は比較的近距離から対象物を撮像するからその空間分解能は高くなるため、空間分解能条件を満たす。カメラのそれぞれの撮像画素数が同じであってもよいのは、そのような理由による。また、全体カメラ5の撮像画素数よりもステレオカメラ6の撮像画素数を多くすれば、撮像対象物の遠近の違いによって、上記のような空間分解能条件は自動的に満たされる。
さらに、全体カメラ5での撮像そのものは画素数が多い撮像素子を用いて行い、後の画像認識の段階で画素間引きなどを行うことによって演算対象となる画素数を制限すれば、実質的に「低い空間分解能」での処理を行ったことと等価となり、画像認識に要する時間も、全体を通して高い空間分解能で処理を行った場合よりも短くなる。したがって、空間分解能条件は、撮像後における対象物の認識の段階で達成されていればよく、必ずしも最初の撮像段階から満足されていなくてもよいことになる。
全体カメラ5はトレイ4の識別と配置位置の認識に使用され、ステレオカメラ6は各トレイ4内での部品3の3次元位置・姿勢の認識に使用される。
このうち、全体カメラ5を用いた画像認識は一度に広い範囲を撮像することが必要であるから「広視野」とされるが、トレイサイズでの認識ができれば十分であるために低い空間分解能とされる。
他方、ステレオカメラ6を用いた画像認識は各トレイ4内での部品3の認識を行うためには高い空間分解能で行う必要はあるが、各時点ではひとつのトレイ4が視野(画角)内に入れば十分であるため、狭視野にとどめる。
このように、全体カメラ5とステレオカメラ6とでそれぞれの役割を分担させることにより、画像認識全体に要する全体時間を削減し、作業効率を向上させることができる。
比較例として、広視野かつ高空間分解能の1つのステレオカメラを用いて、作業エリア1の全体を一括して撮像し、その撮像結果を用いてトレイ4の認識だけでなく各トレイ4内の部品3の認識までも行う場合を考える。この場合には、作業エリア1のうちトレイ4が配置されていないスペースまでも高い空間分解能で撮像して画像処理を行うことになるため、それぞれの演算量は大きくなり、処理時間も長時間となる。これに対して本実施形態のシステムWSでは、細かな画像処理を必要としないエリアについては画像処理を簡素化しているため、画像認識の精度を落とすことなく、演算量や処理時間を削減可能である。
もっとも、これら2つの段階の撮像および画像認識の機能を、作業ロボット2のいずれかの部分に備えられた1つのカメラ(図示せず)で賄うことも可能である。すなわち、全体カメラ5での撮像結果の解析結果によって特定された各トレイ4の方向にステレオカメラ6の撮影方向を順次に変化させて各トレイ4上の部品の画像認識を行うから、このプロセス中には、全体カメラ5とステレオカメラ6とで同時に撮像を行うことを必要としない。したがって、1台の多焦点カメラないしはズームカメラを用いて、全体撮像の段階では広視野撮像を行い、各トレイ4の個別撮像の段階では狭視野撮影を行えば、実質的に全体カメラ5とステレオカメラ6とを用いて、視野条件と空間分解能条件との双方を満足させることができる。ただし、その場合には、ステレオカメラ6の機能で視野を移動させること必要となることに対応して、当該1台の共用カメラは、その撮像方向が変更できるように、それ自身に可動機構を設けるか、あるいは図2と同様に作業ロボットの可動部分に付設しておく。
また、図2において腕部7(7A、7B)は双腕であり、左右の腕部7A、7Bを連動させて部品3を組み合わせる作業ロボット2を示しているが、一方の部品3を固定する等の冶具を準備することにより、片腕の腕部で動作する作業ロボットであってもよい。また、腕部が2本を超える本数であってもよいし、その形状も図に示すものに限られない。
また図3に示すように、全体カメラ5を作業ロボット20には備えず、作業エリア1全体を撮像できるように作業システムWS内の他の箇所に備えられる場合であってもよい。例えば、作業システムWS上部に設置されたレール上を、当該カメラが移動できるようにしてもよい。図3においては全体カメラ5のみが作業ロボット20から分離しているが、第2撮像部としてのステレオカメラ6がそのように備えられていてもよい。なお、図3においては、図2に示すような組み立てエリアは備えられていないが、備えていてもよい。
図4は、本発明の実施形態にかかる作業システムWSの機能ブロック図であり、ハードウエア要素の関係とともに描かれている。
図4に示すようにこの作業システムWSは、作業ロボット2と撮像部12とに通信可能に接続された制御コンピュータCOMを備える。撮像部12は第1撮像部(全体カメラ5)および第2撮像部(ステレオカメラ6)の組み合わせに相当する。作業ロボット2はたとえば多関節ロボットであり、図2および図3で例示したように、複数の可動の腕部(アーム)が連設され、その先端にはワーク(作業対象物)を把持し、あるいはワークの組み付けなどの諸作業に適したハンド部Hが設けられる。ハンド部Hはまた、ネジ締めツールなどのエンドエフェクタ(ロボットの作業ツール)を備えていてもよい。
制御コンピュータCOMは、CPUおよび記憶装置を備えており、この記憶装置にあらかじめ記憶されてインストールされたプログラムを制御コンピュータCOMが実行することにより、各機能手段としての第1認識手段8A(トレイ認識)、第2認識手段8B(部品認識)、対応記憶手段9、撮像制御手段10、動作指令手段200を制御コンピュータCOMのハ−ドウエア資源とソフトウェアとで実現可能である。
全体カメラ5は、作業エリア1内に移動可能に配置された複数個のトレイ4を一括して撮像する第1撮像モードで使用される。第1認識手段8Aは、全体カメラ5による第1撮影モードでのその撮像結果に基づいて第1画像処理を行い、各トレイ4の識別とその配置位置の特定とを行う。
制御コンピュータCOMの記憶装置には、図13に例示するように、各トレイ4を相互に識別するためのトレイ識別データTIと、各トレイ4とそれに載置される各部品3の種類との対応関係を示すトレイ対応データTCとがあらかじめ記憶されている。ただし、図13の例では、これらは、統合されたひとつのテーブルとして作成されている。
これらのうち、トレイ識別データTIは、各トレイ4のトレイ番号とそのトレイの幾何学的な形状データ(トレイ形状データ)とを対応させて登録したデータである。またトレイ対応データTCは、どのトレイ4にどの部品3の種類が載置されるかの対応を示すデータであって、トレイ番号と、そのトレイに載置されることが予定されている各部品の部品番号、およびそれらの部品ごとの幾何学的な形状データ(部品形状データ)が相互に対応させて登録されている。トレイ形状データ、部品形状データは、例えば各点が3次元位置情報を持つ点群データ(モデル点群)である。
各トレイ4の形状は同一ではなく、外観的に相互に識別可能な特徴を持たせて形成されている。ただし、ここにおける「形状」とは幾何学的に相似な形状も別形状として扱う。したがって、各トレイ4の特徴点、たとえば撮像されたトレイ4の各頂点を示す点群のそれぞれの位置と、あらかじめ登録されているモデル点群の位置とを比較することにより、トレイ4の識別と位置の特定とが可能である。また、たとえば、図14のように、トレイ4ごとに異なる形状マーカM1、M2、…をトレイ4のフレームFMの頂部に付しておくことにより、それらのマーカM1、M2等の違いによっても各トレイ4の相互識別が可能である。なお、図14に示すトレイ4のフレームFMには、2次元的な配置方向の識別のために、カット部が非対称に形成されている。
それ以外に、トレイ4ごとに異なる色を付し、あるいはトレイ4ごとに異なるコードのバーコードなどを所定の位置に付すことなどによっても、トレイの相互識別が可能である。図13のテーブルにおけるトレイ形状データは、そのようなトレイの外観的特徴の情報を含むデータである。
このトレイ識別データTIは、第1認識手段8Aの機能の一部をなす。したがって、全体カメラ5によって作業エリア1内の各トレイ4を一括に撮像し、あるいは作業エリア1をいくつかのサブエリアに分けた広視野で撮像して得た情報に基づいて、第1認識手段8Aがトレイ識別データTIを参照することにより、各トレイ4の相互識別と配置位置特定とが可能となる。
撮像制御手段10は、撮像部12および作業ロボット2に制御信号を与えて、第1認識手段8Aが特定した各トレイ4の配置位置に応じてステレオカメラ6による撮像方向を変更しつつ、トレイ4ごとに、当該トレイ4に載置された部品3を第2撮影モードでステレオカメラ6に撮像させるという制御を行う。
第2認識手段8Bは、その時点で撮像しているトレイ4のトレイ番号をキーとしてトレイ対応データTCを検索し、当該トレイ4に対応する部品3の種類(部品番号)やそれらの部品3についての部品形状データを参照する。そして、それに基づいて、撮像しているトレイ4上の各部品3がどの部品であるかという部品の種類の特定を行うとともに、各部品3の3次元位置・姿勢をステレオ法等を利用して特定する。部品3に固有の色を付している場合には、部品形状データにはそのような色情報を含んでいてもよい。
トレイ対応データTCの各トレイ4のレコードには、そのトレイ4に載置される予定範囲の部品3だけが列挙されているから、第1認識手段8Aによってトレイ4を識別しておくことにより、ステレオカメラ6で撮像している当該トレイ4上の部品3の種類が限定されることになる。すなわち、たとえば部品3として10種類が存在する場合を考え、第1トレイにはその4種類の部品のうちの1種あるいは複数種が載置されると予定されているときには、トレイ対応データTCの第1トレイのレコードにはその4種類の部品3についてのデータのみ登録されている。したがって、第2認識手段8Bが各部品3の識別を行うに際しては、撮像によって得た画像と、当該4種類の部品3の形状とのマッチングを行えば足りることになり、10種類すべての部品3の形状とのマッチングを行うような比較例の場合よりも、処理速度は向上する。
第2認識手段8Bでのこのような画像処理(第2画像処理)は、第1認識手段8Aでの画像処理(第1画像処理)よりも高い空間分解能で行う。それによって各部品3の識別と3次元位置・姿勢の決定とが高精度で行われるが、上記のようにマッチングすべき部品3の種類がトレイ4ごとに限定されるため、そのような高精度での画像処理を用いつつも、全体としての処理時間の増大を防止可能である。
第2認識手段8Bによって各トレイ4の各部品3の識別と3次元位置・姿勢との特定が完了すると、あらかじめ制御コンピュータCOMの記憶装置に記憶されている作業ルーチンのプログラムに従って、動作指令手段200は作業ロボット2に動作指令を与える。そこでは、作業ロボット2が各トレイ4上の各部品3に所定の順序でアクセスし、各部品3を所要の順序で順次にトレイ4から取り出して部品組み立てなどの所定の作業を行う。そのような動作の際に、第2認識手段8Bが得た各トレイ4の各部品3の配置情報が用いられる。
この作業ルーチンにおいては、作業データも参照される。作業データは、どの部品3にどのような作業動作が予め設定されているかの対応を示すデータであって、制御コンピュータCOMの対応記憶手段9にあらかじめ記憶されている。1つの部品3に設定できる作業動作は複数あってもよく、その場合には、作業ロボット2がどの作業動作を選択すべきかの選択もできるようになっている。対応づけられる作業動作内容としては、例えば、組み合わせる部品3、作業動作時の姿勢、組み合わせるために搬送する場所、組み合わせにより生成された中間組立品を搬送する場所等がある。
いくつかの部品3を組み立てた後の中間組立品をいずれかのトレイ4に一時的に載置する場合にも、第2認識手段8Bの認識結果が利用される。すなわち、第2認識手段8Bがトレイ4中の部品3の3次元位置・姿勢を認識することにより、当該トレイ4上の空スペースがどの位置にあるかという情報も付随的に得ることができる。この空スペース情報をトレイ4ごとに記憶しておき、中間組立品の載置が必要になった段階でその空スペース情報を参照することにより、中間組立品の載置場所として、いずれかのトレイ4の空スペースを利用できる。また部品3が全く載置されていない空トレイを認識してそのトレイ4の位置を記憶させておくことにより、そのような空トレイも中間組立品の載置場所として利用できる。
図4に示す操作入力手段300は、制御コンピュータCOMに付随して設けられており、オペレータによる制御コンピュータCOMへのデータ入力や操作指示入力などに使用される。
<B.動作>
<B−1.基本動作>
次に、本実施形態にかかる作業システムの動作について説明する。図5〜8は、作業システムの一例の上面図であり、図5〜8に示すように、作業エリア1内に、トレイ40、41、42、43、組み立てエリア11、腕部7(7A、7B)を有する作業ロボット2がそれぞれ配置されている。トレイ40、41、42には、部品30、31、32がそれぞれ載置されている。
<B−1.基本動作>
次に、本実施形態にかかる作業システムの動作について説明する。図5〜8は、作業システムの一例の上面図であり、図5〜8に示すように、作業エリア1内に、トレイ40、41、42、43、組み立てエリア11、腕部7(7A、7B)を有する作業ロボット2がそれぞれ配置されている。トレイ40、41、42には、部品30、31、32がそれぞれ載置されている。
図15はこの作業ロボットシステムWSの動作を示すフローチャートであり、このうち第1ルーチンR1は各トレイや部品の配置状況を認識するための準備ルーチンであり、第2ルーチンR2はそのような認識結果に基づいて作業ロボット2に作業させる実可動ルーチンである。
まず第1撮像モードが起動され、図5に示すように、作業ロボット2に付設した全体カメラ5(図2、3参照)によって作業エリア1の全体に分布するトレイ40〜43を広視野で撮像し(図15:ステップS1)、第1認識手段8A(図4参照)がトレイ識別データTI(図13)を参照しつつ、それぞれのトレイ40〜43の識別を行うとともに各トレイ40〜43の配置位置を認識する(ステップS2)。ここにおいてはさらに、トレイ40〜43の3次元姿勢も認識してもよい。また、床面からの各トレイ40〜43の高さはあらかじめ規定されていることが通例であるため、その高さでの各トレイ40〜43の2次元位置(または2次元位置・姿勢)の認識であってもよい。
また、全体カメラ5によって作業エリア1のトレイ40〜43の全部を一度に撮像できないときには、作業エリア1を概念的に複数のサブエリアに分割し、各サブエリアごとにその中に存在するトレイ集団ごとに撮像してもよい。すなわち、このステップS1では、後記の第2撮像モードと比較して、作業エリア1が広視野で集合的に撮像されることになる。
既述したように、トレイ40〜43は、トレイの形状に違いを設けたり、異なる色をつけたりすることで識別でき、当該識別は2次元画像解析等で簡易に行うこともできる。また、トレイ40〜43の配置位置についても、制御コンピュータCOMの記憶装置に記憶されたモデル点群(トレイ識別データTI中のトレイ形状データ)を用いてマッチングすることも可能であるが、2次元画像解析等から、モデル点群との比較を行わずにトレイ40〜43が置かれた領域が特定できる程度の精度で簡易に認識することもできる。
次に、トレイ40〜43のうちの一部を選択する(ステップS3)。選択するトレイはひとつずつでもよく、空間的に隣接する少数個のトレイであってもよい。ここでは、認識した各トレイの大きさおよび配置位置とステレオカメラ6の視野とを比較し、ステレオカメラ6の視野内にひとつのトレイのみが入るときにはひとつずつトレイを選択するが、視野内に複数のトレイを納めることができる場合には、複数のトレイを選択することもできる。トレイ40〜43の選択順序としては、たとえば作業ロボット2の中心鉛直軸まわりに時計まわりとするような規則を定めておくことができる。ここでは2つのトレイ40、41が選択されたと仮定する。
一般に、第1撮像部(第1撮像モード)による撮像が「集合的」であるのに対して、第2撮像部(第2撮像モード)による撮像が「個別的」とされるが、これらは、1回の撮像で取得するトレイの数が相対的に多い方を「集合的(な撮像)」、相対的に少ない方を「個別的(な撮像)」と定義することができる。
図6に示すように、認識したトレイ40、41の配置位置に基づいて、撮像制御手段10(図4参照)の制御により、腕部7のうち一方の腕部7Aをトレイ40の上方に移動させることによって撮像方向を変更し、当該腕部7Aに備えられた1つのステレオカメラ6Aによって、トレイ40に載置された部品30をトレイ40とともに撮像する。必要ならば、作業ロボット2自体もトレイ40側へ並進移動するように制御する。腕部7Bについても同様に、トレイ41の上方に移動させることによって撮像方向を変更し、腕部7Bに備えられたステレオカメラ6Bによって、トレイ41に載置された部品31をトレイ41とともに撮像する。トレイ40、41の配置位置を予め特定しているため、視野が狭いステレオカメラ6A、6Bでも効率的に部品30、31が存在する領域をとらえるように制御し、効率的に部品30、31を撮像することができる。
一方で、第2認識手段8Bにおいて、トレイ40、41とそれぞれに載置される部品30、31との対応関係を、トレイ対応データTCを参照して把握する。たとえば、トレイ40に載置されるのは部品30であり、トレイ41には2種類の部品31、32のいずれかが載置されるという対応関係が、トレイ対応データTCに登録されていると仮定する。この場合、トレイ40上の部品の画像が部品30についての部品形状データと照合されて当該画像が部品30であると認識されるとともに、トレイ40上の部品30の3次元位置・姿勢が認識される。また、トレイ41上の部品の画像が部品31、32のそれぞれの部品形状データと照合されて、当該画像が部品31であると認識されるとともに、トレイ41上の部品31の3次元位置・姿勢が認識される。このようにして認識された結果は、制御コンピュータCOMの記憶装置に記憶される。以上の工程が図15のステップS5に相当する。
次のステップS6では、まだ認識していないトレイが残っているか否かがチェックされ、残っているときにはステップS3に戻って新たなトレイを選択する。図示例では、トレイ42、43が選択され、前回と同様にステップS4およびS5を実行する。トレイ43には部品は載置されていないため、トレイ43は空であることが認識されて、その旨が記憶される。
トレイのすべての撮像と部品の認識が完了するまで以上のステップS3〜S6を繰り返し、すべてのトレイについての部品の撮像と認識が完了すると、ステップS7へ移行する。
ステップS7では、制御コンピュータCOMの記憶装置に記憶されている作業ルーチンのプログラム(作業データ)中の部品変数に、各トレイ40〜42に載置された部品30〜32の種類と3次元位置・姿勢との情報を代入し、作業ルーチンのプログラムを具体化する。
トレイに載置された特定種の部品につき、その種類の部品を作業対象とする動作が作業ルーチンのプログラム上に設定されていない場合には、その部品の扱いをスキップし、他のトレイに対応する部品についてのみ作業動作との対応関係を認識する。このようにすることで、行おうとする作業動作に関係のない部品が作業エリア1に配置されている場合でも、滞りなく作業動作を進行させることができる。
図5では、トレイ40の部品30とトレイ41の部品31とが互いに組み合わせられる作業動作と、それによって生成される中間組立品をトレイ43に搬送する作業動作とが設定されていた場合であるとする(使用されるトレイを太枠で示す)。部品32には異なる作業動作が設定されている、または作業動作が設定されていないとして、扱いをスキップする。
以上の第1ルーチンR1(準備ルーチン)が完了すると、第2ルーチンR2(実可動ルーチン)に移行する。
第2ルーチンR2では、具体化された作業ルーチンのプログラムの実行が開始され、動作指令手段200が作業ロボット2に駆動指令信号を与えることにより、当該プログラムで規定された順序で作業ロボット2が部品30、31にアクセスして、それらを順次に腕部7の把持機構(ハンド部H)を用いて把持して、トレイ40、41から取り出す。それにあたっては、既に認識された部品30、31の3次元位置・姿勢の情報を利用する。そして、作業ルーチンのプログラムで指定された作業動作内容に従って、組み立てエリア11に部品30、31を搬送するよう作業ロボット2を制御する(図6参照)。
次に図7に示すように、組み立てエリア11に必要な部品30、31を組み立てエリア11に搬送したら、組み合わせのために部品30、31の姿勢を適宜変更し、組み合わせた中間組立品50を生成する。次に図8に示すように、特定された作業動作内容に従って、中間組立品50をトレイ43に搬送する。
部品としては、例えばネジ、ナット等も含めた様々な大きさのものが考えられ、中間組立品として生成される様々なパーツを組み合わせることによって、複雑な工程を持つ工業製品を生成することが可能となる。
以上のうち、トレイ40〜43の認識動作(ステップS2)については、部品30〜32の補充等のためにトレイ40〜43の配置位置を変更する場合にのみ行えばよいが、本実施形態にかかる作業システムWSにおいてはトレイ40〜43を固定しないので、作業動作途中にトレイ40〜43の配置位置が変わってしまうことも考えられる。よって、そのような場合には部品30〜32の補充等がなくとも、作業動作ごとにトレイ40〜43の配置位置を認識しなおしてもよい。また、トレイ40〜43の配置位置が変更されたことを検出可能なセンサ(図示せず)を設けておくことによって、作業動作段階に関係なく、トレイ40〜43の配置位置が変更された時点で、トレイ40〜43の配置位置を認識しなおすことも可能である。作業中の衝撃などによって部品位置がずれるような場合にも、衝撃センサーを設けておいてそれを検知することによって、トレイや部品の認識をやりなおすこともできる。
また、トレイ内の部品が搬送され尽くした場合に、部品を補充する必要があることを報知する報知装置等(図示せず)を備えることにより、作業動作を滞りなく進行させることができる。
図16は、これらの事情に対応して、作業ロボット2による組み立て作業の繰り返し中に生じる割り込み動作を示すフローチャートであり、この割り込みルーチンもまた、制御コンピュータCOMにインストールされている。
ステップS11は図15の第2ルーチンR2に相当するが、その実行中に
・トレイの移動、搬入または搬出;
・部品の搬入(補充);
・上記中間組立品などのような、作業ロボット2の作業成果物である組立品の搬出;
などが発生したときには、その事情の発生の検知に応答して、組み立て作業が割り込み停止される(ステップS12、S13)。この発生検知は、上記のようなセンサーによる自動検知であってもよく、図4の操作入力手段300を用いてオペレータがボタンなどを操作することによって、制御コンピュータCOMに旨を報知するものであってもよい。
・トレイの移動、搬入または搬出;
・部品の搬入(補充);
・上記中間組立品などのような、作業ロボット2の作業成果物である組立品の搬出;
などが発生したときには、その事情の発生の検知に応答して、組み立て作業が割り込み停止される(ステップS12、S13)。この発生検知は、上記のようなセンサーによる自動検知であってもよく、図4の操作入力手段300を用いてオペレータがボタンなどを操作することによって、制御コンピュータCOMに旨を報知するものであってもよい。
このような割り込みが入ると、図15における第1ルーチンR1(準備ルーチン)に相当するルーチンが再度実行され、その結果に基づいてロボット作業プログラムの再度の具体化(更新)が行われる(ステップS14)。そして、ステップS15で割り込み処理が解除され、作業ロボット2による作業プログラムが再開される。
<B−2.部品の割り当て方法:第1の形式>
トレイに載置される部品の具体的な割り当て方法として、同一種の部品ごとに分けてトレイに割り当てる方法がある。すなわち図5〜8に示す方法と同様の方法である。
トレイに載置される部品の具体的な割り当て方法として、同一種の部品ごとに分けてトレイに割り当てる方法がある。すなわち図5〜8に示す方法と同様の方法である。
この方法の場合は、トレイ40に部品30、トレイ41に部品31、トレイ42に部品32というように、各トレイに例えば1種類の部品が割り当てられる。
トレイを識別できれば対応する部品を特定できるので、部品の3次元位置・姿勢を認識する際にマッチングを行う形状データ等を特定することができる。よって形状データ等の選択が不要となり、マッチング効率を向上させ全体の作業効率を向上させることができる。トレイに割り当てられる部品が数種類ある場合でも、その数種類の部品の形状データ等のうちから適切なものを選択すればよいので、やはりマッチング効率を向上させることができ全体の作業効率を向上させることが可能となる。
また、作業動作に用いられ部品がなくなったトレイには、同一または異なる部品を適宜補充し再利用することで、作業エリアを効率的に利用して作業動作を進めることができる。
<B−3.部品の割り当て方法:第2の形式>
また、トレイに載置される部品の具体的な割り当て方法として、同一工程段階で用いられる部品ごとに分けてトレイに割り当てる方法がある。
また、トレイに載置される部品の具体的な割り当て方法として、同一工程段階で用いられる部品ごとに分けてトレイに割り当てる方法がある。
この方法の場合は図9に示すように、まずトレイ44に部品30、31、33〜35が全て割り当てられる。そして、トレイ41、42はそれぞれ、以降の各工程段階で生成される中間組立品を収納するために割り当てられる。ここでは例として、第2工程段階をトレイ41に、第3工程段階をトレイ42にそれぞれ割り当てる。
最初の工程段階として、部品30と部品31、部品33と部品34をそれぞれ組み立てエリア11に搬送し、それぞれを互いに組み合わせ、生成される中間組立品50、51をトレイ41へ搬送する。
次に図10、11に示すように、第2工程段階として、中間組立品50、51、部品35を組み立てエリア11に搬送し、組み合わせて中間組立品52を生成する。そして、図12に示すように、中間組立品52をトレイ42へ搬送する。
このように各工程段階で用いられる部品ごとにトレイを割り当てることで、各トレイの部品の載置の有無により工程の進行度合いが視覚的に確認でき、作業システムが適切に動作しているか、部品補充のタイミングが適当かどうか等を判断できる。
<C.効果>
以上のように、本発明の実施形態によれば、複数のトレイ40、41、42、43の識別およびその配置位置を認識し、さらにトレイ40、41、42、43とトレイに載置される部品30、31、32との対応関係を参照することにより、複数のトレイ40、41、42、43が移動し載置される部品30、31、32の3次元位置・姿勢が変化する場合であっても、認識したトレイ40、41、42、43の配置位置に基づいて載置された部品30、31、32を効率的に把握することで、部品30、31、32の3次元位置・姿勢を認識し、作業ロボット2により部品30、31、32を用いた作業動作を行うことができる。
以上のように、本発明の実施形態によれば、複数のトレイ40、41、42、43の識別およびその配置位置を認識し、さらにトレイ40、41、42、43とトレイに載置される部品30、31、32との対応関係を参照することにより、複数のトレイ40、41、42、43が移動し載置される部品30、31、32の3次元位置・姿勢が変化する場合であっても、認識したトレイ40、41、42、43の配置位置に基づいて載置された部品30、31、32を効率的に把握することで、部品30、31、32の3次元位置・姿勢を認識し、作業ロボット2により部品30、31、32を用いた作業動作を行うことができる。
また、トレイ4を撮像する第1撮像部としての全体カメラ5と部品3を撮像する第2撮像部としてのステレオカメラ6とを備え、ステレオカメラ6は作業ロボット2の腕部7に備えられることにより、撮像対象の役割分担ができ、またステレオカメラ6は腕部7の動作に従って移動することができるので、部品3を効率的に撮像できる。
特に、全体カメラ5の撮像結果に基づく第1画像処理は「広視野かつ低空間分解能」であり、ステレオカメラ6の撮像結果による第2画像処理は「狭視野かつ高空間分解能」とされる。このため、第1画像処理は広視野で多数のトレイを同時に認識可能であるが、空間分解能を高くしていないので画像処理に要する時間は短くて済む。また、第2画像処理は、高い空間分解能で認識を行うが、そこでは狭視野で少数のトレイ上の部品を認識するだけであるため、ここでも画像処理に要する時間は短くて済む。
また、1つのトレイ44に複数種の部品30、31、33、34、35を載置する場合には、例えば工程段階ごとに部品30、31、33、34、35をトレイ44、41、42に割り当て、工程の進行状況が視覚的に確認することが可能となるので、部品の補充等のタイミングの調整等に適している。
<D.変形例>
トレイの配置高さが固定されており、部品が平坦形状のものばかりであるような場合には、部品の2次元的な位置および姿勢を認識すれば、部品の高さの値は固定値にして部品の3次元位置・姿勢を特定できる。したがって、上記実施形態では第2撮像部としてステレオカメラを用いているが、2次元カメラを用いたシステムも構築可能である。
トレイの配置高さが固定されており、部品が平坦形状のものばかりであるような場合には、部品の2次元的な位置および姿勢を認識すれば、部品の高さの値は固定値にして部品の3次元位置・姿勢を特定できる。したがって、上記実施形態では第2撮像部としてステレオカメラを用いているが、2次元カメラを用いたシステムも構築可能である。
また、上記実施形態では、撮像部を構成する各カメラはスチルカメラであるが、ムービーカメラであってもよい。
作業ロボットによってオートメーション化されたライン生産システム、およびセル生産システム等に利用可能である。
1 作業エリア
2,20 作業ロボット
3,30〜35 部品
4,40〜44 トレイ
5 全体カメラ(第1撮像部)
6,6A,6B ステレオカメラ(第2撮像部)
7,7A,7B 腕部
8A 第1認識手段
8B 第2認識手段
9 対応記憶手段
10 撮像制御手段
11 組み立てエリア
12 撮像部
50〜52 中間組立品
200 動作指令手段
300 操作入力手段
FM フレーム
M1,M2 マーカ
H ハンド部
WS 作業ロボットシステム
2,20 作業ロボット
3,30〜35 部品
4,40〜44 トレイ
5 全体カメラ(第1撮像部)
6,6A,6B ステレオカメラ(第2撮像部)
7,7A,7B 腕部
8A 第1認識手段
8B 第2認識手段
9 対応記憶手段
10 撮像制御手段
11 組み立てエリア
12 撮像部
50〜52 中間組立品
200 動作指令手段
300 操作入力手段
FM フレーム
M1,M2 マーカ
H ハンド部
WS 作業ロボットシステム
Claims (11)
- 所定の作業エリア内に移動可能に配置された複数のトレイから作業対象となる部品を取り出し、前記部品を用いて所定の作業を行う作業システムであって、
各トレイとそれに載置される各部品の種類との対応関係を示すトレイ対応データを記憶する対応記憶手段と、
前記作業エリア内に存在する前記複数のトレイを、比較的広視野で集合的に撮像する第1撮像モードと、前記複数のトレイを比較的狭視野で個別的に撮像する第2撮像モードとを有する撮像部と、
前記撮像部による前記第1撮影モードでの撮像結果に基づいて、比較的低い空間分解能の第1画像処理を行い、各トレイの識別とその配置位置の特定とを行う第1認識手段と、
特定された各トレイの配置位置に応じて前記撮像部による撮像方向を変更しつつ、トレイごとに当該トレイに載置された部品を第2撮影モードで前記撮像部に撮像させる撮像制御手段と、
前記トレイ対応データに基づいて各トレイ上の部品の種類を限定しつつ、前記第2撮像モードでの各部品の撮像結果に基づいて、比較的高い空間分解能の第2画像処理を行うことによって、各トレイ上の各部品の3次元位置・姿勢を認識する第2認識手段と、
3次元位置・姿勢が特定された各トレイ上の各部品に所定の順序でアクセスし、各部品を用いて所定の作業を行う作業ロボットと、
を備えることを特徴とする、
作業システム。 - 請求項1に記載の作業システムであって、
前記所定の作業に実行中に割り込みを行って前記所定の作業を中断させ、各トレイ上の各部品の3次元位置・姿勢の認識を再度実行させてから前記所定の作業を再開する割り込み制御手段、
をさらに備えることを特徴とする、
作業システム。 - 請求項1または2に記載の作業システムであって、
前記撮像部は、前記作業ロボットに付設されていることを特徴とする、
作業システム。 - 請求項1〜3のいずれかに記載の作業システムであって、
前記撮像部は、
前記第1撮像モードでの撮像を行う第1撮像部と、
撮像位置および撮像方向が可変であって、前記第2撮像モードでの撮像を行う第2撮像部と、
を備えることを特徴とする、
作業システム。 - 請求項4に記載の作業システムであって、
前記作業ロボットは、
前記部品を保持するハンド部がその一端に連結された可動の腕部、
を備え、
前記第2撮像部は、前記腕部または前記ハンド部に付設されることを特徴とする、
作業システム。 - 請求項1〜5のいずれかに記載の作業システムであって、
前記対応記憶手段は、前記部品ごとに予め設定された作業内容を指示する、作業データをさらに記憶し、
前記作業ロボットは、
特定された前記部品および前記作業データに基づいて、当該部品についての作業を実行することを特徴とする、
作業システム。 - 請求項1〜6のいずれかに記載の作業システムであって、
前記対応記憶手段は、前記部品ごとの3次元形状を示す、部品形状データをさらに記憶し、
前記第2認識手段は、特定した前記部品および前記部品形状データに基づいて、当該部品の3次元位置・姿勢を認識することを特徴とする、
作業システム。 - 請求項1〜7のいずれかに記載の作業システムであって、
前記対応記憶手段は、前記トレイごとの3次元形状を示す、トレイ形状データをさらに記憶し、
前記第1認識手段は、前記第1撮像モードで撮像した前記トレイの画像および前記トレイ形状データに基づいて、当該トレイの配置位置を認識することを特徴とする、
作業システム。 - 請求項1〜8のいずれかに記載の作業システムであって、
前記複数のトレイのうち少なくとも一部のトレイは、複数種の部品を載置可能であることを特徴とする、
作業システム。 - 所定の作業エリア内に移動可能に配置された複数のトレイから作業対象となる部品を取り出し、前記部品を用いて所定の作業を行う作業ロボット制御装置であって、
前記作業エリア内に存在する前記複数のトレイを、比較的広視野で集合的に撮像する第1撮像モードと、前記複数のトレイを比較的狭視野で個別的に撮像する第2撮像モードとを有する撮像部が前記作業ロボットに付随しており、
前記制御装置が、
各トレイとそれに載置される各部品の種類との対応関係を示すトレイ対応データを記憶する対応記憶手段と、
前記撮像部による前記第1撮影モードでの撮像結果に基づいて、比較的低い空間分解能の第1画像処理を行い、各トレイの識別とその配置位置の特定とを行う第1認識手段と、
特定された各トレイの配置位置に応じて前記撮像部による撮像方向を変更しつつ、トレイごとに当該トレイに載置された部品を第2撮影モードで前記撮像部に撮像させる撮像制御手段と、
前記トレイ対応データに基づいて各トレイ上の部品の種類を限定しつつ、前記第2撮像モードでの各部品の撮像結果に基づいて、比較的高い空間分解能の第2画像処理を行うことによって、各トレイ上の各部品の3次元位置・姿勢を認識する第2認識手段と、
3次元位置・姿勢が特定された各トレイ上の部品を取り出して所定の作業を行う動作指令を作業ロボットに与える動作指令手段と、
を備えることを特徴とする、
作業ロボット制御装置。 - コンピュータにインストールされて実行されることにより、前記コンピュータを請求項10に記載の制御装置として機能させることを特徴とする、
作業プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010171866A JP2012030320A (ja) | 2010-07-30 | 2010-07-30 | 作業システム、作業ロボット制御装置および作業プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010171866A JP2012030320A (ja) | 2010-07-30 | 2010-07-30 | 作業システム、作業ロボット制御装置および作業プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012030320A true JP2012030320A (ja) | 2012-02-16 |
Family
ID=45844377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010171866A Abandoned JP2012030320A (ja) | 2010-07-30 | 2010-07-30 | 作業システム、作業ロボット制御装置および作業プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012030320A (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012228765A (ja) * | 2011-04-27 | 2012-11-22 | Toyota Motor Corp | ロボット、ロボットの動作方法、及びプログラム |
JP2013173191A (ja) * | 2012-02-23 | 2013-09-05 | Seiko Epson Corp | ロボット装置、ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
JP2014061578A (ja) * | 2012-09-24 | 2014-04-10 | Seiko Epson Corp | ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラム |
JP2014184542A (ja) * | 2013-03-25 | 2014-10-02 | Seiko Epson Corp | ロボット制御方法、ロボット制御装置、ロボット、ロボットシステム、及びプログラム |
JP2015085456A (ja) * | 2013-10-31 | 2015-05-07 | セイコーエプソン株式会社 | ロボット、及びロボットシステム |
JP2015085457A (ja) * | 2013-10-31 | 2015-05-07 | セイコーエプソン株式会社 | ロボット、ロボットシステム及びロボット制御装置 |
JP2016031619A (ja) * | 2014-07-28 | 2016-03-07 | グローリー株式会社 | 収納作業装置、有価媒体収納システム及び収納作業方法 |
EP3296067A1 (en) * | 2016-09-20 | 2018-03-21 | Hirata Corporation | Part support apparatus, control method, and manufacturing method |
JP2019150931A (ja) * | 2018-03-05 | 2019-09-12 | パナソニック株式会社 | ロボットシステム、制御装置、及びロボット |
CN110914021A (zh) * | 2017-08-07 | 2020-03-24 | 罗伯特·博世有限公司 | 带有用于执行至少一个工作步骤的操纵设备的操纵装置以及方法和计算机程序 |
US10722992B2 (en) | 2017-11-24 | 2020-07-28 | Fanuc Corporation | Workpiece placement system for placing workpiece in containment area or on jig |
JP2020534887A (ja) * | 2017-09-27 | 2020-12-03 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 可動性医療撮像システムを配置するシステム及び方法 |
DE102019125126B4 (de) * | 2018-09-27 | 2020-12-17 | Canon Kabushiki Kaisha | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und System |
CN112218746A (zh) * | 2018-06-14 | 2021-01-12 | 雅马哈发动机株式会社 | 对装载盘配置零部件的零部件配置装置 |
JPWO2020121396A1 (ja) * | 2018-12-11 | 2021-09-02 | 株式会社Fuji | ロボットキャリブレーションシステム及びロボットキャリブレーション方法 |
CN113947558A (zh) * | 2020-06-30 | 2022-01-18 | 青岛海尔智能技术研发有限公司 | 零件拾取操作台、零件拾取操作台的操作方法及存储介质 |
US11637968B2 (en) * | 2017-11-15 | 2023-04-25 | Samsung Electronics Co., Ltd. | Image photographing method of electronic device and electronic device |
US12263576B2 (en) | 2021-08-19 | 2025-04-01 | Hyundai Mobis Co., Ltd. | Robot system for automated assembly of modular component |
-
2010
- 2010-07-30 JP JP2010171866A patent/JP2012030320A/ja not_active Abandoned
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012228765A (ja) * | 2011-04-27 | 2012-11-22 | Toyota Motor Corp | ロボット、ロボットの動作方法、及びプログラム |
JP2013173191A (ja) * | 2012-02-23 | 2013-09-05 | Seiko Epson Corp | ロボット装置、ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
JP2014061578A (ja) * | 2012-09-24 | 2014-04-10 | Seiko Epson Corp | ロボット、ロボットシステム、ロボット制御装置、ロボット制御方法及びプログラム |
JP2014184542A (ja) * | 2013-03-25 | 2014-10-02 | Seiko Epson Corp | ロボット制御方法、ロボット制御装置、ロボット、ロボットシステム、及びプログラム |
JP2015085456A (ja) * | 2013-10-31 | 2015-05-07 | セイコーエプソン株式会社 | ロボット、及びロボットシステム |
JP2015085457A (ja) * | 2013-10-31 | 2015-05-07 | セイコーエプソン株式会社 | ロボット、ロボットシステム及びロボット制御装置 |
JP2016031619A (ja) * | 2014-07-28 | 2016-03-07 | グローリー株式会社 | 収納作業装置、有価媒体収納システム及び収納作業方法 |
US10449674B2 (en) | 2016-09-20 | 2019-10-22 | Hirata Corporation | Part support apparatus, control method, and manufacturing method |
EP3296067A1 (en) * | 2016-09-20 | 2018-03-21 | Hirata Corporation | Part support apparatus, control method, and manufacturing method |
JP2020529932A (ja) * | 2017-08-07 | 2020-10-15 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 少なくとも1つの作業ステップを実行するためのハンドリング装置を有するハンドリングアセンブリ、方法及びコンピュータプログラム |
CN110914021A (zh) * | 2017-08-07 | 2020-03-24 | 罗伯特·博世有限公司 | 带有用于执行至少一个工作步骤的操纵设备的操纵装置以及方法和计算机程序 |
US11478932B2 (en) | 2017-08-07 | 2022-10-25 | Robert Bosch Gmbh | Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program |
JP7198808B2 (ja) | 2017-09-27 | 2023-01-04 | コーニンクレッカ フィリップス エヌ ヴェ | 可動性医療撮像システムを配置するシステム及び方法 |
JP2020534887A (ja) * | 2017-09-27 | 2020-12-03 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 可動性医療撮像システムを配置するシステム及び方法 |
US11637968B2 (en) * | 2017-11-15 | 2023-04-25 | Samsung Electronics Co., Ltd. | Image photographing method of electronic device and electronic device |
US10722992B2 (en) | 2017-11-24 | 2020-07-28 | Fanuc Corporation | Workpiece placement system for placing workpiece in containment area or on jig |
DE102018128784B4 (de) | 2017-11-24 | 2023-06-22 | Fanuc Corporation | Werkstückanordnungssystem, das Werkstücke in einem Aufnahmebereich oder an einer Einspanneinrichtung anordnet |
JP2019150931A (ja) * | 2018-03-05 | 2019-09-12 | パナソニック株式会社 | ロボットシステム、制御装置、及びロボット |
CN112218746A (zh) * | 2018-06-14 | 2021-01-12 | 雅马哈发动机株式会社 | 对装载盘配置零部件的零部件配置装置 |
CN112218746B (zh) * | 2018-06-14 | 2023-08-22 | 雅马哈发动机株式会社 | 对装载盘配置零部件的零部件配置装置 |
DE102019125126B4 (de) * | 2018-09-27 | 2020-12-17 | Canon Kabushiki Kaisha | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und System |
US11541545B2 (en) | 2018-09-27 | 2023-01-03 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and system |
JP7153085B2 (ja) | 2018-12-11 | 2022-10-13 | 株式会社Fuji | ロボットキャリブレーションシステム及びロボットキャリブレーション方法 |
JPWO2020121396A1 (ja) * | 2018-12-11 | 2021-09-02 | 株式会社Fuji | ロボットキャリブレーションシステム及びロボットキャリブレーション方法 |
CN113947558A (zh) * | 2020-06-30 | 2022-01-18 | 青岛海尔智能技术研发有限公司 | 零件拾取操作台、零件拾取操作台的操作方法及存储介质 |
US12263576B2 (en) | 2021-08-19 | 2025-04-01 | Hyundai Mobis Co., Ltd. | Robot system for automated assembly of modular component |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012030320A (ja) | 作業システム、作業ロボット制御装置および作業プログラム | |
JP7467041B2 (ja) | 情報処理装置、情報処理方法及びシステム | |
JP5930708B2 (ja) | 作業管理装置および作業管理システム | |
CN111452040B (zh) | 在引导装配环境中将机器视觉坐标空间关联的系统和方法 | |
JP5977544B2 (ja) | 情報処理装置、情報処理方法 | |
US7966094B2 (en) | Workpiece picking apparatus | |
JP2012055999A (ja) | 物体把持システム、物体把持方法、プログラム、およびロボットシステム | |
CN112276936B (zh) | 三维数据生成装置以及机器人控制系统 | |
CN103687702A (zh) | 部件供给装置 | |
JPWO2018043525A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
CN109952178B (zh) | 作业机器人及作业位置修正方法 | |
CN108290286A (zh) | 用于教导工业机器人拾取零件的方法 | |
EP2221152A1 (en) | A robot system and a method for picking and placing components | |
JP5641084B2 (ja) | ロボットシステムおよび被加工物の製造方法 | |
JP2016147327A (ja) | 位置及び姿勢の変換演算機能を備えたワーク取出しロボットシステム、及びワーク取出し方法 | |
CN110980276A (zh) | 一种三维视觉配合机器人实施铸件自动下料的方法 | |
US20210197391A1 (en) | Robot control device, robot control method, and robot control non-transitory computer readable medium | |
US20190278991A1 (en) | Control apparatus, robot system, and method of detecting object | |
CN111390910A (zh) | 机械手目标抓取定位方法、计算机可读存储介质及机械手 | |
US10656097B2 (en) | Apparatus and method for generating operation program of inspection system | |
WO2021039775A1 (ja) | 画像処理装置、撮像装置、ロボット及びロボットシステム | |
CN115070779B (zh) | 机器人抓取控制方法、系统及电子设备 | |
TWI696529B (zh) | 自動定位方法以及自動控制裝置 | |
JP7549121B2 (ja) | ロボットシステム及び制御装置 | |
JP2024015393A (ja) | ロボットの構成部材の干渉を検出するロボット装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130521 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20140204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140213 |