JP5665333B2 - 情報処理装置および情報処理装置の制御方法 - Google Patents
情報処理装置および情報処理装置の制御方法 Download PDFInfo
- Publication number
- JP5665333B2 JP5665333B2 JP2010053409A JP2010053409A JP5665333B2 JP 5665333 B2 JP5665333 B2 JP 5665333B2 JP 2010053409 A JP2010053409 A JP 2010053409A JP 2010053409 A JP2010053409 A JP 2010053409A JP 5665333 B2 JP5665333 B2 JP 5665333B2
- Authority
- JP
- Japan
- Prior art keywords
- arrangement
- robot system
- virtual
- virtual space
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 68
- 230000010365 information processing Effects 0.000 title claims description 31
- 238000003384 imaging method Methods 0.000 claims description 72
- 238000011156 evaluation Methods 0.000 claims description 69
- 238000005286 illumination Methods 0.000 claims description 52
- 238000005259 measurement Methods 0.000 claims description 33
- 239000000470 constituent Substances 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 31
- 238000009434 installation Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 28
- 238000004364 calculation method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000012706 support-vector machine Methods 0.000 description 6
- 238000000691 measurement method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000013016 damping Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000002990 reinforced plastic Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
(本実施形態におけるロボットシステムの構成)
図1は、本実施形態におけるロボットシステムの構成を示す図である。
18は、ロボットシステムの構成部材100に接続され、それぞれの動作を制御する制御部18である。制御部18は、CPU、RAM、動作プログラムや各種データが格納されたROMなどから構成される。制御部18は、ROMに格納されたロボットシステムの構成部材100に関する情報から、ロボットシステムの構成部材100の配置を設定するための情報処理装置として機能する。本情報処理の詳細は、後述する。
14は、被作業物体の把持・加工・組み立てなどを行うための作業台14である。
17は、ロボットアーム11の把持・加工・組み立て対象となる被作業物体17である。被作業物体17は、図1に示す通り、ネジなどの部品から構成される。
21は、照明装置10を配置可能な照明配置可能エリア21である。
22は、撮像手段9を配置可能な撮像配置可能エリア22である。
図2は、本実施形態におけるロボットシステムの情報処理を示す図である。図2における情報処理は、本実施形態におけるロボットシステムの構成部材100それぞれの適切な配置パラメータを設定するための処理である。
認識・計測対象物の種別および物理的特性を設定する工程1では、本実施形態のシステムにおいて認識・計測対象となる物体の種別および物理的特性に関する情報を設定する。本実施形態において、認識・計測対象となる物体は被作業物体17である。物理的特性には、例えば、物体の形状、剛性、光学特性などが含まれる。物体の形状は三次元のCADデータなどの形状モデルであり、物体の剛性はヤング率、振動減衰特性などであり、物体の光学特性はBRDF、BTDF、BSDFなどである。
システム構成品の特性情報を設定する工程2では、認識・計測制御システム100を構成するシステム構成品の特性情報を設定する。
システム構成品の配置条件に関するパラメータを設定する工程3では、それぞれのシステム構成品を配置する位置および姿勢の条件を設定する。本実施形態における設定対象は、ロボットアーム11、撮像手段9、照明装置10、である。
タスク処理の内容を設定する工程4では、認識・計測結果を元にして実行するタスク処理内容を設定する。本実施形態では、ロボットアーム11による組み立て処理の動作に関する情報を設定する。
20×20×10×10 = 40000通り ・・・(1)
尚、本実施形態では、上記式では、工程4におけるタスク処理の動作は考慮されていない。タスク処理の動作を考慮する場合、ロボットアーム11の移動可能な位置を100通りとすると、上記40000枚の仮想空間画像それぞれに対して100通りの仮想空間画像が取得される。
評価値条件を設定する工程5では、工程4において生成された仮想空間画像を評価する評価値の基準を設定する。本実施形態における評価値は、工程4において生成された仮想空間画像それぞれに対して算出される。評価値は、コントラスト値、遮蔽率、認識信頼度、計測信頼度の組合せにより算出され、ロボットシステムの作業に対する前記仮想物体の配置の適合を示す。評価値が高いほど、本実施形態におけるロボットシステムの作業が行いやすいことになる。コントラスト値、遮蔽率、認識信頼度、計測信頼度それぞれの算出方法は、後述する。本工程では、ユーザの指示に基づき、コントラスト値、遮蔽率、認識信頼度、計測信頼度それぞれを評価値として採用するか否か、もしくはそれぞれの評価値に対する重み付けなどを設定する。
評価値を算出する工程6では、制御部18は仮想空間画像の配置の適合を示す評価値を取得する第二の取得手段として機能し、工程4において生成された仮想空間画像それぞれの評価値を算出する。算出される評価値は、工程5で設定された規準に基づくものである。上述した通り、40000枚の仮想空間画像を生成した場合、40000通りの評価値を算出することになる。尚、タスク処理の動作を考慮する場合、上述の通り、上記40000枚の仮想空間画像それぞれに対して100通りの仮想空間画像が取得される。この場合、上述の評価値は、例えば、100通りの仮想空間画像の評価値の平均値になる。平均値を算出することにより、タスク処理全体を通して、ロボットシステムの作業に対して適合した配置を検出することが可能になる。
本工程7では、工程6の算出結果に基づき、システム構成品100の適切な配置パラメータを設定する。適切な配置パラメータとは、例えば、被作業物体17に対して、ロボットアーム11がより適切な作業を行うことが可能なシステム構成品100の配置を示すパラメータである。前述した通り、工程6で算出された評価値中で最も高い評価値を選択し、当該評価値の仮想空間画像に対応する配置パラメータが設定される。また、最も高い評価値だけでなく、評価値の高い順に複数種類の配置パラメータを設定してもよい。
前記配置パラメータをユーザに提示する工程8では、工程7で設定されたシステム構成品の配置パラメータをユーザに提示する。提示する方法は、モニタなどを用いた表示や音声など、ユーザに報知できる方法ならどのようなものでもよい。
前述の工程4における仮想空間画像の生成方法について説明する。まず、三次元モデルにおける撮像手段9と被作業物体17との位置関係は、模式的に図7のように表すことが可能である。
w/W=h/H=f/S ・・・(2)
また、被作業物体17に対する照明環境として、前述したように照明強度、照射光種類、照射パターンが確定しており、かつ被作業物体17に関してはBRDF、BTDFおよびBSDFが確定しているため、一般的な仮想モデルを用いることにより、前述した撮像領域における、照明の影響を含んだ仮想空間画像を生成することが可能となる。
前述の工程6において算出されるコントラスト値、遮蔽率、認識信頼度、計測信頼度の算出方法について説明する。
本実施形態における認識信頼度の算出方法について説明する。本実施形態では、認識信頼度として、被作業物体17の三次元CADデータから生成される2次元モデルと仮想空間画像との相関演算を行うことにより得られる相関係数を用いる。例えば、相関係数が所定値以上の場合に、画像上の物体が認識対象物であると判定することが可能になる。相関係数を用いる手法は、一般的にパターンマッチング手法と呼ばれている。尚、認識信頼度としては、パターンマッチング手法以外の手法で代用することも可能である。
本実施形態における計測信頼度は、計測処理を行う際のパターンマッチング処理の相関演算における相関係数で表される。計測処理は、前述した組み立て位置において、被作業物体17の位置姿勢を撮像手段9によって撮像された画像から計測する処理を意味する。
Mi=c+δsi+c0i (i=1、・・・、Np) ・・・(3)
ここで、cは照明装置10の中心座標、siは各スポットの勾配、c0iは各スポットのオフセット座標を示す。また、Npは投影スポットの総数を示し、δは媒介変数を表す。
PM’i=wm’i ・・・(4)
式(4)は、スポットiの空間点M’i=[Mt i、1]tが、透視投影行列Pと画像点m’i=[mt i、1]tの積で表されることを示している。
なお、wは0でない定数を示す。
miに関しては、パターン光が投影された画像データに対して、投影されたスポットパターンに対応した特徴抽出および相関演算を行い相関係数を算出するパターンマッチング処理を実行することにより、画像上の2次元的な位置情報として算出することができる。
次に、本実施形態におけるコントラスト値の算出方法について説明する。本実施形態におけるコントラスト値は、以下の式(5)で定義される。
(Lmax−Lmin)/(Lmax+Lmin) ・・・(5)
ここで、LmaxとLminは、それぞれ画像中の輝度値の最大値と最小値を表す。
次に、本実施形態における遮蔽率の算出方法について説明する。
尚、遮蔽されて見えない部位の比率の算出手法は前述したものに限るものではない。
次に、第二の実施形態について説明する。本実施形態と第一の実施形態とで異なる点は、仮想物体を配置する配置範囲(自由度)を制限することである。第一の実施形態では、仮想物体の配置に対して40000通りの仮想空間画像が生成している。本実施形態では、制御部18が仮想物体の配置の配置範囲を制限する制限手段として機能する。それぞれの仮想空間画像に対して制御部18で評価値を算出するためには、多くの計算時間がかかる場合がある。よって、本実施形態では、仮想物体を配置する配置範囲を制限し、生成される仮想空間画像の枚数を削減することにより、制御部18による計算時間を短縮することを目的としている。以下に、具体的な方法について説明する。
例えば、被作業物体17が、図11に示すように凹面形状を有し、かつ三次元計測対象部位が凹面(網掛け部)である場合、ロボットシステム仮想物体を配置する範囲を制限することが可能になる。
10×10×5×5 = 2500通り ・・・(6)
これにより、工程6における評価値の算出時間の短縮が実現される。なお、上述した探索自由度の削減においては、事前に凹面形状を有する物体に対して有効なシステム構成品の設置位置および設置方向に関する設置パラメータのパターン数を参照テーブルとして作成しておいてもよい。そして、工程1で物体の形状が入力されるのに対応して、自動的に探索自由度を削減するようにしても良い。例えば、前記参照テーブルにおいて、凹面形状を照明および撮像することが不可能な照明装置、撮像手段の配置パラメータの組み合わせを除外することで、探索自由度を自動的に削減することが可能となる。
5×5×3×3 = 225通り ・・・(7)
これにより、工程6における評価値の算出時間の短縮が実現される。
なお、上述した探索自由度の削減においては、事前にBTDFおよびBSDFに対応した有効なシステム構成品の設置位置および設置方向に関する設置パラメータのパターン数を参照テーブルとして作成しておいてもよい。そして、工程1で入力された物体の光学特性の情報に対応して、自動的に探索自由度を削減する。
尚、仮想物体の配置する配置範囲を制限する方法として、以下のような方法を用いてもよい。例えば、ロボットシステムを操作するユーザの判断により、明らかにロボットシステムの作業に適さない仮想物体の配置を、ユーザ指示に基づき排除する。図16は、ユーザの指示による仮想物体の配置の制限を示した図である。図16において、35はユーザに対して仮想物体の位置もしくは配置を画像で表示する表示手段35である。表示手段35は、一般的なモニタなどから構成される。300は、ユーザの仮想物体の配置に関する指示を制御部18に伝える指示装置300である。指示装置300は、一般的なパーソナルコンピュータと同様の手段により構成される。ユーザがマウスなどの入力手段で不要な仮想物体の配置や方向を削除の指示を行うと、指示装置300は、当該削除の指示を制御部18に伝える。指示装置300は、削除処理後の指示装置300の配置、方向に関する情報をモニタ35に表示させる。
(スクリーン装置の追加)
本実施形態と第一および第二の実施形態とで異なる点は、工程2で入力されるシステム構成として、スクリーン装置が追加されていることである。また、工程3で入力されるシステム構成品の設置条件として、スクリーン装置をロボットセル内のワークエリアのどの領域に設定するのかを指定することが追加されている。
40000×20×10=8000000通り ・・・(8)
以上の探索自由度において工程6で評価値を算出することは、第一および第二の実施形態と同様である。また、工程7以降の処理に関しても、基準値を満たすスクリーン装置26の設置方向の設定パラメータと、一定領域内でのスクリーン装置26の位置に関する設置パラメータを選択する。そして、さらにそれをユーザに提示することが追加される以外は、第一および第二の実施形態と同様である。
本実施形態のロボットシステムにおける評価方法は、第一の実施形態で説明した工程3において入力されるシステム構成品の設置条件として、ロボットアームの動作速度を含む動作パターンが追加されている。そして、工程6で算出される評価値として、タスク処理のタクトタイムが追加され、工程5で入力される評価値が満たすべき基準値としてタスク処理のタクトタイムが追加されている。
40000×10=400000通り ・・・(9)
また、工程5では、その他の評価値が満たすべき基準値とともに、タスク処理のタクトタイムの基準値を入力する。また、工程6においては、前述した探索自由度400000通りに関して、タクトタイムを含む各評価値が算出される。
本実施形態では、ユーザとのグラフィカルユーザインターフェースについて説明する。
Claims (13)
- 撮像手段の撮像画像に基づき作業を行うロボットシステムの構成部材の配置を設定するための情報処理装置であって、
前記ロボットシステムの作業空間に対応する仮想空間に、前記構成部材に対応する仮想物体を配置する配置手段と、
前記配置手段で配置される仮想物体の配置範囲を制限する制限手段と、
前記制限手段で制限された配置範囲で前記仮想物体が配置された前記仮想空間を前記撮像手段の視点から撮像した場合に得られる仮想空間画像を取得する第一の取得手段と、
前記仮想空間画像に基づき、前記ロボットシステムの作業に対する前記仮想物体の配置の適合を示す評価値を取得する第二の取得手段とを有することを特徴とする情報処理装置。 - 前記第一の取得手段は、前記仮想物体の配置が互いに異なる複数の前記仮想空間画像を取得し、
前記第二の取得手段は、複数の前記仮想空間画像それぞれに対する複数の前記評価値を取得し、
複数の前記評価値から前記ロボットシステムの作業により適した評価値を選択し、当該選択された評価値に対応する前記ロボットシステムの構成部材の配置パラメータを報知する報知手段を有することを特徴とする請求項1に記載の情報処理装置。 - 前記第二の取得手段は、前記仮想空間画像のコントラスト値と、前記仮想空間画像中に
おける前記仮想物体の認識信頼度と、前記仮想空間画像中における前記仮想物体の遮蔽率
と、前記仮想空間画像中における前記仮想物体の計測信頼度との少なくともいずれか一つ
を用いて、前記評価値を取得することを特徴とする請求項1に記載の情報処理装置。 - 前記ロボットシステムの構成部材の配置は、前記撮像手段の配置と、前記ロボットシス
テムの被作業物体を照明する照明装置の配置と、前記被作業物体に対して作業を行うロボ
ットアームの配置と、スクリーン装置の配置との少なくともいずれか一つを含むことを特
徴とする請求項1に記載の情報処理装置。 - 前記第二の取得手段は、前記ロボットシステムの作業のタクトタイムと、前記照明装置
の照明に関する情報と、前記構成部材の形状モデルに関する情報との少なくともいずれか
一つを用いて、前記評価値を取得することを特徴とする請求項1記載の情報処理装置。 - 前記仮想空間と前記仮想物体とを、コンピュータグラフィックス画像で表示手段に表示
させる表示制御手段を有することを特徴とする請求項1に記載の情報処理装置。 - 前記第一の取得手段は、前記配置範囲で前記仮想物体の配置が互いに異なる複数の前記
仮想空間画像を取得することを特徴とする請求項1に記載の情報処理装置。 - 前記制限手段は、ユーザの指示に基づき、前記配置手段で配置される仮想物体の配置範
囲を制限することを特徴とする請求項1に記載の情報処理装置。 - 前記制限手段は、前記ロボットシステムの被作業物体の形状に応じて、前記配置手段で配置される仮想物体の配置範囲を制限することを特徴とする請求項1に記載の情報処理装置。
- 前記ロボットシステムの構成部材の変更を検出する検出手段を有し、
前記制限手段は、前記検出された変更に基づき、前記配置手段で配置される仮想物体の配置範囲を制限することを特徴とする請求項1に記載の情報処理装置。 - 撮像手段の撮像画像に基づき作業を行うロボットシステムであって、
前記ロボットシステムの作業空間に対応する仮想空間に、前記ロボットシステムの構成部材に対応する仮想物体を配置する配置手段と、
前記配置手段で配置される仮想物体の配置範囲を制限する制限手段と、
前記配置範囲で前記仮想物体が配置された前記仮想空間を前記撮像手段の視点から撮像した場合に得られる仮想空間画像を取得する第一の取得手段と、
前記仮想空間画像に基づき、前記ロボットシステムの作業に対する前記仮想物体の配置
の適合を示す評価値を取得する第二の取得手段と、
前記評価値に基づく前記構成部材の配置パラメータを出力する出力手段とを有することを特徴とするロボットシステム。 - 撮像手段の撮像画像に基づき作業を行うロボットシステムの構成部材の配置を設定するための情報処理装置の制御方法であって、
配置手段が、前記ロボットシステムの作業空間に対応する仮想空間に、前記構成部材に対応する仮想物体を配置する配置工程と、
制限手段が、前記配置工程で配置される仮想物体の配置範囲を制限する制限工程と、
第一の取得手段が、前記配置範囲で前記仮想物体が配置された前記仮想空間を前記撮像手段の視点から撮像した場合に得られる仮想空間画像を取得する第一の取得工程と、
第二の取得手段が、前記仮想空間画像に基づき、前記ロボットシステムの作業に対する前記仮想物体の配置の適合を示す評価値を取得する第二の取得工程とを有することを特徴とする制御方法。 - コンピュータを、
撮像手段の撮像画像に基づき作業を行うロボットシステムの構成部材の配置を設定するための情報処理装置であって、
前記ロボットシステムの作業空間に対応する仮想空間に、前記構成部材に対応する仮想物体を配置する配置手段と、
前記配置手段で配置される仮想物体の配置範囲を制限する制限手段と、
前記配置範囲で前記仮想物体が配置された前記仮想空間を前記撮像手段の視点から撮像した場合に得られる仮想空間画像を取得する第一の取得手段と、
前記仮想空間画像に基づき、前記ロボットシステムの作業に対する前記仮想物体の配置
の適合を示す評価値を取得する第二の取得手段とを有することを特徴とする情報処理装置
として機能させるためのコンピュータプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010053409A JP5665333B2 (ja) | 2010-03-10 | 2010-03-10 | 情報処理装置および情報処理装置の制御方法 |
EP11713371.0A EP2544867B1 (en) | 2010-03-10 | 2011-03-07 | Information processing apparatus and method for controlling the same |
CN201180012453.0A CN102781631B (zh) | 2010-03-10 | 2011-03-07 | 信息处理装置及控制该装置的方法 |
PCT/JP2011/001318 WO2011111362A2 (en) | 2010-03-10 | 2011-03-07 | Information processing apparatus and method for controlling the same |
US13/582,116 US9511493B2 (en) | 2010-03-10 | 2011-03-07 | Information processing apparatus and method for controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010053409A JP5665333B2 (ja) | 2010-03-10 | 2010-03-10 | 情報処理装置および情報処理装置の制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011186928A JP2011186928A (ja) | 2011-09-22 |
JP5665333B2 true JP5665333B2 (ja) | 2015-02-04 |
Family
ID=44358423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010053409A Active JP5665333B2 (ja) | 2010-03-10 | 2010-03-10 | 情報処理装置および情報処理装置の制御方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9511493B2 (ja) |
EP (1) | EP2544867B1 (ja) |
JP (1) | JP5665333B2 (ja) |
CN (1) | CN102781631B (ja) |
WO (1) | WO2011111362A2 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5812599B2 (ja) * | 2010-02-25 | 2015-11-17 | キヤノン株式会社 | 情報処理方法及びその装置 |
JP6228120B2 (ja) * | 2012-08-02 | 2017-11-08 | 富士機械製造株式会社 | 多関節型ロボットを備えた作業機および電気部品装着機 |
JP5673716B2 (ja) * | 2013-03-19 | 2015-02-18 | 株式会社安川電機 | ロボットシステム及び被加工物の製造方法 |
JP2015157339A (ja) * | 2014-02-25 | 2015-09-03 | セイコーエプソン株式会社 | ロボット、ロボットシステム、制御装置、及び制御方法 |
JP6642968B2 (ja) * | 2014-03-20 | 2020-02-12 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2015229234A (ja) * | 2014-06-06 | 2015-12-21 | ナブテスコ株式会社 | 作業ロボットの教示データ生成装置及び教示データ生成方法 |
JP6392817B2 (ja) * | 2016-08-04 | 2018-09-19 | ファナック株式会社 | シミュレーション装置 |
JP6768400B2 (ja) * | 2016-08-04 | 2020-10-14 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP7051287B2 (ja) * | 2016-12-05 | 2022-04-11 | 株式会社ソニー・インタラクティブエンタテインメント | システム、治具、および情報処理方法 |
JP6589847B2 (ja) * | 2016-12-26 | 2019-10-16 | 株式会社ダイフク | 物品積載設備 |
JP6850183B2 (ja) * | 2017-04-11 | 2021-03-31 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
JP6734253B2 (ja) | 2017-12-20 | 2020-08-05 | ファナック株式会社 | ワークを撮像する視覚センサを備える撮像装置 |
EP3733356A4 (en) * | 2017-12-28 | 2020-12-16 | Fuji Corporation | INFORMATION PROVISION SYSTEM, INFORMATION PROVISION PROCESS AND PROGRAM |
CN111542419B (zh) * | 2017-12-28 | 2024-01-23 | 株式会社富士 | 信息提供装置、信息提供方法以及程序 |
TWI681487B (zh) * | 2018-10-02 | 2020-01-01 | 南韓商Komico有限公司 | 三維形狀影像取得系統 |
JP7275688B2 (ja) * | 2019-03-15 | 2023-05-18 | 株式会社デンソーウェーブ | ロボットの部品ピッキングシステム |
JP7012040B2 (ja) * | 2019-03-28 | 2022-01-27 | 本田技研工業株式会社 | 動作領域制限方法、及びロボット制御装置 |
KR102775072B1 (ko) * | 2019-04-02 | 2025-03-04 | 현대자동차주식회사 | 로봇의 파지 제어방법 및 제어시스템 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5231693A (en) | 1991-05-09 | 1993-07-27 | The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration | Telerobot control system |
JPH0811074A (ja) * | 1994-06-29 | 1996-01-16 | Fanuc Ltd | ロボットシステム |
JPH0970780A (ja) * | 1995-09-06 | 1997-03-18 | Fanuc Ltd | ロボットのツール形状補正方式 |
JP3421608B2 (ja) * | 1999-04-08 | 2003-06-30 | ファナック株式会社 | 教示モデル生成装置 |
US7802193B1 (en) * | 2001-12-19 | 2010-09-21 | Sandia Corporation | Controlling motion using a human machine interface |
JP2005515910A (ja) * | 2002-01-31 | 2005-06-02 | ブレインテック カナダ インコーポレイテッド | シングルカメラ3dビジョンガイドロボティクスの方法および装置 |
JP2007523757A (ja) | 2003-06-20 | 2007-08-23 | ファナック ロボティクス アメリカ,インコーポレイティド | 複数のロボットアームの追従及び鏡映ジョグ |
JP3834307B2 (ja) | 2003-09-29 | 2006-10-18 | ファナック株式会社 | ロボットシステム |
DE10351669B4 (de) * | 2003-11-05 | 2012-09-13 | Kuka Laboratories Gmbh | Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt |
JP3946753B2 (ja) | 2005-07-25 | 2007-07-18 | ファナック株式会社 | ロボットプログラム評価・修正方法及びロボットプログラム評価・修正装置 |
JP4153528B2 (ja) * | 2006-03-10 | 2008-09-24 | ファナック株式会社 | ロボットシミュレーションのための装置、プログラム、記録媒体及び方法 |
JP2007334678A (ja) | 2006-06-15 | 2007-12-27 | Fanuc Ltd | ロボットシミュレーション装置 |
JP2008021092A (ja) * | 2006-07-12 | 2008-01-31 | Fanuc Ltd | ロボットシステムのシミュレーション装置 |
US7920124B2 (en) * | 2006-08-29 | 2011-04-05 | Canon Kabushiki Kaisha | Force sense presentation device, mixed reality system, information processing method, and information processing apparatus |
JP2008296330A (ja) * | 2007-05-31 | 2008-12-11 | Fanuc Ltd | ロボットシミュレーション装置 |
JP2010053409A (ja) | 2008-08-28 | 2010-03-11 | Sumitomo Electric Ind Ltd | 金属粉末の製造方法および金属粉末、導電性ペースト、積層セラミックコンデンサ |
JP4653836B2 (ja) * | 2008-12-12 | 2011-03-16 | ファナック株式会社 | シミュレーション装置 |
JP4837116B2 (ja) * | 2010-03-05 | 2011-12-14 | ファナック株式会社 | 視覚センサを備えたロボットシステム |
JP5218470B2 (ja) * | 2010-04-28 | 2013-06-26 | 株式会社安川電機 | ロボットの作業成否判定装置、および方法 |
WO2012027541A1 (en) * | 2010-08-27 | 2012-03-01 | Abb Research Ltd | Vision-guided alignment system and method |
JP5685027B2 (ja) * | 2010-09-07 | 2015-03-18 | キヤノン株式会社 | 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム |
JP5835926B2 (ja) * | 2011-04-11 | 2015-12-24 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP6000579B2 (ja) * | 2012-03-09 | 2016-09-28 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5670416B2 (ja) * | 2012-12-28 | 2015-02-18 | ファナック株式会社 | ロボットシステム表示装置 |
-
2010
- 2010-03-10 JP JP2010053409A patent/JP5665333B2/ja active Active
-
2011
- 2011-03-07 CN CN201180012453.0A patent/CN102781631B/zh active Active
- 2011-03-07 EP EP11713371.0A patent/EP2544867B1/en active Active
- 2011-03-07 US US13/582,116 patent/US9511493B2/en active Active
- 2011-03-07 WO PCT/JP2011/001318 patent/WO2011111362A2/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2011111362A3 (en) | 2012-07-12 |
CN102781631A (zh) | 2012-11-14 |
EP2544867A2 (en) | 2013-01-16 |
US9511493B2 (en) | 2016-12-06 |
US20120327224A1 (en) | 2012-12-27 |
CN102781631B (zh) | 2015-09-09 |
EP2544867B1 (en) | 2017-07-05 |
JP2011186928A (ja) | 2011-09-22 |
WO2011111362A2 (en) | 2011-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5665333B2 (ja) | 情報処理装置および情報処理装置の制御方法 | |
JP5257335B2 (ja) | 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ | |
KR101964332B1 (ko) | 핸드-아이 캘리브레이션 방법, 이를 실행하기 위한 컴퓨터 프로그램 및 로봇 시스템 | |
JP2008021092A (ja) | ロボットシステムのシミュレーション装置 | |
JP2018111166A (ja) | 視覚センサのキャリブレーション装置、方法及びプログラム | |
JP2007527993A (ja) | 検査路設定及び検査領域決定方法 | |
CN112236271B (zh) | 模拟装置、计算机可读存储介质以及模拟方法 | |
CN113116386B (zh) | 超声成像引导方法、超声设备及存储介质 | |
JP2013527471A5 (ja) | ||
JP2008286797A (ja) | 非接触式振動測定方法およびそれを実施する装置 | |
TW201403277A (zh) | 機器人系統、機器人、機器人控制裝置、機器人控制方法及機器人控制程式 | |
JP2009053147A (ja) | 3次元計測方法および3次元計測装置 | |
JP2014013146A (ja) | 3次元計測装置及びロボット装置 | |
CN112276936A (zh) | 三维数据生成装置以及机器人控制系统 | |
KR101972432B1 (ko) | 레이저비전 센서 및 그 보정방법 | |
JP2019052983A (ja) | 校正方法、および校正装置 | |
JP2016109669A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2007160486A (ja) | オフラインプログラミング装置 | |
JP2010276447A (ja) | 位置計測装置、位置計測方法およびロボットシステム | |
JP7502003B2 (ja) | 移動機械の移動軌跡のずれを取得する装置、及び方法 | |
JP2015007639A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US11559888B2 (en) | Annotation device | |
JP2005098978A (ja) | 三次元計測装置、三次元計測方法、三次元計測プログラムおよび記録媒体 | |
KR20220110546A (ko) | 로봇을 프로그래밍하기 위한 방법 및 시스템 | |
WO2022123850A1 (ja) | 制御装置、制御方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130311 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131203 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141209 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5665333 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |