[go: up one dir, main page]

JP2019063954A - Robot system, calibration method and calibration program - Google Patents

Robot system, calibration method and calibration program Download PDF

Info

Publication number
JP2019063954A
JP2019063954A JP2017193415A JP2017193415A JP2019063954A JP 2019063954 A JP2019063954 A JP 2019063954A JP 2017193415 A JP2017193415 A JP 2017193415A JP 2017193415 A JP2017193415 A JP 2017193415A JP 2019063954 A JP2019063954 A JP 2019063954A
Authority
JP
Japan
Prior art keywords
distance
robot
imaging device
laser sensor
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017193415A
Other languages
Japanese (ja)
Other versions
JP6869159B2 (en
Inventor
ボ リュウ
Bo Liu
ボ リュウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihen Corp
Original Assignee
Daihen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihen Corp filed Critical Daihen Corp
Priority to JP2017193415A priority Critical patent/JP6869159B2/en
Publication of JP2019063954A publication Critical patent/JP2019063954A/en
Application granted granted Critical
Publication of JP6869159B2 publication Critical patent/JP6869159B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】キャリブレーションに要する手間及び時間を削減するロボットシステムを提供する。【解決手段】ロボットシステム1は、対象物を撮像する撮像装置12と、距離を測定するレーザセンサ13と、アーム15と、を備えるロボット10、及び制御装置20を備え、制御装置は、撮像装置の焦点が第1対象物50に合っている際の撮像装置から第1対象物までの距離が、基準距離として記憶される記憶部22と、第2対象物40を含む第1画像に基づき、第2対象物までの距離を測定可能な領域にレーザセンサが位置するようにアームを配置させ、撮像装置から第2対象物までの距離が基準距離と一致するようにアームを移動させる動作制御部210と、距離情報に基づいて、第2対象物の複数の特徴点を検出する検出部213と、アームの座標系における複数の特徴点の座標と、移動した撮像装置によって撮像された第2画像の座標とを対応付ける較正部214と、を備える。【選択図】図1PROBLEM TO BE SOLVED: To provide a robot system which reduces labor and time required for calibration. SOLUTION: A robot system 1 includes an image pickup device 12 for imaging an object, a robot 10 including a laser sensor 13 for measuring a distance, an arm 15, and a control device 20, and the control device is an image pickup device. The distance from the image pickup device to the first object when the focus is on the first object 50 is based on the storage unit 22 stored as a reference distance and the first image including the second object 40. An operation control unit that arranges the arm so that the laser sensor is located in a region where the distance to the second object can be measured, and moves the arm so that the distance from the image pickup device to the second object matches the reference distance. The 210, the detection unit 213 that detects a plurality of feature points of the second object based on the distance information, the coordinates of the plurality of feature points in the coordinate system of the arm, and the second image captured by the moved imaging device. It is provided with a calibration unit 214 that associates with the coordinates of. [Selection diagram] Fig. 1

Description

本発明は、ロボットシステム、キャリブレーション方法及びキャリブレーションプログラムに関する。   The present invention relates to a robot system, a calibration method and a calibration program.

従来から、ロボットのマニピュレータの先端に撮像装置が取り付けられ、この撮像装置から得られる情報に基づいてマニピュレータの動作が制御される、いわゆるオンハンド方式のロボットシステムが開発されている。このようなロボットシステムでは、例えばロボットに対象物の把持等の動作を行わせる場合、撮像装置によってロボットの作業領域を撮像し、得られた画像から対象物を検出し、検出された対象物の位置を算出することにより、当該把持等の動作を高精度に制御することができる。   Conventionally, a so-called on-hand robot system has been developed in which an imaging device is attached to the tip of a robot manipulator, and the operation of the manipulator is controlled based on information obtained from the imaging device. In such a robot system, for example, when the robot performs an operation such as gripping of an object, the imaging device captures an image of a working area of the robot, detects the object from the obtained image, and detects the detected object. By calculating the position, the operation such as gripping can be controlled with high accuracy.

このようなロボットシステムにおいて、撮像装置から得られる情報をロボットの動作に反映させるためには、撮像装置によって取得される画像上のピクセル座標と、ロボットが作業する作業空間上の空間座標とが予め対応付けられている必要がある。このように、異なる座標の対応付けを行う処理をキャリブレーションと呼ぶ。   In such a robot system, in order to reflect information obtained from the imaging device in the operation of the robot, pixel coordinates on the image acquired by the imaging device and space coordinates on the work space in which the robot works are previously It needs to be associated. The process of associating different coordinates in this manner is called calibration.

キャリブレーションの手法として、例えば下記特許文献1では、ロボットのアームを作業空間内において複数の位置に配置させつつ、アームに取り付けられた撮像装置によってマーカを複数回撮像することによって、得られた画像に含まれるマーカのピクセル座標と、撮像された際のロボットの空間座標との対応付けを行う方法が開示されている。   As a method of calibration, for example, in Patent Document 1 below, an image obtained by imaging a marker a plurality of times with an imaging device attached to an arm while disposing an arm of a robot at a plurality of positions in a work space Discloses a method of correlating the pixel coordinates of the marker contained in and the space coordinates of the robot at the time of imaging.

特開2016−120567号公報JP, 2016-120567, A

上述の手法によってキャリブレーションが一度完了しても、例えば対象物の種類が変更されることにより、撮像装置と対象物との相対的な位置関係が変化すると、撮像装置が備えるレンズの焦点が対象物に合わなくなり、対象物を高い精度で撮像することができなくなってしまう。従って、作業者は、対象物が変更されるごとに撮像装置が備えるレンズのピントを調整し、キャリブレーションをやり直す必要があり、作業者の手間及び時間を要していた。   Even if calibration is completed once by the above-mentioned method, for example, if the relative positional relationship between the imaging device and the object changes by changing the type of the object, the focus of the lens included in the imaging device is targeted It becomes impossible to match the object, and it becomes impossible to image the object with high accuracy. Therefore, every time the operator changes the object, it is necessary to adjust the focus of the lens provided in the imaging device and re-calibrate the calibration, which requires labor and time for the operator.

そこで、本発明は、キャリブレーションに要する手間及び時間を削減することができるロボットシステム、キャリブレーション方法及びキャリブレーションプログラムを提供することを目的とする。   Then, this invention aims at providing the robot system which can reduce the effort and time which calibration requires, the calibration method, and a calibration program.

本発明の一態様に係るロボットシステムは、ロボット及びロボットの動作を制御する制御装置を備え、ロボットは、載置面に載置された対象物を撮像する撮像装置と、対象物までの距離を測定するレーザセンサと、撮像装置及びレーザセンサが取り付けられたアームと、を備え、制御装置は、撮像装置の焦点が第1対象物に合っている際の撮像装置から第1対象物までの距離が、基準距離として記憶される記憶部と、撮像装置の視野内に存在する第2対象物を含む第1画像に基づき、第2対象物までの距離を測定可能な領域にレーザセンサが位置するようにアームを配置させ、撮像装置から第2対象物までの距離が基準距離と一致するようにアームを載置面と交差する方向に移動させる動作制御部と、レーザセンサによって測定される距離情報に基づいて、第2対象物の複数の特徴点を検出する検出部と、アームの座標系における複数の特徴点の座標と、移動した撮像装置によって撮像された第2画像の座標とを対応付ける較正部と、を備える。   A robot system according to an aspect of the present invention includes a robot and a control device that controls operations of the robot, and the robot is configured to capture an image of an object placed on the mounting surface and a distance to the object The control device includes a laser sensor to be measured, and an arm attached with an imaging device and a laser sensor, and the control device is a distance from the imaging device to the first object when the focus of the imaging device matches the first object. The laser sensor is located in an area where the distance to the second object can be measured based on the storage unit stored as the reference distance and the first image including the second object present in the field of view of the imaging device And an operation control unit that moves the arm in a direction intersecting the mounting surface such that the arm is disposed and the distance from the imaging device to the second object matches the reference distance, and the distance information measured by the laser sensor Calibration that associates the detection unit that detects a plurality of feature points of the second object, the coordinates of the plurality of feature points in the coordinate system of the arm, and the coordinates of the second image captured by the moved imaging device based on And a unit.

この態様によれば、撮像装置の焦点が第1対象物に合っている際の撮像装置から第1対象物までの距離が、基準距離として記憶部に記憶される。これにより、対象物の種類の変更などにより撮像装置と対象物との相対的な位置関係が変化する場合であっても、レーザセンサを用いて、撮像装置から第2対象物までの距離が当該基準距離と一致するように、撮像装置を自動的に移動させることができる。従って、作業者が撮像装置の焦点合わせをやり直す必要がなく、キャリブレーションに要する手間及び時間を削減することができる。   According to this aspect, the distance from the imaging device to the first object when the focus of the imaging device matches the first object is stored as the reference distance in the storage unit. Thereby, even when the relative positional relationship between the imaging device and the object changes due to a change in the type of the object, the distance from the imaging device to the second object is determined using the laser sensor. The imaging device can be automatically moved to match the reference distance. Therefore, it is not necessary for the operator to refocus the imaging device, and the time and time required for calibration can be reduced.

上記態様において、複数の特徴点は、第2対象物の輪郭上に存在していてもよい。   In the above aspect, the plurality of feature points may be present on the contour of the second object.

この態様によれば、レーザセンサを用いて第2対象物の特徴点を検出することができる。従って、撮像装置から得られる画像に画像処理を施して特徴点を検出する場合に比べて特徴点の検出精度が向上し、結果としてキャリブレーションの精度を向上させることができる。また、画像処理を施す場合に比べて、特徴点の検出に要する時間を削減することができる。   According to this aspect, the feature point of the second object can be detected using the laser sensor. Therefore, the detection accuracy of the feature point is improved as compared with the case where the image obtained from the imaging device is subjected to image processing to detect the feature point, and as a result, the accuracy of the calibration can be improved. Moreover, compared with the case where image processing is performed, the time required for the detection of a feature point can be reduced.

上記態様において、撮像装置とレーザセンサは、別体であってもよい。   In the above aspect, the imaging device and the laser sensor may be separate.

この態様によれば、レーザセンサによって距離が測定されるため、例えば測距機能を兼ねた撮像装置によって距離が測定される構成に比べて、測距の精度が高くなる。従って、撮像装置の焦点合わせや第2対象物の特徴点の検出を高い精度で行うことができる。   According to this aspect, since the distance is measured by the laser sensor, the accuracy of distance measurement is higher than, for example, a configuration in which the distance is measured by the imaging device having a distance measuring function. Therefore, the focusing of the imaging device and the detection of the feature point of the second object can be performed with high accuracy.

本発明によれば、キャリブレーションに要する手間及び時間を削減することができるロボットシステム、キャリブレーション方法及びキャリブレーションプログラムを提供することができる。   According to the present invention, it is possible to provide a robot system, a calibration method and a calibration program capable of reducing the time and effort required for calibration.

本発明の一実施形態に係るロボットシステムの構成例を示す図である。It is a figure showing an example of composition of a robot system concerning one embodiment of the present invention. 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を示すフローチャートである。It is a flowchart which shows the procedure of the calibration in the robot system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。It is an explanatory view for explaining a procedure of calibration in a robot system concerning one embodiment of the present invention. 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。It is an explanatory view for explaining a procedure of calibration in a robot system concerning one embodiment of the present invention. 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。It is an explanatory view for explaining a procedure of calibration in a robot system concerning one embodiment of the present invention. 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。It is an explanatory view for explaining a procedure of calibration in a robot system concerning one embodiment of the present invention. 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。It is an explanatory view for explaining a procedure of calibration in a robot system concerning one embodiment of the present invention.

添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。   Embodiments of the present invention will be described with reference to the accompanying drawings. In addition, what attached the same code | symbol in each figure has the same or same structure.

図1は、本発明の一実施形態に係るロボットシステムの構成例を示す図である。図1に示されるロボットシステム1は、ロボットが、作業台の上に載置されたワーク(対象物)に対して所定の作業を行うように制御されたシステムである。具体的に、ロボットシステム1は、例えば各種の作業を行うロボット10と、ロボット10の動作を制御する制御装置20とを備える。図1に示されるように、ロボット10の動作が及び得る作業領域には、作業台30と、当該作業台30上の載置面31に載置されたワーク40が配置されている。なお、作業台30及びワーク40は、ロボットシステム1に含まれてもよいし、含まれなくてもよい。   FIG. 1 is a view showing a configuration example of a robot system according to an embodiment of the present invention. The robot system 1 shown in FIG. 1 is a system in which a robot is controlled to perform a predetermined work on a work (object) placed on a workbench. Specifically, the robot system 1 includes, for example, a robot 10 that performs various tasks, and a control device 20 that controls the operation of the robot 10. As shown in FIG. 1, a workbench 30 and a work 40 placed on a placement surface 31 on the workbench 30 are disposed in a work area where the operation of the robot 10 can extend. The work platform 30 and the work 40 may or may not be included in the robot system 1.

ロボット10は、例えばロボット10の本体部を構成するマニピュレータ11と、当該マニピュレータ11に取り付けられた視覚センサ12及びレーザセンサ13とを備える。ロボット10は、空間座標(図1においてはXYZ座標)によって表される作業空間内において動作する。   The robot 10 includes, for example, a manipulator 11 constituting a main body of the robot 10, and a visual sensor 12 and a laser sensor 13 attached to the manipulator 11. The robot 10 operates in a work space represented by space coordinates (XYZ coordinates in FIG. 1).

マニピュレータ11は、フロア等に設置されるベース14と、複数の関節を有するアーム15とを備える。複数の関節にはサーボモーター等が取り付けられており、このサーボモーターを駆動制御することにより、アーム15の多関節動作が実現される。当該関節の数によってアーム15の可動範囲が変化するが、本実施形態では、例えば6軸の多関節構造であるものとする。アーム15の先端16(すなわち、マニピュレータ11の先端)には、所定の作業を行うためのエンドエフェクタ(不図示)が取り付けられる。当該エンドエフェクタを交換することにより、ロボット10は様々な作業に対応することができる。エンドエフェクタの具体例としては、例えば多指ハンド、グリッパ、溶接トーチ、塗装ガン、ねじ締め機等が挙げられる。   The manipulator 11 includes a base 14 installed on a floor or the like, and an arm 15 having a plurality of joints. A servomotor or the like is attached to the plurality of joints, and the articulated motion of the arm 15 is realized by controlling the drive of the servomotor. The movable range of the arm 15 changes according to the number of joints, but in this embodiment, it is assumed to be, for example, a six-axis articulated structure. An end effector (not shown) for performing a predetermined operation is attached to the tip 16 of the arm 15 (that is, the tip of the manipulator 11). By exchanging the end effector, the robot 10 can handle various tasks. Specific examples of the end effector include, for example, a multi-fingered hand, a gripper, a welding torch, a painting gun, a screw tightening machine and the like.

視覚センサ12(撮像装置)は、アーム15の先端16に取りけられ、アーム15の移動と同期して移動しながら撮像を行う。視覚センサ12は、撮像装置の一具体例であり、例えば、撮像素子及びレンズを含むカメラである。図1において、視覚センサ12のレンズの光軸はZ軸に沿うように配置され、視覚センサ12の視野範囲はXY平面に広がっている。視覚センサ12によって撮像された画像は、例えばケーブル等(不図示)を介して制御装置20に出力され、当該制御装置20において処理される。   The visual sensor 12 (imaging device) is mounted on the tip 16 of the arm 15 and performs imaging while moving in synchronization with the movement of the arm 15. The visual sensor 12 is a specific example of an imaging device, and is, for example, a camera including an imaging element and a lens. In FIG. 1, the optical axis of the lens of the vision sensor 12 is disposed along the Z axis, and the field of view of the vision sensor 12 extends in the XY plane. An image captured by the visual sensor 12 is output to the control device 20 via, for example, a cable (not shown) and processed in the control device 20.

ロボット10は、視覚センサ12から得られる情報に基づいて動作が制御される、いわゆるオンハンド方式のロボットである。ロボットシステム1が例えばワーク40の把持動作に用いられる場合、視覚センサ12によって作業台30の載置面31に載置されたワーク40が撮像され、得られた画像からワーク40が検出される。これにより、載置面31におけるワーク40の位置及び姿勢、並びにワーク40のXY平面の平面視における形状が算出される。従って、ロボット10は、視覚センサ12を備えることによって、例えばワーク40を高精度に把持することができる。   The robot 10 is a so-called on-hand robot whose operation is controlled based on information obtained from the visual sensor 12. When the robot system 1 is used, for example, for the gripping operation of the workpiece 40, the workpiece 40 placed on the placement surface 31 of the work bench 30 is imaged by the visual sensor 12, and the workpiece 40 is detected from the obtained image. Thus, the position and posture of the workpiece 40 on the mounting surface 31 and the shape of the workpiece 40 in a plan view of the XY plane are calculated. Therefore, by providing the visual sensor 12, the robot 10 can grip, for example, the workpiece 40 with high accuracy.

なお、視覚センサ12から得られる情報をロボット10の動作に反映させる際には、制御装置20において、視覚センサ12によって取得された画像上のピクセル座標と、ロボットが作業する作業空間を表す空間座標とが対応付けられている必要がある。このように異なる座標系の対応付けを行う処理をキャリブレーションと呼ぶ。本実施形態におけるキャリブレーションの手法については、後に詳しく述べる。   When the information obtained from the visual sensor 12 is to be reflected in the operation of the robot 10, in the control device 20, pixel coordinates on the image acquired by the visual sensor 12 and space coordinates representing a work space in which the robot works And must be associated. The process of associating different coordinate systems in this manner is called calibration. The method of calibration in this embodiment will be described in detail later.

レーザセンサ13は、視覚センサ12とともにアーム15の先端16に取り付けれ、アーム15及び視覚センサ12の移動と同期して移動する。レーザセンサ13は、距離センサの一具体例であり、例えば三角測定式又は時間計測式のレーザセンサや、受光量判別式のレーザセンサを含む。具体的には、レーザセンサ13は照射部及び受光部(不図示)を有し、対象物に対して照射部からレーザを照射し、対象物において反射されたレーザを受光部において受光することによって、当該対象物までの距離を測定する。本実施形態において、レーザセンサ13は、例えばワーク40や載置面31までの距離の測定に用いられる。レーザセンサ13によって得られた距離の値は、例えばケーブル等(不図示)を介して制御装置20に出力されて記憶される。なお、レーザセンサ13が照射するレーザの具体的な構成は特に限定されず、例えば図1に示されるようにポイント状のレーザであってもよく、あるいはライン状のレーザであってもよい。   The laser sensor 13 is attached to the tip 16 of the arm 15 together with the visual sensor 12 and moves in synchronization with the movement of the arm 15 and the visual sensor 12. The laser sensor 13 is a specific example of a distance sensor, and includes, for example, a trigonometric measurement type or time measurement type laser sensor, and a light reception amount discriminant type laser sensor. Specifically, the laser sensor 13 has an irradiation unit and a light receiving unit (not shown), irradiates the laser from the irradiation unit to the object, and receives the laser reflected from the object by the light reception unit. Measure the distance to the object. In the present embodiment, the laser sensor 13 is used, for example, to measure the distance to the work 40 or the mounting surface 31. The value of the distance obtained by the laser sensor 13 is output and stored in the control device 20 via, for example, a cable (not shown). The specific configuration of the laser irradiated by the laser sensor 13 is not particularly limited, and may be, for example, a point-shaped laser as shown in FIG. 1 or a line-shaped laser.

なお、視覚センサ12及びレーザセンサ13が取り付けられる位置はアーム15の先端16に限られない。例えば、視覚センサ12及びレーザセンサ13は、アーム15の他の位置や、アーム15の先端16に取り付けられるエンドエフェクタ(不図示)に取り付けられてもよい。また、視覚センサ12及びレーザセンサ13は、ロボット10の一部としてロボット本体に組み込まれていてもよく、又はロボット10に外付けされていてもよい。また、本実施形態においては視覚センサ12とレーザセンサ13とが別体である構成が示されているが、当該構成の代わりに、撮像機能と測距機能が一体となった装置(例えば、測距機能を兼ねた撮像装置等)が用いられてもよい。   The position where the visual sensor 12 and the laser sensor 13 are attached is not limited to the tip 16 of the arm 15. For example, the visual sensor 12 and the laser sensor 13 may be attached to other positions of the arm 15 or an end effector (not shown) attached to the tip 16 of the arm 15. Further, the visual sensor 12 and the laser sensor 13 may be incorporated in the robot body as a part of the robot 10 or may be externally attached to the robot 10. Further, in the present embodiment, a configuration in which the visual sensor 12 and the laser sensor 13 are separate bodies is shown, but instead of the configuration, a device in which an imaging function and a distance measuring function are integrated (for example, measurement) An imaging device or the like having a distance measuring function may be used.

制御装置20は、例えばコンピュータにより構成され、マニピュレータ11、視覚センサ12及びレーザセンサ13の動作を制御する。具体的に、制御装置20は、例えば制御部21及び記憶部22を備える。制御部21は、マニピュレータ制御部210、視覚センサ制御部211、レーザセンサ制御部212、検出部213及び較正部214を含む。   The control device 20 is configured by, for example, a computer, and controls the operations of the manipulator 11, the visual sensor 12, and the laser sensor 13. Specifically, the control device 20 includes, for example, a control unit 21 and a storage unit 22. The control unit 21 includes a manipulator control unit 210, a vision sensor control unit 211, a laser sensor control unit 212, a detection unit 213, and a calibration unit 214.

マニピュレータ制御部210(動作制御部)は、ロボット10の各関節のサーボモーターの駆動を制御し、マニピュレータ11を作業空間において動作させる。また、ロボット10がエンドエフェクタを備える場合は、マニピュレータ制御部210がエンドエフェクタの動作を制御してもよい。   The manipulator control unit 210 (motion control unit) controls the drive of the servomotor of each joint of the robot 10, and operates the manipulator 11 in the work space. When the robot 10 includes an end effector, the manipulator control unit 210 may control the operation of the end effector.

視覚センサ制御部211は、視覚センサ12の撮像を制御して、画像を取得する。取得された画像は、マニピュレータ制御部210においてマニピュレータ11の駆動に用いられる。   The visual sensor control unit 211 controls the imaging of the visual sensor 12 to acquire an image. The acquired image is used to drive the manipulator 11 in the manipulator control unit 210.

レーザセンサ制御部212は、レーザセンサ13にレーザの照射及び受光をさせて、レーザセンサ13から対象物(例えば、ワーク40や載置面31等)までの距離を取得する。   The laser sensor control unit 212 causes the laser sensor 13 to emit and receive a laser, and acquires the distance from the laser sensor 13 to an object (for example, the workpiece 40 or the mounting surface 31).

検出部213は、レーザセンサ制御部212において取得された距離情報に基づき、ワーク40の特徴点(例えば、エッジ等)を検出する。   The detection unit 213 detects a feature point (for example, an edge or the like) of the workpiece 40 based on the distance information acquired by the laser sensor control unit 212.

較正部214は、ロボット10の空間座標系におけるワーク40の特徴点の座標と、視覚センサ12によって撮像された画像のピクセル座標とを対応付ける。   The calibration unit 214 associates the coordinates of the feature point of the workpiece 40 in the space coordinate system of the robot 10 with the pixel coordinates of the image captured by the vision sensor 12.

記憶部22は、例えば視覚センサ12の焦点が後述するマーカに合っている際の、視覚センサ12からマーカまでの距離が基準距離として記憶される。   The storage unit 22 stores, as a reference distance, the distance from the visual sensor 12 to the marker when, for example, the focus of the visual sensor 12 matches the marker described later.

これらの制御部21に含まれる各機能は、例えば、記憶部22に格納された所定のプログラムをプロセッサが実行することにより実現される。なお、制御装置20の機能は、これに限定されることなく、必要に応じて任意の機能が適宜追加されていてもよい。また、図1においては、制御部21に含まれる各機能が1つの制御装置20において実現される構成が示されているが、当該各機能は複数の装置に分散されて実現されてもよい。   Each function included in the control unit 21 is realized, for example, by the processor executing a predetermined program stored in the storage unit 22. In addition, the function of the control apparatus 20 is not limited to this, Arbitrary functions may be added suitably as needed. Although FIG. 1 shows a configuration in which each function included in the control unit 21 is realized by one control device 20, each function may be dispersed and realized in a plurality of devices.

ワーク40(第2対象物)は、作業台30の載置面31の上に載置されている。ワーク40の形状は特に限定されないが、本実施形態においては、ワーク40は複数の面を有する直方体を成す。ワーク40は、載置面31と対向する上面41を有し、この上面41の周囲に輪郭(エッジ)を有する。   The work 40 (second object) is mounted on the mounting surface 31 of the work table 30. The shape of the work 40 is not particularly limited, but in the present embodiment, the work 40 forms a rectangular parallelepiped having a plurality of faces. The workpiece 40 has an upper surface 41 opposite to the mounting surface 31 and has an outline (edge) around the upper surface 41.

次に、図2及び図3A〜図3Eを参照しつつ、上述のロボットシステム1においてマニピュレータ11と視覚センサ12のキャリブレーションを行う方法を説明する。ここで、図2は、本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を示すフローチャートであり、図3A〜図3Eは、本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。なお、図3Eは、視覚センサ12の視野範囲画面を示している。また、図2に示されるフローチャートは、制御装置20の記憶部22に、マニピュレータ11の所定の位置(例えば、先端16)に対する視覚センサ12及びレーザセンサ13の相対的な位置関係が予め記憶された状態で開始する。   Next, a method of performing calibration of the manipulator 11 and the visual sensor 12 in the above-described robot system 1 will be described with reference to FIGS. 2 and 3A to 3E. Here, FIG. 2 is a flowchart showing the procedure of calibration in the robot system according to one embodiment of the present invention, and FIGS. 3A to 3E are the procedure of calibration in the robot system according to one embodiment of the present invention It is explanatory drawing for demonstrating. FIG. 3E shows the visual field range screen of the visual sensor 12. Further, in the flowchart shown in FIG. 2, the relative positional relationship between the visual sensor 12 and the laser sensor 13 with respect to a predetermined position (for example, the tip 16) of the manipulator 11 is stored in the storage unit 22 of the control device 20 in advance. Start in the state.

まず、ステップS10において、視覚センサ制御部211は、視覚センサ12を用いて載置面31に載置されたマーカ50(第1対象物)を含む画像を取得する。当該画像に基づき、視覚センサ12の焦点をマーカ50に合せる(図3A参照)。この焦点合わせは、例えば、視覚センサ12の撮像画像が表示されるディスプレイ(不図示)を作業者が目視しつつ、当該視覚センサ12のレンズのピントを調整して行う。マーカ50は、例えば視覚センサ12の焦点を合わせるために適した模様や文字等が印字されたものを含む。なお、焦点合わせは、ピントの調整の代わりに、アーム15をZ軸方向に移動させ、当該視覚センサ12からマーカ50までの距離を調整することにより行ってもよい。また、マーカ50は載置面31に載置される代わりに、載置面31に直接印字されていてもよく、また作業台30の代わりに床面に直接載置されてもよい。   First, in step S <b> 10, the visual sensor control unit 211 acquires an image including the marker 50 (first object) placed on the placement surface 31 using the visual sensor 12. Based on the image, the vision sensor 12 is focused on the marker 50 (see FIG. 3A). This focusing is performed, for example, by adjusting the focus of the lens of the visual sensor 12 while the operator looks at a display (not shown) on which a captured image of the visual sensor 12 is displayed. The markers 50 include, for example, those on which a pattern, characters, etc. suitable for focusing the visual sensor 12 are printed. Focusing may be performed by moving the arm 15 in the Z-axis direction and adjusting the distance from the visual sensor 12 to the marker 50 instead of adjusting the focus. Also, the marker 50 may be printed directly on the mounting surface 31 instead of being mounted on the mounting surface 31, or may be directly mounted on the floor instead of the work table 30.

次に、ステップS20において、視覚センサ12の焦点がマーカ50に合っている際に、レーザセンサ制御部212は、レーザセンサ13を用いてマーカ50までの距離を測定する(図3A参照)。レーザセンサ13と視覚センサ12との位置関係は記憶部22に記憶されている。従って、レーザセンサ13からマーカ50までの距離に基づいて、視覚センサ12(より具体的には、例えば視覚センサ12のレンズの先端)からマーカ50までの距離が算出される。当該算出された距離は、基準距離WDとして記憶部22に記憶される。なお、当該基準距離WDは、視覚センサ12のワークディスタンスに相当する。   Next, in step S20, when the focus of the visual sensor 12 is aligned with the marker 50, the laser sensor control unit 212 measures the distance to the marker 50 using the laser sensor 13 (see FIG. 3A). The positional relationship between the laser sensor 13 and the visual sensor 12 is stored in the storage unit 22. Therefore, based on the distance from the laser sensor 13 to the marker 50, the distance from the visual sensor 12 (more specifically, for example, the tip of the lens of the visual sensor 12) to the marker 50 is calculated. The calculated distance is stored in the storage unit 22 as a reference distance WD. The reference distance WD corresponds to the work distance of the vision sensor 12.

次に、ステップS30において、視覚センサ12の視野内にワーク40が存在する際に、視覚センサ制御部211は、視覚センサ12を用いてワーク40が含まれた画像(第1画像)を取得する。マニピュレータ制御部210は、取得された画像に基づいて、載置面31におけるワーク40のおおよその位置を検出し、ワーク40のZ軸上の領域にレーザセンサ13が位置するようにアーム15をXY平面方向に移動させる(図3B参照)。なお、ワーク40のZ軸上の領域とは、レーザセンサ13によってワーク40までの距離を測定可能な領域である。視覚センサ12の視野範囲は、レーザセンサ13の測定範囲(すなわち、レーザが照射される一点)より広い。従って、視覚センサ12を用いてワーク40のおおよその位置を検出することにより、ワーク40の位置をレーザセンサ13のみを用いて走査する場合に比べて、ワーク40の検出に要する時間を短縮することができる。   Next, in step S30, when the work 40 is present in the visual field of the visual sensor 12, the visual sensor control unit 211 acquires an image (first image) including the work 40 using the visual sensor 12. . The manipulator control unit 210 detects the approximate position of the workpiece 40 on the mounting surface 31 based on the acquired image, and the arm 15 is XY so that the laser sensor 13 is positioned in the region on the Z axis of the workpiece 40. Move in the planar direction (see FIG. 3B). The area on the Z axis of the work 40 is an area where the distance to the work 40 can be measured by the laser sensor 13. The visual field range of the visual sensor 12 is wider than the measurement range of the laser sensor 13 (ie, one point where the laser is irradiated). Therefore, by detecting the approximate position of the workpiece 40 using the visual sensor 12, the time required to detect the workpiece 40 can be shortened as compared to the case where the position of the workpiece 40 is scanned using only the laser sensor 13. Can.

なお、ステップS30では、必ずしも視覚センサ12の焦点がワーク40に合っている必要はなく、取得された画像からワーク40のおおよその位置が判別できればよい。この判別は、例えばテンプレートマッチング等によって行ってもよい。また、画像におけるワーク40の位置に応じてアーム15を移動させるプログラムは、予め記憶部22等に記憶されていてもよい。また、ステップS30の開始時に、ワーク40のZ軸上の領域にレーザセンサ13が予め位置している場合は、アーム15を移動させなくてもよい。   In step S30, the focus of the visual sensor 12 does not necessarily have to match the workpiece 40, as long as the approximate position of the workpiece 40 can be determined from the acquired image. This determination may be performed by, for example, template matching or the like. The program for moving the arm 15 in accordance with the position of the work 40 in the image may be stored in advance in the storage unit 22 or the like. In addition, when the laser sensor 13 is positioned in advance in the area on the Z axis of the workpiece 40 at the start of step S30, the arm 15 may not be moved.

次に、ステップS40において、レーザセンサ制御部212は、レーザセンサ13を用いてワーク40の上面41までの距離h1を測定する。そして、マニピュレータ制御部210は、測定された距離h1に基づいて算出される視覚センサ12からワーク40までの距離が基準距離WDと一致するように、アーム15を載置面と交差する方向(図3Cにおいては、Z軸方向)に移動させる(図3C参照)。具体的には、ワーク40の上面41までの距離h1が基準距離WDより長ければ、その差(=h1−WD)分アームをZ軸負方向に移動させ、当該距離h1が基準距離WDより短ければ、その差(=WD−h1)分アームをZ軸正方向に移動させる。これにより、視覚センサ12からワーク40までの距離が、当該視覚センサ12のワークディスタンスと一致し、自動的にワーク40の上面41に焦点を合わせることができる。なお、図3Cにおいては、ワーク40の上面41に焦点が合わせられる例が示されているが、ワーク40において焦点が合わせられるZ軸方向の位置は必ずしも上面41に限られない。例えばワークの上面に凹凸がある場合や、上面が傾斜している場合は、ワークの上面と下面(すなわち、載置面31に接する面)との間のいずれかの位置に焦点が合わせられてもよい。   Next, in step S40, the laser sensor control unit 212 measures the distance h1 to the upper surface 41 of the work 40 using the laser sensor 13. Then, the manipulator control unit 210 intersects the arm 15 with the mounting surface such that the distance from the visual sensor 12 to the workpiece 40 calculated based on the measured distance h1 matches the reference distance WD (see FIG. In 3C, it is moved in the Z-axis direction (see FIG. 3C). Specifically, if the distance h1 to the upper surface 41 of the work 40 is longer than the reference distance WD, the arm is moved in the negative Z-axis direction by the difference (= h1-WD), and the distance h1 is shorter than the reference distance WD For example, the arm is moved in the Z-axis positive direction by the difference (= WD−h1). As a result, the distance from the visual sensor 12 to the workpiece 40 coincides with the working distance of the visual sensor 12 and the upper surface 41 of the workpiece 40 can be automatically focused. Although FIG. 3C shows an example in which the upper surface 41 of the work 40 is focused, the position in the Z-axis direction at which the work 40 is focused is not necessarily limited to the upper surface 41. For example, in the case where the upper surface of the work is uneven or the upper surface is inclined, the focal point is focused on any position between the upper surface and the lower surface of the work (ie, the surface in contact with the mounting surface 31) It is also good.

次に、ステップS50において、検出部213は、レーザセンサ13によって測定される距離情報に基づき、ワーク40の複数の特徴点を検出する(図3D参照)。具体的には、マニピュレータ制御部210及びレーザセンサ制御部212は、XY平面に沿ってアーム15を移動させつつ、レーザセンサ13からワーク40に向かってレーザを照射させて、ワーク40の上面41を含むワーク40の周辺領域を走査させる。そして、レーザセンサ13からワーク40又は載置面31までの距離が急激に変化した(例えば、所定の閾値以上変化した)という距離情報に基づき、当該急激に変化した位置を、ワーク40のエッジ点Eとみなす。この走査をXY平面において繰り返すことにより、ワーク40の輪郭上に存在する異なる複数のエッジ点を検出する。検出するエッジ点の数や位置は特に限定されないが、例えば図3Eに示されるように、ワーク40の上面41を囲む4辺におけるそれぞれの中点(エッジ点E1〜E4)であってもよい。これらの複数のエッジ点が検出された際のアーム15の位置座標(例えば、アーム15の先端16のXYZ座標)を、記憶部22に記憶する。   Next, in step S50, the detection unit 213 detects a plurality of feature points of the workpiece 40 based on the distance information measured by the laser sensor 13 (see FIG. 3D). Specifically, while moving the arm 15 along the XY plane, the manipulator control unit 210 and the laser sensor control unit 212 cause the laser sensor 13 to irradiate the laser toward the workpiece 40 to move the upper surface 41 of the workpiece 40. The peripheral area of the workpiece 40 including is scanned. Then, based on the distance information that the distance from the laser sensor 13 to the work 40 or the mounting surface 31 has changed rapidly (for example, changed by a predetermined threshold or more), the rapidly changing position is an edge point of the work 40 It is regarded as E. By repeating this scan in the XY plane, a plurality of different edge points present on the contour of the workpiece 40 are detected. The number and position of edge points to be detected are not particularly limited, but may be middle points (edge points E1 to E4) on four sides surrounding the upper surface 41 of the work 40, as shown in FIG. 3E, for example. The position coordinates of the arm 15 (for example, the XYZ coordinates of the tip 16 of the arm 15) when the plurality of edge points are detected are stored in the storage unit 22.

最後に、ステップS60において、較正部214は、ステップS50において得られた複数のエッジ点E1〜E4が検出された際のアーム15の位置座標に基づいて、エッジ点E1〜E4のXYZ座標系における少なくともXY座標(X1,Y1)、(X2,Y2)、(X3,Y3)、(X4,Y4)を算出する(図3E参照)。また、E1〜E4の位置座標に基づいて、エッジ点E1,E2を結ぶ直線L1と、エッジ点E3,E4を結ぶ直線L2を算出し、この直線L1と直線L2の交点E5の位置座標(X5,Y5)を算出する(図3E参照)。また、視覚センサ制御部211は、視覚センサ12を用いて所定の位置においてワーク40を含む画像(第2画像)を取得する。そして、較正部214は、複数のエッジ点E1〜E4及び交点E5の位置座標(すなわち、空間座標)を視覚センサ12の視野範囲画面60に登録し、空間座標と画像におけるピクセル座標とを対応付ける。これにより、キャリブレーションが完了する。 Finally, in step S60, the calibration unit 214 determines the edge points E1 to E4 in the XYZ coordinate system based on the position coordinates of the arm 15 when the plurality of edge points E1 to E4 obtained in step S50 are detected. At least XY coordinates (X 1 , Y 1 ), (X 2 , Y 2 ), (X 3 , Y 3 ), and (X 4 , Y 4 ) are calculated (see FIG. 3E). Further, based on the position coordinates of E1 to E4, the straight line L1 connecting the edge points E1 and E2 and the straight line L2 connecting the edge points E3 and E4 are calculated, and the position coordinate (X of the intersection E5 of the straight line L1 and the straight line L2 5 and Y 5 ) are calculated (see FIG. 3E). Further, the visual sensor control unit 211 acquires an image (second image) including the workpiece 40 at a predetermined position using the visual sensor 12. Then, the calibration unit 214 registers position coordinates (i.e., space coordinates) of the plurality of edge points E1 to E4 and the intersection point E5 in the view range screen 60 of the vision sensor 12, and associates the space coordinates with pixel coordinates in the image. This completes the calibration.

なお、検出される特徴点の数は特に限定されないが、特徴点の数が多い方がキャリブレーションの精度が向上する。また、上述の実施形態においては、ワークの特徴点としてワークのエッジが用いられているが、特徴点はエッジに限られない。   Although the number of feature points to be detected is not particularly limited, the accuracy of calibration is improved as the number of feature points is larger. Moreover, in the above-mentioned embodiment, although the edge of a workpiece | work is used as a feature point of a workpiece | work, a feature point is not restricted to an edge.

以上の手順により、ロボットシステム1は以下の効果を奏する。すなわち、ロボットシステム1は、視覚センサ12のワークディスタンスが基準距離WDとして記憶部22に記憶されている。これにより、ワークの種類の変更や、載置面の高さの変更などにより、視覚センサ12とワーク40との相対的な位置関係が変化する場合であっても、レーザセンサ13を用いて、視覚センサ12からワーク40までの距離がワークディスタンスと一致するように、視覚センサ12を自動的に移動させることができる。従って、作業者は、視覚センサ12の焦点合わせやキャリブレーションをやり直す必要がない。ゆえに、本実施形態によると、キャリブレーションに要する手間及び時間を削減することができる。   By the above-described procedure, the robot system 1 has the following effects. That is, in the robot system 1, the work distance of the visual sensor 12 is stored in the storage unit 22 as the reference distance WD. Thereby, even if the relative positional relationship between the visual sensor 12 and the work 40 changes due to the change of the type of the work, the change of the height of the mounting surface, etc., the laser sensor 13 is used. The visual sensor 12 can be automatically moved so that the distance from the visual sensor 12 to the workpiece 40 matches the work distance. Therefore, the operator does not have to refocus or calibrate the visual sensor 12. Therefore, according to the present embodiment, it is possible to reduce the labor and time required for the calibration.

また、例えば特許文献1に開示される手法によると、ワークの特徴点の検出に際し、輪郭検出や濃淡検出等の画像処理技術を用いる必要がある。しかしながら、例えば溶接現場等の厳しい環境下においてロボットシステムを使用する場合には、高性能な視覚センサを用いることが適切ではなく、得られる画像の精度が不十分となり得る。また、仮に高性能な視覚センサを用いても、例えば溶接作業により明るさ等の外部環境が大きく変動する現場においては、得られる画像の明るさも変動し、画像処理の適用が困難となり得る。この場合、画像上のワークの検出が安定的になされず、結果としてキャリブレーションの精度が低下するおそれがある。この点、ロボットシステム1によると、ワーク40の特徴点の検出に際し、画像処理の代わりにレーザセンサ13によって得られる距離情報が用いられる。これにより、外部環境が大きく変動する現場であっても、高い精度でワーク40の特徴点を検出することができる。従って、画像処理を用いる方法に比べて、高性能な視覚センサを用いることなく、キャリブレーションの精度を向上させることができる。また、画像処理を用いる方法に比べて、特徴点の検出に要する時間を削減することができる。   Further, for example, according to the method disclosed in Patent Document 1, it is necessary to use an image processing technique such as contour detection or gray scale detection when detecting a feature point of a workpiece. However, when using a robot system in a severe environment such as a welding site, it is not appropriate to use a high-performance visual sensor, and the accuracy of the obtained image may be insufficient. In addition, even if a high-performance visual sensor is used, the brightness of the obtained image also fluctuates at the site where the external environment such as the brightness largely fluctuates due to the welding operation, for example, and application of the image processing may be difficult. In this case, the detection of the work on the image is not stably performed, and as a result, the accuracy of the calibration may be reduced. In this regard, according to the robot system 1, when detecting the feature points of the workpiece 40, the distance information obtained by the laser sensor 13 is used instead of the image processing. Thereby, even at a site where the external environment greatly changes, the feature point of the workpiece 40 can be detected with high accuracy. Therefore, the accuracy of calibration can be improved without using a high-performance visual sensor as compared to the method using image processing. In addition, the time required to detect a feature point can be reduced as compared to a method using image processing.

本実施形態においては、視覚センサ12とレーザセンサ13とが別体として設けられているが、当該構成の代わりに、例えば測距機能を兼ねた撮像装置によって距離が測定される構成であってもよい。なお、撮像装置に備えられた測距機能は、一般的に、外乱の影響を受けやすく、レーザセンサに比べて測距の精度が劣ってしまう。特に、上述のように溶接現場等においてロボットシステムを使用する場合には、外部環境の変動により測距の精度が不十分となり得る。この点、本実施形態では、レーザセンサ13が視覚センサ12とは別体として設けられているため、上述のような測距機能を兼ねた撮像装置が用いられる構成に比べて、高い精度で距離を測定することができる。従って、視覚センサ12の焦点合わせやワーク40の特徴点の検出を高い精度で行うことができる。   In the present embodiment, the visual sensor 12 and the laser sensor 13 are separately provided, but instead of the configuration, for example, the distance may be measured by an imaging device having a distance measuring function. Good. In addition, the ranging function provided in the imaging device is generally easily affected by disturbance, and the accuracy of ranging is inferior to that of the laser sensor. In particular, when the robot system is used at a welding site or the like as described above, the accuracy of the distance measurement may be insufficient due to the fluctuation of the external environment. In this respect, in the present embodiment, since the laser sensor 13 is provided separately from the visual sensor 12, the distance can be increased with high accuracy as compared with the configuration in which the imaging device also serving as the distance measuring function as described above is used. Can be measured. Therefore, the focusing of the visual sensor 12 and the detection of the feature point of the work 40 can be performed with high accuracy.

さらに、ロボットシステム1では、レーザセンサ13より検出精度は低いが視野が広い視覚センサ12と、視覚センサ12より測定範囲は狭いが測定精度が高いレーザセンサ13が併用される。これにより、レーザセンサ13のみを用いる方法に比べて高速にワーク40の位置を検出することができ、かつ視覚センサ12のみを用いる方法に比べて高精度にワーク40の特徴点を検出することができる。従って、高速かつ高精度にキャリブレーションを実行することができる。   Furthermore, in the robot system 1, the visual sensor 12 having a detection accuracy lower than that of the laser sensor 13 but having a wider field of view and the laser sensor 13 having a smaller measurement range but higher measurement accuracy than the visual sensor 12 are used in combination. Thus, the position of the workpiece 40 can be detected at high speed as compared with the method using only the laser sensor 13, and the feature point of the workpiece 40 can be detected with high accuracy as compared to the method using only the visual sensor 12. it can. Therefore, calibration can be performed at high speed and with high accuracy.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。   The embodiments described above are for the purpose of facilitating the understanding of the present invention, and are not for the purpose of limiting the present invention. The elements included in the embodiment and the arrangement, the material, the conditions, the shape, the size, and the like of the elements are not limited to those illustrated, and can be changed as appropriate. In addition, configurations shown in different embodiments can be partially substituted or combined with each other.

例えば、上述の実施形態においては、視覚センサの焦点を合わせる際に用いる対象物(マーカ50)と、特徴点を検出する際に用いる対象物(ワーク40)が異なる場合が例として示されているが、当該対象物を同一のものとし、例えばワーク40を用いて視覚センサの焦点を合わせてもよい。   For example, in the above-described embodiment, the case where the target (marker 50) used when focusing the visual sensor is different from the target (work 40) used when detecting the feature point is shown as an example. However, the object may be the same, and for example, the workpiece 40 may be used to focus the visual sensor.

また、上述の実施形態においては、ステップS10〜S60の順に説明されているが、これらのステップは必ずしもこの順序でなくてもよい。例えば、ステップS50においてレーザセンサ13によってワーク40の特徴点を検出した後に、ステップS40において視覚センサ12からワーク40までの距離をワークディスタンスと一致させてもよい。   Moreover, in the above-mentioned embodiment, although demonstrated in order of step S10-S60, these steps do not necessarily need to be this order. For example, after the feature point of the work 40 is detected by the laser sensor 13 in step S50, the distance from the visual sensor 12 to the work 40 may be matched with the work distance in step S40.

1…ロボットシステム、10…ロボット、11…マニピュレータ、12…視覚センサ、13…レーザセンサ、14…ベース、15…アーム、16…先端、20…制御装置、21…制御部、22…記憶部、210…マニピュレータ制御部、211…視覚センサ制御部、212…レーザセンサ制御部、213…検出部、214…較正部、30…作業台、31…載置面、40…ワーク、41…上面、50…マーカ、60…視野範囲画面 DESCRIPTION OF SYMBOLS 1 ... Robot system, 10 ... Robot, 11 ... Manipulator, 12 ... Vision sensor, 13 ... Laser sensor, 14 ... Base, 15 ... Arm, 16 ... Tip, 20 ... Control device, 21 ... Control part, 22 ... Storage part, Reference numeral 210: manipulator control unit 211: visual sensor control unit 212: laser sensor control unit 213: detection unit 214: calibration unit 30: work table 31: mounting surface 40: work 41: upper surface 50 ... Marker, 60 ... Field of view screen

Claims (3)

ロボット及び前記ロボットの動作を制御する制御装置を備えるロボットシステムであって、
前記ロボットは、
載置面に載置された対象物を撮像する撮像装置と、
対象物までの距離を測定するレーザセンサと、
前記撮像装置及び前記レーザセンサが取り付けられたアームと、
を備え、
前記制御装置は、
前記撮像装置の焦点が第1対象物に合っている際の前記撮像装置から前記第1対象物までの距離が、基準距離として記憶される記憶部と、
前記撮像装置の視野内に存在する第2対象物を含む第1画像に基づき、前記第2対象物までの距離を測定可能な領域に前記レーザセンサが位置するように前記アームを配置させ、前記撮像装置から前記第2対象物までの距離が前記基準距離と一致するように前記アームを前記載置面と交差する方向に移動させる動作制御部と、
前記レーザセンサによって測定される距離情報に基づいて、前記第2対象物の複数の特徴点を検出する検出部と、
前記アームの座標系における前記複数の特徴点の座標と、移動した前記撮像装置によって撮像された第2画像の座標とを対応付ける較正部と、
を備える、ロボットシステム。
A robot system comprising a robot and a control device for controlling the operation of the robot, the robot system comprising:
The robot is
An imaging device for imaging an object placed on the placement surface;
A laser sensor that measures the distance to an object;
An arm attached with the imaging device and the laser sensor;
Equipped with
The controller is
A storage unit in which a distance from the imaging device to the first object when the focus of the imaging device matches the first object is stored as a reference distance;
Disposing the arm such that the laser sensor is positioned in an area where the distance to the second object can be measured based on the first image including the second object present in the field of view of the imaging device; An operation control unit that moves the arm in a direction intersecting the mounting surface such that a distance from an imaging device to the second object matches the reference distance;
A detection unit that detects a plurality of feature points of the second object based on distance information measured by the laser sensor;
A calibration unit that associates coordinates of the plurality of feature points in a coordinate system of the arm with coordinates of a second image captured by the moved imaging device;
A robot system equipped with
前記複数の特徴点は、前記第2対象物の輪郭上に存在する、
請求項1に記載のロボットシステム。
The plurality of feature points are present on the contour of the second object,
The robot system according to claim 1.
前記撮像装置と前記レーザセンサは、別体である、
請求項1又は2に記載のロボットシステム。
The imaging device and the laser sensor are separate.
A robot system according to claim 1 or 2.
JP2017193415A 2017-10-03 2017-10-03 Robot system Active JP6869159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017193415A JP6869159B2 (en) 2017-10-03 2017-10-03 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017193415A JP6869159B2 (en) 2017-10-03 2017-10-03 Robot system

Publications (2)

Publication Number Publication Date
JP2019063954A true JP2019063954A (en) 2019-04-25
JP6869159B2 JP6869159B2 (en) 2021-05-12

Family

ID=66338728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017193415A Active JP6869159B2 (en) 2017-10-03 2017-10-03 Robot system

Country Status (1)

Country Link
JP (1) JP6869159B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020255410A1 (en) * 2019-06-21 2020-12-24 株式会社Fuji Robot control system and robot control method
CN112611340A (en) * 2020-11-19 2021-04-06 易思维(杭州)科技有限公司 Method for adjusting laser light plane in vision sensor
CN112959364A (en) * 2021-03-15 2021-06-15 北京电子工程总体研究所 Industrial robot assembly error compensation system and method
CN113074640A (en) * 2021-04-29 2021-07-06 重庆智能机器人研究院 Red steel material type detection device, detection robot and detection method
CN114290324A (en) * 2020-10-07 2022-04-08 精工爱普生株式会社 Belt conveyor calibration method, robot control method, robot system and storage medium
CN114663532A (en) * 2022-03-31 2022-06-24 上海擎朗智能科技有限公司 Robot sensor calibration method, robot, and computer-readable storage medium
CN114945450A (en) * 2020-01-14 2022-08-26 发那科株式会社 Robot System
CN115582831A (en) * 2021-07-06 2023-01-10 财团法人工业技术研究院 Automatic correction method and system for mechanical arm
EP4177837A1 (en) * 2021-11-05 2023-05-10 DAIHEN Corporation Marker detection apparatus and robot teaching system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6054011A (en) * 1983-09-03 1985-03-28 Fanuc Ltd Position control method of industrial robot
JPH0261591U (en) * 1988-10-27 1990-05-08
JPH06210580A (en) * 1993-01-13 1994-08-02 Nissan Motor Co Ltd Workpiece gripping compensating device
JPH08132373A (en) * 1994-11-08 1996-05-28 Fanuc Ltd Coordinate system coupling method in robot-sensor system
JPH08272425A (en) * 1995-03-29 1996-10-18 Fanuc Ltd Method to teach coordinate system to robot in non-contact
JP2003211382A (en) * 2002-01-16 2003-07-29 Denso Wave Inc Robot controller
JP2003311670A (en) * 2002-04-17 2003-11-05 Denso Wave Inc Robot arm position control method and robot apparatus
JP2010152550A (en) * 2008-12-24 2010-07-08 Canon Inc Work apparatus and method for calibrating the same
JP2014176943A (en) * 2013-03-15 2014-09-25 Yaskawa Electric Corp Robot system, calibration method and method for manufacturing workpiece
US20160243703A1 (en) * 2015-02-19 2016-08-25 Isios Gmbh Arrangement and method for the model-based calibration of a robot in a working space

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6054011A (en) * 1983-09-03 1985-03-28 Fanuc Ltd Position control method of industrial robot
JPH0261591U (en) * 1988-10-27 1990-05-08
JPH06210580A (en) * 1993-01-13 1994-08-02 Nissan Motor Co Ltd Workpiece gripping compensating device
JPH08132373A (en) * 1994-11-08 1996-05-28 Fanuc Ltd Coordinate system coupling method in robot-sensor system
JPH08272425A (en) * 1995-03-29 1996-10-18 Fanuc Ltd Method to teach coordinate system to robot in non-contact
JP2003211382A (en) * 2002-01-16 2003-07-29 Denso Wave Inc Robot controller
JP2003311670A (en) * 2002-04-17 2003-11-05 Denso Wave Inc Robot arm position control method and robot apparatus
JP2010152550A (en) * 2008-12-24 2010-07-08 Canon Inc Work apparatus and method for calibrating the same
JP2014176943A (en) * 2013-03-15 2014-09-25 Yaskawa Electric Corp Robot system, calibration method and method for manufacturing workpiece
US20160243703A1 (en) * 2015-02-19 2016-08-25 Isios Gmbh Arrangement and method for the model-based calibration of a robot in a working space

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7242856B2 (en) 2019-06-21 2023-03-20 株式会社Fuji Robot control system and robot control method
JPWO2020255410A1 (en) * 2019-06-21 2020-12-24
WO2020255410A1 (en) * 2019-06-21 2020-12-24 株式会社Fuji Robot control system and robot control method
US12186920B2 (en) 2020-01-14 2025-01-07 Fanuc Corporation Robot system
CN114945450A (en) * 2020-01-14 2022-08-26 发那科株式会社 Robot System
CN114290324A (en) * 2020-10-07 2022-04-08 精工爱普生株式会社 Belt conveyor calibration method, robot control method, robot system and storage medium
CN114290324B (en) * 2020-10-07 2023-12-01 精工爱普生株式会社 Belt conveyor calibration method, robot control method, robot system and storage medium
CN112611340A (en) * 2020-11-19 2021-04-06 易思维(杭州)科技有限公司 Method for adjusting laser light plane in vision sensor
CN112611340B (en) * 2020-11-19 2022-04-01 易思维(杭州)科技有限公司 Method for adjusting laser light plane in vision sensor
CN112959364A (en) * 2021-03-15 2021-06-15 北京电子工程总体研究所 Industrial robot assembly error compensation system and method
CN113074640A (en) * 2021-04-29 2021-07-06 重庆智能机器人研究院 Red steel material type detection device, detection robot and detection method
CN115582831A (en) * 2021-07-06 2023-01-10 财团法人工业技术研究院 Automatic correction method and system for mechanical arm
EP4177837A1 (en) * 2021-11-05 2023-05-10 DAIHEN Corporation Marker detection apparatus and robot teaching system
CN114663532A (en) * 2022-03-31 2022-06-24 上海擎朗智能科技有限公司 Robot sensor calibration method, robot, and computer-readable storage medium

Also Published As

Publication number Publication date
JP6869159B2 (en) 2021-05-12

Similar Documents

Publication Publication Date Title
JP6869159B2 (en) Robot system
JP5664629B2 (en) Robot system and method of manufacturing processed product
JP6900290B2 (en) Robot system
JP7691218B2 (en) Apparatus and method for acquiring deviation amount of working position of tool
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP7153085B2 (en) ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD
US20080252248A1 (en) Device and Method for Calibrating the Center Point of a Tool Mounted on a Robot by Means of a Camera
US20050273199A1 (en) Robot system
JP4171488B2 (en) Offline programming device
CN1680774A (en) Metering device
JP2000288974A (en) Robot device having image processing function
JP2011031346A (en) Apparatus and method for measuring position of tool end point of robot
US20180161985A1 (en) Control device, robot, and robot system
CN109862989B (en) Image-based technique selection during laser welding
CN109719714B (en) Robot, robot system, and robot coordinate system setting method
JP7509918B2 (en) Image processing system and image processing method
JP2018001332A (en) Robot, control device, and robot system
KR100640743B1 (en) Robot Vision System Calibration Method
JP2000263273A (en) Teaching method and its device for yag laser beam machine
KR101122257B1 (en) Apparatus for Calibrating a Laser Vision System and Method for Calibrating a Laser Vision System Using the Same
JP2016187851A (en) Calibration device
JP7481432B2 (en) Apparatus for correcting robot teaching position, teaching apparatus, robot system, teaching position correction method, and computer program
JP2018015834A (en) Method for moving robot arm
US20230191612A1 (en) Coordinate system setting system and position/orientation measurement system
JP2022162340A (en) picking device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200520

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210331

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210413

R150 Certificate of patent or registration of utility model

Ref document number: 6869159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250