[go: up one dir, main page]

WO2024257136A1 - Robot device and method for controlling same - Google Patents

Robot device and method for controlling same Download PDF

Info

Publication number
WO2024257136A1
WO2024257136A1 PCT/JP2023/021644 JP2023021644W WO2024257136A1 WO 2024257136 A1 WO2024257136 A1 WO 2024257136A1 JP 2023021644 W JP2023021644 W JP 2023021644W WO 2024257136 A1 WO2024257136 A1 WO 2024257136A1
Authority
WO
WIPO (PCT)
Prior art keywords
gripping
identification
robot
parts
tools
Prior art date
Application number
PCT/JP2023/021644
Other languages
French (fr)
Japanese (ja)
Inventor
大 荒井
政光 柳原
正太 林田
翼 一條
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to PCT/JP2023/021644 priority Critical patent/WO2024257136A1/en
Publication of WO2024257136A1 publication Critical patent/WO2024257136A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Definitions

  • the present invention relates to a robot device and a method for controlling a robot device.
  • a robot device that has a robot hand (end effector) for grasping an object and an arm that drives the robot hand, and that can detect the amount of positional deviation of the robot hand relative to the arm from the image capture results of the robot hand (see, for example, Patent Document 1).
  • a robot hand end effector
  • a robot device comprising: a robot hand provided with a plurality of finger portions; an arm portion for driving the robot hand; a plurality of gripping portions capable of gripping an object in response to the plurality of finger portions; at least one identification portion possessed by at least one of the plurality of gripping portions; and a control portion for driving the robot hand via the arm portion using position information of the identification portion to position the plurality of gripping portions relative to the object.
  • a method for controlling a robot device including a robot hand provided with a plurality of finger portions and an arm portion for driving the robot hand, the method including: causing a plurality of gripping portions capable of gripping an object to follow the plurality of finger portions; storing position information of at least one identification portion possessed by at least one of the plurality of gripping portions; and using the position information of the identification portion to drive the robot hand via the arm portion and position the plurality of gripping portions relative to the object.
  • FIG. 1A is a perspective view showing the robot device of the first embodiment
  • FIG. 1B is a perspective view showing a modified example of a finger
  • FIG. 1C is a diagram showing a main part of a modified example of a robot hand.
  • 1A is a side view showing the robot hand of FIG. 1A
  • FIG. 1B is a front view showing the fingers of the robot hand in the -Y direction
  • FIG. 1C is a diagram showing an example of an image within the field of view of an imaging device.
  • FIG. 2 is a diagram illustrating an example of a robot device and a control device for a robot hand.
  • (A) is a plan view showing the tool fixed to the fingers
  • (B) is an image taken of the state shown in Figure 4(A)
  • (C) is an image taken of the state where the gripping center of the tool is aligned with the center of the workpiece
  • (D) is an image taken of the state where the workpiece is gripped by the tool.
  • (A) is an image taken when the angle between the center line of the workpiece and the center line of the tool is large
  • (B) is an image taken after the robot hand has been rotated relative to the workpiece
  • (C) is an image taken when the gripping center of the tool is aligned with the center of the workpiece
  • (D) is a plan view showing another example of a marking member.
  • FIG. 1A is a flowchart showing an example of a method for detecting a mark member
  • FIG. 1B is a flowchart showing an example of a method for gripping a workpiece with a robot hand
  • FIG. 1C is a flowchart showing a modified example of the gripping method.
  • 7A and 7B are side views showing the robot device
  • 7C and 7D are images captured in the cases of FIGS. 7A and 7B, respectively.
  • 8A is a side view showing the main parts of the robot hand when gripping another workpiece
  • (B) is a diagram showing an image obtained by an imaging device in the state shown in FIG. 8A
  • (C) is a cross-sectional view showing the case where a workpiece is gripped at two different heights.
  • FIG. 9(A) is a plan view showing the state in which the tool is holding multiple workpieces
  • (B) is a side view showing the tool in the case of FIG. 9(A)
  • (C) is a cross-sectional view showing an example of the tip of a tool that is not capable of holding multiple workpieces
  • (D) is a side view showing the tip of the tool in FIG. 9(C)
  • (E) is an enlarged view showing another example of the tip of the tool.
  • FIG. 11 is a perspective view showing a robot device according to a second embodiment. 11 is a diagram showing an example of a screen captured by the imaging device of FIG. 10 .
  • 12A is a side view showing a modified robot hand
  • FIG. 12B is a front view showing the finger in FIG. 12A in the -Y direction
  • FIG. 12C is a diagram showing an example of an image within the field of view of the imaging device in FIG. 12A.
  • Fig. 1(A) shows an articulated robot device 2 according to this embodiment.
  • the robot device 2 may be of any configuration, such as a horizontal articulated robot device (SCARA type).
  • SCARA horizontal articulated robot device
  • an X-axis and a Y-axis are taken as being parallel to and perpendicular to the installation surface of the robot device 2
  • a Z-axis is taken as being perpendicular to the installation surface.
  • the installation surface is an approximately horizontal plane, and the upward direction of the installation surface (the direction opposite to the vertical direction) is the + direction of the Z-axis.
  • a coordinate system consisting of positions on the X-axis, Y-axis, and Z-axis is called the robot coordinate system (X, Y, Z).
  • the robot device 2 comprises a robot main body 4, a robot hand 6 joined to the robot main body 4, a control device 10 that controls the operation of the robot device 2, and a control device 12 that controls the operation of the robot hand 6.
  • the robot main body 4 comprises a base 14, a rotating part 16 connected to the base 14, and a first robot arm 18A, a second robot arm 18B, and a third robot arm 18C that are connected to the rotating part 16 in a displaceable manner in sequence.
  • the robot hand 6 is joined to the tip 20A of the third robot arm 18C.
  • the robot hand 6 can also be called an end effector.
  • the rotating unit 16 can control the rotation angle ⁇ 1 around an axis parallel to the Z axis
  • the first robot arm 18A can control the swivel angle ⁇ 1
  • the second robot arm 18B can control the swivel angle ⁇ 2
  • the third robot arm 18C can control the swivel angle ⁇ 3 and the rotation angle ⁇ 2 of the tip end 20A (robot hand 6) around an axis parallel to the Z axis, for example.
  • the third robot arm 18C has a rotating unit 20C that changes the rotation angle ⁇ 2 of the tip end 20A and a tilt drive unit 20B that changes the swivel angle ⁇ 3.
  • the origin 58A of the robot coordinate system (X, Y, Z) is, for example, the center of the base 14, but the origin 58A can be set or changed to any position.
  • the robot hand 6 is driven by the rotating unit 16 and the robot arms 18A-18C so as to move parallel to the Z axis. Since the robot hand 6 has at least five encoders, it is also possible to control the position of the robot hand 6 with three degrees of freedom and the angle with two degrees of freedom. Also, instead of the robot device 2, the robot hand 6 may be joined to a robot device (not shown) that is capable of controlling the position of the robot hand 6 with three degrees of freedom and the angle with three degrees of freedom.
  • the robot device 2 also includes an imaging device 22 and a lighting device (not shown).
  • the imaging device 22 is attached to the robot hand 6, but the imaging device 22 may be provided at a position other than the robot hand 6, such as the side of the robot arm 18C, a measurement position on the installation surface of the robot device 2, or a wall or ceiling of the room in which the robot device 2 is installed.
  • the imaging device 22 is a camera that captures normal two-dimensional images, and its focal position is set near an area including the tips of the tools 8b and 8c (described later) fixed in the robot hand 6, and its focal depth is set relatively deep.
  • the imaging device 22 may include an autofocus lens.
  • the workpiece 48 is also at approximately the focal position of the imaging device 22.
  • a three-dimensional camera stereo camera or the like may be used as the imaging device 22.
  • the robot hand 6 of this embodiment has two fingers 38A, 38B that are driven to open and close, and members (hereinafter referred to as tools) 8b, 8c for grasping an object are fixed to the inner surfaces of the fingers 38A, 38B by bolts B1 or the like (see FIG. 2(A)).
  • the tools 8b, 8c (grasping parts) are supported so as to protrude forward of the robot hand 6 and have tips that protrude downward, and an object can be grasped between the tips.
  • the shape of the tips of the tools 8b, 8c may be any shape depending on the object.
  • the tools 8b, 8c are made of metal, but some or all of the tools 8b, 8c may be made of synthetic resin or the like.
  • the objects to be processed (objects to be gripped) gripped by the tools 8b and 8c are multiple workpieces 48 placed on a mounting surface FL that is substantially parallel to the horizontal plane.
  • the workpieces 48 are bolts having a shaft 48a and a head 48b.
  • the shape of the objects to be processed is arbitrary, and the size of the objects to be processed is arbitrary as long as it has a portion that can be gripped by the tools 8b and 8c.
  • the workpiece is, for example, a long string-like or cable-like object, it can be gripped by the tools 8b and 8c as long as it is within the range that can be gripped by the diameter of the cross-sectional shape.
  • the x-axis and y-axis are respectively parallel to the X-axis and Y-axis of the robot coordinate system (X, Y, Z), but the position and angle of the coordinate system (x, y) of the imaging device 22 with respect to the robot coordinate system (X, Y, Z) changes when the robot hand 6 is driven by the robot arms 18A to 18C.
  • the fingers 38A, 38B are driven by the actuator 32 so that the distance between the tools 8b, 8c in the opening and closing direction changes.
  • the actuator 32 may operate the fingers 38A, 38B so that the tools 8b, 8c move in the X direction independently of each other.
  • the -X direction finger 38A (tool 8b) waits at the outermost position (-X direction) (hereinafter also referred to as the standby position) within the movable range in the X direction
  • the +X direction finger 38B (tool 8c) waits at the outermost position (+X direction) (hereinafter also referred to as the standby position) within the movable range in the X direction.
  • Figure 3 shows the control device 10 of the robot device 2 and the control device 12 of the robot hand 6.
  • the control device 10 has a control information input/output unit 11A that inputs and outputs control information (such as the type of tool to be used and the position of the object to be processed) with the operator, a main control unit 11B that transmits and receives control information with the control device 12 of the robot hand 6 and controls the operation of the entire device, and a coordinate calculation unit 11C that processes the detection results of at least five-axis encoders that detect the movements of the robot arms 18A-18C, etc., and calculates the coordinates and rotation angles of the tips of the tools 8b and 8c held by the robot hand 6 at the tip of the third robot arm 18C.
  • control information input/output unit 11A that inputs and outputs control information (such as the type of tool to be used and the position of the object to be processed) with the operator
  • a main control unit 11B that transmits and receives control information with the control device 12 of the robot hand 6 and controls the
  • the control device 10 further includes an image processing unit 11D that processes the imaging signal of the imaging device 22 attached to the robot hand 6 to determine, for example, the positional relationship between the tip of the tool 8b, 8c held by the robot hand 6 and an object, an arm control unit 11E that controls the movement of the rotation unit 16 and the robot arms 18A to 18C based on the processing results of the coordinate calculation unit 11C and the image processing unit 11D, and a memory unit 11F that stores various data.
  • the image processing unit 11D may be provided in the control device 12 on the robot hand 6 side.
  • the memory unit 11F may include, for example, any one of a storage device such as an HDD (Hard Disk Drive) or SSD (Solid State Drive), and a non-volatile memory such as a USB (Universal Serial Bus) memory.
  • the memory unit 11F stores the programs and various setting values of the control device 10.
  • the finger grip force detection unit 13D detects the finger grip force FF from the current flowing through the rotation motor unit of the finger drive unit 13C, and the hand control unit 13A controls the operation of the fingers 38A, 38B (finger drive unit 13C) so that the detected finger grip force FF is below a preset level (standard value).
  • a sensor capable of detecting the finger grip force FF such as a strain gauge or a pressure sensor provided on the fingers 38A, 38B, can be used.
  • the control information input to the hand control unit 13A includes, for example, a command to start gripping an object with the tools 8b and 8c and a command to release the grip
  • the control information output from the hand control unit 13A to the main control unit 11B includes, for example, information indicating completion of gripping of the object by the tools 8b and 8c, and information indicating completion of releasing grip of the object by the tools 8b and 8c (completion of removal of the tools from the object).
  • FIG. 4(A) shows the fingers 38A, 38B, tools 8b, 8c, and the workpiece 48 to be grasped, as viewed from the operating unit 32 side of the robot hand 6 in FIG. 2(A).
  • the workpiece 48 has a small diameter shaft 48a and a large diameter head 48b.
  • the tips of the tools 8b, 8c are in contact with the mounting surface FL of the workpiece 48 (or are set at a position slightly higher than the mounting surface FL) and the robot hand 6 (tools 8b, 8c) is moved in the X and Y directions to place the shaft 48a of the workpiece 48 between the tips of the tools 8b, 8c, and then the fingers 38A, 38B are closed to grasp the shaft 48a of the workpiece 48 between the tools 8b, 8c.
  • Figure 4(B) shows image 22G obtained by imaging tools 8b, 8c and workpiece 48 in the state of Figure 4(A) with imaging device 22 of Figure 2(A).
  • images 8bI, 8cI of tools 8b, 8c, images 62AI, 62BI of mark members 62A, 62B, images MAI, MBI of marks MA, MB, and image 48I of workpiece 48 are displayed in image 22G.
  • Information of image 22G is supplied to image processing unit 11D of Figure 3, and image processing unit 11D regards the center of images MAI, MBI of the two marks as image 58CI of grip center 58C of tool 8.
  • step 102 of Figure 6(A) the tools 8b and 8c are fixed (attached) to the fingers 38A and 38B of the robot hand 6 as shown in Figure 4(A). Furthermore, in step 104, the mark members 62A and 62B on which the marks MA and MB are formed are attached to the tips of the tools 8b and 8c. Note that step 104 may be performed first, and then step 102.
  • the main control unit 11B can determine that the tool is in a non-gripping state where the workpiece is not being gripped by the tool, and when the interval between the mark images is wider than the reference value, it can determine that the tool is in a gripping state where the workpiece is being gripped by the tool.
  • FIG. 9(C) is a side view of FIG. 9(C).
  • FIG. 9(D) is a side view of FIG. 9(C).
  • pin B2 fits into through hole 8Cf, and another workpiece 48 is prevented from being pinched between tools 8Cb, 8Cc by pin B2.
  • the shape of the tips of tools 8Cb, 8Cc is such that they cannot grip multiple workpieces 48, only one workpiece 48 can be gripped between tools 8Cb, 8Cc.
  • the tips of tools 8Db, 8Dc may be formed into a cone shape or a triangular plate shape with a gradually narrowing width.
  • the distance between tools 8Db, 8Dc when one workpiece 48 is held by tools 8Db, 8Dc is de1.
  • the distance de2 between tools 8Db, 8Dc is greater than distance de1, so that the hand control unit 13F, etc., can recognize that multiple workpieces 48 are held between tools 8Db, 8Dc.
  • the load detected by the load sensor 32d changes depending on the weight of the workpiece held by the tools 8b and 8c, so the weight of the workpiece held by the tools 8b and 8c may be obtained from the detection value of the load sensor 32d.
  • the load sensor 32d may be provided, for example, at the tip of the tools 8b and 8c.
  • the imaging devices 22A and 22B are normal cameras, and the focal positions of the imaging devices 22A and 22B are set, for example, near the placement surface FL of the workpiece 48, and the focal depth is set relatively wide.
  • a three-dimensional camera stereo camera
  • the imaging signals of the imaging devices 22A and 22B are processed to calculate the positional deviation amount between the tools 8b and 8c and the workpiece 48.
  • the marks MA, MB of the mark members 62A, 62B provided on the tools 8b, 8c are detected, and the gripping centers of the tools 8b, 8c are obtained from the detection results, thereby enabling efficient and highly accurate alignment of the workpiece 48 and the robot hand 6A (tools 8b, 8c).
  • the robot hand 6A may be rotated to correct the rotation angle.
  • calibration may be performed in advance between the coordinate system (x, y) of the imaging devices 22A and 22B and the robot coordinate system (X, Y, Z). In this case, calibration may be performed so that the x-axis and y-axis of the coordinate system (x, y) are parallel to the X-axis and Y-axis of the robot coordinate system, respectively.
  • a suspension mechanism 46 (shock absorber mechanism) is configured that includes the linear slider 34 and the elastic member 44 and supports the movable part (the part including the operating part 32, the fingers 38E and 38F, the tweezers holding part 26, and the tweezers 9) in the Z direction so that it can be elastically displaced relative to the frame 30.
  • the detection result of the proximity sensor 56 can detect the relative displacement of the movable part (the operating part 32, the tweezers 9, etc.) relative to the frame 30, and this detection result can detect whether the tip of the tweezers 9 has come into contact with the placement surface FL of the workpiece 48.
  • the connecting portion 36 and the connecting portion 38 are connected so as to be detachable by, for example, a permanent magnet provided inside.
  • the connecting portion 38 of the tweezers holding portion 26 is provided with a groove 38Aa.
  • the tweezers holding portion 26 can be installed (stored) on a tool stand (not shown) by aligning the groove 38Aa with the base of the tool stand and installing the second connecting portion 38 on the base. At this time, multiple tweezers holding portions 26 with tweezers of different shapes fixed to the fixing portion 42 may be prepared in advance and installed on the tool stand.
  • the tweezers held by the robot hand 6 can be easily replaced with tweezers appropriate for the object.
  • FIG. 12(B) is a front view of Fig. 12(A) as viewed in the -Y direction, and in Fig. 12(B), a pair of fingers 38E, 38F open and close movable parts 9b, 9c of tweezers 9 in the opening and closing direction (here, X direction) by operating part 32.
  • hemispherical protrusions 38Ea, 38Fa are provided on the inside of fingers 38E, 38F, and protrusions 38Ea, 38F come into contact with the force points (or points between fulcrum 9a and action points 9d, 9e) of movable parts 9b, 9c of tweezers 9 to push movable parts 9b, 9c in the +X and -X directions, thereby closing movable parts 9b, 9c and allowing the tips of movable parts 9b, 9c to grasp, pinch, or support an object.
  • the operating part 32 may operate the fingers 38E, 38F so that the fingers 38E, 38F move in the X direction independently of each other.
  • the protrusions 38Ea, 38Fa of the fingers 38E, 38F are formed, for example, from a material with low frictional resistance (such as Teflon (registered trademark)). Therefore, the tweezers 9 held by the tweezers holding part 26 can move (slide) slightly in the Z direction and Y direction relative to the fingers 38E, 38F.
  • the suspension mechanism 46 displaces the tool including the operating part 32 and the tweezers holding part 26 as a unit, so the protrusions 38Aa, 38Ba may be made of a material with high frictional resistance. Note that it is not necessary to provide the protrusions 38Ea, 38Fa on the inside of the fingers 38E, 38F.
  • the mark members 62A and 62B on which the marks MA and MB similar to those in the example of FIG. 4A are formed are attached to the tips of the movable parts 9b and 9c of the tweezers 9, and the images of the mark members 62A and 62B are captured by the imaging device 22, and the gripping positions of the centers of the movable parts 9b and 9c can be obtained using the images.
  • the images 62AI and 62BI of the mark members and the images MAI and MBI of the marks are formed, and for example, the center positions (or positions shifted by a predetermined amount) of the images MAI and MBI can be regarded as images of the gripping positions.
  • the robot hand 6A is positioned so that the gripping position is aligned with the center of the workpiece 48, and the fingers 38E and 38F are closed, so that the movable parts 9b and 9c of the tweezers 9 can grip the workpiece 48 efficiently and accurately.
  • the shape of the movable parts 9b and 9c of the tweezers 9 is partly distinguishable, it is possible to use the distinguishable part instead of the marks MA and MB or the mark members 62A and 62B.
  • a robot device comprising: a robot hand provided with a plurality of finger portions, an arm portion that drives the robot hand, a plurality of gripping portions capable of gripping an object in response to the plurality of finger portions, at least one identification portion provided in at least one of the plurality of gripping portions, and a control portion that drives the robot hand via the arm portion using position information of the identification portion to position the plurality of gripping portions with respect to the object.
  • the robot device according to any one of 1 to 9, further comprising a weighing scale that determines weight information of the object gripped by the plurality of gripping sections.
  • the identification section is a member on which an identification mark is formed.
  • the color of the member on which the identification mark is formed is different from the color of the placement surface on which the object is placed. 13) The robot device according to any one of 1 to 10, in which the identification unit is a part of the gripping unit.
  • a method for controlling a robot device including a robot hand provided with multiple finger units and an arm unit for driving the robot hand, the method including: moving multiple gripping units capable of gripping an object relative to the multiple finger units; storing position information of at least one identification unit of at least one of the multiple gripping units; and using the position information of the identification unit to drive the robot hand via the arm unit to position the multiple gripping units relative to the object.
  • the method for controlling a robot device wherein the plurality of gripping units have two of the identifiers, and capturing an image of the identifiers with the imaging device includes capturing images of the two identifiers within a same field of view of the imaging device, determining distance information of the two identifiers from position information of the images of the two identifiers, and using the distance information to distinguish between a gripping state in which the object is gripped between the plurality of gripping units and a non-gripped state in which the object is not gripped between the plurality of gripping units.
  • the method for controlling a robot device includes capturing images of the two identifiers within a same field of view of the imaging device, determining distance information of the two identifiers from position information of the images of the two identifiers, and using the distance information to determine a size of a gripped position of the object gripped between the plurality of gripping units.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Provided is a robot device comprising: a robot hand to which a plurality of finger parts are provided; an arm part that drives the robot hand; a plurality of gripping parts that follow the plurality of finger parts and can grip an object; at least one identification part on at least one of the plurality of gripping parts; and a control unit that uses position information regarding the identification part and drives the robot hand via the arm part to position the plurality of gripping parts with respect to the object. Thus, positional alignment of the object and the robot hand can be efficiently performed.

Description

ロボット装置及びその制御方法Robot device and control method thereof

 本発明は、ロボット装置及びロボット装置の制御方法に関する。 The present invention relates to a robot device and a method for controlling a robot device.

 対象物を把持するためのロボットハンド(エンドエフェクタ)とロボットハンドを駆動するアーム部とを有し、ロボットハンドの撮像結果からロボットハンドのアーム部に対する位置ずれ量を検出可能なロボット装置が使用されている(例えば、特許文献1参照)。かかる技術においては、対象物とロボットハンドとの位置合わせを効率的に行うことが望まれている。 A robot device is used that has a robot hand (end effector) for grasping an object and an arm that drives the robot hand, and that can detect the amount of positional deviation of the robot hand relative to the arm from the image capture results of the robot hand (see, for example, Patent Document 1). In this technology, it is desirable to efficiently align the object and the robot hand.

特開2017-124468号公報JP 2017-124468 A

 本発明の第1の態様によれば、ロボット装置であって、複数のフィンガー部が設けられたロボットハンドと、そのロボットハンドを駆動するアーム部と、複数のそのフィンガー部に従動して対象物を把持可能な複数の把持部と、複数のその把持部の少なくとも1つが有する少なくとも1つの識別部と、その識別部の位置情報を用いて、そのアーム部を介してそのロボットハンドを駆動して、その対象物に対して複数のその把持部を位置決めする制御部と、を備えるロボット装置が提供される。 According to a first aspect of the present invention, there is provided a robot device comprising: a robot hand provided with a plurality of finger portions; an arm portion for driving the robot hand; a plurality of gripping portions capable of gripping an object in response to the plurality of finger portions; at least one identification portion possessed by at least one of the plurality of gripping portions; and a control portion for driving the robot hand via the arm portion using position information of the identification portion to position the plurality of gripping portions relative to the object.

 第2の態様によれば、複数のフィンガー部が設けられたロボットハンドと、そのロボットハンドを駆動するアーム部と、を備えるロボット装置の制御方法であって、複数のそのフィンガー部に対して、対象物を把持可能な複数の把持部を従動させることと、複数のその把持部の少なくとも1つが有する少なくとも1つの識別部の位置情報を記憶することと、その識別部のその位置情報を用いて、そのアーム部を介してそのロボットハンドを駆動して、その対象物に対して複数のその把持部を位置決めすることと、を含むロボット装置の制御方法が提供される。 According to a second aspect, there is provided a method for controlling a robot device including a robot hand provided with a plurality of finger portions and an arm portion for driving the robot hand, the method including: causing a plurality of gripping portions capable of gripping an object to follow the plurality of finger portions; storing position information of at least one identification portion possessed by at least one of the plurality of gripping portions; and using the position information of the identification portion to drive the robot hand via the arm portion and position the plurality of gripping portions relative to the object.

(A)は第1の実施形態のロボット装置を示す斜視図、(B)はフィンガーの変形例を示す斜視図、(C)はロボットハンドの変形例の要部を示す図である。1A is a perspective view showing the robot device of the first embodiment, FIG. 1B is a perspective view showing a modified example of a finger, and FIG. 1C is a diagram showing a main part of a modified example of a robot hand. (A)は図1(A)のロボットハンドを示す側面図、(B)はロボットハンドのフィンガーを-Y方向に見た正面図、(C)は撮像装置の視野内の画像の一例を示す図である。1A is a side view showing the robot hand of FIG. 1A, FIG. 1B is a front view showing the fingers of the robot hand in the -Y direction, and FIG. 1C is a diagram showing an example of an image within the field of view of an imaging device. ロボット装置及びロボットハンドの制御装置の一例を示す図である。FIG. 2 is a diagram illustrating an example of a robot device and a control device for a robot hand. (A)はフィンガーに固定されているツールを示す平面図、(B)は図4(A)の状態を撮像した画像、(C)はワークの中心にツールの把持中心を合わせた状態を撮像した画像、(D)はワークをツールで把持した状態を撮像した画像である。(A) is a plan view showing the tool fixed to the fingers, (B) is an image taken of the state shown in Figure 4(A), (C) is an image taken of the state where the gripping center of the tool is aligned with the center of the workpiece, and (D) is an image taken of the state where the workpiece is gripped by the tool. (A)はワークの中心線とツールの中心線との角度が大きい状態を撮像した画像、(B)はワークに対してロボットハンドを回転した後の状態を撮像した画像、(C)はワークの中心にツールの把持中心を合わせた状態を撮像した画像、(D)はマーク部材の他の例を示す平面図である。(A) is an image taken when the angle between the center line of the workpiece and the center line of the tool is large, (B) is an image taken after the robot hand has been rotated relative to the workpiece, (C) is an image taken when the gripping center of the tool is aligned with the center of the workpiece, and (D) is a plan view showing another example of a marking member. (A)はマーク部材の検出方法の一例を示すフローチャート、(B)はロボットハンドでワークを把持する方法の一例を示すフローチャート、(C)はその把持する方法の変形例を示すフローチャートである。1A is a flowchart showing an example of a method for detecting a mark member, FIG. 1B is a flowchart showing an example of a method for gripping a workpiece with a robot hand, and FIG. 1C is a flowchart showing a modified example of the gripping method. (A)及び(B)はそれぞれロボット装置を示す側面図、(C)及び(D)はそれぞれ図7(A)及び(B)の場合に撮像される画像である。7A and 7B are side views showing the robot device, and 7C and 7D are images captured in the cases of FIGS. 7A and 7B, respectively. (A)は別のワークを把持する場合のロボットハンドの要部を示す側面図、(B)は図8(A)の状態において撮像装置で得られる画像を示す図、(C)は異なる2つの高さでワークを把持する場合を示す断面図である。8A is a side view showing the main parts of the robot hand when gripping another workpiece, (B) is a diagram showing an image obtained by an imaging device in the state shown in FIG. 8A, and (C) is a cross-sectional view showing the case where a workpiece is gripped at two different heights. (A)はツールで複数のワークを把持する状態を示す平面図、(B)は図9(A)の場合のツールを示す側面図、(C)は複数のワークを把持できない構成のツールの先端部の一例を示す断面図、(D)は図9(C)のツールの先端を示す側面図、(E)はツールの先端部の別の例を示す拡大図である。9(A) is a plan view showing the state in which the tool is holding multiple workpieces, (B) is a side view showing the tool in the case of FIG. 9(A), (C) is a cross-sectional view showing an example of the tip of a tool that is not capable of holding multiple workpieces, (D) is a side view showing the tip of the tool in FIG. 9(C), and (E) is an enlarged view showing another example of the tip of the tool. 第2の実施形態のロボット装置を示す斜視図である。FIG. 11 is a perspective view showing a robot device according to a second embodiment. 図10の撮像装置で撮像される画面の一例を示す図である。11 is a diagram showing an example of a screen captured by the imaging device of FIG. 10 . (A)は変形例のロボットハンドを示す側面図、(B)は図12(A)のフィンガーを-Y方向に見た正面図、(C)は図12(A)の撮像装置の視野内の画像の一例を示す図である。12A is a side view showing a modified robot hand, FIG. 12B is a front view showing the finger in FIG. 12A in the -Y direction, and FIG. 12C is a diagram showing an example of an image within the field of view of the imaging device in FIG. 12A.

 [第1の実施形態]
 以下、第1の実施形態につき図1(A)~図6(C)を参照して説明する。
 図1(A)は本実施形態の多関節型のロボット装置2を示す。なお、ロボット装置2としては、他の水平多関節型(スカラ型)等の任意の構成のロボット装置を使用できる。図1(A)において、一例としてロボット装置2の設置面に平行に直交するX軸及びY軸を取り、その設置面に垂直にZ軸を取って説明する。その設置面はほぼ水平面であり、設置面の上方(鉛直方向の逆方向)をZ軸の+方向とする。X軸、Y軸、及びZ軸上の位置よりなる座標系をロボット座標系(X,Y,Z)と称する。
[First embodiment]
The first embodiment will be described below with reference to FIGS. 1(A) to 6(C).
Fig. 1(A) shows an articulated robot device 2 according to this embodiment. Note that the robot device 2 may be of any configuration, such as a horizontal articulated robot device (SCARA type). In Fig. 1(A), as an example, an X-axis and a Y-axis are taken as being parallel to and perpendicular to the installation surface of the robot device 2, and a Z-axis is taken as being perpendicular to the installation surface. The installation surface is an approximately horizontal plane, and the upward direction of the installation surface (the direction opposite to the vertical direction) is the + direction of the Z-axis. A coordinate system consisting of positions on the X-axis, Y-axis, and Z-axis is called the robot coordinate system (X, Y, Z).

 図1(A)において、ロボット装置2は、ロボット本体部4と、ロボット本体部4に接合されたロボットハンド6と、ロボット装置2の動作を制御する制御装置10と、ロボットハンド6の動作を制御する制御装置12とを備えている。ロボット本体部4は、ベース部14と、ベース部14に連結された回転部16と、回転部16に順に変位可能に連結された第1のロボットアーム18A、第2のロボットアーム18B、及び第3のロボットアーム18Cとを備えている。そして、第3のロボットアーム18Cの先端部20Aにロボットハンド6が接合されている。ロボットハンド6はエンドエフェクタとも呼ぶことができる。 In FIG. 1(A), the robot device 2 comprises a robot main body 4, a robot hand 6 joined to the robot main body 4, a control device 10 that controls the operation of the robot device 2, and a control device 12 that controls the operation of the robot hand 6. The robot main body 4 comprises a base 14, a rotating part 16 connected to the base 14, and a first robot arm 18A, a second robot arm 18B, and a third robot arm 18C that are connected to the rotating part 16 in a displaceable manner in sequence. The robot hand 6 is joined to the tip 20A of the third robot arm 18C. The robot hand 6 can also be called an end effector.

 一例として、回転部16は、Z軸に平行な軸の回りの回転角θ1が制御可能であり、第1のロボットアーム18Aは旋回角φ1が制御可能であり、第2のロボットアーム18Bは旋回角φ2が制御可能であり、第3のロボットアーム18Cは、旋回角φ3及び先端部20A(ロボットハンド6)の例えばZ軸に平行な軸の回りの回転角θ2が制御可能である。また、第3のロボットアーム18Cは、先端部20Aの回転角θ2を変化させる回転部20C及び旋回角φ3を変化させる傾斜駆動部20Bを有する。回転部20C及び傾斜駆動部20Bはそれぞれ駆動用モータ及び回転角を検出するエンコーダを有する。回転部16及び他のロボットアーム18A,18Bも同様に駆動用モータ及びエンコーダを有する。このため、第3のロボットアーム18Cに接合されたロボットハンド6は、少なくともX方向(X軸に沿った方向。以下同様。)、Y方向、Z方向の位置、及びZ軸の回りの回転角を含む4自由度の位置(角度を含む)が制御可能である。 As an example, the rotating unit 16 can control the rotation angle θ1 around an axis parallel to the Z axis, the first robot arm 18A can control the swivel angle φ1, the second robot arm 18B can control the swivel angle φ2, and the third robot arm 18C can control the swivel angle φ3 and the rotation angle θ2 of the tip end 20A (robot hand 6) around an axis parallel to the Z axis, for example. The third robot arm 18C has a rotating unit 20C that changes the rotation angle θ2 of the tip end 20A and a tilt drive unit 20B that changes the swivel angle φ3. The rotating unit 20C and the tilt drive unit 20B each have a drive motor and an encoder that detects the rotation angle. The rotating unit 16 and the other robot arms 18A and 18B similarly have drive motors and encoders. Therefore, the robot hand 6 attached to the third robot arm 18C can be controlled in four degrees of freedom (including angles), including at least the position in the X direction (direction along the X axis; same below), Y direction, and Z direction, and the rotation angle around the Z axis.

 ロボット座標系(X,Y,Z)の原点58Aは、一例としてベース部14の中心であるが、原点58Aは任意の位置に設定又は変更が可能である。一例として、ロボットハンド6はZ軸に平行な状態で移動するように、回転部16及びロボットアーム18A~18Cによって駆動される。なお、ロボットハンド6は少なくとも5個のエンコーダを有するため、ロボットハンド6の3自由度の位置、及び2自由度の角度を制御することも可能である。また、ロボット装置2の代わりに、3自由度の位置及び3自由度の角度を制御可能なロボット装置(不図示)にロボットハンド6を接合してもよい。 The origin 58A of the robot coordinate system (X, Y, Z) is, for example, the center of the base 14, but the origin 58A can be set or changed to any position. As an example, the robot hand 6 is driven by the rotating unit 16 and the robot arms 18A-18C so as to move parallel to the Z axis. Since the robot hand 6 has at least five encoders, it is also possible to control the position of the robot hand 6 with three degrees of freedom and the angle with two degrees of freedom. Also, instead of the robot device 2, the robot hand 6 may be joined to a robot device (not shown) that is capable of controlling the position of the robot hand 6 with three degrees of freedom and the angle with three degrees of freedom.

 また、ロボット装置2は、撮像装置22及び照明装置(不図示)を備えている。一例として、撮像装置22はロボットハンド6に装着されているが、撮像装置22はロボットハンド6以外の位置、例えばロボットアーム18Cの側面、ロボット装置2の設置面上の測定位置等、又はロボット装置2が設置されている部屋の壁や天井等に設けてもよい。また、一例として撮像装置22は通常の2次元画像を撮像するカメラであり、その焦点位置は例えばロボットハンド6内に固定されている後述のツール8b,8cの先端部を含む領域の近傍に設定され、その焦点深度は比較的深く設定されている。なお、撮像装置22はオートフォーカスレンズを備えてもよい。また、撮像装置22の焦点位置がツール8b,8cの先端部を含む領域の近傍にある場合、ツール8b,8cの先端をワーク48の載置面FLに接触又は近接させた状態では、ワーク48も撮像装置22のほぼ焦点位置にあることになる。ただし、撮像装置22として立体カメラ(ステレオカメラ)等を使用してもよい。 The robot device 2 also includes an imaging device 22 and a lighting device (not shown). As an example, the imaging device 22 is attached to the robot hand 6, but the imaging device 22 may be provided at a position other than the robot hand 6, such as the side of the robot arm 18C, a measurement position on the installation surface of the robot device 2, or a wall or ceiling of the room in which the robot device 2 is installed. As an example, the imaging device 22 is a camera that captures normal two-dimensional images, and its focal position is set near an area including the tips of the tools 8b and 8c (described later) fixed in the robot hand 6, and its focal depth is set relatively deep. The imaging device 22 may include an autofocus lens. When the focal position of the imaging device 22 is near an area including the tips of the tools 8b and 8c, when the tips of the tools 8b and 8c are in contact with or close to the placement surface FL of the workpiece 48, the workpiece 48 is also at approximately the focal position of the imaging device 22. However, a three-dimensional camera (stereo camera) or the like may be used as the imaging device 22.

 また、本実施形態のロボットハンド6は2つの開閉するように駆動される2つのフィンガー38A,38Bを有し、そのフィンガー38A,38Bの内面にそれぞれ対象物を把持するための部材(以下、ツールという)8b,8cがボルトB1等(図2(A)参照)で固定されている。一例として、ツール8b,8c(把持部)はロボットハンド6の前方に突き出るように支持され、かつ下方に突き出た形状の先端部を有し、その先端部の間に対象物を把持可能である。なお、ツール8b,8cの先端部の形状は対象物に応じて任意の形状でよい。ツール8b,8cは金属製であるが、ツール8b,8cの一部又は全部を合成樹脂等から形成してもよい。フィンガー38A,38Bを閉じることによって、フィンガー38A,38Bの動きに従動してツール8b,8cが閉じて、可動部8b,8cの先端部の間に対象物を把持又は支持できる。また、フィンガー38A,38Bを開くことによって、その動きに従動してツール8b,8cが開き、ツール8b,8cを対象物から離脱できる。 In addition, the robot hand 6 of this embodiment has two fingers 38A, 38B that are driven to open and close, and members (hereinafter referred to as tools) 8b, 8c for grasping an object are fixed to the inner surfaces of the fingers 38A, 38B by bolts B1 or the like (see FIG. 2(A)). As an example, the tools 8b, 8c (grasping parts) are supported so as to protrude forward of the robot hand 6 and have tips that protrude downward, and an object can be grasped between the tips. The shape of the tips of the tools 8b, 8c may be any shape depending on the object. The tools 8b, 8c are made of metal, but some or all of the tools 8b, 8c may be made of synthetic resin or the like. By closing the fingers 38A, 38B, the tools 8b, 8c close in response to the movement of the fingers 38A, 38B, and an object can be grasped or supported between the tips of the movable parts 8b, 8c. In addition, by opening the fingers 38A and 38B, the tools 8b and 8c open in response to this movement, allowing the tools 8b and 8c to be removed from the object.

 なお、一方のツール8bが固定され、他方のツール8cのみが可動であってもよい。すなわち、ツール8b,8cは相対的に開閉可能であればよい。この場合には、固定側のツール8bが固定されているフィンガー38Aも固定されていてもよい。また、ツール8b,8cの代わりに、3つ以上のツールを使用することもできる。この際に、その3つ以上のツールのうち少なくとも1つのツールのみが可動で、他のツールが固定されていてもよい。3つ以上のツールをロボットハンド6で保持する場合、フィンガー38A等の個数をそのツールと同じ個数としてもよい。さらに、その3つ以上のツールの一部が固定されている場合には、固定されているツールを支持するフィンガー38A等は固定でもよい。 It is also possible that one tool 8b is fixed and only the other tool 8c is movable. In other words, it is sufficient that the tools 8b and 8c are capable of opening and closing relatively to each other. In this case, the finger 38A to which the fixed tool 8b is fixed may also be fixed. Also, three or more tools can be used instead of the tools 8b and 8c. In this case, only at least one of the three or more tools may be movable and the other tools may be fixed. When three or more tools are held by the robot hand 6, the number of fingers 38A, etc. may be the same as the number of the tools. Furthermore, when some of the three or more tools are fixed, the fingers 38A, etc. supporting the fixed tools may be fixed.

 また、フィンガー38A,38Bにツール8b,8cを固定する代わりに、図1(B)に示すように、先端部38Cb,38Dbの形状がツールのような形状に加工されたフィンガー38C,38Dを使用してもよい。以下では、ツール8b,8cで把持する処理対象物(把持対象物)は、水平面にほぼ平行な載置面FLに載置された複数のワーク48であるとする。一例としてワーク48は軸部48a及びヘッド部48bを有するボルトである。なお、処理対象物の形状は任意であり、処理対象物の大きさはツール8b,8cで把持可能な部分を有する範囲で任意である。さらに、ワークとしては、例えば長いひも状又はケーブル状のもの等であっても、断面形状の直径の部分で把持可能な範囲であれば、ツール8b,8cで把持可能である。 In addition, instead of fixing the tools 8b and 8c to the fingers 38A and 38B, fingers 38C and 38D whose tips 38Cb and 38Db are processed to have a tool-like shape may be used as shown in FIG. 1B. In the following, the objects to be processed (objects to be gripped) gripped by the tools 8b and 8c are multiple workpieces 48 placed on a mounting surface FL that is substantially parallel to the horizontal plane. As an example, the workpieces 48 are bolts having a shaft 48a and a head 48b. The shape of the objects to be processed is arbitrary, and the size of the objects to be processed is arbitrary as long as it has a portion that can be gripped by the tools 8b and 8c. Furthermore, even if the workpiece is, for example, a long string-like or cable-like object, it can be gripped by the tools 8b and 8c as long as it is within the range that can be gripped by the diameter of the cross-sectional shape.

 図2(A)は図1(A)中のロボットハンド6を示し、図2(A)は、ロボットハンド6が、ロボットアーム18Cの先端部20Aの下端に、ツール8b,8cの開閉方向がX軸に平行な方向(X方向)になるように接合された状態を示している。図2(A)において、ロボットハンド6は、先端部20Aの下端に接合されたハンド本体部28と、ハンド本体部28の作動部32に連結された連結部36と、作動部32によってX方向に開閉される一対のフィンガー38A,38Bと、フィンガー38A,38Bに固定されたツール8b,8cとを備えている。ツール8b,8cがフィンガー38A,38BによってX方向に開閉される。フィンガー38A,38Bは例えば金属製である。 Fig. 2(A) shows the robot hand 6 in Fig. 1(A), and Fig. 2(A) shows a state in which the robot hand 6 is joined to the lower end of the tip 20A of the robot arm 18C so that the opening and closing direction of the tools 8b, 8c is parallel to the X-axis (X-direction). In Fig. 2(A), the robot hand 6 comprises a hand main body 28 joined to the lower end of the tip 20A, a connecting part 36 connected to an operating part 32 of the hand main body 28, a pair of fingers 38A, 38B that are opened and closed in the X-direction by the operating part 32, and tools 8b, 8c fixed to the fingers 38A, 38B. The tools 8b, 8c are opened and closed in the X-direction by the fingers 38A, 38B. The fingers 38A, 38B are made of metal, for example.

 また、ハンド本体部28は、先端部20Aに接合された平板状の接合部(ジョイント)を有するフレーム30と、フレーム30にリニアスライダ34を介してZ方向に相対移動可能に連結された作動部32とを有する。フレーム30の+Y方向の側面に支持部材50を介して撮像装置22が支持されている。フレーム30の接合部は、先端部20Aに対して機械的(ねじによる固定、可動の爪機構による固定、永久磁石による固定等)、又は電気的(電磁石による固定等)に接合されている。さらに、その接合部には、必要に応じて電気配線、圧縮空気の配管、及び/又は真空吸着用の配管等の接続部が設けられている。フレーム30の接合部には先端部20Aに対する位置及び回転角が所定値になるように複数の凸部又は凹部等の位置決め部(不図示)が設けられている。 The hand body 28 also has a frame 30 having a flat joint (joint) joined to the tip 20A, and an operating unit 32 connected to the frame 30 via a linear slider 34 so as to be movable relative to the tip 20A in the Z direction. The imaging device 22 is supported on the +Y side of the frame 30 via a support member 50. The joint of the frame 30 is mechanically (fixed by a screw, fixed by a movable claw mechanism, fixed by a permanent magnet, etc.) or electrically (fixed by an electromagnet, etc.) joined to the tip 20A. Furthermore, the joint is provided with connections such as electrical wiring, compressed air piping, and/or vacuum suction piping as necessary. The joint of the frame 30 is provided with positioning parts (not shown) such as multiple protrusions or recesses so that the position and rotation angle relative to the tip 20A are predetermined values.

 また、撮像装置22は、ツール8b,8cに対してわずかに斜め上方(+Y方向及び+Z方向)に配置されている。図2(C)に示すように、撮像装置22の視野内で撮像される画像22Gの中心を原点58Bとして、原点58Bを通り画像22Gの長手方向に平行にx軸を取り、画像22Gの短手方向に平行にy軸を取り、座標系(x,y)を撮像装置22の座標系と称する。なお、原点58Bの位置は任意である。図2(C)の状態では、x軸及びy軸はそれぞれロボット座標系(X,Y,Z)のX軸及びY軸に平行であるが、ロボットアーム18A~18Cによるロボットハンド6の駆動によって、撮像装置22の座標系(x,y)のロボット座標系(X,Y,Z)に対する位置及び角度は変化する。 The imaging device 22 is also placed slightly diagonally upward (in the +Y and +Z directions) with respect to the tools 8b and 8c. As shown in FIG. 2C, the center of the image 22G captured within the field of view of the imaging device 22 is taken as the origin 58B, the x-axis is taken parallel to the longitudinal direction of the image 22G passing through the origin 58B, and the y-axis is taken parallel to the lateral direction of the image 22G. The coordinate system (x, y) is called the coordinate system of the imaging device 22. The position of the origin 58B is arbitrary. In the state of FIG. 2C, the x-axis and y-axis are respectively parallel to the X-axis and Y-axis of the robot coordinate system (X, Y, Z), but the position and angle of the coordinate system (x, y) of the imaging device 22 with respect to the robot coordinate system (X, Y, Z) changes when the robot hand 6 is driven by the robot arms 18A to 18C.

 さらに、撮像装置22の位置は、画像22G内の原点58Bよりも-y方向側にツール8b,8cの像8bI,8cIの先端部が収まるように設定されている。また、撮像装置22の倍率は既知であるため、ツール8b,8cのロボット座標系(X,Y,Z)でのZ位置をある位置に設定した場合、制御装置10では、撮像装置22の画像22G上でのx方向、y方向の間隔(距離)をその倍率で割ることによって、その間隔に対応するロボット座標系(X,Y,Z)上でのX方向、Y方向の間隔(近似値)を求めることができる。 Furthermore, the position of the imaging device 22 is set so that the tips of the images 8bI, 8cI of the tools 8b, 8c are located on the -y side of the origin 58B in the image 22G. Also, since the magnification of the imaging device 22 is known, when the Z positions of the tools 8b, 8c in the robot coordinate system (X, Y, Z) are set to a certain position, the control device 10 can divide the interval (distance) in the x and y directions on the image 22G of the imaging device 22 by that magnification to obtain the interval (approximation) in the x and y directions on the robot coordinate system (X, Y, Z) that corresponds to that interval.

 また、フレーム30の接合部(上板部)と連結部36のX方向の両側面との間にZ軸に平行な方向に2つの伸縮可能な引っ張りコイルばね(以下、弾性部材という。)44A,44Bが接続されている。以下、弾性部材44A,44Bをまとめて弾性部材44で表している。リニアスライダ34及び弾性部材44を含んで、フレーム30に対して可動部(作動部32、フィンガー38A,38B、及びツール8b,8cを含む部分)をZ方向に弾性変位可能に支持するサスペンション機構46(緩衝機構)が構成されている。また、フレーム30に設けられたコの字型の制限部材52aと、制限部材52aの間をZ方向に変位可能に作動部32に設けられたピン52bとから、フレーム30に対する作動部32(可動部)のZ方向の変位を所定範囲内に制限するためのストッパ52が構成されている。ツール8b,8cが処理対象物を把持していない状態で、ストッパ52は、ピン52bが制限部材52aの中間に位置するように設定されている。 In addition, two expandable coil springs (hereinafter referred to as elastic members) 44A, 44B are connected in a direction parallel to the Z axis between the joint (upper plate portion) of the frame 30 and both side surfaces in the X direction of the connecting portion 36. Hereinafter, the elastic members 44A, 44B are collectively referred to as the elastic member 44. A suspension mechanism 46 (buffer mechanism) is configured that includes the linear slider 34 and the elastic member 44 and supports the movable portion (the portion including the operating portion 32, the fingers 38A, 38B, and the tools 8b, 8c) in a manner that allows elastic displacement in the Z direction relative to the frame 30. In addition, a stopper 52 for limiting the displacement in the Z direction of the operating portion 32 (movable portion) relative to the frame 30 within a predetermined range is configured by a U-shaped limiting member 52a provided on the frame 30 and a pin 52b provided on the operating portion 32 that is displaceable in the Z direction between the limiting member 52a. When the tools 8b and 8c are not gripping the workpiece, the stopper 52 is set so that the pin 52b is positioned in the middle of the limiting member 52a.

 なお、サスペンション機構46は、弾性部材44として引っ張りコイルばねの代わりに例えば板ばねを使用する機構など、その構成は任意である。また、本実施形態では、サスペンション機構46によって上述の可動部を支持している。別の構成として、例えば作動部32をフレーム30に固定して、ツール8b,8cを作動部32に対してZ方向に弾性変位可能に支持する構成のサスペンション機構等を使用してもよい。 The suspension mechanism 46 may have any configuration, such as a mechanism that uses a leaf spring instead of a tension coil spring as the elastic member 44. In this embodiment, the above-mentioned movable part is supported by the suspension mechanism 46. As another configuration, for example, a suspension mechanism may be used in which the operating part 32 is fixed to the frame 30 and the tools 8b and 8c are supported so as to be elastically displaceable in the Z direction relative to the operating part 32.

 さらに、フレーム30の内側の作動部32の上方に、作動部32との間隔を非接触で検出するための近接センサ56が設けられている。近接センサ56の検出結果より、フレーム30に対する可動部(作動部32及びツール8b,8c等)の相対変位を検出でき、この検出結果より、ツール8b,8cの先端がワーク48の載置面FLに接触したかどうかを検出できる。なお、載置面FLがある程度の導電性を有する場合には、近接センサ56の代わりに、ツール8b,8cと載置面FLとの導通を検出する接触センサ等を使用してもよい。また、例えばフィンガー38A,38Bの側面に、ツール8b,8cの先端部が設置面FLに近接したかどうかを検出する近接センサを設け、この近接センサを用いてツール8b,8cの先端が設置面FLに近接したことを検出してもよい。 Furthermore, a proximity sensor 56 is provided above the operating part 32 inside the frame 30 to detect the distance from the operating part 32 without contact. From the detection result of the proximity sensor 56, the relative displacement of the movable part (operating part 32 and tools 8b, 8c, etc.) with respect to the frame 30 can be detected, and from this detection result, it can be detected whether the tips of the tools 8b, 8c have come into contact with the mounting surface FL of the workpiece 48. If the mounting surface FL has a certain degree of conductivity, a contact sensor that detects the conduction between the tools 8b, 8c and the mounting surface FL may be used instead of the proximity sensor 56. Also, for example, a proximity sensor that detects whether the tips of the tools 8b, 8c have come close to the mounting surface FL may be provided on the side of the fingers 38A, 38B, and the proximity sensor may be used to detect that the tips of the tools 8b, 8c have come close to the mounting surface FL.

 また、一例として、例えばロボット装置2の稼働開始時に、ツール8b,8cの先端がワーク48の載置面FLに接触したことを近接センサ56によって検出したときに、ロボット座標系(X,Y,Z)のZ軸上の位置(以下、Z位置ともいう)の値を0にプリセットしてもよい。このプリセット情報は例えば後述の座標算出部11C(図3参照)に供給される。この後、制御装置10及び12ではロボット座標系(X,Y,Z)のZ位置の値によってツール8b,8cの先端と載置面FLとのZ方向の間隔を認識してもよい。 Also, as an example, when the robot device 2 starts operating, for example, when the proximity sensor 56 detects that the tips of the tools 8b, 8c have come into contact with the mounting surface FL of the workpiece 48, the value of the position on the Z axis of the robot coordinate system (X, Y, Z) (hereinafter also referred to as the Z position) may be preset to 0. This preset information may be supplied, for example, to a coordinate calculation unit 11C (see FIG. 3) described below. Thereafter, the control devices 10 and 12 may recognize the distance in the Z direction between the tips of the tools 8b, 8c and the mounting surface FL based on the value of the Z position of the robot coordinate system (X, Y, Z).

 また、先端部20Aからフレーム30を離脱させて、先端部20Aに、他の形状のツール8b,8c又は他の形状のフィンガー38A,38Bを備えたロボットハンドのフレーム30を接合することで、ロボットアーム18Cの先端部20Aに接合されているロボットハンド6の交換を行うことができる。また、先端部20Aに接合されているロボットハンド6において、フィンガー38A,38Bに固定されているツール8b,8cを、処理対象物の形状等に応じて他の異なる形状のツールに交換することもできる。 Furthermore, by detaching the frame 30 from the tip 20A and joining the frame 30 of a robot hand equipped with tools 8b, 8c of a different shape or fingers 38A, 38B of a different shape to the tip 20A, it is possible to replace the robot hand 6 joined to the tip 20A of the robot arm 18C. Also, in the robot hand 6 joined to the tip 20A, the tools 8b, 8c fixed to the fingers 38A, 38B can be replaced with tools of a different shape depending on the shape of the object to be processed, etc.

 図2(B)は図2(A)を-Y方向に見た正面図であり、図2(B)において、作動部32は、回転モータを含むフィンガー駆動部13C(図3参照)と、フィンガー駆動部13Cの回転量を減速して直線運動に変換してフィンガー38A,38Bを開閉する変換部(不図示)と、フィンガー駆動部13Cの回転角からフィンガー38A,38Bの位置及び間隔を検出する間隔検出部13B(図3参照)と、を有する。作動部32によって、1対のフィンガー38A,38Bが、ツール8b,8cを開閉方向(ここではX方向)に開閉する。 Fig. 2(B) is a front view of Fig. 2(A) as viewed in the -Y direction, and in Fig. 2(B), the operating unit 32 has a finger drive unit 13C (see Fig. 3) including a rotary motor, a conversion unit (not shown) that decelerates the amount of rotation of the finger drive unit 13C and converts it into linear motion to open and close the fingers 38A, 38B, and a gap detection unit 13B (see Fig. 3) that detects the position and gap between the fingers 38A, 38B from the rotation angle of the finger drive unit 13C. The pair of fingers 38A, 38B opens and closes the tools 8b, 8c in the opening and closing direction (here, the X direction) by the operating unit 32.

 また、本実施形態では作動部32によって、フィンガー38A,38Bはツール8b,8cの開閉方向の間隔が変化するように駆動される。なお、作動部32は、ツール8b,8cが互いに独立にX方向に移動するようにフィンガー38A,38Bを作動させてもよい。
 また、対象物を把持又は支持していない状態では、一例として-X方向のフィンガー38A(ツール8b)はX方向の可動範囲内で最も外側(-X方向)の位置(以下、待機位置ともいう)に待機しており、+X方向のフィンガー38B(ツール8c)はX方向の可動範囲内で最も外側(+X方向)の位置(以下、待機位置ともいう)に待機している。ツール8b,8cで対象物を把持する際にはフィンガー38A,38Bは待機位置からツール8b,8cを閉じるように移動し、対象物からツール8b,8cを離す際にはフィンガー38A,38Bは待機位置側に移動する。
In this embodiment, the fingers 38A, 38B are driven by the actuator 32 so that the distance between the tools 8b, 8c in the opening and closing direction changes. The actuator 32 may operate the fingers 38A, 38B so that the tools 8b, 8c move in the X direction independently of each other.
Furthermore, when an object is not being gripped or supported, as an example, the -X direction finger 38A (tool 8b) waits at the outermost position (-X direction) (hereinafter also referred to as the standby position) within the movable range in the X direction, and the +X direction finger 38B (tool 8c) waits at the outermost position (+X direction) (hereinafter also referred to as the standby position) within the movable range in the X direction. When gripping an object with the tools 8b and 8c, the fingers 38A and 38B move from the standby position to close the tools 8b and 8c, and when releasing the tools 8b and 8c from the object, the fingers 38A and 38B move toward the standby position.

 次に、図3はロボット装置2の制御装置10及びロボットハンド6の制御装置12を示す。図3において、制御装置10は、例えばオペレータとの間で制御情報(使用するツールの種類、処理対象の対象物の位置等)の入出力を行う制御情報入出力部11A、ロボットハンド6の制御装置12との間での制御情報の送受、及び装置全体の動作の制御を行う主制御部11Bと、ロボットアーム18A~18C等の動きを検出する少なくとも5軸のエンコーダの検出結果を処理して第3のロボットアーム18Cの先端のロボットハンド6で保持されているツール8b,8cの先端部の座標及び回転角を算出する座標算出部11Cとを有する。 Next, Figure 3 shows the control device 10 of the robot device 2 and the control device 12 of the robot hand 6. In Figure 3, the control device 10 has a control information input/output unit 11A that inputs and outputs control information (such as the type of tool to be used and the position of the object to be processed) with the operator, a main control unit 11B that transmits and receives control information with the control device 12 of the robot hand 6 and controls the operation of the entire device, and a coordinate calculation unit 11C that processes the detection results of at least five-axis encoders that detect the movements of the robot arms 18A-18C, etc., and calculates the coordinates and rotation angles of the tips of the tools 8b and 8c held by the robot hand 6 at the tip of the third robot arm 18C.

 さらに、制御装置10は、ロボットハンド6に装着されている撮像装置22の撮像信号を処理して例えばロボットハンド6で保持されているツール8b,8cの先端部と対象物との位置関係等を求める画像処理部11Dと、座標算出部11C及び画像処理部11Dの処理結果に基づいて回転部16及びロボットアーム18A~18Cの動きを制御するアーム制御部11Eと、各種データを記憶する記憶部11Fとを有する。なお、画像処理部11Dはロボットハンド6側の制御装置12に設けてもよい。記憶部11Fは、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置、及びUSB(Universal Serial Bus)メモリ等の不揮発性メモリのいずれかを含んでもよい。記憶部11Fは、制御装置10のプログラム及び各種設定値等を記憶する。 The control device 10 further includes an image processing unit 11D that processes the imaging signal of the imaging device 22 attached to the robot hand 6 to determine, for example, the positional relationship between the tip of the tool 8b, 8c held by the robot hand 6 and an object, an arm control unit 11E that controls the movement of the rotation unit 16 and the robot arms 18A to 18C based on the processing results of the coordinate calculation unit 11C and the image processing unit 11D, and a memory unit 11F that stores various data. The image processing unit 11D may be provided in the control device 12 on the robot hand 6 side. The memory unit 11F may include, for example, any one of a storage device such as an HDD (Hard Disk Drive) or SSD (Solid State Drive), and a non-volatile memory such as a USB (Universal Serial Bus) memory. The memory unit 11F stores the programs and various setting values of the control device 10.

 また、制御装置12は、制御装置10の主制御部11B及びアーム制御部11Eとの間での制御情報の送受、及びロボットハンド6全体の動作の制御を行うハンド制御部13Aと、フィンガー38A,38Bの開閉を行うフィンガー駆動部13Cと、フィンガー38A,38Bの位置及び間隔を検出する間隔検出部13Bと、を有する。また、制御装置12は、フィンガー38A,38Bに対するツール8b,8cからの反力(フィンガー38A,38Bによる力)をフィンガー把持力FFとして検出するフィンガー把持力検出部13Dと、図2の近接センサ56の検出信号を処理してロボットハンド6で保持しているツール8b,8cが載置面FLに接触したかどうかを検出する接触検出部13Eと、記憶部13Fとを有する。記憶部13Fの構成は記憶部11Fと同様であり、記憶部13Fは制御装置12のプログラム及び各種設定値等を記憶する。 The control device 12 also has a hand control unit 13A that transmits and receives control information between the main control unit 11B and the arm control unit 11E of the control device 10 and controls the operation of the entire robot hand 6, a finger drive unit 13C that opens and closes the fingers 38A and 38B, and a spacing detection unit 13B that detects the position and spacing of the fingers 38A and 38B. The control device 12 also has a finger gripping force detection unit 13D that detects the reaction force (force by the fingers 38A and 38B) from the tools 8b and 8c against the fingers 38A and 38B as a finger gripping force FF, a contact detection unit 13E that processes the detection signal of the proximity sensor 56 in FIG. 2 and detects whether the tools 8b and 8c held by the robot hand 6 have contacted the placement surface FL, and a memory unit 13F. The configuration of the memory unit 13F is the same as that of the memory unit 11F, and the memory unit 13F stores the programs and various setting values of the control device 12.

 一例として、フィンガー把持力検出部13Dは、フィンガー駆動部13Cの回転モータ部に流れる電流からフィンガー把持力FFを検出し、ハンド制御部13Aはその検出されるフィンガー把持力FFが予め設定されているレベル(規格値)以下になるようにフィンガー38A,38B(フィンガー駆動部13C)の動作を制御する。これによって、ツール8b,8c、フィンガー38A,38B、及び/又は対象物の破損等を防止できる。なお、フィンガー把持力検出部13Dの代わりに、例えばフィンガー38A,38Bに設けた歪みゲージ、又は圧力センサ等のフィンガー把持力FFを検出可能なセンサを使用できる。ハンド制御部13Aに入力される制御情報は、例えばツール8b,8cによる対象物の把持開始命令及び把持解除命令を含み、ハンド制御部13Aから主制御部11Bに出力される制御情報は、例えばツール8b,8cによる対象物の把持完了を示す情報、及びツール8b,8cによる対象物の把持の解除の完了(対象物からのツールの離脱の完了)を示す情報を含む。 As an example, the finger grip force detection unit 13D detects the finger grip force FF from the current flowing through the rotation motor unit of the finger drive unit 13C, and the hand control unit 13A controls the operation of the fingers 38A, 38B (finger drive unit 13C) so that the detected finger grip force FF is below a preset level (standard value). This makes it possible to prevent damage to the tools 8b, 8c, the fingers 38A, 38B, and/or the object. Note that instead of the finger grip force detection unit 13D, a sensor capable of detecting the finger grip force FF, such as a strain gauge or a pressure sensor provided on the fingers 38A, 38B, can be used. The control information input to the hand control unit 13A includes, for example, a command to start gripping an object with the tools 8b and 8c and a command to release the grip, and the control information output from the hand control unit 13A to the main control unit 11B includes, for example, information indicating completion of gripping of the object by the tools 8b and 8c, and information indicating completion of releasing grip of the object by the tools 8b and 8c (completion of removal of the tools from the object).

 次に、本実施形態のロボット装置2の基本的な動作の一例につき説明する。まず、図4(A)は、図2(A)のロボットハンド6の作動部32側から見たフィンガー38A,38B、ツール8b,8c、及び把持対象のワーク48等を示す。ワーク48は直径の小さい軸部48a及び直径の大きいヘッド部48bを有する。ロボット装置2では、一例としてツール8b,8cの先端をワーク48の載置面FLに接触させた状態(又は載置面FLから僅かに高い位置に設定した状態)でロボットハンド6(ツール8b,8c)をX方向、Y方向に移動させて、ツール8b,8cの先端の間にワーク48の軸部48aを収めた後、フィンガー38A,38Bを閉じてツール8b,8cの間にワーク48の軸部48aを把持する。 Next, an example of the basic operation of the robot device 2 of this embodiment will be described. First, FIG. 4(A) shows the fingers 38A, 38B, tools 8b, 8c, and the workpiece 48 to be grasped, as viewed from the operating unit 32 side of the robot hand 6 in FIG. 2(A). The workpiece 48 has a small diameter shaft 48a and a large diameter head 48b. In the robot device 2, as an example, the tips of the tools 8b, 8c are in contact with the mounting surface FL of the workpiece 48 (or are set at a position slightly higher than the mounting surface FL) and the robot hand 6 (tools 8b, 8c) is moved in the X and Y directions to place the shaft 48a of the workpiece 48 between the tips of the tools 8b, 8c, and then the fingers 38A, 38B are closed to grasp the shaft 48a of the workpiece 48 between the tools 8b, 8c.

 図4(A)において、ツール8b及び8cの先端部(撮像装置22の画像22G内で撮像可能な部分)に、それぞれマークMA,MBが形成された小さい金属等の平板状のマーク部材62A及び62Bが固定されている。一例として、マークMA,MBの中心を結ぶ線分上の中点をツール8b,8cの把持中心58Cとみなすこととする。把持中心58Cはツール8b及び8cの先端の中心(中間点)からわずかに内側に設定されている。マーク部材62A,62Bはツール8b及び8cの開閉の障害にならない状態で、ツール8b及び8cの上面に例えば接着又は粘着等で固定されている。本実施形態では、マークMA,MBは互いに同じ円形の形状であるが、マークMA,MBは互いに異なる形状でもよい。さらに、例えばツール8b及び8cの一部の形状に識別性があるような場合には、その形状の部分を、マークMA,MB又はマーク部材62A,62Bの代わりに使用することも可能である。 In FIG. 4A, small flat marking members 62A and 62B made of metal or the like, on which marks MA and MB are formed, are fixed to the tips of tools 8b and 8c (portions that can be imaged in image 22G of imaging device 22). As an example, the midpoint of the line segment connecting the centers of marks MA and MB is regarded as the gripping center 58C of tools 8b and 8c. The gripping center 58C is set slightly inward from the center (midpoint) of the tips of tools 8b and 8c. Marking members 62A and 62B are fixed to the upper surfaces of tools 8b and 8c, for example, by adhesion or glue, in a state that does not interfere with the opening and closing of tools 8b and 8c. In this embodiment, marks MA and MB have the same circular shape, but marks MA and MB may have different shapes. Furthermore, for example, if the shape of a part of tools 8b and 8c is distinctive, that part of the shape can be used instead of marks MA and MB or marking members 62A and 62B.

 また、マークMA,MBとしては例えば円形以外の十字型若しくは多角形等の記号、アルファベット若しくは数字、又はバーコード等の所定の情報を含む記号などの任意のマーク又はマーカが使用できる。なお、マークMA,MBとしては、エイプリルタグ(AprilTag又はApril Tag)、又はQRコード(登録商標)(2次元バーコード)のような識別コードを使用することもできる。そのような識別コード又は認識コードによって、把持対象物(ワーク)に対して使用しているツール8b,8cが正しい形状であるかどうかを認識して管理することもできる。なお、エイプリルタグは、3次元上の物体の位置及び姿勢を検出するアプリケーション用の視覚的マーク(マーカ)である。また、エイプリルタグは、AR(Augmented Reality)マーカ、即ち拡張現実マーカの一例でもある。 The marks MA and MB can be any mark or marker, such as a symbol other than a circle, such as a cross or polygon, an alphabet or number, or a symbol containing predetermined information, such as a barcode. The marks MA and MB can also be an identification code, such as an April Tag or a QR Code (registered trademark) (two-dimensional barcode). Such an identification code or recognition code can be used to recognize and manage whether the tools 8b and 8c being used for the object to be grasped (workpiece) are of the correct shape. The April Tag is a visual mark (marker) for applications that detect the position and orientation of an object in three dimensions. The April Tag is also an example of an AR (Augmented Reality) marker.

 本実施形態では、ツール8b,8cは、Y軸及びZ軸を含む面にほぼ平行な面内の中心線8clに関してほぼ線対称であり、マークMA,MBはツール8b,8cに対して中心線8clに関してほぼ線対称な位置に固定されている。また、ツール8b,8cは撮像装置22の光軸に垂直な面に対して傾斜しているため(図2(A)参照)、ツール8b,8cに固定されるマーク部材62A,62BのマークMA,MBは、撮像装置22で撮像した場合に撮像装置22の画像から良好に識別できる形状でマーク部材62A,62Bに形成されている。 In this embodiment, the tools 8b, 8c are approximately line-symmetrical with respect to a center line 8cl in a plane approximately parallel to the plane including the Y-axis and Z-axis, and the marks MA, MB are fixed to the tools 8b, 8c at positions approximately line-symmetrical with respect to the center line 8cl. In addition, since the tools 8b, 8c are inclined with respect to a plane perpendicular to the optical axis of the imaging device 22 (see FIG. 2(A)), the marks MA, MB of the mark members 62A, 62B fixed to the tools 8b, 8c are formed on the mark members 62A, 62B in a shape that can be easily identified from the image of the imaging device 22 when the image is captured by the imaging device 22.

 図4(B)は、図4(A)の状態のツール8b,8c及びワーク48を図2(A)の撮像装置22で撮像して得られる画像22Gを示す。図4(B)において、画像22G内にツール8b,8cの像8bI,8cI、マーク部材62A,62Bの像62AI,62BI、マークMA,MBの像MAI,MBI、及びワーク48の像48Iが表示されている。画像22Gの情報が図3の画像処理部11Dに供給され、画像処理部11Dでは、2つのマークの像MAI,MBIの中心をツール8の把持中心58Cの像58CIとみなす。また、画像処理部11Dでは、一例としてワーク48の像48Iの中で、軸部48aの像の中心をワーク48の中心の像48cIとみなす。さらに、画像処理部11Dでは、ワーク48の中心の像48cIと、ツール8b,8cの把持中心の像58CIとの画像22G上でのx方向の間隔δx、及びy方向の間隔δyを求め、さらにこれらの間隔(距離)を撮像装置22の倍率で割って、その間隔をロボット座標系(X,Y,Z)上でのX方向、Y方向の間隔に変換した間隔を求め、求めた間隔を主制御部11Bを介してアーム制御部11Eに供給する。 Figure 4(B) shows image 22G obtained by imaging tools 8b, 8c and workpiece 48 in the state of Figure 4(A) with imaging device 22 of Figure 2(A). In Figure 4(B), images 8bI, 8cI of tools 8b, 8c, images 62AI, 62BI of mark members 62A, 62B, images MAI, MBI of marks MA, MB, and image 48I of workpiece 48 are displayed in image 22G. Information of image 22G is supplied to image processing unit 11D of Figure 3, and image processing unit 11D regards the center of images MAI, MBI of the two marks as image 58CI of grip center 58C of tool 8. Also, image processing unit 11D regards the center of the image of shaft portion 48a in image 48I of workpiece 48 as image 48cI of the center of workpiece 48, as an example. Furthermore, the image processing unit 11D calculates the distance δx in the x direction and the distance δy in the y direction on the image 22G between the image 48cI of the center of the workpiece 48 and the image 58CI of the gripping center of the tools 8b and 8c, and further divides these distances (distances) by the magnification of the imaging device 22 to calculate the distances converted into the distances in the X direction and the Y direction on the robot coordinate system (X, Y, Z), and supplies the calculated distances to the arm control unit 11E via the main control unit 11B.

 これに応じて、アーム制御部11Eがその間隔を相殺するように回転部16及びロボットアーム18A~18Cを駆動することによって、図4(C)の撮像装置22の画像22Gで示すように、ワーク48の中心の像がツール8b,8cの把持中心の像58CIにほぼ一致する。なお、この状態で、ワーク48の中心の像とツール8b,8cの把持中心の像58CIとが大きく位置ずれしている場合には、再度、ワーク48の中心の像と把持中心の像58CIとが一致するようにロボットアーム18A~18C等を駆動すればよい。その後、ツール8b,8cを閉じることによって、図4(D)の画像22G内でツールの像8bI,8cIによってワークの像48Iが挟み込まれるように、ツール8b,8cの間にワーク48の軸部が把持される。また、図4(C)に示すように、ワーク48の中心線(軸部48aの中心を通る直線)とツール8b,8cの中心線とがある程度傾斜していても、ツール8b,8cを閉じることによって、ワーク48の中心線とツール8b,8cの中心線とがほぼ平行になり、ツール8b,8c間にワーク48を把持できる。この後、ロボットアーム18A~18C等を駆動して、ロボットハンド6のツール8b,8cで把持するワーク48をワークの保管箱(不図示)等に搬送し、フィンガー38A,38B(ツール8b,8c)を開いてワーク48から離脱させることで、ワーク48の移動が完了する。
 なお、ワーク48を把持する位置は、必ずしもワークの中心48cである必要はない。個々のワーク毎に適切な把持位置がツール8b,8cの把持中心に一致するように、ツール8b,8cを位置決めしてもよい。例えばワークの重心位置がツール8b,8cの把持中心に一致するようにしてもよい。
In response to this, the arm control unit 11E drives the rotating unit 16 and the robot arms 18A to 18C so as to offset the interval, so that the image of the center of the workpiece 48 almost coincides with the image 58CI of the gripping center of the tools 8b and 8c, as shown in the image 22G of the imaging device 22 in FIG. 4C. If the image of the center of the workpiece 48 and the image 58CI of the gripping center of the tools 8b and 8c are significantly misaligned in this state, the robot arms 18A to 18C, etc. may be driven again so that the image of the center of the workpiece 48 and the image 58CI of the gripping center coincide with each other. Thereafter, by closing the tools 8b and 8c, the shaft portion of the workpiece 48 is gripped between the tools 8b and 8c so that the image 48I of the workpiece is sandwiched between the images 8bI and 8cI of the tools in the image 22G in FIG. 4D. 4C, even if the center line of the workpiece 48 (a straight line passing through the center of the shaft portion 48a) and the center lines of the tools 8b and 8c are inclined to some extent, by closing the tools 8b and 8c, the center line of the workpiece 48 and the center line of the tools 8b and 8c become substantially parallel, and the workpiece 48 can be held between the tools 8b and 8c. After that, the robot arms 18A to 18C, etc. are driven to transport the workpiece 48 held by the tools 8b and 8c of the robot hand 6 to a workpiece storage box (not shown) or the like, and the fingers 38A and 38B (tools 8b and 8c) are opened to separate the workpiece 48 from the workpiece 48, thereby completing the movement of the workpiece 48.
The position where the workpiece 48 is gripped does not necessarily have to be the center 48c of the workpiece. The tools 8b and 8c may be positioned so that an appropriate gripping position for each workpiece coincides with the gripping center of the tools 8b and 8c. For example, the center of gravity of the workpiece may coincide with the gripping center of the tools 8b and 8c.

 次に、本実施形態のロボット装置2の制御方法の一例につき図6(A)~(C)のフローチャートを参照して説明する。まず、準備工程として図6(A)のステップ102において、図4(A)に示すようにロボットハンド6のフィンガー38A,38Bにツール8b,8cを固定(装着)する。さらに、ステップ104において、ツール8b,8cの先端部に、マークMA,MBが形成されたマーク部材62A,62Bを取り付ける。なお、ステップ104を先に実行した後、ステップ102を実行してもよい。その後、ステップ106において、図4(A)に示すように(ツール8b,8cの先端のZ位置は任意でよい)、撮像装置22でツール8b,8cの先端のマーク部材62A,62BのマークMA,MBの像を撮像する。 Next, an example of a control method for the robot device 2 of this embodiment will be described with reference to the flowcharts of Figures 6(A) to (C). First, as a preparation step, in step 102 of Figure 6(A), the tools 8b and 8c are fixed (attached) to the fingers 38A and 38B of the robot hand 6 as shown in Figure 4(A). Furthermore, in step 104, the mark members 62A and 62B on which the marks MA and MB are formed are attached to the tips of the tools 8b and 8c. Note that step 104 may be performed first, and then step 102. Then, in step 106, as shown in Figure 4(A) (the Z positions of the tips of the tools 8b and 8c may be arbitrary), the image capturing device 22 captures images of the marks MA and MB of the mark members 62A and 62B at the tips of the tools 8b and 8c.

 さらにステップ108において、画像処理部11Dは、得られた画像22GからマークMA,MBの像の中心(把持中心58Cの像又は把持位置)の撮像装置22の座標系(x,y)上での位置(xm,ym)を算出し、得られた位置(xm,ym)を記憶部11Fに記憶する。なお、撮像装置22に対するツール8b,8cの相対位置がほとんど変化しない場合には、その後、撮像装置22によるマークMA,MBの撮像を省略して、その記憶した位置(xm,ym)を把持位置として使用できる。ただし、振動又は短期の経時変化等で撮像装置22に対するツール8b,8cの相対位置が変動する可能性がある場合には、ステップ106,108を繰り返して実行してもよい。 Furthermore, in step 108, the image processing unit 11D calculates the position (xm, ym) of the center of the image of the marks MA, MB (image of the gripping center 58C or gripping position) on the coordinate system (x, y) of the imaging device 22 from the obtained image 22G, and stores the obtained position (xm, ym) in the memory unit 11F. Note that if the relative positions of the tools 8b, 8c with respect to the imaging device 22 hardly change, the imaging of the marks MA, MB by the imaging device 22 can be omitted thereafter, and the stored position (xm, ym) can be used as the gripping position. However, if there is a possibility that the relative positions of the tools 8b, 8c with respect to the imaging device 22 may change due to vibration or short-term changes over time, steps 106 and 108 may be executed repeatedly.

 その後、ロボット装置2で図1(A)の複数のワーク48をワークの保管箱(不図示)等に搬送する場合には、図6(B)のステップ112において、図2(A)に示すように、ロボットハンド6で保持するツール8b,8cの先端をワーク48の載置面FLに接触させる。この際に、近接センサ56の検出信号からツール8b,8cの先端が載置面FLに接触したことを検出できる。なお、予めツール8b,8cの先端が載置面FLに接触したときにZ位置を0にプリセットしておいた場合には、単にロボット座標系(X,Y,Z)上でZ位置が0になるように、ロボットアーム18A~18C等を介してロボットハンド6を駆動してもよい。なお、ツール8b,8cの先端が載置面FLに接触したことは、例えばロボットハンド6の側面方向から載置面FL付近の像を撮像している撮像装置(不図示)の画像から画像処理で判断してもよい。さらに、オペレータが目視でツール8b,8cの先端が載置面FLに接触したことを判断し、そのときのZ位置を0に設定してもよい。また、ステップ112において、ツール8b,8cの先端の高さを載置面FLから所定値δZ(例えばワーク48に当たらない高さ)だけ高い位置に設定してもよい。 After that, when the robot device 2 transports the multiple workpieces 48 in FIG. 1(A) to a workpiece storage box (not shown) or the like, in step 112 in FIG. 6(B), the tips of the tools 8b and 8c held by the robot hand 6 are brought into contact with the placement surface FL of the workpiece 48, as shown in FIG. 2(A). At this time, it can be detected from the detection signal of the proximity sensor 56 that the tips of the tools 8b and 8c have come into contact with the placement surface FL. If the Z position is preset to 0 when the tips of the tools 8b and 8c come into contact with the placement surface FL in advance, the robot hand 6 may be driven via the robot arms 18A to 18C, etc., simply so that the Z position becomes 0 on the robot coordinate system (X, Y, Z). The fact that the tips of the tools 8b and 8c have come into contact with the placement surface FL may be determined by image processing, for example, from an image captured by an imaging device (not shown) capturing an image of the vicinity of the placement surface FL from the side direction of the robot hand 6. Furthermore, the operator may visually determine that the tips of the tools 8b and 8c have come into contact with the mounting surface FL, and set the Z position at that time to 0. Also, in step 112, the height of the tips of the tools 8b and 8c may be set to a position that is higher than the mounting surface FL by a predetermined value δZ (e.g., a height at which they do not come into contact with the workpiece 48).

 そして、ステップ114において、ロボットアーム18A~18C等を介してツール8b,8cの先端を載置面FLから所定値δZだけ上昇させた状態で(ステップ112でツール8b,8cの高さをその所定値に設定したときには、そのままの高さで)、撮像装置22の画像22G内にワーク48が入る位置までロボットハンド6をX方向、Y方向に駆動し、撮像装置22でワーク48を撮像する。
 そして、ステップ116において、画像処理部11Dでは図4(B)に示すように、ワークの像48Iの中心から把持中心の像58CI(把持中心)への画像22G上でのx方向、y方向の間隔δx,δyを求め、この間隔からロボット座標系(X,Y,Z)上の間隔(位置ずれ量)を求める。
Then, in step 114, with the tips of the tools 8 b, 8 c raised by a predetermined value δZ above the mounting surface FL via the robot arms 18A to 18C etc. (if the heights of the tools 8 b, 8 c were set to that predetermined value in step 112, then the heights are kept the same), the robot hand 6 is driven in the X and Y directions to a position where the workpiece 48 falls within the image 22G of the imaging device 22, and the workpiece 48 is imaged by the imaging device 22.
Then, in step 116, the image processing unit 11D calculates the distances δx, δy in the x and y directions on the image 22G from the center of the workpiece image 48I to the gripping center image 58CI (gripping center), as shown in FIG. 4(B), and calculates the distance (amount of positional deviation) on the robot coordinate system (X, Y, Z) from this distance.

 さらにステップ118において、その位置ずれ量を相殺するようにロボットアーム18A~18C等によってロボットハンド6を移動した後、ツール8b,8cの先端を載置面FLに接触させるか、又はツール8b,8cの先端を載置面FLに近接させる。そして、ステップ120においてロボットハンド6のツール8b,8cでワーク48が把持される。そして、ステップ122において、ロボットアーム18A~18C等を駆動してロボットハンド6を移動して、ロボットハンド6のツール8b,8cで把持しているワーク48を保管箱等に搬送し、ワーク48からツール8b,8cを離脱させる。その後、ステップ124において、残りのワーク48がある場合には、ステップ112に移行して、次のワーク48が載置面FLから保管箱等に搬送される。ステップ124において、残りのワーク48がなくなったときに、搬送工程が終了する。 Furthermore, in step 118, the robot hand 6 is moved by the robot arms 18A to 18C, etc. so as to offset the positional deviation, and then the tips of the tools 8b and 8c are brought into contact with the placement surface FL or brought close to the placement surface FL. Then, in step 120, the workpiece 48 is gripped by the tools 8b and 8c of the robot hand 6. Then, in step 122, the robot arms 18A to 18C, etc. are driven to move the robot hand 6, and the workpiece 48 gripped by the tools 8b and 8c of the robot hand 6 is transported to a storage box or the like, and the tools 8b and 8c are detached from the workpiece 48. After that, in step 124, if there are remaining workpieces 48, the process proceeds to step 112, and the next workpiece 48 is transported from the placement surface FL to a storage box or the like. In step 124, when there are no remaining workpieces 48, the transport process ends.

 なお、ステップ114の撮像結果から、ワーク48とツール8b,8cとの角度が大きい場合には、図6(C)の回転角補正工程を実行してもよい。図6(C)のステップ128において、画像処理部11Dは図5(A)に示すように、撮像装置22の画像22G上で、ワークの中心線の像48clIと、ツールの中心線の像8clIとの角度Δθを算出する。角度θはほぼZ軸に平行な軸の回りの角度である。そして、ステップ130において、その角度Δθが所定角度(例えば30度等)より小さい場合には、ツール8b,8cでワーク48を把持可能であるため、回転角の補正を行うことなくステップ116に移動して、ツール8b,8cでワーク48を把持する。 If the image capturing result in step 114 indicates that the angle between the workpiece 48 and the tools 8b, 8c is large, the rotation angle correction process in FIG. 6(C) may be executed. In step 128 in FIG. 6(C), the image processing unit 11D calculates the angle Δθ between the image 48clI of the center line of the workpiece and the image 8clI of the center line of the tool on the image 22G of the imaging device 22, as shown in FIG. 5(A). The angle θ is an angle around an axis that is approximately parallel to the Z axis. Then, in step 130, if the angle Δθ is smaller than a predetermined angle (e.g., 30 degrees), the workpiece 48 can be grasped by the tools 8b, 8c, so the process proceeds to step 116 without correcting the rotation angle, and the workpiece 48 is grasped by the tools 8b, 8c.

 一方、ステップ130において、角度θがその所定角度以上の場合にはステップ132に移行して、その角度θを相殺するようにロボットアーム18A~18C等を駆動してロボットハンド6(ツール8b,8c)をZ軸に平行な軸の回りに回転させる。この結果、図5(B)に示すように、ワーク48の中心線の像48cIは、ツール8b,8cの中心線の像に平行になる。この後、動作はステップ116に移行する。なお、ワークの形状がほぼ円形のような角度補正なしで把持できる場合には、回転角補正の必要はないため、図6(C)の回転角補正工程は省略できる。そして、画像処理部11Dでは図5(B)において、ワークの像48Iの中心48cIから把持中心の像58CIへのx方向、y方向の間隔δx,δyを求め、この間隔からロボット座標系(X,Y,Z)上の間隔(位置ずれ量)を求める。さらに、ステップ118において、その位置ずれ量を相殺するようにロボットハンド6を移動し、ステップ120において、図5(C)のツールの像8bI,8cIで示すように、ツール8b,8cを閉じることによってツール8b,8cでワーク48を把持できる。 On the other hand, in step 130, if the angle θ is equal to or greater than the predetermined angle, the process proceeds to step 132, where the robot arms 18A-18C, etc. are driven to offset the angle θ, and the robot hand 6 (tools 8b, 8c) is rotated around an axis parallel to the Z axis. As a result, as shown in FIG. 5B, the image 48cI of the center line of the workpiece 48 becomes parallel to the images of the center lines of the tools 8b, 8c. After this, the process proceeds to step 116. Note that if the shape of the workpiece is substantially circular and can be grasped without angle correction, there is no need for rotation angle correction, and the rotation angle correction process in FIG. 6C can be omitted. Then, in FIG. 5B, the image processing unit 11D calculates the distances δx, δy in the x and y directions from the center 48cI of the workpiece image 48I to the image 58CI of the gripping center, and calculates the distance (positional deviation) on the robot coordinate system (X, Y, Z) from this distance. Furthermore, in step 118, the robot hand 6 is moved so as to offset the amount of positional deviation, and in step 120, the tools 8b and 8c are closed, as shown by the tool images 8bI and 8cI in FIG. 5(C), so that the workpiece 48 can be grasped by the tools 8b and 8c.

 このように本実施形態によれば、ロボットハンド6のフィンガー38A,38Bで開閉されるようにツール8b,8cが固定されている。また、ツール8b,8cに取り付けたマーク部材62A,62BのマークMA,MBの像を検出し、この検出結果より例えばツールの把持中心58Cの像58CIを求め、この像58CIをワーク48の像48Iの中心に合わせるようにロボットハンド6を駆動することによって、ワーク48に対するロボットハンド6(ツール)の位置合わせを効率的に正確に行うことができる。なお、ツールの把持中心58Cに対しては、ワーク48の把持に適した任意の位置を合わせてもよい。この結果、ロボットハンド6のツール8b,8cでワーク48を効率的に正確に把持できる。 In this manner, according to this embodiment, the tools 8b and 8c are fixed so that they can be opened and closed by the fingers 38A and 38B of the robot hand 6. In addition, the images of the marks MA and MB of the mark members 62A and 62B attached to the tools 8b and 8c are detected, and from this detection result, for example, an image 58CI of the tool's gripping center 58C is obtained, and the robot hand 6 is driven so as to align this image 58CI with the center of the image 48I of the workpiece 48, thereby efficiently and accurately aligning the robot hand 6 (tool) with respect to the workpiece 48. Note that the tool's gripping center 58C may be aligned with any position suitable for gripping the workpiece 48. As a result, the tools 8b and 8c of the robot hand 6 can efficiently and accurately grip the workpiece 48.

 また、ワーク48とツール8b,8cとの角度が所定角度以上である場合に、ロボットハンド6(ツール)をその角度を相殺するように回転することによって、ワーク48とツール8b,8cとの位置合わせを効率的に行うことができる。
 また、ツール8b,8cの先端をワーク48の載置面FLに接触させて、ワーク48に対してツール8b,8cを位置合わせしているため、Z方向の位置合わせを自動的に行うことができる。このため、通常の撮像装置22で撮像される2次元の画像を用いてワーク48に対してツール8b,8cの位置合わせを効率的に行うことができる。
In addition, when the angle between the workpiece 48 and the tools 8b, 8c is equal to or greater than a predetermined angle, the robot hand 6 (tool) can be rotated to offset that angle, thereby efficiently aligning the workpiece 48 and the tools 8b, 8c.
In addition, since the tips of the tools 8b and 8c are brought into contact with the mounting surface FL of the workpiece 48 to align the tools 8b and 8c with respect to the workpiece 48, alignment in the Z direction can be performed automatically. Therefore, the tools 8b and 8c can be efficiently aligned with respect to the workpiece 48 by using a two-dimensional image captured by a normal imaging device 22.

 上述のように本実施形態のロボット装置2は、複数のフィンガー38A,38Bが設けられたロボットハンド6と、ロボットハンド6を駆動する回転部16及びロボットアーム18A~18C(アーム部)と、複数のフィンガー38A,38Bに従動してワーク48を把持可能な複数のツール8b,8c(把持部)と、複数のツール8b,8cが有するマーク部材62A,62B(識別部)と、マーク部材62A,62Bの位置情報を用いて、そのアーム部を介してロボットハンド6を駆動して、ワーク48に対して複数のツール8b,8cを位置決めする主制御部11B(制御部)と、を備えている。 As described above, the robot device 2 of this embodiment includes a robot hand 6 provided with multiple fingers 38A, 38B, a rotating unit 16 and robot arms 18A-18C (arm units) that drive the robot hand 6, multiple tools 8b, 8c (gripping units) that can grasp a workpiece 48 in response to the multiple fingers 38A, 38B, mark members 62A, 62B (identification units) possessed by the multiple tools 8b, 8c, and a main control unit 11B (control unit) that uses position information of the mark members 62A, 62B to drive the robot hand 6 via the arm unit and position the multiple tools 8b, 8c relative to the workpiece 48.

 また、ロボット装置2の制御方法は、複数のフィンガー38A,38Bが設けられたロボットハンド6と、ロボットハンド6を駆動する回転部16及びロボットアーム18A~18C(アーム部)と、を備えるロボット装置2の制御方法であって、複数のフィンガー38A,38Bに対して、ワーク48を把持可能な複数のツール8b,8c(把持部)を従動させるステップ104,112と、複数のツール8b,8cが有するマーク部材62A,62Bの位置情報を記憶するステップ108と、マーク部材62A,62Bの位置情報を用いて、そのアーム部を介してロボットハンド6を駆動して、ワーク48に対して複数のツール8b,8cを位置決めするステップ114,116,118とを含んでいる。 The control method for the robot device 2 includes a robot hand 6 provided with multiple fingers 38A, 38B, a rotating unit 16 that drives the robot hand 6, and robot arms 18A-18C (arm units), and includes steps 104 and 112 of causing multiple tools 8b, 8c (gripping units) capable of gripping a workpiece 48 to follow the multiple fingers 38A, 38B, step 108 of storing position information of mark members 62A, 62B possessed by the multiple tools 8b, 8c, and steps 114, 116, and 118 of driving the robot hand 6 via the arm unit using the position information of the mark members 62A, 62B to position the multiple tools 8b, 8c relative to the workpiece 48.

 本実施形態によれば、ツール8b,8cが有するマーク部材62A,62Bの位置情報からツール8b,8cの位置(把持中心)を求めているため、ツール8b,8c又はフィンガー38A,38Bの形状が識別困難な形状であるような場合でも、又はツール8b,8c若しくはフィンガー38A,38Bの形状とワーク48の形状との識別が困難な場合でも、ワーク48とロボットハンド6との位置合わせを効率的に、かつ高精度に行うことができる。
 また、処理対象物に応じた形状のツール8b,8cをフィンガー38A,38Bに固定して、フィンガー38A,38Bでツール8b,8cを開閉できるため、処理対象物に応じた形状のツールを用いて処理対象物を効率的に、又は処理対象物を損傷することなく把持して移動できる。
According to this embodiment, the positions (grip centers) of the tools 8b, 8c are determined from the position information of the mark members 62A, 62B possessed by the tools 8b, 8c. Therefore, even if the shapes of the tools 8b, 8c or the fingers 38A, 38B are difficult to distinguish, or even if it is difficult to distinguish the shape of the tools 8b, 8c or the fingers 38A, 38B from the shape of the workpiece 48, the alignment of the workpiece 48 with the robot hand 6 can be performed efficiently and with high precision.
In addition, tools 8b, 8c shaped according to the object to be processed can be fixed to fingers 38A, 38B, and tools 8b, 8c can be opened and closed using fingers 38A, 38B, so that the object to be processed can be grasped and moved efficiently or without damaging the object to be processed using tools shaped according to the object to be processed.

 なお、上述の実施形態ではツール8b,8cで把持したワーク48を移動している。しかしながら、上述の実施形態のロボットハンド6で保持するツール8b,8cで把持又は支持した処理対象物を押え込んだり、捻りを与えたり、引き抜いたり、剥がしたり、又は貼り付けたりする等の種々の操作を行うことも可能である。
 また、上述の実施形態では、2つのフィンガー38A,38Bが可動であるが、例えば一方のツール8bのみを一方のフィンガー38Aで可動として、他方のツール8cを固定してもよい。この場合、他方のフィンガー38Bは固定してもよい。そして、ロボットハンド6では1つのフィンガー38Aのみを作動させて、ツール8b,8cを開閉させることになる。この際にツール8bのみにマーク部材62Aを取り付け、固定のツール8cにはマーク部材62Bを設けなくともよい。このとき、1つのマーク部材62AのマークMAの検出結果よりツール8b,8cの把持中心の位置を求めてもよい。
In the above embodiment, the workpiece 48 held by the tools 8b and 8c is moved. However, it is also possible to perform various operations such as pressing down, twisting, pulling out, peeling off, or attaching the processing object held or supported by the tools 8b and 8c held by the robot hand 6 in the above embodiment.
In the above embodiment, the two fingers 38A and 38B are movable, but for example, only one tool 8b may be movable by one finger 38A, and the other tool 8c may be fixed. In this case, the other finger 38B may be fixed. Then, in the robot hand 6, only one finger 38A is operated to open and close the tools 8b and 8c. In this case, the mark member 62A is attached only to the tool 8b, and the mark member 62B may not be provided to the fixed tool 8c. In this case, the position of the grip center of the tools 8b and 8c may be obtained from the detection result of the mark MA of one mark member 62A.

 また、上述の実施形態では、マーク部材62A,62B(マークMA,MB)を撮像装置22で撮像して検出しているが、他の任意の検出方式(例えばギャップセンサ等を用いる方式)でマーク部材62A,62Bの位置を検出してもよい。
 また、上述の実施形態では、ロボットハンド6のフィンガー38A,38Bでツール8b,8cを開閉してワークを把持しているが、ロボットハンド6のフィンガー38A,38Bで直接ワークを把持してもよい。この場合、フィンガー38A,38Bにマーク部材62A,62B(マークMA,MB)を取り付け、マーク部材62A,62Bの検出情報からフィンガー38A,38Bの把持中心の位置を求め、この位置を用いてワークに対してフィンガー38A,38Bを位置決めして、ワークをフィンガー38A,38Bで把持してもよい。
In addition, in the above-described embodiment, the mark members 62A, 62B (marks MA, MB) are imaged and detected by the imaging device 22, but the positions of the mark members 62A, 62B may be detected by any other detection method (for example, a method using a gap sensor, etc.).
In the above embodiment, the workpiece is gripped by opening and closing the tools 8b, 8c with the fingers 38A, 38B of the robot hand 6, but the workpiece may be gripped directly with the fingers 38A, 38B of the robot hand 6. In this case, mark members 62A, 62B (marks MA, MB) may be attached to the fingers 38A, 38B, the positions of the gripping centers of the fingers 38A, 38B may be obtained from detection information of the mark members 62A, 62B, and the fingers 38A, 38B may be positioned with respect to the workpiece using this position, and the workpiece may be gripped by the fingers 38A, 38B.

 次に、上述の実施形態では以下のような変形が可能である。まず、上述の実施形態では、ツール8b,8cの上部(端部)にマーク部材62A,62Bが取り付けられている。これに対して、図5(D)に示すように、ツール8b,8cの外側の側面に断面がL字型のマーク部材62C,62Dを固定し、マーク部材62C,62DにマークMA,MBを形成しておいてもよい。この構成では、マーク部材62C,62Dがあってもツール8b,8cでワークをより容易に把持できる。 Next, the above-described embodiment can be modified as follows. First, in the above-described embodiment, mark members 62A, 62B are attached to the top (ends) of tools 8b, 8c. Alternatively, as shown in FIG. 5(D), mark members 62C, 62D with an L-shaped cross section may be fixed to the outer side of tools 8b, 8c, and marks MA, MB may be formed on mark members 62C, 62D. In this configuration, even with mark members 62C, 62D, the workpiece can be more easily gripped by tools 8b, 8c.

 次に、上述の実施形態では、ロボットハンド6で保持するツール8b,8cの先端がワーク48の載置面FLに接触したことを、近接センサ56を用いて検出し、この状態でワーク48とツールの先端とのZ方向の位置合わせが行われている。
 別の方法として、図7(A)に示すように、ロボット装置2のロボットアーム18A~18C等を駆動して、フィンガー38A,38Bに固定されているツール8b,8cの先端をワーク48の載置面FLに接触させて、ツール8b,8cをワーク48の軸部を挟む位置に移動する。この状態で、ロボットハンド6に設けた撮像装置22でツール8b,8cを撮像することで、図7(C)に示す画像22Gが得られる。図7(C)の画像22Gを処理して画像処理部11Dでは、ツール8b,8cの像8bI,8cI内の把持中心の像58CIを通るワークの像48Iのx方向、y方向の位置を求める。この状態で、ロボット座標系(X,Y,Z)のZ位置を0とする。
Next, in the above-described embodiment, a proximity sensor 56 detects that the tips of the tools 8b, 8c held by the robot hand 6 have come into contact with the mounting surface FL of the workpiece 48, and in this state, the workpiece 48 and the tips of the tools are aligned in the Z direction.
As another method, as shown in FIG. 7A, the robot arms 18A-18C of the robot device 2 are driven to bring the tips of the tools 8b and 8c fixed to the fingers 38A and 38B into contact with the placement surface FL of the workpiece 48, and the tools 8b and 8c are moved to a position where they sandwich the shaft of the workpiece 48. In this state, the tools 8b and 8c are imaged by the imaging device 22 provided on the robot hand 6, and an image 22G shown in FIG. 7C is obtained. The image processing unit 11D processes the image 22G in FIG. 7C to obtain the x- and y-direction positions of the image 48I of the workpiece passing through the image 58CI of the gripping center in the images 8bI and 8cI of the tools 8b and 8c. In this state, the Z position of the robot coordinate system (X, Y, Z) is set to 0.

 この場合、図7(A)、(B)に示すように、撮像装置22の高さが変化すると、撮像装置22の視差によって画像22G上でのワーク48の像48Iの位置がy方向に移動する。そこで、図7(A)の状態から図7(B)に示すように、ロボットアーム18A~18C等を駆動して、ロボットハンド6(撮像装置22及びツール8b,8c)の位置を+Z方向に所定間隔Zaだけ上昇させる。この状態で、撮像装置22でワーク48及びツール8b,8cを撮像することで、図7(D)に示す画像22Gが得られる。図7(D)の画像22Gを処理して画像処理部11Dでは、図7(C)の状態に対するワークの像48Iのy方向への移動量Δyを求める。このときのZ位置Za及び移動量Δyを記憶しておく。 In this case, as shown in Figures 7(A) and (B), when the height of the imaging device 22 changes, the position of the image 48I of the workpiece 48 on the image 22G moves in the y direction due to the parallax of the imaging device 22. Therefore, as shown in Figure 7(B) from the state of Figure 7(A), the robot arms 18A-18C, etc. are driven to raise the position of the robot hand 6 (imaging device 22 and tools 8b, 8c) by a predetermined distance Za in the +Z direction. In this state, the imaging device 22 captures images of the workpiece 48 and tools 8b, 8c, and the image 22G shown in Figure 7(D) is obtained. The image processing unit 11D processes the image 22G in Figure 7(D) to determine the amount of movement Δy in the y direction of the image 48I of the workpiece relative to the state of Figure 7(C). The Z position Za and amount of movement Δy at this time are stored.

 この後は、逆にロボットハンド6(ツール8b,8c)のZ位置をZaに設定した状態で、画像22G上でツールの像8bI,8cIの中心に対してワークの像48Iの中心がy方向にΔyだけずれるように、ロボットハンド6を位置決めする。その後、ロボットハンド6のZ位置を0まで降下することで、図7(A)に示すように、ツール8b,8cの間にワーク48の軸部を位置決めでき、ツール8b,8cでワーク48を把持できる。 Then, conversely, with the Z position of the robot hand 6 (tools 8b, 8c) set to Za, the robot hand 6 is positioned so that the center of the workpiece image 48I is shifted by Δy in the y direction from the center of the tool images 8bI, 8cI on the image 22G. Then, by lowering the Z position of the robot hand 6 to 0, the shaft of the workpiece 48 can be positioned between the tools 8b, 8c as shown in FIG. 7(A), and the workpiece 48 can be grasped by the tools 8b, 8c.

 次に、図8(A)に示すように、円錐台状の軸部48Aa及び円板状のヘッド部48Abを持つワーク48Aを、軸部48Aaを載置面FL上に立てた状態で、先端部が平板状のツール8Bb,8Bcで把持する場合を想定する。このとき、マーク部材62A,62Bが取り付けられたツール8Bb,8Bcをワーク48Aの軸部48Aaの両側に移動する。この場合、図8(B)で示すように、撮像装置22で撮像される画像22Gでは、ワークの像48AIのうちのヘッド部の像48AbIによってマーク部材62A,62B内のマークの像MAI,MBIの一部が覆われている。これでは、マークの像MAI,MBIからツール8Bb,8Bcの間の把持中心を正確に算出できない恐れがある。そこで、一例として、マーク部材62A,62Bの下地の色をワーク48Aの載置面FLと異なる色に設定し、マーク部材62A,62Bの外側のエッジ部の像62AaI,62BaIを位置の基準として、エッジ部の像62AaI,62BaIの位置からツール8Bb,8Bcの把持中心の位置を求めるようにしてもよい。 Next, as shown in FIG. 8(A), assume that a workpiece 48A having a truncated cone-shaped shaft 48Aa and a disk-shaped head 48Ab is gripped by tools 8Bb, 8Bc with flat tips, with the shaft 48Aa standing on the mounting surface FL. At this time, the tools 8Bb, 8Bc to which the mark members 62A, 62B are attached are moved to both sides of the shaft 48Aa of the workpiece 48A. In this case, as shown in FIG. 8(B), in the image 22G captured by the imaging device 22, the image 48AbI of the head part of the workpiece image 48AI covers part of the images MAI, MBI of the marks in the mark members 62A, 62B. This may make it difficult to accurately calculate the gripping center between the tools 8Bb, 8Bc from the mark images MAI, MBI. Therefore, as an example, the background color of the mark members 62A, 62B can be set to a color different from the mounting surface FL of the workpiece 48A, and the images 62AaI, 62BaI of the outer edge portions of the mark members 62A, 62B can be used as positional references, and the positions of the gripping centers of the tools 8Bb, 8Bc can be found from the positions of the images 62AaI, 62BaI of the edge portions.

 さらに、上述の実施形態のロボット装置2は、フィンガー把持力検出部13D及びフィンガー38A,38Bの間隔を検出する間隔検出部13Bを備えている。このため、例えば図4(A)において、ツール8b,8cの間に何もない状態でフィンガー38A,38Bでツール8b,8cを閉じていき、ツール8b,8cが接触するとフィンガー把持力が増加することから、ハンド制御部13Aはツール8b,8cが接触したことを認識できる。この状態でフィンガー38A,38Bの間隔を初期値として記憶し、その後、フィンガー38A,38Bを開いてツール8b,8cを開いたときには、フィンガー38A,38Bの間隔からその初期値を減算することで、ツール8b,8cの間隔を求めることができる。 Furthermore, the robot device 2 of the above embodiment is equipped with a finger gripping force detection unit 13D and a gap detection unit 13B that detects the gap between the fingers 38A, 38B. For this reason, for example, in FIG. 4(A), when there is nothing between the tools 8b, 8c and the fingers 38A, 38B are closing the tools 8b, 8c, the finger gripping force increases when the tools 8b, 8c come into contact, and the hand control unit 13A can recognize that the tools 8b, 8c have come into contact. In this state, the gap between the fingers 38A, 38B is stored as an initial value, and when the fingers 38A, 38B are subsequently opened to open the tools 8b, 8c, the gap between the tools 8b, 8c can be found by subtracting the initial value from the gap between the fingers 38A, 38B.

 このため、図8(C)に示すように、ワーク48Aの軸部48Aaを載置面FLから高さZ1の位置でツール8Bb,8Bcで把持したときのツール8Bb,8Bcの間隔dと、軸部48Aaを載置面FLから高さZ2の位置でツール8Bb,8Bcで把持したときのツール8Bb,8Bcの間隔d’等とを検出できる。その間隔d,d’等からハンド制御部13A又は主制御部11Bでは、ツール8Bb,8Bcで把持しているワークの軸部48Aaの直径(大きさ)及び/又はその分布(形状)等を認識できる。 As a result, as shown in FIG. 8(C), it is possible to detect the distance d between the tools 8Bb, 8Bc when the shaft portion 48Aa of the workpiece 48A is gripped by the tools 8Bb, 8Bc at a position of height Z1 from the mounting surface FL, and the distance d' between the tools 8Bb, 8Bc when the shaft portion 48Aa is gripped by the tools 8Bb, 8Bc at a position of height Z2 from the mounting surface FL. From the distances d, d', the hand control unit 13A or main control unit 11B can recognize the diameter (size) and/or its distribution (shape), etc. of the shaft portion 48Aa of the workpiece gripped by the tools 8Bb, 8Bc.

 また、間隔検出部13Bの検出値を用いることで、ツール8Bb,8Bc等で把持したワーク48又は対象物の長さを測長することもできる。このとき、より正確な長さを測長するためには、予め長さが既知のワーク、例えばゲージブロックのようなものをツール8Bb,8Bc等で把持することで、間隔検出部13Bの検出値を校正しておいてもよい。このように本実施形態のツール8Bb,8Bc等でワーク48を把持する方法によって、ワーク48などの対象物の測長機能を持つことができる。また、間隔検出部13Bの検出値を用いることで、ツール8Bb,8Bc等でワークを把持している把持状態と、ツール8Bb,8Bc等でワークを把持していない非把持状態とを判定することもできる。 Furthermore, by using the detection value of the interval detection unit 13B, it is also possible to measure the length of the workpiece 48 or object gripped by the tools 8Bb, 8Bc, etc. At this time, in order to measure the length more accurately, the detection value of the interval detection unit 13B may be calibrated by gripping a workpiece of known length in advance, such as a gauge block, with the tools 8Bb, 8Bc, etc. In this way, by using the method of gripping the workpiece 48 with the tools 8Bb, 8Bc, etc. of this embodiment, it is possible to have a function for measuring the length of an object such as the workpiece 48. Furthermore, by using the detection value of the interval detection unit 13B, it is also possible to determine whether the workpiece is gripped by the tools 8Bb, 8Bc, etc., or whether the workpiece is not gripped by the tools 8Bb, 8Bc, etc.

さらに、ツールの先端部でワークを把持するか、又はツールの先端部を閉じた状態で、撮像装置22で撮像されるマーク部材62A,62Bのマークの像MAI,MBIの間隔を使用してもよい。この場合、一例として予めツールでワークを1つ把持しているときのマーク像の間隔と、ツールの先端部を閉じているときのマーク像の間隔との中間の値を基準値として記憶しておく。そして、主制御部11Bでは、そのマーク像の間隔がその基準値よりも狭いときにはツールでワークを把持していない非把持状態と判定し、そのマーク像の間隔がその基準値よりも広いときにはツールでワークを把持している把持状態と判定することもできる。 Furthermore, the interval between the mark images MAI, MBI of the mark members 62A, 62B captured by the imaging device 22 when the workpiece is gripped by the tip of the tool or when the tip of the tool is closed may be used. In this case, as an example, the intermediate value between the interval between the mark images when one workpiece is gripped by the tool and the interval between the mark images when the tip of the tool is closed is stored in advance as a reference value. Then, when the interval between the mark images is narrower than the reference value, the main control unit 11B can determine that the tool is in a non-gripping state where the workpiece is not being gripped by the tool, and when the interval between the mark images is wider than the reference value, it can determine that the tool is in a gripping state where the workpiece is being gripped by the tool.

 次に、図9(A)に示すように、図1(A)のロボットハンド6で保持されているツール8Cb,8Ccの間に複数のワーク48がある場合を想定する。このとき、矢印で示すように、ツール8Cb,8Ccを閉じると、ツール8Cb,8Ccの間に例えば位置P1及びP2の2つのワーク48が把持される恐れがある。図9(B)は図9(A)の2つの場合の側面図である。図9(B)より、2つのワーク48は、互いに逆方向を向いて、ツール8Cb,8Ccの間に載置面に対して高さ方向に重なっていることが分かる。この場合には、ロボットハンド6でツール8Cを移動しても、2つのワーク48を保管箱(不図示)等に正確に配置することが困難である恐れがある。 Next, as shown in FIG. 9(A), assume that there are multiple workpieces 48 between tools 8Cb, 8Cc held by the robot hand 6 in FIG. 1(A). In this case, as shown by the arrows, when tools 8Cb, 8Cc are closed, there is a risk that two workpieces 48, for example at positions P1 and P2, may be gripped between tools 8Cb, 8Cc. FIG. 9(B) is a side view of the two cases in FIG. 9(A). It can be seen from FIG. 9(B) that the two workpieces 48 face in opposite directions and are overlapped in the height direction relative to the placement surface between tools 8Cb, 8Cc. In this case, even if tool 8C is moved by the robot hand 6, it may be difficult to accurately place the two workpieces 48 in a storage box (not shown) or the like.

 このように誤ってツールで複数のワーク48を把持することを防止するためには、一例として図9(C)に示すように、ツール8Cb,8Ccの先端の一方にピンB2を設け、他方にピンB2を通すための案内用の貫通穴8Cfを設けてもよい。図9(C)の側面図が図9(D)である。この場合、ツール8Cb,8Ccを閉じると、ピンB2が貫通穴8Cf内に収まり、ピンB2によって別のワーク48がツール8Cb,8Cc間に挟まれることがなくなる。すなわちツール8Cb,8Ccの先端部の形状が複数のワーク48を把持できない形状であるため、ツール8Cb,8Cc間には1つのワーク48のみを把持できる。 In order to prevent multiple workpieces 48 from being mistakenly gripped by a tool in this way, as an example, as shown in FIG. 9(C), a pin B2 may be provided at one of the tips of tools 8Cb, 8Cc, and a guide through hole 8Cf for passing pin B2 may be provided at the other. FIG. 9(D) is a side view of FIG. 9(C). In this case, when tools 8Cb, 8Cc are closed, pin B2 fits into through hole 8Cf, and another workpiece 48 is prevented from being pinched between tools 8Cb, 8Cc by pin B2. In other words, because the shape of the tips of tools 8Cb, 8Cc is such that they cannot grip multiple workpieces 48, only one workpiece 48 can be gripped between tools 8Cb, 8Cc.

 また、図9(E)内に矢印E1で示すように、ツール8Db,8Dcの先端部を次第に幅が小さくなる円錐状、又は三角形の板状にしてもよい。この場合、ツール8Db,8Dcに1つのワーク48が把持されている場合のツール8Db,8Dcの間隔をde1とする。これに対して、図9(E)内に矢印E2で示すように、ツール8Db,8Dc間に2つのワーク48が把持されている場合のツール8Db,8Dcの間隔de2は間隔de1よりも大きくなることから、ハンド制御部13F等ではツール8Db,8Dc間に複数のワーク48が把持されていることを認識できる。 Also, as shown by arrow E1 in FIG. 9(E), the tips of tools 8Db, 8Dc may be formed into a cone shape or a triangular plate shape with a gradually narrowing width. In this case, the distance between tools 8Db, 8Dc when one workpiece 48 is held by tools 8Db, 8Dc is de1. In contrast, as shown by arrow E2 in FIG. 9(E), when two workpieces 48 are held between tools 8Db, 8Dc, the distance de2 between tools 8Db, 8Dc is greater than distance de1, so that the hand control unit 13F, etc., can recognize that multiple workpieces 48 are held between tools 8Db, 8Dc.

 また、図9(E)内に矢印E3で示すように、ツール8Eb,8Ecの先端に1つのワーク48が収まるような切り欠き部8Ed,8Eeを設けてもよい。ツール8Eを用いても複数のワーク48を把持することを防止できる。
 また、図1(C)に示すように、例えば作動部32をフレーム部32bと、フレーム部32b内でフィンガー38A,38Bを開閉する作動本体部32aとから構成してもよい。さらに、フレーム部32bと作動本体部32aの底面との間に荷重センサ32d(例えばロードセル、圧力センサ、又は歪みゲージ等の重量計)を設け、フレーム部32bの上部から圧縮コイルばね等の弾性部材32cで、作動本体部32aに対して荷重センサ32d側に予圧をかけてもよい。この場合、ツール8b,8cで把持するワークの重量によって荷重センサ32dで検出される荷重が変化するため、荷重センサ32dの検出値によってツール8b,8cで把持するワークの重量を求めてもよい。なお、荷重センサ32dは、例えばツール8b,8cの先端部等に設けてもよい。
9E, the tools 8Eb and 8Ec may be provided at their tips with notches 8Ed and 8Ee into which one workpiece 48 can be accommodated, so that the tool 8E can be prevented from gripping a plurality of workpieces 48.
1C, the operating unit 32 may be composed of a frame 32b and an operating body 32a that opens and closes the fingers 38A and 38B within the frame 32b. A load sensor 32d (e.g., a load cell, a pressure sensor, or a weight meter such as a strain gauge) may be provided between the frame 32b and the bottom surface of the operating body 32a, and a preload may be applied to the load sensor 32d side from the top of the frame 32b by an elastic member 32c such as a compression coil spring. In this case, the load detected by the load sensor 32d changes depending on the weight of the workpiece held by the tools 8b and 8c, so the weight of the workpiece held by the tools 8b and 8c may be obtained from the detection value of the load sensor 32d. The load sensor 32d may be provided, for example, at the tip of the tools 8b and 8c.

 [第2の実施形態]
 第2の実施形態につき図10、図11を参照して説明する。なお、図10、図11において、図1(A)、図4(A)、図4(B)に対応する部分には同一の符号を付してその詳細な説明を省略する。
 図10は本実施形態のロボット装置2Aを示す。図10において、ロボット装置2Aは、ロボット本体部4と、ロボット本体部4に接合されたロボットハンド6と、ロボット装置2Aの動作を制御する制御装置10と、ロボットハンド6の動作を制御する制御装置12とを備えている。
Second Embodiment
The second embodiment will be described with reference to Figures 10 and 11. In Figures 10 and 11, parts corresponding to those in Figures 1(A), 4(A) and 4(B) are given the same reference numerals and detailed description thereof will be omitted.
Fig. 10 shows a robot device 2A of this embodiment. In Fig. 10, the robot device 2A includes a robot main body 4, a robot hand 6 joined to the robot main body 4, a control device 10 that controls the operation of the robot device 2A, and a control device 12 that controls the operation of the robot hand 6.

 ロボットハンド6は、図1(A)のロボットハンド6と同様の構成であるが、図10のロボットハンド6の側面には撮像装置22が設けられていない点が異なっている。すなわち、ロボットハンド6のフィンガー38A,38Bにはツール8b,8cが固定され、フィンガー38A,38Bでツール8b,8cを開閉することによって、ツール8b,8cでワーク48(ここではボルト)を把持する。また、ロボット装置2Aが設置されている部屋の天井又は側壁等に、ロボットハンド6が保持しているツール8の先端部を含む領域を撮像するための撮像装置22A,22Bが設置されている。図10では2つの撮像装置22A,22Bが設置されているが、3台以上の撮像装置を設置してもよい。さらに、例えばロボットハンド6のツール8b,8cの先端部が移動する範囲の全体を見渡すことができる位置がある場合には、その位置に1つの撮像装置のみを設置してもよい。 The robot hand 6 has the same configuration as the robot hand 6 in FIG. 1(A), but is different in that the imaging device 22 is not provided on the side of the robot hand 6 in FIG. 10. That is, the tools 8b and 8c are fixed to the fingers 38A and 38B of the robot hand 6, and the tools 8b and 8c are opened and closed by the fingers 38A and 38B, so that the tools 8b and 8c grip the workpiece 48 (here, a bolt). In addition, imaging devices 22A and 22B for imaging an area including the tip of the tool 8 held by the robot hand 6 are installed on the ceiling or side wall of the room in which the robot device 2A is installed. In FIG. 10, two imaging devices 22A and 22B are installed, but three or more imaging devices may be installed. Furthermore, for example, if there is a position where the entire range in which the tips of the tools 8b and 8c of the robot hand 6 move can be viewed, only one imaging device may be installed at that position.

 一例として撮像装置22A,22Bは通常のカメラであり、撮像装置22A,22Bの焦点位置は例えばワーク48の載置面FLの近傍に設定され、その焦点深度は比較的広く設定されている。なお、撮像装置22A,22Bとして立体カメラ(ステレオカメラ)を使用してもよい。本実施形態の制御装置10の画像処理部11D(図3参照)では、撮像装置22A,22Bの撮像信号を処理してツール8b,8cとワーク48との位置ずれ量を算出する。これ以外の構成は第1の実施形態と同様であり、ロボットハンド6で保持されるツール8b,8cの先端部の上面にマーク部材62A,62Bが固定され、マーク部材62A,62BにマークMA,MBが形成されている。 As an example, the imaging devices 22A and 22B are normal cameras, and the focal positions of the imaging devices 22A and 22B are set, for example, near the placement surface FL of the workpiece 48, and the focal depth is set relatively wide. Note that a three-dimensional camera (stereo camera) may be used as the imaging devices 22A and 22B. In the image processing unit 11D (see FIG. 3) of the control device 10 of this embodiment, the imaging signals of the imaging devices 22A and 22B are processed to calculate the positional deviation amount between the tools 8b and 8c and the workpiece 48. The rest of the configuration is the same as in the first embodiment, and the mark members 62A and 62B are fixed to the upper surfaces of the tips of the tools 8b and 8c held by the robot hand 6, and the marks MA and MB are formed on the mark members 62A and 62B.

 本実施形態のロボット装置2Aにおいて、ロボットハンド6で保持しているツール8b,8cで載置面FLのワーク48を把持する場合には、把持対象のワーク48及びツール8b,8cの先端部の像を撮像している撮像装置(ここでは撮像装置22Bとする)の画像を使用する。図11は、撮像装置22Bで撮像された画像22BGの一例を示す。図11において、画像22BG内に、ロボットハンド6の像6I、ツールの像8bI,8cI、像8bI,8cIの先端部にあるマーク部材62A,62Bの像62AI,62BI、把持対象の位置P1のワークの像48I、及び他のワークの像48Iが形成されている。この際に、一例としてツール8b,8cの先端部はワーク48の載置面FLに接触している。 In the robot device 2A of this embodiment, when the tools 8b and 8c held by the robot hand 6 grip the workpiece 48 on the placement surface FL, an image from an imaging device (here, imaging device 22B) capturing images of the workpiece 48 to be gripped and the tips of the tools 8b and 8c is used. FIG. 11 shows an example of an image 22BG captured by imaging device 22B. In FIG. 11, an image 6I of the robot hand 6, images 8bI and 8cI of the tools, images 62AI and 62BI of the mark members 62A and 62B at the tips of the images 8bI and 8cI, an image 48I of the workpiece at the position P1 to be gripped, and an image 48I of another workpiece are formed in the image 22BG. At this time, as an example, the tips of the tools 8b and 8c are in contact with the placement surface FL of the workpiece 48.

 本実施形態においても、画像処理部11Dでは、マーク部材の像62AI,62BIの中のマークの像MAI,MBIの、撮像装置22Bの座標系(x,y)上での位置を求め、この位置からツール8b,8cの把持中心の像58CIの位置を求める。さらに、画像処理部11Dでは、把持対象のワークの像48Iの中心48cIの位置を求め、この中心48cIと把持中心の像58CIとのx方向、y方向の間隔δx,δyを求める。さらに、その間隔δx,δyを撮像装置22Bの既知の倍率で割ることによって、間隔δx,δyをロボット座標系(X,Y,Z)上での間隔に変換する。この後はその間隔を相殺するようにロボットアーム18A~18C等を用いてロボットハンド6を駆動することによって、ワーク48を挟むようにツール8b,8cを移動でき、この状態でワーク48をツール8b,8cで把持できる。 In this embodiment, the image processing unit 11D also determines the positions of the mark images MAI, MBI in the mark member images 62AI, 62BI on the coordinate system (x, y) of the imaging device 22B, and determines the position of the grip center image 58CI of the tools 8b, 8c from these positions. Furthermore, the image processing unit 11D determines the position of the center 48cI of the image 48I of the workpiece to be gripped, and determines the intervals δx, δy in the x and y directions between this center 48cI and the grip center image 58CI. Furthermore, the intervals δx, δy are converted to intervals on the robot coordinate system (X, Y, Z) by dividing the intervals δx, δy by the known magnification of the imaging device 22B. Thereafter, the robot arms 18A-18C, etc. are used to drive the robot hand 6 so as to offset the interval, thereby moving the tools 8b, 8c so as to sandwich the workpiece 48, and in this state the workpiece 48 can be gripped by the tools 8b, 8c.

 本実施形態においても、ツール8b,8cに設けたマーク部材62A,62BのマークMA,MBを検出し、この検出結果からツール8b,8cの把持中心を求めることによって、ワーク48とロボットハンド6A(ツール8b,8c)との位置合わせを効率的に、かつ高精度に行うことができる。また、ワークの像48Iとツール8の像との回転角が大きい場合には、ロボットハンド6Aを回転させて回転角の補正を行うようにしてもよい。
 また、本実施形態では、予め撮像装置22A,22Bの座標系(x,y)とロボット座標系(X,Y,Z)との間のキャリブレーションを行っておいてもよい。この場合、座標系(x,y)のx軸及びy軸がそれぞれロボット座標系のX軸及びY軸に平行になるようにキャリブレーションを行っておいてもよい。
In this embodiment as well, the marks MA, MB of the mark members 62A, 62B provided on the tools 8b, 8c are detected, and the gripping centers of the tools 8b, 8c are obtained from the detection results, thereby enabling efficient and highly accurate alignment of the workpiece 48 and the robot hand 6A (tools 8b, 8c). In addition, when the rotation angle between the workpiece image 48I and the tool 8 image is large, the robot hand 6A may be rotated to correct the rotation angle.
In this embodiment, calibration may be performed in advance between the coordinate system (x, y) of the imaging devices 22A and 22B and the robot coordinate system (X, Y, Z). In this case, calibration may be performed so that the x-axis and y-axis of the coordinate system (x, y) are parallel to the X-axis and Y-axis of the robot coordinate system, respectively.

 次に、上述の実施形態では、フィンガー38A,38Bにツール8b,8cが固定されているが、図12(A)の変形例のロボットハンド6Aで示すように、フィンガー38E,38Fでピンセット9(ピンセット式工具)の可動部9b,9cを開閉させてピンセット9でワーク48を把持してもよい。なお、図12(A)~(C)において図1、図2(A)~(C)に対応する部分には同一又は類似の符号を付してその詳細な説明を省略する。
 ピンセット9は市販、特注、自作、又は市販品を加工したもの等の任意のものでよい。ピンセット9は、支点9aに関して開閉可能に製造された1対のそれぞれ可撓性を持つ細長い平板状の可動部(把持部、接触部又は開閉部とも称する)9b及び9cを有する。そして、ピンセット9の支点9aと可動部9b,9cの先端部(作用点)とのほぼ中間の力点をフィンガー38E,38Fで内側に押すことによって、可動部9b,9cが閉じてその先端部間にワーク48を把持又は支持できる。一例として、ロボットハンド6の後述の固定部42でピンセット9の支点9aが保持されている。
Next, in the above-described embodiment, the tools 8b and 8c are fixed to the fingers 38A and 38B, but as shown in a modified robot hand 6A in Fig. 12(A), the fingers 38E and 38F may open and close the movable parts 9b and 9c of the tweezers 9 (tweezers-type tool) to grip a workpiece 48 with the tweezers 9. Note that in Figs. 12(A) to (C), parts corresponding to Figs. 1 and 2(A) to (C) are given the same or similar reference numerals, and detailed description thereof will be omitted.
The tweezers 9 may be any type, such as commercially available, custom-made, self-made, or a modified version of a commercially available product. The tweezers 9 have a pair of flexible, elongated, flat movable parts (also called gripping parts, contact parts, or opening/closing parts) 9b and 9c that are manufactured to be openable and closable about a fulcrum 9a. By pressing a force point approximately midway between the fulcrum 9a of the tweezers 9 and the tips (points of action) of the movable parts 9b and 9c inward with the fingers 38E and 38F, the movable parts 9b and 9c close to grip or support a workpiece 48 between the tips. As an example, the fulcrum 9a of the tweezers 9 is held by a fixed part 42 of the robot hand 6, which will be described later.

 図12(A)はこの変形例のロボットハンド6Aを示し、図12(A)は、ロボットハンド6Aが、ロボットアーム18Cの先端部20Aの下端に、保持しているピンセット9の可動部9b,9cの開閉方向がX方向になるように接合された状態を示している。図12(A)において、ロボットハンド6は、先端部20Aの下端に接合されたハンド本体部28と、ハンド本体部28の作動部32に連結されてピンセット9を保持するピンセット保持部26と、作動部32によってX方向に開閉される一対のフィンガー38E,38Fとを備えている。ピンセット保持部26に保持されたピンセット9の可動部9b,9cがフィンガー38E,38FによってX方向に開閉される。言い替えると、ピンセット9の可動部9b,9cがフィンガー38E,38Fに従動して開閉される。 Figure 12(A) shows a robot hand 6A of this modified example, in which the robot hand 6A is joined to the lower end of the tip 20A of the robot arm 18C so that the opening and closing direction of the movable parts 9b, 9c of the tweezers 9 it holds is the X direction. In Figure 12(A), the robot hand 6 comprises a hand main body 28 joined to the lower end of the tip 20A, a tweezers holding part 26 connected to an operating part 32 of the hand main body 28 and holding the tweezers 9, and a pair of fingers 38E, 38F opened and closed in the X direction by the operating part 32. The movable parts 9b, 9c of the tweezers 9 held by the tweezers holding part 26 are opened and closed in the X direction by the fingers 38E, 38F. In other words, the movable parts 9b, 9c of the tweezers 9 are opened and closed following the movement of the fingers 38E, 38F.

 また、ハンド本体部28の構成は第1の実施形態と同様であり、ハンド本体部28のフレーム30に支持部材50を介して撮像装置22が固定されている。ピンセット保持部26は、作動部32の-Y方向の側面に連結部36を介して連結された連結部38と、連結部38に対してZ軸に平行な軸の回りに所定範囲(例えば数度)で回転可能に固定された回転部40と、回転部40の底面に固定された固定部42と、を有する。回転部40には回転角を規定するためのストッパ54が設けられている。固定部42は回転部40の底面に固定された固定板と、固定板に対してピンセット9の支点9aを挟み込む押さえ板とを有する。押さえ板を複数のボルトB1で固定板に固定することで、固定部42にピンセット9の支点9aを安定に保持できる。この際に、ピンセット9の可動部9b,9cの先端はフィンガー38E,38F間を通してフィンガー38E,38Fの+Y方向に突き出ている。なお、ピンセット9の保持方法は任意である。 The configuration of the hand body 28 is the same as that of the first embodiment, and the imaging device 22 is fixed to the frame 30 of the hand body 28 via a support member 50. The tweezers holding part 26 has a connecting part 38 connected to the -Y direction side of the operating part 32 via a connecting part 36, a rotating part 40 fixed to the connecting part 38 so as to be rotatable within a predetermined range (for example, several degrees) around an axis parallel to the Z axis, and a fixed part 42 fixed to the bottom surface of the rotating part 40. The rotating part 40 is provided with a stopper 54 for determining the rotation angle. The fixed part 42 has a fixed plate fixed to the bottom surface of the rotating part 40 and a pressing plate that clamps the fulcrum 9a of the tweezers 9 against the fixed plate. The pressing plate is fixed to the fixed plate with a plurality of bolts B1, so that the fulcrum 9a of the tweezers 9 can be stably held by the fixed part 42. At this time, the tips of the movable parts 9b and 9c of the tweezers 9 protrude in the +Y direction of the fingers 38E and 38F through the gap between the fingers 38E and 38F. The method of holding the tweezers 9 is arbitrary.

 また、撮像装置22は、ピンセット9の可動部9b,9cに対してわずかに斜め上方(+Y方向及び+Z方向)に配置されている。図12(C)に示すように、撮像装置22の画像22G内の原点58Bよりも-y方向側にピンセット9の可動部9b,9cの像9bI,9cIの先端部が収まるように設定されている。この変形例においても、リニアスライダ34及び弾性部材44を含んで、フレーム30に対して可動部(作動部32、フィンガー38E,38F、ピンセット保持部26、及びピンセット9を含む部分)をZ方向に弾性変位可能に支持するサスペンション機構46(緩衝機構)が構成されている。また、近接センサ56の検出結果より、フレーム30に対する可動部(作動部32及びピンセット9等)の相対変位を検出でき、この検出結果より、そのピンセット9の先端がワーク48の載置面FLに接触したかどうかを検出できる。 The imaging device 22 is also arranged slightly diagonally above (in the +Y and +Z directions) the movable parts 9b and 9c of the tweezers 9. As shown in FIG. 12C, the images 9bI and 9cI of the movable parts 9b and 9c of the tweezers 9 are set to be located on the -y direction side of the origin 58B in the image 22G of the imaging device 22. Even in this modified example, a suspension mechanism 46 (shock absorber mechanism) is configured that includes the linear slider 34 and the elastic member 44 and supports the movable part (the part including the operating part 32, the fingers 38E and 38F, the tweezers holding part 26, and the tweezers 9) in the Z direction so that it can be elastically displaced relative to the frame 30. The detection result of the proximity sensor 56 can detect the relative displacement of the movable part (the operating part 32, the tweezers 9, etc.) relative to the frame 30, and this detection result can detect whether the tip of the tweezers 9 has come into contact with the placement surface FL of the workpiece 48.

 また、連結部36と連結部38とは、一例として内部に設けられた永久磁石等によって切り離し可能に連結されている。また、ピンセット保持部26の連結部38には溝部38Aaが設けられている。ツールスタンド(不図示)の架台に溝部38Aaを合わせて第2連結部38を架台に設置することで、ツールスタンドにピンセット保持部26を設置(格納)できる。この際に、予め固定部42に互いに形状の異なるピンセットを固定した複数のピンセット保持部26を用意して、ツールスタンドに設置しておいてもよい。そして、ロボットハンド6を移動して連結部36と連結部40との切り離し及び連結を行うだけで、ロボットハンド6で保持されているピンセット(ピンセット保持部26)を対象物に応じたピンセットに容易に交換できる。 The connecting portion 36 and the connecting portion 38 are connected so as to be detachable by, for example, a permanent magnet provided inside. The connecting portion 38 of the tweezers holding portion 26 is provided with a groove 38Aa. The tweezers holding portion 26 can be installed (stored) on a tool stand (not shown) by aligning the groove 38Aa with the base of the tool stand and installing the second connecting portion 38 on the base. At this time, multiple tweezers holding portions 26 with tweezers of different shapes fixed to the fixing portion 42 may be prepared in advance and installed on the tool stand. Then, by simply moving the robot hand 6 to detach and connect the connecting portion 36 and the connecting portion 40, the tweezers held by the robot hand 6 (the tweezers holding portion 26) can be easily replaced with tweezers appropriate for the object.

 図12(B)は図12(A)を-Y方向に見た正面図であり、図12(B)において、作動部32によって、1対のフィンガー38E,38Fが、ピンセット9の可動部9b,9cを開閉方向(ここではX方向)に開閉する。また、フィンガー38E,38Fの内側には例えば半球体状の突部38Ea,38Faが設けられ、突部38Ea,38Faがピンセット9の可動部9b,9cの力点(又は支点9aと作用点9d,9eとの間の点)に接触して可動部9b,9cを+X方向及び-X方向に押すことによって、可動部9b,9cが閉じて、可動部9b,9cの先端部に対象物を把持し、挟み、又は支持できる。その後、突部38Ea,38Faを-X方向及び+X方向に移動させることによって、可動部9b,9cが開いて、ピンセット9を対象物から離脱させることができる。なお、作動部32はフィンガー38E,38Fが互いに独立にX方向に移動するようにフィンガー38E,38Fを作動させてもよい。 12(B) is a front view of Fig. 12(A) as viewed in the -Y direction, and in Fig. 12(B), a pair of fingers 38E, 38F open and close movable parts 9b, 9c of tweezers 9 in the opening and closing direction (here, X direction) by operating part 32. Also, hemispherical protrusions 38Ea, 38Fa, for example, are provided on the inside of fingers 38E, 38F, and protrusions 38Ea, 38F come into contact with the force points (or points between fulcrum 9a and action points 9d, 9e) of movable parts 9b, 9c of tweezers 9 to push movable parts 9b, 9c in the +X and -X directions, thereby closing movable parts 9b, 9c and allowing the tips of movable parts 9b, 9c to grasp, pinch, or support an object. Thereafter, by moving the protrusions 38Ea, 38Fa in the -X and +X directions, the movable parts 9b, 9c open, and the tweezers 9 can be removed from the object. Note that the operating part 32 may operate the fingers 38E, 38F so that the fingers 38E, 38F move in the X direction independently of each other.

 また、フィンガー38E,38Fの突部38Ea,38Faは、一例として摩擦抵抗の小さい材料(例えばテフロン(登録商標)など)から形成されている。このため、ピンセット保持部26で保持されているピンセット9は、フィンガー38E,38Fに対してZ方向やY方向に微少量動く(滑る)ことができる。なお、本実施形態では、サスペンション機構46によって作動部32及びピンセット保持部26を含むツールが一体的に変位するため、突部38Aa,38Baは摩擦抵抗の大きい材料でもよい。なお、フィンガー38E,38Fの内側に必ずしも突部38Ea,38Faを設ける必要はない。 Furthermore, the protrusions 38Ea, 38Fa of the fingers 38E, 38F are formed, for example, from a material with low frictional resistance (such as Teflon (registered trademark)). Therefore, the tweezers 9 held by the tweezers holding part 26 can move (slide) slightly in the Z direction and Y direction relative to the fingers 38E, 38F. Note that in this embodiment, the suspension mechanism 46 displaces the tool including the operating part 32 and the tweezers holding part 26 as a unit, so the protrusions 38Aa, 38Ba may be made of a material with high frictional resistance. Note that it is not necessary to provide the protrusions 38Ea, 38Fa on the inside of the fingers 38E, 38F.

 この変形例においても、ピンセット9の可動部9b,9cの先端部に図4(A)の例と同様のマークMA,MBが形成されたマーク部材62A,62Bを取り付け、撮像装置22でマーク部材62A,62Bの像を撮像し、その像を用いて可動部9b,9cの中心の把持位置を求めることができる。図12(C)の画像22G内にはマーク部材の像62AI,62BI、及びマークの像MAI,MBIが形成されており、例えば像MAI,MBIの中心位置(又は所定量ずれた位置)を把持位置の像とみなすことができる。そして、その把持位置をワーク48の中心に合わせるようにロボットハンド6Aを位置決めしてフィンガー38E,38Fを閉じることで、ピンセット9の可動部9b,9cでワーク48を効率的に正確に把持できる。なお、この変形例においても、例えばピンセット9の可動部9b,9cの形状の一部に識別性があるような場合には、その識別性がある部分を、マークMA,MB又はマーク部材62A,62Bの代わりに使用することも可能である。 In this modified example, the mark members 62A and 62B on which the marks MA and MB similar to those in the example of FIG. 4A are formed are attached to the tips of the movable parts 9b and 9c of the tweezers 9, and the images of the mark members 62A and 62B are captured by the imaging device 22, and the gripping positions of the centers of the movable parts 9b and 9c can be obtained using the images. In the image 22G of FIG. 12C, the images 62AI and 62BI of the mark members and the images MAI and MBI of the marks are formed, and for example, the center positions (or positions shifted by a predetermined amount) of the images MAI and MBI can be regarded as images of the gripping positions. Then, the robot hand 6A is positioned so that the gripping position is aligned with the center of the workpiece 48, and the fingers 38E and 38F are closed, so that the movable parts 9b and 9c of the tweezers 9 can grip the workpiece 48 efficiently and accurately. In this modified example, if the shape of the movable parts 9b and 9c of the tweezers 9 is partly distinguishable, it is possible to use the distinguishable part instead of the marks MA and MB or the mark members 62A and 62B.

 次に、上述の実施形態のロボットハンド6,6Aは、垂直多関節型のロボット装置2の他に、水平多関節型(スカラ型)、パラレルリンク型、又は直交型等の任意の構成のロボット装置のロボットアームに接合可能である。また、ロボットハンド6,6Aは、上述のロボット装置に限定されず、他のロボットアームのような関節構造を備える各種ロボット装置(例えば組立ロボット、人間協調型ロボット等)にも適用できる。 Next, the robot hand 6, 6A in the above-described embodiment can be joined to the robot arm of a robot device of any configuration, such as a vertical multi-joint type robot device 2, a horizontal multi-joint type (SCARA type), a parallel link type, or an orthogonal type. Furthermore, the robot hand 6, 6A is not limited to the above-described robot device, but can also be applied to various robot devices (e.g., assembly robots, human-collaborative robots, etc.) that have a joint structure similar to that of other robot arms.

 また、本明細書には以下の発明の態様も記載されている。
 1)ロボット装置であって、複数のフィンガー部が設けられたロボットハンドと、前記ロボットハンドを駆動するアーム部と、複数の前記フィンガー部に従動して対象物を把持可能な複数の把持部と、複数の前記把持部の少なくとも1つが有する少なくとも1つの識別部と、前記識別部の位置情報を用いて、前記アーム部を介して前記ロボットハンドを駆動して、前記対象物に対して複数の前記把持部を位置決めする制御部と、を備えるロボット装置。2)複数の前記把持部は、複数の前記フィンガー部が開閉する方向に交差する方向に突き出るように、複数の前記フィンガー部に連結された、1に記載のロボット装置。3)複数の前記把持部は、複数の前記フィンガー部が開閉する方向に交差する方向に突き出るように支持されて、複数の前記フィンガー部の開閉動作によって開閉される複数の可動部である、1に記載のロボット装置。4)前記識別部を撮像する撮像装置を備え、前記制御部は、前記撮像装置の撮像結果より前記識別部の位置情報を求め、前記位置情報より、複数の前記把持部の把持位置に関する位置情報を求める、1~3のいずれか一項に記載のロボット装置。5)前記撮像装置の同一の視野内で前記識別部の少なくとも一部の像、及び前記対象物の少なくとも一部の像を撮像可能であり、前記制御部は、前記識別部の少なくとも一部の像、及び前記対象物の少なくとも一部の像の位置情報を用いて、複数の前記把持部の把持位置と、前記対象物の被把持位置との差分情報を求める、4に記載のロボット装置。6)複数の前記把持部は2つの前記識別部を有し、前記撮像装置の同一の視野内で2つの前記識別部の像を撮像可能であり、前記制御部は、2つの前記識別部の像の位置情報から2つの前記識別部の距離情報を求め、前記距離情報を用いて、複数の前記把持部間に前記対象物が把持されている把持状態と、複数の前記把持部間に前記対象物が把持されていない非把持状態とを判別する、4又は5に記載のロボット装置。
The present specification also describes the following aspects of the invention.
1) A robot device comprising: a robot hand provided with a plurality of finger portions, an arm portion that drives the robot hand, a plurality of gripping portions capable of gripping an object in response to the plurality of finger portions, at least one identification portion provided in at least one of the plurality of gripping portions, and a control portion that drives the robot hand via the arm portion using position information of the identification portion to position the plurality of gripping portions with respect to the object. 2) The robot device described in 1, wherein the plurality of gripping portions are connected to the plurality of finger portions so as to protrude in a direction intersecting a direction in which the plurality of finger portions open and close. 3) The robot device described in 1, wherein the plurality of gripping portions are a plurality of movable portions that are supported so as to protrude in a direction intersecting a direction in which the plurality of finger portions open and close, and are opened and closed by the opening and closing motion of the plurality of finger portions. 4) The robot device according to any one of 1 to 3, further comprising an imaging device that images the identifier, and the control unit determines position information of the identifier from an imaging result of the imaging device and determines position information related to gripping positions of the multiple grippers from the position information. 5) The robot device according to 4, further comprising: an imaging device that images the identifier, and an image of at least a portion of the object, within a same field of view of the imaging device, and the control unit determines difference information between gripping positions of the multiple grippers and a gripped position of the object using position information of at least a portion of the image of the identifier and at least a portion of the image of the object. 6) The robot device according to 4 or 5, further comprising: a plurality of the grippers, each of which has two identifiers, and is capable of capturing images of the two identifiers within a same field of view of the imaging device, and the control unit determines distance information between the two identifiers from position information of the images of the two identifiers, and uses the distance information to distinguish between a gripping state in which the object is gripped between the multiple grippers and a non-gripped state in which the object is not gripped between the multiple grippers.

 7)複数の前記把持部は2つの前記識別部を有し、前記撮像装置の同一の視野内で2つの前記識別部の像を撮像可能であり、前記制御部は、2つの前記識別部の像の位置情報から2つの前記識別部の距離情報を求め、前記距離情報を用いて、複数の前記把持部間に把持されている前記対象物の被把持位置の大きさを求める、4~6のいずれか一項に記載のロボット装置。8)複数の前記把持部は、前記対象物を1つだけ把持可能な形状である、1~7のいずれか一項に記載のロボット装置。9)複数の前記フィンガー部、及び複数の前記把持部はそれぞれ2つである1~8のいずれか一項に記載のロボット装置。10)複数の前記把持部で把持されている前記対象物の重量情報を求める重量計を備える1~9のいずれか一項に記載のロボット装置。11)前記識別部は、識別マークが形成された部材である、1~10のいずれか一項に記載のロボット装置。12)前記識別マークが形成された前記部材の色は、前記対象物が載置されている載置面の色と異なる、11に記載のロボット装置。13)前記識別部は、前記把持部の一部の形状である、1~10のいずれか一項に記載のロボット装置。14)複数のフィンガー部が設けられたロボットハンドと、前記ロボットハンドを駆動するアーム部と、を備えるロボット装置の制御方法であって、複数の前記フィンガー部に対して、対象物を把持可能な複数の把持部を従動させることと、複数の前記把持部の少なくとも1つが有する少なくとも1つの識別部の位置情報を記憶することと、前記識別部の前記位置情報を用いて、前記アーム部を介して前記ロボットハンドを駆動して、前記対象物に対して複数の前記把持部を位置決めすることと、を含むロボット装置の制御方法。15)複数の前記把持部は、複数の前記フィンガー部が開閉する方向に交差する方向に突き出るように、複数の前記フィンガー部に連結された、14に記載のロボット装置の制御方法。16)複数の前記把持部は、複数の前記フィンガー部が開閉する方向に交差する方向に突き出るように支持されて、複数の前記フィンガー部の開閉動作によって開閉される複数の可動部である、14に記載のロボット装置の制御方法。 7) The robot device according to any one of 4 to 6, wherein the plurality of gripping sections have two of the identification sections and are capable of capturing images of the two identification sections within the same field of view of the imaging device, and the control section determines distance information of the two identification sections from position information of the images of the two identification sections and determines the size of the gripped position of the object gripped between the plurality of gripping sections using the distance information. 8) The robot device according to any one of 1 to 7, wherein the plurality of gripping sections are shaped to be able to grip only one of the objects. 9) The robot device according to any one of 1 to 8, wherein the plurality of finger sections and the plurality of gripping sections each have two. 10) The robot device according to any one of 1 to 9, further comprising a weighing scale that determines weight information of the object gripped by the plurality of gripping sections. 11) The robot device according to any one of 1 to 10, wherein the identification section is a member on which an identification mark is formed. 12) The robot device according to 11, wherein the color of the member on which the identification mark is formed is different from the color of the placement surface on which the object is placed. 13) The robot device according to any one of 1 to 10, in which the identification unit is a part of the gripping unit. 14) A method for controlling a robot device including a robot hand provided with multiple finger units and an arm unit for driving the robot hand, the method including: moving multiple gripping units capable of gripping an object relative to the multiple finger units; storing position information of at least one identification unit of at least one of the multiple gripping units; and using the position information of the identification unit to drive the robot hand via the arm unit to position the multiple gripping units relative to the object. 15) The method for controlling a robot device according to 14, in which the multiple gripping units are connected to the multiple finger units so as to protrude in a direction intersecting a direction in which the multiple finger units open and close. 16) The method for controlling a robot device according to 14, in which the multiple gripping units are supported so as to protrude in a direction intersecting a direction in which the multiple finger units open and close, and are multiple movable units that are opened and closed by the opening and closing operation of the multiple finger units.

 17)撮像装置で前記識別部を撮像することと、前記撮像装置の撮像結果より前記識別部の位置情報を求めることと、前記位置情報より、複数の前記把持部の把持位置に関する位置情報を求めることと、を含む14~16のいずれか一項に記載のロボット装置の制御方法。18)前記撮像装置で前記識別部を撮像することは、前記撮像装置の同一の視野内で前記識別部の少なくとも一部の像、及び前記対象物の少なくとも一部の像を撮像することを含み、前記識別部の少なくとも一部の像、及び前記対象物の少なくとも一部の像の位置情報を用いて、複数の前記把持部の把持位置と、前記対象物の被把持位置との差分情報を求めることを含む、17に記載のロボット装置の制御方法。19)複数の前記把持部は2つの前記識別部を有し、前記撮像装置で前記識別部を撮像することは、前記撮像装置の同一の視野内で2つの前記識別部の像を撮像することを含み、2つの前記識別部の像の位置情報から2つの前記識別部の距離情報を求め、前記距離情報を用いて、複数の前記把持部間に前記対象物が把持されている把持状態と、複数の前記把持部間に前記対象物が把持されていない非把持状態とを判別することを含む、17又は18に記載のロボット装置の制御方法。20)複数の前記把持部は2つの前記識別部を有し、前記撮像装置で前記識別部を撮像することは、前記撮像装置の同一の視野内で2つの前記識別部の像を撮像することを含み、2つの前記識別部の像の位置情報から2つの前記識別部の距離情報を求め、前記距離情報を用いて、複数の前記把持部間に把持されている前記対象物の被把持位置の大きさを求めることを含む、17~19のいずれか一項に記載のロボット装置の制御方法。21)複数の前記把持部は、前記対象物を1つだけ把持可能な形状である、14~20のいずれか一項に記載のロボット装置の制御方法。22)複数の前記フィンガー部、及び複数の前記把持部はそれぞれ2つである14~21のいずれか一項に記載のロボット装置の制御方法。23)複数の前記把持部で把持されている前記対象物の重量情報を求めることを含む、14~22のいずれか一項に記載のロボット装置の制御方法。24)前記識別部は、識別マークが形成された部材である、14~23のいずれか一項に記載のロボット装置の制御方法。25)前記識別マークが形成された前記部材の色は、前記対象物が載置されている載置面の色と異なる、24に記載のロボット装置の制御方法。26)前記識別部は、前記把持部の一部の形状である、14~23のいずれか一項に記載のロボット装置の制御方法。 17) A method for controlling a robot device described in any one of claims 14 to 16, comprising capturing an image of the identification part with an imaging device, determining position information of the identification part from the imaging results of the imaging device, and determining position information regarding the gripping positions of the multiple gripping parts from the position information. 18) A method for controlling a robot device described in 17, wherein capturing an image of the identification part with the imaging device includes capturing an image of at least a portion of the identification part and an image of at least a portion of the object within the same field of view of the imaging device, and comprising determining difference information between the gripping positions of the multiple gripping parts and the gripped position of the object using position information of the image of at least a portion of the identification part and the image of at least a portion of the object. 19) The method for controlling a robot device according to any one of 17 to 18, wherein the plurality of gripping units have two of the identifiers, and capturing an image of the identifiers with the imaging device includes capturing images of the two identifiers within a same field of view of the imaging device, determining distance information of the two identifiers from position information of the images of the two identifiers, and using the distance information to distinguish between a gripping state in which the object is gripped between the plurality of gripping units and a non-gripped state in which the object is not gripped between the plurality of gripping units. 20) The method for controlling a robot device according to any one of 17 to 19, wherein the plurality of gripping units have two identifiers, and capturing an image of the identifiers with the imaging device includes capturing images of the two identifiers within a same field of view of the imaging device, determining distance information of the two identifiers from position information of the images of the two identifiers, and using the distance information to determine a size of a gripped position of the object gripped between the plurality of gripping units. 21) The method for controlling a robot device according to any one of claims 14 to 20, in which the plurality of gripping parts are shaped to grip only one of the objects. 22) The method for controlling a robot device according to any one of claims 14 to 21, in which the plurality of finger parts and the plurality of gripping parts are each two in number. 23) The method for controlling a robot device according to any one of claims 14 to 22, including determining weight information of the object gripped by the plurality of gripping parts. 24) The method for controlling a robot device according to any one of claims 14 to 23, in which the identification part is a member on which an identification mark is formed. 25) The method for controlling a robot device according to claim 24, in which the color of the member on which the identification mark is formed is different from the color of the placement surface on which the object is placed. 26) The method for controlling a robot device according to any one of claims 14 to 23, in which the identification part is shaped as a part of the gripping part.

 2,2A…ロボット装置、6,6A…ロボットハンド、8b,8c…ツール、9…ピンセット、10…ロボット装置の制御装置、12…ロボットハンドの制御装置、18A~18C…ロボットアーム、16…回転部、22,22A,22B…撮像装置、28…ハンド本体部、32…作動部、38A,38B…フィンガー、46…サスペンション機構、48…ワーク 2, 2A...Robot device, 6, 6A...Robot hand, 8b, 8c...Tool, 9...Tweezers, 10...Control device for robot device, 12...Control device for robot hand, 18A-18C...Robot arm, 16...Rotary part, 22, 22A, 22B...Imaging device, 28...Hand main body, 32...Operating part, 38A, 38B...Fingers, 46...Suspension mechanism, 48...Workpiece

Claims (26)

 複数のフィンガー部が設けられたロボットハンドと、
 前記ロボットハンドを駆動するアーム部と、
 複数の前記フィンガー部に従動して対象物を把持可能な複数の把持部と、
 複数の前記把持部の少なくとも1つが有する少なくとも1つの識別部と、
 前記識別部の位置情報を用いて、前記アーム部を介して前記ロボットハンドを駆動して、前記対象物に対して複数の前記把持部を位置決めする制御部と、
を備えるロボット装置。
a robot hand having a plurality of finger portions;
An arm unit that drives the robot hand;
A plurality of gripping portions capable of gripping an object in response to the plurality of finger portions;
At least one identification portion included in at least one of the plurality of grip portions;
a control unit that drives the robot hand via the arm unit using position information of the identification unit to position the plurality of gripping units with respect to the object;
A robot device comprising:
 複数の前記把持部は、複数の前記フィンガー部が開閉する方向に交差する方向に突き出るように、複数の前記フィンガー部に連結された、請求項1に記載のロボット装置。 The robot device according to claim 1, wherein the multiple gripping parts are connected to the multiple finger parts so as to protrude in a direction intersecting the direction in which the multiple finger parts open and close.  複数の前記把持部は、複数の前記フィンガー部が開閉する方向に交差する方向に突き出るように支持されて、複数の前記フィンガー部の開閉動作によって開閉される複数の可動部である、請求項1に記載のロボット装置。 The robot device according to claim 1, wherein the multiple gripping parts are supported so as to protrude in a direction intersecting the direction in which the multiple finger parts open and close, and are multiple movable parts that are opened and closed by the opening and closing movements of the multiple finger parts.  前記識別部を撮像する撮像装置を備え、
 前記制御部は、前記撮像装置の撮像結果より前記識別部の位置情報を求め、前記位置情報より、複数の前記把持部の把持位置に関する位置情報を求める、請求項1に記載のロボット装置。
an imaging device for imaging the identification part,
The robot device according to claim 1 , wherein the control unit obtains position information of the recognition unit from an imaging result of the imaging device, and obtains position information relating to gripping positions of the plurality of gripping units from the position information.
 前記撮像装置の同一の視野内で前記識別部の少なくとも一部の像、及び前記対象物の少なくとも一部の像を撮像可能であり、
 前記制御部は、前記識別部の少なくとも一部の像、及び前記対象物の少なくとも一部の像の位置情報を用いて、複数の前記把持部の把持位置と、前記対象物の被把持位置との差分情報を求める、請求項4に記載のロボット装置。
An image of at least a part of the identification part and an image of at least a part of the object can be captured within the same field of view of the imaging device,
5. The robot device according to claim 4, wherein the control unit calculates difference information between gripping positions of the plurality of grippers and a gripped position of the object, using position information of at least a portion of an image of the identification unit and at least a portion of an image of the object.
 複数の前記把持部は2つの前記識別部を有し、
 前記撮像装置の同一の視野内で2つの前記識別部の像を撮像可能であり、
 前記制御部は、2つの前記識別部の像の位置情報から2つの前記識別部の距離情報を求め、前記距離情報を用いて、複数の前記把持部間に前記対象物が把持されている把持状態と、複数の前記把持部間に前記対象物が把持されていない非把持状態とを判別する、請求項4に記載のロボット装置。
The plurality of gripping portions each have two of the identification portions,
The imaging device is capable of capturing images of the two identification parts within the same field of view,
5. The robot device according to claim 4, wherein the control unit determines distance information between the two identification parts from position information of the images of the two identification parts, and uses the distance information to distinguish between a gripping state in which the object is gripped between the plurality of gripping parts and a non-gripping state in which the object is not gripped between the plurality of gripping parts.
 複数の前記把持部は2つの前記識別部を有し、
 前記撮像装置の同一の視野内で2つの前記識別部の像を撮像可能であり、
 前記制御部は、2つの前記識別部の像の位置情報から2つの前記識別部の距離情報を求め、前記距離情報を用いて、複数の前記把持部間に把持されている前記対象物の被把持位置の大きさを求める、請求項4に記載のロボット装置。
The plurality of gripping portions each have two of the identification portions,
The imaging device is capable of capturing images of the two identification parts within the same field of view,
5. The robot device according to claim 4, wherein the control unit determines distance information between the two identification parts from position information of the images of the two identification parts, and determines a size of a grasped position of the object grasped between the plurality of gripping parts by using the distance information.
 複数の前記把持部は、前記対象物を1つだけ把持可能な形状である、請求項1に記載のロボット装置。 The robot device according to claim 1, wherein the multiple gripping parts are shaped to be able to grip only one of the objects.  複数の前記フィンガー部、及び複数の前記把持部はそれぞれ2つである請求項1に記載のロボット装置。 The robot device according to claim 1, wherein the number of the finger portions and the number of the gripping portions are each two.  複数の前記把持部で把持されている前記対象物の重量情報を求める重量計を備える請求項1に記載のロボット装置。 The robot device according to claim 1, further comprising a weight scale that determines weight information of the object being held by the multiple grippers.  前記識別部は、識別マークが形成された部材である、請求項1~10のいずれか一項に記載のロボット装置。 The robot device according to any one of claims 1 to 10, wherein the identification part is a member on which an identification mark is formed.  前記識別マークが形成された前記部材の色は、前記対象物が載置されている載置面の色と異なる、請求項11に記載のロボット装置。 The robot device according to claim 11, wherein the color of the member on which the identification mark is formed is different from the color of the placement surface on which the object is placed.  前記識別部は、前記把持部の一部の形状である、請求項1~10のいずれか一項に記載のロボット装置。 The robot device according to any one of claims 1 to 10, wherein the identification part is shaped as a part of the grip part.  複数のフィンガー部が設けられたロボットハンドと、前記ロボットハンドを駆動するアーム部と、を備えるロボット装置の制御方法であって、
 複数の前記フィンガー部に対して、対象物を把持可能な複数の把持部を従動させることと、
 複数の前記把持部の少なくとも1つが有する少なくとも1つの識別部の位置情報を記憶することと、
 前記識別部の前記位置情報を用いて、前記アーム部を介して前記ロボットハンドを駆動して、前記対象物に対して複数の前記把持部を位置決めすることと、
を含むロボット装置の制御方法。
A method for controlling a robot device including a robot hand provided with a plurality of finger units and an arm unit that drives the robot hand, comprising:
A plurality of gripping portions capable of gripping an object are caused to move relative to the plurality of finger portions;
storing position information of at least one identifier included in at least one of the plurality of gripping portions;
Using the position information of the identification unit, drive the robot hand via the arm unit to position the plurality of gripping units with respect to the object;
A method for controlling a robot device comprising:
 複数の前記把持部は、複数の前記フィンガー部が開閉する方向に交差する方向に突き出るように、複数の前記フィンガー部に連結された、請求項14に記載のロボット装置の制御方法。 The method for controlling a robot device according to claim 14, wherein the plurality of gripping parts are connected to the plurality of finger parts so as to protrude in a direction intersecting the direction in which the plurality of finger parts open and close.  複数の前記把持部は、複数の前記フィンガー部が開閉する方向に交差する方向に突き出るように支持されて、複数の前記フィンガー部の開閉動作によって開閉される複数の可動部である、請求項14に記載のロボット装置の制御方法。 The method for controlling a robot device according to claim 14, wherein the plurality of gripping parts are supported so as to protrude in a direction intersecting the direction in which the plurality of finger parts open and close, and are a plurality of movable parts that are opened and closed by the opening and closing movements of the plurality of finger parts.  撮像装置で前記識別部を撮像することと、
 前記撮像装置の撮像結果より前記識別部の位置情報を求めることと、
 前記位置情報より、複数の前記把持部の把持位置に関する位置情報を求めることと、を含む請求項14に記載のロボット装置の制御方法。
capturing an image of the identification part with an imaging device;
determining position information of the identification part from an imaging result of the imaging device;
The method for controlling a robot apparatus according to claim 14, further comprising: determining position information relating to gripping positions of a plurality of said gripping parts from said position information.
 前記撮像装置で前記識別部を撮像することは、
 前記撮像装置の同一の視野内で前記識別部の少なくとも一部の像、及び前記対象物の少なくとも一部の像を撮像することを含み、
 前記識別部の少なくとも一部の像、及び前記対象物の少なくとも一部の像の位置情報を用いて、複数の前記把持部の把持位置と、前記対象物の被把持位置との差分情報を求めることを含む、請求項17に記載のロボット装置の制御方法。
The imaging of the identification part by the imaging device includes:
capturing an image of at least a part of the identification part and an image of at least a part of the object within the same field of view of the imaging device;
18. The method for controlling a robot device according to claim 17, further comprising: calculating difference information between gripping positions of the plurality of gripping units and a gripped position of the object, using position information of at least a portion of an image of the identification unit and at least a portion of an image of the object.
 複数の前記把持部は2つの前記識別部を有し、
 前記撮像装置で前記識別部を撮像することは、前記撮像装置の同一の視野内で2つの前記識別部の像を撮像することを含み、
 2つの前記識別部の像の位置情報から2つの前記識別部の距離情報を求め、前記距離情報を用いて、複数の前記把持部間に前記対象物が把持されている把持状態と、複数の前記把持部間に前記対象物が把持されていない非把持状態とを判別することを含む、請求項17に記載のロボット装置の制御方法。
The plurality of gripping portions each have two of the identification portions,
capturing an image of the identification part with the imaging device includes capturing images of two of the identification parts within the same field of view of the imaging device;
18. The control method for a robot device according to claim 17, comprising: determining distance information between the two identification parts from position information of images of the two identification parts; and using the distance information to distinguish between a gripping state in which the object is gripped between a plurality of the gripping parts and a non-gripping state in which the object is not gripped between the plurality of the gripping parts.
 複数の前記把持部は2つの前記識別部を有し、
 前記撮像装置で前記識別部を撮像することは、前記撮像装置の同一の視野内で2つの前記識別部の像を撮像することを含み、
 2つの前記識別部の像の位置情報から2つの前記識別部の距離情報を求め、前記距離情報を用いて、複数の前記把持部間に把持されている前記対象物の被把持位置の大きさを求めることを含む、請求項17に記載のロボット装置の制御方法。
The plurality of gripping portions each have two of the identification portions,
capturing an image of the identification part with the imaging device includes capturing images of two of the identification parts within the same field of view of the imaging device;
18. The method for controlling a robot device according to claim 17, further comprising: determining distance information between the two identification parts from position information of the images of the two identification parts; and determining a size of a grasped position of the object grasped between the plurality of gripping parts using the distance information.
 複数の前記把持部は、前記対象物を1つだけ把持可能な形状である、請求項14に記載のロボット装置の制御方法。 The method for controlling a robot device according to claim 14, wherein the multiple gripping parts are shaped to be able to grip only one of the objects.  複数の前記フィンガー部、及び複数の前記把持部はそれぞれ2つである請求項14に記載のロボット装置の制御方法。 The method for controlling a robot device according to claim 14, wherein the number of finger portions and the number of gripping portions are each two.  複数の前記把持部で把持されている前記対象物の重量情報を求めることを含む、請求項14に記載のロボット装置の制御方法。 The method for controlling a robot device according to claim 14, further comprising determining weight information of the object being gripped by the multiple grippers.  前記識別部は、識別マークが形成された部材である、請求項14~23のいずれか一項に記載のロボット装置の制御方法。 The method for controlling a robot device according to any one of claims 14 to 23, wherein the identification unit is a member on which an identification mark is formed.  前記識別マークが形成された前記部材の色は、前記対象物が載置されている載置面の色と異なる、請求項24に記載のロボット装置の制御方法。 The method for controlling a robot device according to claim 24, wherein the color of the member on which the identification mark is formed is different from the color of the placement surface on which the object is placed.  前記識別部は、前記把持部の一部の形状である、請求項14~23のいずれか一項に記載のロボット装置の制御方法。 The method for controlling a robot device according to any one of claims 14 to 23, wherein the identification part is shaped as a part of the grip part.
PCT/JP2023/021644 2023-06-12 2023-06-12 Robot device and method for controlling same WO2024257136A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/021644 WO2024257136A1 (en) 2023-06-12 2023-06-12 Robot device and method for controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/021644 WO2024257136A1 (en) 2023-06-12 2023-06-12 Robot device and method for controlling same

Publications (1)

Publication Number Publication Date
WO2024257136A1 true WO2024257136A1 (en) 2024-12-19

Family

ID=93851628

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/021644 WO2024257136A1 (en) 2023-06-12 2023-06-12 Robot device and method for controlling same

Country Status (1)

Country Link
WO (1) WO2024257136A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009190111A (en) * 2008-02-13 2009-08-27 Olympus Corp Gripping device and method
JP2014008579A (en) * 2012-06-29 2014-01-20 Daihen Corp Substrate conveyance device
WO2019167652A1 (en) * 2018-02-28 2019-09-06 ニッタ株式会社 Gripping device and industrial robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009190111A (en) * 2008-02-13 2009-08-27 Olympus Corp Gripping device and method
JP2014008579A (en) * 2012-06-29 2014-01-20 Daihen Corp Substrate conveyance device
WO2019167652A1 (en) * 2018-02-28 2019-09-06 ニッタ株式会社 Gripping device and industrial robot

Similar Documents

Publication Publication Date Title
CN104802166B (en) Robot control system, robot, program and robot control method
JP5810582B2 (en) Robot control method and robot
US20150127141A1 (en) Robot, control device, robot system and robot control method
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
WO2018043525A1 (en) Robot system, robot system control device, and robot system control method
US20070001638A1 (en) Robot with vibration sensor device
JP2018533006A (en) Sensor device and robot system provided with the sensor device
CN108972557A (en) Micro- part pose automatic alignment apparatus and its method
US10889003B2 (en) Robot system, robot controller, and method for controlling robot
US10393603B2 (en) Visuo-haptic sensor
JP2016536150A (en) Robot placement and operation with improved accuracy
CN108858202A (en) The control method of part grabbing device based on " to quasi- approach-crawl "
CN113352345B (en) System, method and device for replacing quick-change device, electronic equipment and storage medium
CN108463313A (en) Robot system is calibrated
CN113195171A (en) Automatic calibration for camera-robot system with tool offset
CN107443404A (en) End effector, robot and robot controller
WO2024257136A1 (en) Robot device and method for controlling same
US12343860B2 (en) Automated work-holding for precise fastening of light parts during automated transfer
WO2019171822A1 (en) Control system, and method in control system
Schmoeckel et al. Development of a microrobot-based micromanipulation cell in a scanning electron microscope (SEM)
WO2025046780A1 (en) Robot device and method for controlling same
Schmoeckel et al. The scanning electron microscope as sensor system for mobile microrobots
US8688269B2 (en) Apparatus for teaching a gripping device
WO2023139737A1 (en) Robot hand device, robot device, and method for controlling same
JP2013129005A (en) Gripping robot device, gripping operation control method and gripping operation control device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23941448

Country of ref document: EP

Kind code of ref document: A1