JP7718949B2 - Robotic systems using complementary measurement and positioning systems. - Google Patents
Robotic systems using complementary measurement and positioning systems.Info
- Publication number
- JP7718949B2 JP7718949B2 JP2021168330A JP2021168330A JP7718949B2 JP 7718949 B2 JP7718949 B2 JP 7718949B2 JP 2021168330 A JP2021168330 A JP 2021168330A JP 2021168330 A JP2021168330 A JP 2021168330A JP 7718949 B2 JP7718949 B2 JP 7718949B2
- Authority
- JP
- Japan
- Prior art keywords
- scale
- camera
- end tool
- image
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/02—Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
- B25J9/04—Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type by rotating at least one arm, excluding the head movement itself, e.g. cylindrical coordinate type or polar coordinate type
- B25J9/041—Cylindrical coordinate type
- B25J9/042—Cylindrical coordinate type comprising an articulated arm
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
(関連出願の相互参照)
本出願は、2018年8月16日に出願された「ROBOT SYSTEM WITH SUPPLEMENTARY METROLOGY POSITION COORIDNATES DETERMINATION SYSTEM」と題する米国特許出願第16/104,033号の一部継続出願である2018年9月28に出願された「SUPPLEMENTARY METROLOGY POSITION COORDINATES DETERMINATION SYSTEM FOR USE WITH A ROBOT」と題する米国特許出願第16/146,640号の一部継続出願である。これらは援用により全体が本願に含まれる。
CROSS-REFERENCE TO RELATED APPLICATIONS
This application is a continuation-in-part of U.S. patent application Ser. No. 16/146,640, entitled "Supplementary Metrology Position Coordinates Determination System for Use with a Robot," filed on September 28, 2018, which is a continuation-in-part of U.S. patent application Ser. No. 16/104,033, entitled "Robot System with Supplementary Metrology Position Coordinates Determination System," filed on August 16, 2018, both of which are incorporated herein by reference in their entireties.
本開示はロボットシステムに関し、更に具体的には、ロボットのエンドツール位置の座標を決定するためのシステムに関する。 This disclosure relates to robotic systems, and more particularly to systems for determining the coordinates of a robot's end tool position.
ロボットシステムは、製造や他のプロセスのためにますます利用されるようになっている。利用できる様々なタイプのロボットには、多関節ロボット、選択的コンプライアンス多関節ロボットアーム(SCARA:selective compliance articulated robot arm)ロボット、直交座標系ロボット(cartesian robot)、円筒座標系ロボット(cylindrical robot)、球座標系ロボット(spherical robot)等が含まれる。ロボットに含まれ得るコンポーネントの一例として、SCARAロボットシステム(例えば多関節ロボットシステムの1つのタイプであり得る)は典型的にベースを有し、このベースに第1のアーム部を回転可能に結合すると共に、第1のアーム部の端部に第2のアーム部を回転可能に結合することができる。様々な構成において、第2のアーム部の端部にエンドツールを結合することができる(例えば特定の作業及び/又は検査動作を実行するため)。このようなシステムは、アーム部の配置を決定/制御し、これに応じてエンドツールの配置を決定/制御するため利用される位置センサ(例えば回転エンコーダ)を含むことができる。様々な実施例において、このようなシステムは約100ミクロンの配置精度を有し得るが、これはいくつかのファクタによって制限される(例えば、ロボットシステムの機械的安定性と組み合わせた回転エンコーダの性能等)。 Robotic systems are increasingly being used for manufacturing and other processes. Various types of robots available include articulated robots, selective compliance articulated robot arm (SCARA) robots, Cartesian robots, cylindrical robots, and spherical robots. As an example of components that may be included in a robot, a SCARA robot system (e.g., which may be a type of articulated robot system) typically has a base to which a first arm can be rotatably coupled, and a second arm can be rotatably coupled to the end of the first arm. In various configurations, an end tool can be coupled to the end of the second arm (e.g., for performing a specific task and/or inspection operation). Such systems may include position sensors (e.g., rotary encoders) that are used to determine and control the position of the arm and, accordingly, the position of the end tool. In various embodiments, such systems can have a placement accuracy of approximately 100 microns, although this is limited by several factors (e.g., the performance of the rotary encoder combined with the mechanical stability of the robotic system).
援用により全体が本願に含まれる米国特許第4,725,965号は、SCARAシステムの精度を向上させるためのいくつかの較正技法を開示している。この965号特許に記載されているように、第1の回転可能アーム部と、エンドツールを担持する第2の回転可能アーム部と、を備えたSCARAタイプのロボットを較正するための技法が提供されている。この較正技法は、運動モデルを用いてSCARAロボットを制御できるという事実に関連している。この運動モデルが正確な場合、アーム部を第1及び第2の角度構成に配置すると、第2のアーム部によって担持されたエンドツールがこれら双方の角度構成で同一の位置を保つことができる。運動モデルを較正するため、アーム部は、エンドツールを固定基準点の上方に位置付ける第1の構成に配置される。次いでアーム部は、名目上エンドツールを再び基準点に位置合わせして配置する第2の角度構成に配置される。アーム部を第1の角度構成から第2の角度構成に切り替えた場合の基準点に対するエンドツールの位置のシフトから、運動モデルの誤差が計算される。次いで、計算された誤差に従って運動モデルを補償する。これらのステップは、誤差がゼロに達するまで繰り返される。誤差がゼロに達した時点で、SCARAロボットの運動モデルは較正済みであると見なされる。 U.S. Pat. No. 4,725,965, the entirety of which is incorporated herein by reference, discloses several calibration techniques for improving the accuracy of SCARA systems. As described in the '965 patent, a technique is provided for calibrating a SCARA-type robot having a first rotatable arm and a second rotatable arm carrying an end tool. This calibration technique relies on the fact that a kinematic model can be used to control a SCARA robot. If this kinematic model is accurate, the arm can be positioned in a first and second angular configuration, such that the end tool carried by the second arm maintains the same position in both the first and second angular configurations. To calibrate the kinematic model, the arm is positioned in a first configuration that positions the end tool above a fixed reference point. The arm is then positioned in a second angular configuration that nominally realigns the end tool with the reference point. The kinematic model error is calculated from the shift in the position of the end tool relative to the reference point when the arm is switched from the first angular configuration to the second angular configuration. The kinematic model is then compensated according to the calculated error. These steps are repeated until the error reaches zero, at which point the kinematic model of the SCARA robot is considered calibrated.
965号特許に更に記載されている通り、較正技法は特定のカメラを使用することを含み得る。例えば1つの実施例において、基準点は、静止テレビジョンカメラ(すなわちエンドツールの下方の地面に配置される)の表示エリアの中心部とすることができ、このカメラの出力信号を処理して、第1の構成から第2の構成にリンクを切り替えた場合のカメラの表示エリア中心部からのエンドツールの位置シフトを決定できる。別の実施例では、第2のアーム部がカメラを担持することができ、この技法は最初に、これらのアーム部間で第2の所定の内角が測定される第1の角度構成にアーム部を配置して、第2のアーム部が担持するカメラを固定基準点の直上で中心に配置することができる。次いで、アーム部間で第2の所定の内角に等しい内角が測定される第2の角度構成にアーム部を配置して、名目上カメラを再び基準点の上方で中心に配置する。次いでカメラの出力信号を処理して、アーム部を第1の角度構成から第2の角度構成に切り替えた場合にカメラによって観察された基準点の位置のシフトを決定する。次いで、カメラによって観察された基準点の位置のシフトに従って、カメラの既知の位置の誤差を決定する。これらのステップを、誤差がゼロに近付くまで較正プロセスの一部として繰り返す。 As further described in the '965 patent, calibration techniques can include the use of a specific camera. For example, in one embodiment, the reference point can be the center of the viewing area of a stationary television camera (i.e., positioned on the ground below the end tool), and the camera's output signals can be processed to determine the shift in position of the end tool from the center of the camera's viewing area when the link is switched from a first configuration to a second configuration. In another embodiment, a second arm can carry the camera, and the technique can involve first positioning the arm in a first angular configuration in which a second predetermined interior angle is measured between the arm, thereby centering the camera carried by the second arm directly above the fixed reference point. The arm can then be positioned in a second angular configuration in which an interior angle equal to the second predetermined interior angle is measured between the arm, thereby nominally centering the camera again above the reference point. The camera's output signals can then be processed to determine the shift in position of the reference point observed by the camera when the arm is switched from the first angular configuration to the second angular configuration. The error in the camera's known position is then determined according to the shift in the position of the reference point observed by the camera. These steps are repeated as part of the calibration process until the error approaches zero.
965号特許に記載されているような技法はロボットシステムを較正するために使用できるが、いくつかの用途では、このような技法の利用は望ましくない場合がある(例えば、著しい時間を要する可能性がある、及び/又は、特定の動作中にロボットで生じ得るあらゆる向きで所望のレベルの精度が得られるわけではない)。このような問題に関する改善を達成できるロボットシステムが望まれている(例えば、ワークピース測定及びその他のプロセス中の位置決定の信頼性、反復性、速度等を増大させるため)。 While techniques such as those described in the '965 patent can be used to calibrate robotic systems, in some applications, the use of such techniques may be undesirable (e.g., they may require significant time and/or may not provide the desired level of accuracy in all possible orientations of the robot during a particular operation). Robotic systems that can achieve improvements in these areas are desirable (e.g., to increase the reliability, repeatability, speed, etc. of position determination during workpiece measurement and other processes).
この概要は、以下で「発明を実施するための形態」において更に記載されるいくつかの概念を簡略化した形態で紹介するために提示する。この概要は、特許請求される主題の重要な特徴(features)を識別することを意図しておらず、特許請求される主題の範囲の決定に役立てるため用いることも意図していない。 This Summary is provided to introduce some concepts in a simplified form that are further described below in the Detailed Description. This Summary is not intended to identify key features of the claimed subject matter, nor is it intended to be used as an aid in determining the scope of the claimed subject matter.
補足計測位置決定システムは、ロボットシステムの一部としてロボットと共に使用するため提供される。ロボット(例えば多関節ロボット、SCARAロボット、直交座標系ロボット、円筒座標系ロボット、球座標系ロボット等)は、可動アーム構成及び移動制御システムを含む。可動アーム構成は、第1のアーム部と、第2のアーム部と、エンドツールを実装するためのエンドツール実装構成と、を含む。第1のアーム部は、第1のアーム部の近位端において第1の回転継手に実装されている。第1の回転継手は第1の回転軸を有する。第1のアーム部は、第1のアーム部の遠位端に位置付けられた第2の回転継手を有する。第2の回転継手は第2の回転軸を有する。第2のアーム部は、第2のアーム部の近位端において第2の回転継手に実装されて第2の回転継手を中心として回転するようになっている。エンドツール実装構成は、可動アーム構成の遠位端の近傍に位置付けられている。移動制御システムは、少なくとも部分的に、ロボットに含まれる回転センサを用いて第1及び第2の回転継手を中心とした第1及び第2のアーム部の角度位置をそれぞれ検知及び制御することに基づいて、ロボット精度として規定された精度レベルでエンドツールのエンドツール位置を制御するように構成されている。補足計測位置決定システムは、第1及び第2の2次元(2D)スケールと、第1のカメラと、第2のカメラと、計測処理部と、を含む。第1及び第2の2次元(2D)スケールは、第1及び第2の2Dスケール結合位置でそれぞれ可動アーム構成に結合されている。各2Dスケールは、名目上平面状の基板と、平面状基板上に分散した複数の撮像可能な要素と、を含む。第1のカメラは、画像取得時点で第1の2Dスケールの画像を取得するためのものである。第1のカメラは、第1の参照位置を規定し、第1のカメラ結合位置で可動アーム構成に結合されている。第2のカメラは、画像取得時点で第2の2Dスケールの画像を取得するためのものである。第2のカメラは、第2の参照位置を規定し、第2のカメラ結合位置で可動アーム構成に結合されている。計測処理部は、少なくとも部分的に、第1の画像取得時点で第1のカメラにより取得された第1の2Dスケールの第1の画像に基づいて、第1の2Dスケールの第1の相対位置を決定し、少なくとも部分的に、第1の画像取得時点で第2のカメラにより取得された第2の2Dスケールの第1の画像に基づいて、第2の2Dスケールの第1の相対位置を決定するように構成されている。 A supplemental metrology positioning system is provided for use with a robot as part of a robotic system. The robot (e.g., an articulated robot, a SCARA robot, a Cartesian coordinate robot, a cylindrical coordinate robot, a spherical coordinate robot, etc.) includes a movable arm configuration and a motion control system. The movable arm configuration includes a first arm section, a second arm section, and an end tool mounting configuration for mounting an end tool. The first arm section is mounted to a first rotary joint at a proximal end of the first arm section. The first rotary joint has a first axis of rotation. The first arm section has a second rotary joint positioned at a distal end of the first arm section. The second rotary joint has a second axis of rotation. The second arm section is mounted to a second rotary joint at a proximal end of the second arm section and is configured to rotate about the second rotary joint. The end tool mounting configuration is positioned near the distal end of the movable arm configuration. The motion control system is configured to control the end tool position of the end tool to a level of accuracy defined as robot accuracy based, at least in part, on sensing and controlling the angular positions of the first and second arm sections about the first and second rotary joints using rotation sensors included in the robot. The supplemental metrology position determination system includes first and second two-dimensional (2D) scales, a first camera, a second camera, and a metrology processing unit. The first and second two-dimensional (2D) scales are coupled to the movable arm structure at first and second 2D scale coupling locations, respectively. Each 2D scale includes a nominally planar substrate and a plurality of imageable elements distributed on the planar substrate. The first camera is for acquiring a first 2D scale image at an image acquisition time. The first camera defines a first reference position and is coupled to the movable arm structure at a first camera coupling location. The second camera is for acquiring a second 2D scale image at an image acquisition time. The second camera defines a second reference position and is coupled to the movable arm arrangement at a second camera coupling position. The metrology processor is configured to determine a first relative position of the first 2D scale based at least in part on a first image of the first 2D scale acquired by the first camera at the time of first image acquisition, and to determine a first relative position of the second 2D scale based at least in part on a first image of the second 2D scale acquired by the second camera at the time of first image acquisition.
計測処理部は更に、少なくとも部分的に第1及び第2の2Dスケールの決定された第1の相対位置に基づいて、第1の画像取得時点におけるエンドツール位置の座標を決定するように構成できる。第1の2Dスケール結合位置は第1の回転継手上とすることができ、第1の回転継手の回転中の第1の回転軸に対して垂直方向の移動によって第1の2Dスケールの相対位置の変化が生じ得る。計測処理部は更に、少なくとも部分的に、第1の画像取得時点で第1のカメラにより取得された第1の2Dスケールの第1の画像に基づいて、第1の2Dスケールの角度向きを決定するように構成できる。第1の2Dスケール結合位置は第1のアーム部上とすることができ、第1のアーム部の屈曲又はねじれのうち少なくとも1つによって、(例えば第1のカメラ及び/又は対応する第1の参照位置に対する)第1の2Dスケールの相対位置の変化が生じ得る。計測処理部は更に、少なくとも部分的に、第2の画像取得時点で第1のカメラにより取得された第1の2Dスケールの第2の画像に基づいて、第1の2Dスケールの第2の相対位置を決定し、少なくとも部分的に、第2の画像取得時点で第2のカメラにより取得された第2の2Dスケールの第2の画像に基づいて、第2の2Dスケールの第2の相対位置を決定するように構成できる。計測処理部は更に、少なくとも部分的に第1及び第2の2Dスケールの決定された第1の相対位置に基づいて、第1の画像取得時点における第1のエンドツール位置の計測位置座標を決定し、少なくとも部分的に第1及び第2の2Dスケールの決定された第2の相対位置に基づいて、第2の画像取得時点における第2のエンドツール位置の計測位置座標を決定するように構成できる。計測処理部は更に、第1及び第2のエンドツール位置の決定された計測位置座標を用いて、第1及び第2のエンドツール位置間の距離に関連した寸法を決定するように構成できる。この寸法はワークピース上の第1及び第2の表面位置間の距離であり、エンドツールの接点は、第1の画像取得時点でワークピース上の第1の表面位置に接触し、第2の画像取得時点でワークピース上の第2の表面位置に接触し得る。エンドツールは、ワークピースを測定するために用いられるタッチプローブ又はスキャンプローブのうち少なくとも1つであり得る。 The metrology processor may further be configured to determine coordinates of the end tool position at the time of first image acquisition based at least in part on the determined first relative positions of the first and second 2D scales. The first 2D scale coupling position may be on the first rotary joint, and a change in the relative position of the first 2D scale may occur due to movement of the first rotary joint in a direction perpendicular to the first axis of rotation during rotation. The metrology processor may further be configured to determine an angular orientation of the first 2D scale based at least in part on a first image of the first 2D scale acquired by the first camera at the time of first image acquisition. The first 2D scale coupling position may be on the first arm, and at least one of bending or twisting of the first arm may cause a change in the relative position of the first 2D scale (e.g., with respect to the first camera and/or a corresponding first reference position). The metrology processor may be further configured to determine a second relative position of the first 2D scale based at least in part on a second image of the first 2D scale acquired by the first camera at the time of second image acquisition, and to determine a second relative position of the second 2D scale based at least in part on a second image of the second 2D scale acquired by the second camera at the time of second image acquisition. The metrology processor may be further configured to determine measurement position coordinates of the first end tool position at the time of first image acquisition based at least in part on the determined first relative positions of the first and second 2D scales, and to determine measurement position coordinates of the second end tool position at the time of second image acquisition based at least in part on the determined second relative positions of the first and second 2D scales. The metrology processor may be further configured to determine a dimension related to the distance between the first and second end tool positions using the determined measurement position coordinates of the first and second end tool positions. This dimension is the distance between a first and second surface location on the workpiece, and a contact point of the end tool may contact the first surface location on the workpiece at the time of the first image acquisition and the second surface location on the workpiece at the time of the second image acquisition. The end tool may be at least one of a touch probe or a scanning probe used to measure the workpiece.
また、ロボットと共に使用される補足計測位置決定システムを動作させるための方法も開示される。この方法は、第1の画像取得時点で第1の2Dスケールの第1の画像を取得するように第1のカメラを動作させることであって、第1のカメラは第1のカメラ結合位置でロボットの可動アーム構成に結合されると共に第1の参照位置を規定し、第1の2Dスケールは第1の2Dスケール結合位置で可動アーム構成に結合されている、第1のカメラを動作させることと、第1の画像取得時点で第2の2Dスケールの第1の画像を取得するように第2のカメラを動作させることであって、第2のカメラは第2のカメラ結合位置でロボットの可動アーム構成に結合されると共に第2の参照位置を規定し、第2の2Dスケールは第2の2Dスケール結合位置で可動アーム構成に結合されている、第2のカメラを動作させることと、少なくとも部分的に、第1の画像取得時点で第1のカメラにより取得された第1の2Dスケールの第1の画像に基づいて、第1の2Dスケールの第1の相対位置を決定することと、少なくとも部分的に、第1の画像取得時点で第2のカメラにより取得された第2の2Dスケールの第1の画像に基づいて、第2の2Dスケールの第1の相対位置を決定することと、を含むものとして要約できる。 Also disclosed is a method for operating a supplemental metrology position determination system for use with a robot, the method comprising: operating a first camera to acquire a first image at a first 2D scale at a first image acquisition time, the first camera being coupled to a movable arm configuration of the robot at a first camera coupling position and defining a first reference position, the first 2D scale being coupled to the movable arm configuration at a first 2D scale coupling position; and operating a second camera to acquire a first image at a second 2D scale at the first image acquisition time, the second camera being coupled to the movable arm configuration of the robot at a second camera coupling position. The method can be summarized as including: operating a second camera coupled to the movable arm arrangement at a second 2D scale coupling position, the second camera being coupled to the movable arm arrangement at a second 2D scale coupling position and defining a second reference position; determining a first relative position of the first 2D scale based, at least in part, on a first image of the first 2D scale acquired by the first camera at the time of first image acquisition; and determining a first relative position of the second 2D scale based, at least in part, on a first image of the second 2D scale acquired by the second camera at the time of first image acquisition.
方法は更に、少なくとも部分的に第1及び第2の2Dスケールの決定された第1の相対位置に基づいて、第1の画像取得時点における第1のエンドツール位置の計測位置座標を決定することを含み得る。方法は更に、第2の画像取得時点で第1の2Dスケールの第2の画像を取得するように第1のカメラを動作させることと、第2の画像取得時点で第2の2Dスケールの第2の画像を取得するように第2のカメラを動作させることと、少なくとも部分的に、第2の画像取得時点で第1のカメラにより取得された第1の2Dスケールの第2の画像に基づいて、第1の2Dスケールの第2の相対位置を決定することと、少なくとも部分的に、第2の画像取得時点で第2のカメラにより取得された第2の2Dスケールの第2の画像に基づいて、第2の2Dスケールの第2の相対位置を決定することと、を含み得る。方法は更に、少なくとも部分的に第1及び第2の2Dスケールの決定された第1の相対位置に基づいて、第1の画像取得時点における第1のエンドツール位置の計測位置座標を決定することと、少なくとも部分的に第1及び第2の2Dスケールの決定された第2の相対位置に基づいて、第2の画像取得時点における第2のエンドツール位置の計測位置座標を決定することと、を含み得る。方法は更に、第1及び第2のエンドツール位置の決定された計測位置座標を用いて、第1及び第2のエンドツール位置間の距離に関連した寸法を決定することを含み得る。この寸法は、ワークピース上の第1及び第2の表面位置間の距離であり得る。エンドツールの接点は、第1の画像取得時点でワークピース上の第1の表面位置に接触し、第2の画像取得時点でワークピース上の第2の表面位置に接触し得る。方法は更に、第1及び第2の2Dスケールをそれぞれ第1及び第2の2Dスケール結合位置で可動アーム構成に結合することと、第1のカメラを第1のカメラ結合位置で可動アーム構成に結合することと、第2のカメラを第2のカメラ結合位置で可動アーム構成に結合することと、を含み得る。 The method may further include determining a measurement position coordinate of the first end tool position at the time of the first image acquisition based at least in part on the determined first relative positions of the first and second 2D scales. The method may further include operating the first camera to acquire a second image at the first 2D scale at the time of the second image acquisition, operating the second camera to acquire a second image at the second 2D scale at the time of the second image acquisition, determining a second relative position of the first 2D scale based at least in part on the second image at the first 2D scale acquired by the first camera at the time of the second image acquisition, and determining a second relative position of the second 2D scale based at least in part on the second image at the second 2D scale acquired by the second camera at the time of the second image acquisition. The method may further include determining a measurement position coordinate of a first end tool position at the time of the first image acquisition based at least in part on the determined first relative position of the first and second 2D scales, and determining a measurement position coordinate of a second end tool position at the time of the second image acquisition based at least in part on the determined second relative position of the first and second 2D scales. The method may further include using the determined measurement position coordinates of the first and second end tool positions to determine a dimension related to the distance between the first and second end tool positions. The dimension may be a distance between a first and second surface position on the workpiece. A contact point of the end tool may contact a first surface position on the workpiece at the time of the first image acquisition and a second surface position on the workpiece at the time of the second image acquisition. The method may further include coupling first and second 2D scales to the movable arm configuration at first and second 2D scale coupling positions, respectively; coupling a first camera to the movable arm configuration at a first camera coupling position; and coupling a second camera to the movable arm configuration at a second camera coupling position.
また、エンドツールを実装するためのエンドツール実装構成を備えた可動アーム構成と、エンドツールのエンドツール位置を制御するように構成された移動制御システムと、を備えるロボットと共に使用される補足計測位置決定システムが開示される。補足計測位置決定システムは、第1及び第2の2次元(2D)スケールと、第1のカメラと、第2のカメラと、計測処理部と、を含むものとして要約できる。第1及び第2の2次元(2D)スケールは、第1及び第2の2Dスケール結合位置でそれぞれロボットの可動アーム構成に結合されるように構成されている。各2Dスケールは、名目上平面状の基板と、平面状基板上に分散した複数の撮像可能な要素と、を含む。第1のカメラは、画像取得時点で第1の2Dスケールの画像を取得するためのものである。第1のカメラは、第1の参照位置を規定し、第1のカメラ結合位置で可動アーム構成に結合されるように構成されている。第2のカメラは、画像取得時点で第2の2Dスケールの画像を取得するためのものである。第2のカメラは、第2の参照位置を規定し、第2のカメラ結合位置で可動アーム構成に結合されるように構成されている。計測処理部は、少なくとも部分的に、第1の画像取得時点で第1のカメラにより取得された第1の2Dスケールの第1の画像に基づいて、第1の2Dスケールの第1の相対位置を決定し、少なくとも部分的に、第1の画像取得時点で第2のカメラにより取得された第2の2Dスケールの第1の画像に基づいて、第2の2Dスケールの第1の相対位置を決定するように構成されている。少なくとも部分的に第1及び第2の2Dスケールの決定された第1の相対位置に基づいて、第1の画像取得時点における第1のエンドツール位置の計測位置座標を決定する。 Also disclosed is a supplemental metrology positioning system for use with a robot including a movable arm configuration with an end tool mounting configuration for mounting an end tool, and a motion control system configured to control the end tool position of the end tool. The supplemental metrology positioning system can be summarized as including first and second two-dimensional (2D) scales, a first camera, a second camera, and a metrology processing unit. The first and second two-dimensional (2D) scales are configured to be coupled to the movable arm configuration of the robot at first and second 2D scale coupling positions, respectively. Each 2D scale includes a nominally planar substrate and a plurality of imageable elements distributed on the planar substrate. The first camera is configured to acquire a first 2D scale image at the image acquisition time. The first camera defines a first reference position and is configured to be coupled to the movable arm configuration at the first camera coupling position. The second camera is configured to acquire a second 2D scale image at the image acquisition time. The second camera defines a second reference position and is configured to be coupled to the movable arm arrangement at a second camera coupling position. The measurement processor is configured to determine a first relative position of the first 2D scale based at least in part on a first image of the first 2D scale acquired by the first camera at the time of first image acquisition, and to determine a first relative position of the second 2D scale based at least in part on a first image of the second 2D scale acquired by the second camera at the time of first image acquisition. The measurement processor determines measurement position coordinates of the first end tool position at the time of first image acquisition based at least in part on the determined first relative positions of the first and second 2D scales.
第1の2Dスケール結合位置は可動アーム構成の第1の回転継手上とすることができ、第1の回転継手は第1の回転軸を有し、第1の回転継手の回転中の第1の回転軸に対して垂直方向の移動によって第1の2Dスケールの相対位置の変化が生じ得る。計測処理部は更に、少なくとも部分的に、第1の画像取得時点で第1のカメラにより取得された第1の2Dスケールの第1の画像に基づいて、第1の2Dスケールの角度向きを決定するように構成できる。第1の2Dスケール結合位置は可動アーム構成の第1のアーム部上とすることができ、第1のアーム部の屈曲又はねじれのうち少なくとも1つによって第1の2Dスケールの相対位置の変化が生じ得る。 The first 2D scale binding location may be on a first rotary joint of the movable arm arrangement, the first rotary joint having a first axis of rotation, and movement perpendicular to the first axis of rotation during rotation of the first rotary joint may cause a change in the relative position of the first 2D scale. The metrology processor may be further configured to determine the angular orientation of the first 2D scale based, at least in part, on a first image of the first 2D scale acquired by the first camera at the first image acquisition time. The first 2D scale binding location may be on a first arm portion of the movable arm arrangement, and at least one of bending or twisting of the first arm portion may cause a change in the relative position of the first 2D scale.
本明細書に記載されている補足計測位置決定システムは、各ロボット回転継手に含まれる回転エンコーダを備えた、測定システム(例えば図1のブロック140を参照のこと)をすでに含む既存のロボットに追加することができる。これは、エンドツール位置がロボットアームの端部のどこにあるかを測定/決定できるが、これは本明細書で「ロボット精度」と称され、含まれるエンコーダの精度は望ましいレベルに比べて限定されている/低いことがある。本発明は、ロボットの端部(すなわちロボットアームの端部)のエンドツール位置を決定する精度の向上を達成できる補足計測システム(例えば追加のカメラ及びスケールをロボットアームに取り付けることで既存のロボットに取り付けられる)を提供することを目的とする。更に具体的に述べると、既存のロボットのエンコーダは回転継手の回転を測定するだけであり、ロボットシステム/モデルは、全ての継手が完璧に回転すると共にアームが完璧に直線のままであることを仮定し得る。様々な理由で、これが当てはまらないことがあり(例えば、アームが重いのでアーム/継手の屈曲/ねじれが発生する、アーム端部に配置されたエンドツールが重い、継手が完璧に回転しない等の可能性がある)、このため、継手の移動に「ふらつき(wobble)」もしくは「揺れ動き(slop)」(もしくは、予想される継手/回転軸に対して垂直方向の他の移動)が生じるか、又はアームのいくらかの屈曲/ねじれ量等が生じることがある。本発明は、継手及び/又はロボットアームに取り付けたカメラ及び2Dスケールを追加し、通常の回転移動及び望ましくない移動(例えばふらつき、揺れ動き、屈曲、ねじれ等)を検出するためカメラによって2Dスケールを監視/撮像し、望ましくない移動量の決定値を、ロボット端部のエンドツールのエンドツール位置を決定するための計算/モデルに追加して、ロボットの回転エンコーダのみを使用した場合よりも精度を高めることができる。いくつかの実施例では、(例えば、いくつかの従来のロボットシステムの100ミクロン精度に対して)このような技法により、10ミクロン以下の範囲内の精度を達成できる。このような精度向上は、特定の用途(例えば、ワークピースの測定、ワークピースの精密穴開け、極めて小さいワークピース又は他の要素の精密な操作及び配置等)には特に望ましいものであり得る。 The supplemental metrology position determination system described herein can be added to an existing robot that already includes a measurement system (e.g., see block 140 in FIG. 1 ) with rotary encoders included at each robot rotary joint. This can measure/determine where the end tool position is at the end of the robot arm, referred to herein as "robot accuracy," and the accuracy of the included encoders may be limited/lower than desired. The present invention aims to provide a supplemental metrology system (e.g., that can be attached to an existing robot by attaching additional cameras and scales to the robot arm) that can achieve improved accuracy in determining the end tool position at the end of the robot (i.e., the end of the robot arm). More specifically, the existing robot's encoders only measure the rotation of the rotary joints, and the robot system/model may assume that all joints rotate perfectly while the arm remains perfectly straight. For various reasons, this may not be the case (e.g., the arm may be heavy, causing the arm/joint to bend/twist, the end tool located at the end of the arm may be heavy, the joint may not rotate perfectly, etc.), which may result in a "wobble" or "slop" in the joint movement (or other movement perpendicular to the expected joint/axis of rotation), or some amount of bending/twisting of the arm, etc. The present invention adds a camera and 2D scale attached to the joint and/or robot arm, and monitors/images the 2D scale with the camera to detect normal rotational movement and undesired movement (e.g., wobble, slop, bending, twisting, etc.), and adds the determination of the undesired movement to the calculations/models for determining the end tool position of the end tool at the end of the robot, providing greater accuracy than would be possible using only the robot's rotational encoder. In some embodiments, such techniques can achieve accuracy in the range of 10 microns or less (e.g., versus the 100 micron accuracy of some conventional robotic systems). Such increased accuracy may be particularly desirable for certain applications (e.g., measuring workpieces, precision drilling holes in workpieces, precise manipulation and placement of extremely small workpieces or other elements, etc.).
図1は、多関節ロボット110及び補足計測位置決定システム150を含むロボットシステム100の第1の例示的な実施例のブロック図である。多関節ロボット110は、可動アーム構成MAC及びロボット移動制御及び処理システム140を含む。図1の例において、可動アーム構成MACは、第1及び第2のアーム部121及び122、第1及び第2の回転継手131及び132(例えば第1及び第2の移動機構の一部として含まれる)、位置センサSEN1及びSEN2、並びにエンドツール構成ETCNを含む。第1のアーム部121は、第1のアーム部121の近位端PE1において第1の回転継手131に実装されている。第1の回転継手131(例えば支持ベース部BSEの上端に位置付けられている)は、z軸方向に沿って位置合わせされた回転軸RA1を有し、第1のアーム部121が第1の回転継手131を中心としてz軸に直交するxy面内で名目上移動するようになっている。第1のアーム部121の遠位端DE1に第2の回転継手132が位置付けられている。第2の回転継手132は、z軸方向に沿って名目上位置合わせされた回転軸RA2を有する。第2のアーム部122は、第2のアーム部122の近位端PE2において第2の回転継手132に実装されて、第2のアーム部122が第2の回転継手132を中心としてz軸に名目上直交するxy面内で名目上移動するようになっている。様々な実施例において、第1及び第2の回転継手131及び132を中心とした第1及び第2のアーム部121及び122の角度位置(すなわちxy面内)をそれぞれ決定するため、位置センサSEN1及びSEN2(例えば回転エンコーダ)を利用することができる。 1 is a block diagram of a first exemplary embodiment of a robot system 100 including an articulated robot 110 and a supplemental metrology positioning system 150. The articulated robot 110 includes a movable arm configuration MAC and a robot movement control and processing system 140. In the example of FIG. 1, the movable arm configuration MAC includes first and second arm sections 121 and 122, first and second rotary joints 131 and 132 (e.g., included as part of the first and second movement mechanisms), position sensors SEN1 and SEN2, and an end tool configuration ETCN. The first arm section 121 is mounted to the first rotary joint 131 at a proximal end PE1 of the first arm section 121. A first rotary joint 131 (e.g., positioned at an upper end of the support base portion BSE) has an axis of rotation RA1 aligned along the z-axis direction, such that the first arm portion 121 moves nominally about the first rotary joint 131 in an x-y plane perpendicular to the z-axis. A second rotary joint 132 is positioned at a distal end DE1 of the first arm portion 121. The second rotary joint 132 has an axis of rotation RA2 aligned nominally along the z-axis direction. The second arm portion 122 is mounted to the second rotary joint 132 at a proximal end PE2 of the second arm portion 122, such that the second arm portion 122 moves nominally about the second rotary joint 132 in an x-y plane nominally perpendicular to the z-axis. In various embodiments, position sensors SEN1 and SEN2 (e.g., rotary encoders) can be utilized to determine the angular position (i.e., in the x-y plane) of the first and second arm portions 121 and 122 about the first and second rotary joints 131 and 132, respectively.
様々な実施例において、エンドツール構成ETCNは、Z移動機構133(例えば第3の移動機構の一部として含まれる)、Zアーム部ZARM(例えば第3のアーム部と示される)、位置センサSEN3、及び、エンドツールETLに結合するエンドツール結合部ETCP(例えばエンドツール実装構成ETMCの一部として含まれる)を含むことができる。様々な実施例において、エンドツールETLは、エンドツール検知部ETSNと、(例えばワークピースWPの表面に接触するための)接点CPを備えたエンドツールスタイラスETSTと、を含むことができる。Z移動機構133は、第2のアーム部122の遠位端DE2の近傍に位置付けられている。Z移動機構133(例えばリニアアクチュエータ)は、Zアーム部ZARMをz軸方向で上下に移動させるように構成されている。いくつかの実施例において、Zアーム部ZARMは、z軸方向に平行な軸を中心として回転するよう構成することも可能である。いずれの場合であっても、エンドツールETLは、エンドツール結合部ETCPに結合され、対応する座標(例えばx座標、y座標、及びz座標)を持つ対応するエンドツール位置ETPを有する。様々な実施例において、エンドツール位置ETPは、Zアーム部ZARMの遠位端DE3に対応するか又は遠位端DE3の近傍とすることができる(例えば、エンドツール結合部ETCPにあるか又はその近傍にある)。 In various embodiments, the end tool configuration ETCN can include a Z movement mechanism 133 (e.g., included as part of the third movement mechanism), a Z arm portion ZARM (e.g., shown as the third arm portion), a position sensor SEN3, and an end tool coupling portion ETCP (e.g., included as part of the end tool mounting configuration ETMC) coupled to the end tool ETL. In various embodiments, the end tool ETL can include an end tool sensing portion ETSN and an end tool stylus ETST having a contact point CP (e.g., for contacting the surface of the workpiece WP). The Z movement mechanism 133 is positioned near the distal end DE2 of the second arm portion 122. The Z movement mechanism 133 (e.g., a linear actuator) is configured to move the Z arm portion ZARM up and down in the z-axis direction. In some embodiments, the Z arm portion ZARM can also be configured to rotate about an axis parallel to the z-axis direction. In either case, the end tool ETL is coupled to the end tool interface ETCP and has a corresponding end tool position ETP with corresponding coordinates (e.g., x, y, and z coordinates). In various embodiments, the end tool position ETP can correspond to or be near the distal end DE3 of the Z-arm portion ZARM (e.g., at or near the end tool interface ETCP).
ロボットの移動制御システム140は、ロボット精度として規定された精度レベルでエンドツールETLのエンドツール位置ETPを制御するように構成されている。より具体的には、移動制御システム140は概して、少なくとも部分的に、位置センサSEN1及びSEN2を用いて第1及び第2の回転継手131及び132を中心とした第1及び第2のアーム部121及び122の角度位置(すなわちxy面内)をそれぞれ検知及び制御することに基づいて、エンドツール位置ETPの座標をロボット精度で制御するように構成されている。様々な実施例において、移動制御及び処理システム140は第1及び第2の回転継手制御及び検知部141及び142を含むことができ、これらは、第1及び第2のアーム部121及び122の角度位置を検知するため位置センサSEN1及びSEN2からそれぞれ信号を受信する、及び/又は第1及び第2のアーム部121及び122を回転させるため第1及び第2の回転継手131及び132における制御信号を(例えばモータ等に)提供できる。 The robot's motion control system 140 is configured to control the end tool position ETP of the end tool ETL with a level of precision defined as the robot precision. More specifically, the motion control system 140 is generally configured to control the coordinates of the end tool position ETP with the robot precision based, at least in part, on sensing and controlling the angular positions (i.e., in the x-y plane) of the first and second arm portions 121 and 122 about the first and second rotary joints 131 and 132, respectively, using position sensors SEN1 and SEN2. In various embodiments, the motion control and processing system 140 can include first and second rotary joint control and sensing units 141 and 142, which can receive signals from position sensors SEN1 and SEN2, respectively, to sense the angular position of the first and second arm units 121 and 122, and/or provide control signals (e.g., to motors, etc.) at the first and second rotary joints 131 and 132 to rotate the first and second arm units 121 and 122.
概して、ロボット精度は、ロボットの移動に関するいくつかの仮定に関連している(例えば、運動モデル及び/又は幾何学モデル等のモデル、及び/又はそれに対応したエンドツール位置の決定に用いられる計算に関連し得る)。例えば、ロボット精度に従ったエンドツール位置の決定は概ね、水平かつ直線的であると共に屈曲もねじれも無いと仮定される第1及び第2のアーム部121及び122の既知の長さと、各回転継手の各回転軸を中心とした、精密であると仮定される第1及び第2の回転継手131及び132を中心とした回転とに基づき得る。しかしながら、場合によっては、いくつかのアーム部が屈曲するか又はねじれることがあり、及び/又は回転継手の移動が各回転軸に対して垂直方向である可能性がある。例えば、第1及び第2のアーム部121及び122の遠位端DE1及びDE2に鉛直方向の変位又はたわみが生じることがあり(例えば、アーム部及び/又はエンドツール構成等の重量及び/又は異なる向きのため)、及び/又は、第1及び/又は第2の回転継手131及び132を中心とした回転中に望ましくない移動が生じることがある(例えば各回転軸に対して垂直方向の移動)。以下で詳述するように、本明細書に開示されている原理に従って、そのような望ましくない移動(例えば、アーム部の屈曲又はねじれ、回転軸に対して垂直方向の回転継手の移動等)を決定すること、測定すること、及び/又は他の方法で明らかにすることが可能である補足計測位置決定システムを使用することにより、エンドツール位置又は他のロボット移動/配置の決定における精度向上を達成できる。特定の用途(例えば、ワークピースの測定やワークピースの精密穴開け等、ロボットの測定及び制御動作のため)には、精度のわずかな改善であっても極めて望ましいことは認められよう。 Generally, robot precision is related to certain assumptions about the robot's movements (e.g., it may be related to models, such as kinematic models and/or geometric models, and/or the corresponding calculations used to determine the end tool position). For example, the determination of the end tool position according to robot precision may be based on the known lengths of the first and second arm portions 121 and 122, which are generally assumed to be horizontal and straight and without bending or twisting, and the rotations about the first and second rotary joints 131 and 132, which are assumed to be precise, about their respective axes of rotation. However, in some cases, some arm portions may bend or twist, and/or the movement of the rotary joints may be perpendicular to their respective axes of rotation. For example, the distal ends DE1 and DE2 of the first and second arm sections 121 and 122 may experience vertical displacement or deflection (e.g., due to weight and/or different orientations of the arm sections and/or end-tool configurations, etc.) and/or may experience undesired movement during rotation about the first and/or second rotary joints 131 and 132 (e.g., movement perpendicular to the respective axes of rotation). As described in more detail below, improved accuracy in determining end-tool position or other robot movements/configurations can be achieved through the use of a supplemental metrology and positioning system capable of determining, measuring, and/or otherwise accounting for such undesired movement (e.g., bending or twisting of the arm sections, movement of the rotary joints perpendicular to the axes of rotation, etc.) in accordance with the principles disclosed herein. It will be appreciated that even small improvements in accuracy may be highly desirable for certain applications (e.g., for robotic measurement and control operations, such as measuring workpieces or precision drilling of workpieces).
また、移動制御システム140は概して、少なくとも部分的に、Z移動機構133及び位置センサSEN3を用いてZアーム部ZARMの線形位置(すなわちz軸に沿っている)を検知及び制御することに基づいて、エンドツール位置ETPのz座標をロボット精度で制御するように構成されている。様々な実施例において、移動制御及び処理システム140はZアーム移動機構制御及び検知部143を含むことができ、これは、Zアーム部ZARMの線形位置を検知するため位置センサSEN3から信号を受信する、及び/又はZアーム部ZARMのz位置を制御するためZ移動機構133(例えばリニアアクチュエータ)に制御信号を提供することができる。以下で詳述するように、いくつかの実施例では、補足計測位置決定システム150は対応する位置センサ163を含むことができ、これは位置センサSEN3と同様の情報を提供すると共に同様に動作することができる(又は、例えば、位置センサSEN3と異なるように動作する及び/又は位置センサSEN3よりも高い精度のセンサであり得る)。いくつかの実施例において、補足計測位置決定システム150は対応する位置センサ163を含まない場合があり、代わりに、補足計測位置決定システム150に送信される位置センサSEN3からの検知データを利用できる。いくつかの実施例において、補足計測位置決定システム150は、エンドツール位置をより正確に決定するため、他の検知位置情報(例えば、アーム部121及び122及び/又は回転継手131及び132の相対位置に関する)を移動制御及び処理システム140に提供することができる。 Additionally, the motion control system 140 is generally configured to control the z-coordinate of the end tool position ETP with robotic precision based, at least in part, on sensing and controlling the linear position (i.e., along the z-axis) of the Z-arm portion ZARM using the Z-movement mechanism 133 and position sensor SEN3. In various embodiments, the motion control and processing system 140 can include a Z-arm movement mechanism control and sensing unit 143, which can receive signals from position sensor SEN3 to sense the linear position of the Z-arm portion ZARM and/or provide control signals to the Z-movement mechanism 133 (e.g., a linear actuator) to control the z-position of the Z-arm portion ZARM. As described in more detail below, in some embodiments, the supplemental metrology positioning system 150 can include a corresponding position sensor 163, which can provide similar information and operate similarly to position sensor SEN3 (or, for example, operate differently and/or be a sensor with higher precision than position sensor SEN3). In some embodiments, the supplemental metrology positioning system 150 may not include a corresponding position sensor 163, and instead may utilize sensed data from position sensor SEN3 transmitted to the supplemental metrology positioning system 150. In some embodiments, the supplemental metrology positioning system 150 may provide other sensed position information (e.g., regarding the relative positions of arm sections 121 and 122 and/or rotary joints 131 and 132) to the motion control and processing system 140 to more accurately determine the end tool position.
また、移動制御及び処理システム140及び/又は補足計測位置決定システム150は、エンドツール検知部ETSNから信号を受信することができる。様々な実施例において、エンドツール検知部ETSNは、ワークピースWPを検知するためのエンドツールETLの動作に関連した回路及び/又は構成を含み得る。以下で詳述するように、様々な実施例において、エンドツールETL(例えばタッチプローブ、スキャンプローブ、カメラ等)は、ワークピースWP上の表面ロケーション/位置/ポイントに接触するため又は他の方法でそれらを検知するために利用され、これに対応した様々な信号がエンドツール検知部ETSNによって受信、決定、及び/又は処理され、エンドツール検知部ETSNは対応する信号を移動制御及び処理システム140及び/又は補足計測位置決定システム150に提供することができる。様々な実施例において、移動制御及び処理システム140及び/又は補足計測位置決定システム150はエンドツール制御及び検知部144を含むことができ、これは、エンドツール検知部ETSNに制御信号を提供する及び/又はエンドツール検知部ETSNから検知信号を受信することができる。様々な実施例において、エンドツール制御及び検知部144とエンドツール検知部ETSNはマージされる及び/又は区別できない場合がある。様々な実施例において、第1及び第2の回転継手制御及び検知部141及び142、Z移動機構制御及び検知部143、並びにエンドツール制御及び検知部144は全て、ロボット位置処理部145に出力を提供する及び/又はロボット位置処理部145から制御信号を受信することができる。ロボット位置処理部145は、ロボット移動制御及び処理システム140の一部として、多関節ロボット110及び対応するエンドツール位置ETPの全体的な配置を制御及び/又は決定できる。様々な実施例において、多関節ロボット110は、追加的に又は代替的にエンドツール作業範囲ETWVと称されることがある指定された動作可能作業範囲(work volume)OPVを有することができ、ここでエンドツール(例えば接点CP)の少なくとも一部を移動させることができる(例えばワークピースの測定/検査等のため)。 Additionally, the motion control and processing system 140 and/or the supplemental metrology positioning system 150 can receive signals from the end tool sensing unit ETSN. In various embodiments, the end tool sensing unit ETSN can include circuitry and/or configurations related to the operation of the end tool ETL to sense the workpiece WP. As described in more detail below, in various embodiments, the end tool ETL (e.g., a touch probe, a scanning probe, a camera, etc.) can be utilized to contact or otherwise sense surface locations/positions/points on the workpiece WP, and various corresponding signals can be received, determined, and/or processed by the end tool sensing unit ETSN, which can provide corresponding signals to the motion control and processing system 140 and/or the supplemental metrology positioning system 150. In various embodiments, the motion control and processing system 140 and/or the supplemental metrology position determination system 150 can include an end tool control and sensing unit 144, which can provide control signals to and/or receive sensing signals from the end tool sensing unit ETSN. In various embodiments, the end tool control and sensing unit 144 and the end tool sensing unit ETSN can be merged and/or indistinguishable. In various embodiments, the first and second rotary joint control and sensing units 141 and 142, the Z movement mechanism control and sensing unit 143, and the end tool control and sensing unit 144 can all provide outputs to and/or receive control signals from a robot position processor 145. As part of the robot motion control and processing system 140, the robot position processor 145 can control and/or determine the overall position of the articulated robot 110 and a corresponding end tool position ETP. In various embodiments, the articulated robot 110 may have a designated operable work volume OPV, which may additionally or alternatively be referred to as the end tool work volume ETWV, within which at least a portion of the end tool (e.g., contact point CP) may be moved (e.g., for measuring/inspecting a workpiece, etc.).
図1の構成において、ロボット110は、エンドツール実装構成ETMCに実装されたエンドツールETLの少なくとも一部をエンドツール作業範囲ETWV内で少なくとも2次元で移動させるように、可動アーム構成MACを移動させるよう構成されている。移動制御システム140は、少なくとも部分的に、(例えばロボット110に含まれる1つ以上の位置センサを用いて)可動アーム構成MACの位置を検知及び制御することに基づいて、ロボット精度として規定された精度レベルでエンドツール位置ETPを制御するように構成されている。 In the configuration of FIG. 1, the robot 110 is configured to move the movable arm configuration MAC to move at least a portion of the end tool ETL mounted in the end tool mounting configuration ETMC in at least two dimensions within the end tool working volume ETWV. The movement control system 140 is configured to control the end tool position ETP with a level of precision defined as the robot precision based, at least in part, on sensing and controlling the position of the movable arm configuration MAC (e.g., using one or more position sensors included in the robot 110).
様々な実施例において、補足計測位置決定システム150は、多関節ロボット110と共に含めるか又は他の方法で多関節ロボット110に追加することができる(例えば、既存の多関節ロボット110に追加するための改造構成の一部として等)。一般に、補足計測位置決定システム150は、エンドツール位置ETPの決定における精度レベルの向上のために利用できる。より具体的には、以下で詳述するように、補足計測位置決定システム150を用いて、ロボット精度よりも良好な精度レベルでエンドツール位置ETPの計測位置座標を示す相対位置を決定し、これを用いて計測位置座標を決定することができる。 In various embodiments, the supplemental metrology positioning system 150 may be included with or otherwise added to the articulated robot 110 (e.g., as part of a retrofit configuration for addition to an existing articulated robot 110, etc.). Generally, the supplemental metrology positioning system 150 may be utilized to improve the level of accuracy in determining the end tool position ETP. More specifically, as described in more detail below, the supplemental metrology positioning system 150 may be used to determine a relative position indicative of a measurement position coordinate of the end tool position ETP at an accuracy level better than the robot accuracy, which may be used to determine the measurement position coordinate.
図1に示されているように、補足計測位置決定システム150は、カメラ161A、161B、162A、162B、センサ163、スケール171A、171B、172A、172B、及び計測位置座標処理部190を含むことができる。図1及び図2に示されているように(すなわち図2の構成については以下で詳述する)、カメラ/スケールは、それぞれ対応するスケール171A、171B、172A、172Bに向けられたカメラ161A、161B、162A、162Bを含む4つのカメラ/スケールセットとして構成されている。スケール171A及び172Aはロボット110の回転継手上にあり、スケール171B及び172Bはロボット110のアーム部上にある。カメラ161A、161B、162A、162B、並びにスケール171A、171B、172A、172Bの各々は、各結合位置CL1~CL8でロボット110に結合されている。より具体的には、カメラ161Aは、カメラ結合位置CL1で支持ベース部BSEに結合されている実装ブラケットBK1Aに結合されている。スケール171Aは、第1の回転継手131の回転軸RA1に対応する2Dスケール結合位置CL2で第1の回転継手131に結合されている。カメラ161Bは、カメラ結合位置CL3で第1のアーム部121に結合されている。スケール171Bは、第2の回転継手132に近接した2Dスケール結合位置CL4で第1のアーム部121に結合されている。カメラ162Aは、カメラ結合位置CL5で第1のアーム部121に結合されている実装ブラケットBK2Aに結合されている。スケール172Aは、第2の回転継手132の回転軸RA2に対応する2Dスケール結合位置CL6で第2の回転継手132に結合されている。カメラ162Bは、カメラ結合位置CL7で第2のアーム部122に結合されている。スケール172Bは、Zアーム部ZARMに近接した2Dスケール結合位置CL8で第2のアーム部122に結合されている。様々な実施例において、様々なコンポーネントの各々の結合は、1つ以上の結合コンポーネント、要素、機構、及び/又は技法(例えば締結要素、ボルト、クランプ、接着剤等)を用いて達成することができる。 As shown in FIG. 1, the supplemental measurement position determination system 150 can include cameras 161A, 161B, 162A, 162B, a sensor 163, scales 171A, 171B, 172A, 172B, and a measurement position coordinate processing unit 190. As shown in FIGS. 1 and 2 (i.e., the configuration of FIG. 2 is described in detail below), the cameras/scales are configured as four camera/scale sets including cameras 161A, 161B, 162A, 162B pointed at corresponding scales 171A, 171B, 172A, 172B, respectively. Scales 171A and 172A are located on the rotary joint of the robot 110, and scales 171B and 172B are located on the arm of the robot 110. The cameras 161A, 161B, 162A, and 162B and the scales 171A, 171B, 172A, and 172B are coupled to the robot 110 at respective coupling positions CL1 to CL8. More specifically, the camera 161A is coupled to a mounting bracket BK1A coupled to the support base unit BSE at a camera coupling position CL1. The scale 171A is coupled to the first rotary joint 131 at a 2D scale coupling position CL2 corresponding to the rotation axis RA1 of the first rotary joint 131. The camera 161B is coupled to the first arm unit 121 at a camera coupling position CL3. The scale 171B is coupled to the first arm unit 121 at a 2D scale coupling position CL4 adjacent to the second rotary joint 132. The camera 162A is coupled to a mounting bracket BK2A coupled to the first arm unit 121 at a camera coupling position CL5. Scale 172A is coupled to second rotary joint 132 at 2D scale coupling location CL6, which corresponds to rotation axis RA2 of second rotary joint 132. Camera 162B is coupled to second arm portion 122 at camera coupling location CL7. Scale 172B is coupled to second arm portion 122 at 2D scale coupling location CL8, which is proximate Z-arm portion ZARM. In various embodiments, coupling of each of the various components can be achieved using one or more coupling components, elements, mechanisms, and/or techniques (e.g., fasteners, bolts, clamps, adhesives, etc.).
図1及び図2に示されているように(すなわち図2の構成については以下で詳述する)、様々な実施例において、カメラ161Aは参照位置REF1を規定し、カメラ161Aの光軸OA1Aは第1の回転継手131の回転軸RA1と位置合わせされ、スケール171Aの要素はカメラ161Aによって撮像可能である。カメラ161Bは参照位置REF2を規定し、カメラ161Bの光軸OA1Bはスケール171Bの位置(例えば中央位置)と位置合わせされ、スケール171Bの要素はカメラ161Bによって撮像可能である。カメラ162Aは参照位置REF3を規定し、カメラ162Aの光軸OA2Aは第2の回転継手132の回転軸RA2と位置合わせされ、スケール172Aの要素はカメラ162Aによって撮像可能である。カメラ162Bは参照位置REF4を規定し、カメラ162Bの光軸OA2Bはスケール172Bの位置(例えば中央位置)と位置合わせされ、スケール172Bの要素はカメラ162Bによって撮像可能である。 1 and 2 (i.e., the configuration of FIG. 2 is described in more detail below), in various embodiments, camera 161A defines a reference position REF1, the optical axis OA1A of camera 161A is aligned with the rotation axis RA1 of the first rotary joint 131, and elements of scale 171A can be imaged by camera 161A. Camera 161B defines a reference position REF2, the optical axis OA1B of camera 161B is aligned with a position (e.g., a central position) of scale 171B, and elements of scale 171B can be imaged by camera 161B. Camera 162A defines a reference position REF3, the optical axis OA2A of camera 162A is aligned with the rotation axis RA2 of the second rotary joint 132, and elements of scale 172A can be imaged by camera 162A. Camera 162B defines a reference position REF4, the optical axis OA2B of camera 162B is aligned with the position (e.g., the central position) of scale 172B, and elements of scale 172B can be imaged by camera 162B.
4つのカメラ161A、161B、162A、及び162Bの各々は、撮像構成制御及び処理部(ICCPP)181A、181B、182A、及び182Bのそれぞれによって制御され、これら処理部にそれぞれ画像信号を提供する。トリガ部187は、いくつかの例において、カメラ161A、161B、162A、及び162Bの全てのトリガを調整して、(例えば、ある特定の時点でロボット110の端部のエンドツール位置を決定するため、その時点のロボット110の位置に対応した)画像を同時に取得することができる。(例えばZアーム部ZARMの位置を検知するため)位置センサ163が含まれる実施例では、これは、検知構成制御及び処理部(SCCPP)183によって制御され、この処理部に位置信号を提供することができる。いくつかの実施例では、位置データの収集及び/又は記録はトリガ部187からの信号によってトリガされる。 Each of the four cameras 161A, 161B, 162A, and 162B is controlled by a respective imaging configuration control and processor (ICCCP) 181A, 181B, 182A, and 182B and provides an image signal to the processor. In some examples, a trigger unit 187 can coordinate the triggering of all of the cameras 161A, 161B, 162A, and 162B to simultaneously acquire images (e.g., corresponding to the current position of the robot 110 at a particular time to determine the position of an end tool at the end of the robot 110 at that time). In embodiments where a position sensor 163 is included (e.g., to sense the position of the Z-arm unit ZARM), it can be controlled by the sensing configuration control and processor (SCCPP) 183 and provide a position signal to the processor. In some embodiments, the collection and/or recording of position data is triggered by a signal from the trigger unit 187.
様々な実施例において、2Dスケール171A、171B、172A、及び172Bの各々は、名目上平面状の基板SUBと、基板SUB上に分散した複数の撮像可能な要素とを含む。撮像可能なそれぞれの要素は、各2Dスケール上で既知の局所x及びyスケール座標に配置されている。様々な実施例において各2Dスケールは、図5から図7を参照して以下で詳述するように、インクリメンタルスケール又はアブソリュートスケールとすることができる。 In various embodiments, each of the 2D scales 171A, 171B, 172A, and 172B includes a nominally planar substrate SUB and a plurality of imageable elements distributed on the substrate SUB. Each imageable element is located at known local x and y scale coordinates on the respective 2D scale. In various embodiments, each 2D scale can be an incremental scale or an absolute scale, as described in more detail below with reference to Figures 5-7.
様々な実施例において、トリガ部187及び/又は計測位置座標処理部190は、外部制御システムECSの一部として(例えば外部コンピュータ等の一部として)含めることができる。トリガ部187は、撮像及び検知構成制御及び処理部180の一部として含めることができる。様々な実施例において、トリガ部187は、エンドツール位置ETPに関連した少なくとも1つの入力信号を入力し、この少なくとも1つの入力信号に基づいて第1のトリガ信号のタイミングを決定し、更に、この第1のトリガ信号をカメラ161A、161B、162A、及び162B並びに位置センサ163に出力するよう構成されている。様々な実施例において、カメラ161A、161B、162A、及び162Bの各々は、第1のトリガ信号の受信に応答して、画像取得時点で対応する2Dスケール171A、171B、172A、及び172Bのデジタル画像を取得するよう構成されている。様々な実施例において、計測位置座標処理部190は、取得された画像を入力し、2Dスケールの取得された各画像に含まれる少なくとも1つの撮像可能な要素及び関連する既知の各2Dスケール座標位置を識別するように構成されている。様々な実施例において外部制御システムECSは、対応するモードを実施するため、標準ロボット位置座標モード部147及び補足計測位置座標モード部192も含むことができる。これらについては以下で詳述する。 In various embodiments, the trigger unit 187 and/or the measurement position coordinate processing unit 190 can be included as part of the external control system ECS (e.g., as part of an external computer, etc.). The trigger unit 187 can be included as part of the imaging and detection configuration control and processing unit 180. In various embodiments, the trigger unit 187 is configured to receive at least one input signal related to the end tool position ETP, determine the timing of a first trigger signal based on the at least one input signal, and output the first trigger signal to the cameras 161A, 161B, 162A, and 162B and the position sensor 163. In various embodiments, in response to receiving the first trigger signal, each of the cameras 161A, 161B, 162A, and 162B is configured to acquire a digital image of the corresponding 2D scale 171A, 171B, 172A, and 172B at the time of image acquisition. In various embodiments, the measurement position coordinate processing unit 190 is configured to input the acquired images and identify at least one imagable element included in each acquired image at 2D scale and each associated known 2D scale coordinate location. In various embodiments, the external control system ECS can also include a standard robot position coordinate mode unit 147 and a supplemental measurement position coordinate mode unit 192 to implement corresponding modes, which are described in more detail below.
様々な実施例において、各撮像構成制御及び処理部181A、181B、182A、及び182Bは、対応するカメラ161A、161B、162A、及び162Bの画像積分を周期的に(例えば設定されたタイミング間隔で)活性化するコンポーネント(例えばサブ回路、ルーチン等)を含むことができ、第1のトリガ信号は、ストロボ光タイミング(例えば各カメラ161A、161B、162A、及び162Bはストロボ光を含み得る)、又は事実上動きを止めると共に対応して積分期間内の露光を決定する他の機構を活性化できる。このような実施例では、積分期間中に第1のトリガ信号が受信されない場合、得られる画像を破棄することができ、積分期間中に第1のトリガ信号が受信された場合、得られる画像をセーブする及び/又は他の方法で処理/解析して相対位置を決定することができる。これについては以下で詳述する。 In various embodiments, each imaging configuration control and processing unit 181A, 181B, 182A, and 182B can include a component (e.g., a subcircuit, routine, etc.) that periodically (e.g., at set timing intervals) activates image integration of the corresponding camera 161A, 161B, 162A, and 162B, and the first trigger signal can activate strobe light timing (e.g., each camera 161A, 161B, 162A, and 162B can include a strobe light) or other mechanism that effectively stops motion and correspondingly determines exposure within the integration period. In such embodiments, if the first trigger signal is not received during an integration period, the resulting image can be discarded; if the first trigger signal is received during an integration period, the resulting image can be saved and/or otherwise processed/analyzed to determine relative position, as described in more detail below.
様々な実施例では、異なるタイプのエンドツールETLがそれぞれ異なるタイプの出力を提供し、これらの出力をトリガ部187と関連して使用することができる。例えば、エンドツールETLが、ワークピースを測定するために使用されるタッチプローブであり、ワークピースに触れるとタッチ信号を出力する実施例では、トリガ部187は、そのタッチ信号又はそれから導出された信号を少なくとも1つの入力信号として入力し、それに基づいて第1の撮像トリガ信号のタイミングを決定するように構成できる。別の例として、エンドツールETLが、ワークピースを測定するために使用されるスキャンプローブであり、各サンプルタイミング信号に対応した各ワークピース測定サンプルデータを与える実施例では、トリガ部187は、その各サンプルタイミング信号又はそれから導出された信号を少なくとも1つの入力信号として入力するように構成できる。別の例として、エンドツールETLが、各ワークピース画像取得信号に対応した各ワークピース測定画像を与えるために使用されるカメラである実施例では、トリガ部187は、そのワークピース画像取得信号又はそれから導出された信号を少なくとも1つの入力信号として入力するように構成できる。 In various embodiments, different types of end tool ETLs provide different types of outputs, which can be used in conjunction with the trigger unit 187. For example, in an embodiment where the end tool ETL is a touch probe used to measure a workpiece and outputs a touch signal when it touches the workpiece, the trigger unit 187 can be configured to receive the touch signal or a signal derived therefrom as at least one input signal and determine the timing of the first imaging trigger signal based on the touch signal. As another example, in an embodiment where the end tool ETL is a scanning probe used to measure a workpiece and provides workpiece measurement sample data corresponding to each sample timing signal, the trigger unit 187 can be configured to receive the sample timing signal or a signal derived therefrom as at least one input signal. As another example, in an embodiment where the end tool ETL is a camera used to provide workpiece measurement images corresponding to each workpiece image acquisition signal, the trigger unit 187 can be configured to receive the workpiece image acquisition signal or a signal derived therefrom as at least one input signal.
図1の例示的な実施例において、補足計測位置決定システム150は、各2Dスケール171A、171B、172A、及び172Bと、対応するカメラ161A、161B、162A、及び162Bの対応する参照位置REF1、REF2、REF3、及びREF4との相対位置(例えば、スケールの向きや位置等を示し得る局所x及びyスケール座標を含む)を、(例えば取得した各画像内で識別された少なくとも1つの撮像可能要素の画像位置の決定に基づいて)計測位置座標処理部190が決定するように動作可能であるよう構成されている。決定された相対位置を用いて、画像取得時点におけるエンドツール位置ETPの計測位置座標を、ロボット精度よりも良好な精度レベルで決定できる。様々な実施例において、補足計測位置決定システム150は、決定された相対位置に少なくとも部分的に基づいて、画像取得時点におけるエンドツール位置ETPの計測位置座標を決定するように構成できる。 1, the supplemental metrology position determination system 150 is configured to operate such that the measurement position coordinate processor 190 determines (e.g., based on determining the image position of at least one imagable element identified in each acquired image) the relative position (e.g., including local x and y scale coordinates, which may indicate the scale's orientation, position, etc.) of each 2D scale 171A, 171B, 172A, and 172B to the corresponding reference position REF1, REF2, REF3, and REF4 of the corresponding camera 161A, 161B, 162A, and 162B. The determined relative positions can be used to determine the measurement position coordinates of the end tool position ETP at the time of image acquisition with a level of accuracy better than robot accuracy. In various embodiments, the supplemental metrology position determination system 150 can be configured to determine the measurement position coordinates of the end tool position ETP at the time of image acquisition based at least in part on the determined relative positions.
上述のように、ロボット精度は、モデル(例えば運動モデルや幾何学モデル等)、及び/又はそれに対応したエンドツール位置の決定に用いられる計算又は他のプロセスに関連し得る。このようなロボットプロセスに従って、エンドツール位置の決定は概ね、水平かつ直線的であると共に屈曲もねじれも無いと仮定される第1及び第2のアーム部121及び122の既知の長さと、各回転継手の各回転軸を中心とした、精密であると仮定される第1及び第2の回転継手131及び132を中心とした回転とに基づき得る。望ましくない移動(例えば、アーム部の屈曲又はねじれ、各回転軸に対して垂直方向の回転継手の移動等)が存在する場合は、エンドツール位置のロボット決定が不正確である可能性がある。本明細書に開示されている原理に従って、そのような望ましくない移動(例えば、アーム部の屈曲又はねじれ、回転軸に対して垂直方向の回転継手の移動等)を決定すること、測定すること、及び/又は他の方法で明らかにすることが可能である補足計測位置決定システム150を使用することにより、エンドツール位置及び/又は他のロボット移動/配置の決定の精度向上を達成できる。例えば、ロボットシステムによって仮定される例示的な運動モデル及び/又は幾何学モデル(例えば、指定された長さの直線ロボットアームと完璧な回転を用いる)に関して、このようなモデルに追加の測定情報を決定/追加することで、より正確な位置情報を決定できる。例えば、第1及び第2のアーム部121及び122の各々が直線状であると仮定するのではなく、カメラ/スケールの組み合わせ161B/171B(第1のアーム部121用)及び組み合わせ162B/172B(第2のアーム部122用)が、アーム部121及び122の屈曲やねじれ等を表す位置情報/測定値を提供することができる。同様に、回転継手131及び132の各々を中心とした回転移動が完璧であると仮定するのではなく、カメラ/スケールの組み合わせ161A/171A(第1の回転継手131用)及び組み合わせ162A/172A(第2の回転継手132用)が、各回転軸に対して垂直方向の回転継手移動を表す位置情報/測定値を提供できる(また、各2Dスケールのより標準的な角度向きを示す位置情報/測定値も高い精度レベルで提供する)。ロボットアームの位置及び/又は(例えば可動アーム構成MACの遠位端の)エンドツール位置等を決定するため、このような情報を(例えば運動モデル及び/又は幾何学モデルや計算等の一部として)含めることによって、精度レベルの向上を達成できる。 As discussed above, robotic accuracy may be related to the model (e.g., kinematic model, geometric model, etc.) and/or corresponding calculations or other processes used to determine the end tool position. In accordance with such robotic processes, the determination of the end tool position may be based on the known lengths of the first and second arm sections 121 and 122, which are assumed to be generally horizontal and straight, with no bending or twisting, and the rotations of the first and second rotary joints 131 and 132, which are assumed to be precise, about their respective axes of rotation. The presence of undesired motion (e.g., bending or twisting of the arm sections, movement of the rotary joints perpendicular to their respective axes of rotation, etc.) can lead to inaccurate robotic determination of the end tool position. In accordance with the principles disclosed herein, improved accuracy in the determination of the end tool position and/or other robotic movements/configurations can be achieved by using a supplemental metrology positioning system 150 that can determine, measure, and/or otherwise account for such undesired motion (e.g., bending or twisting of the arm sections, movement of the rotary joints perpendicular to their axes of rotation, etc.). For example, with respect to an exemplary kinematic and/or geometric model assumed by the robotic system (e.g., using a straight robot arm of a specified length and perfect rotation), additional measurements can be determined/added to such a model to determine more accurate position information. For example, rather than assuming that each of first and second arm portions 121 and 122 is straight, camera/scale combination 161B/171B (for first arm portion 121) and combination 162B/172B (for second arm portion 122) can provide position information/measurements representative of bending, twisting, etc. of arm portions 121 and 122. Similarly, rather than assuming perfect rotational movement about each of rotary joints 131 and 132, camera/scale combination 161A/171A (for first rotary joint 131) and combination 162A/172A (for second rotary joint 132) can provide position information/measurements representative of rotary joint movement perpendicular to each axis of rotation (as well as position information/measurements representative of more conventional angular orientations of each 2D scale, with a high level of accuracy). By including such information (e.g., as part of kinematic and/or geometric models, calculations, etc.) for determining the robot arm position and/or end tool position (e.g., at the distal end of the movable arm configuration MAC), etc., increased levels of accuracy can be achieved.
特定の実施例において、補足計測位置決定システム150は、(例えばエンドツール位置等の)決定の精度向上のため、(例えばロボット位置処理部145とは)比較的独立して動作することができる。他の実施例において、補足計測位置決定システム150は、決定の精度向上のため、(例えばロボット位置処理部145、及び/又はロボットの制御及び検知部もしくは他の部分、及び/又は他のシステムと)連携して動作することができる。例えば補足計測位置決定システム150は、(例えばエンドツール位置等を決定するため)決定した位置情報と組み合わせるため、その位置情報を補足するため、及び/又はその位置情報に追加するため、ロボットシステムから(例えばロボット位置処理部、又は制御及び検知部、又は他の部分から)特定の情報を受信できる。別の例として、補足計測位置決定システム150は、(例えばエンドツール位置等を決定するため)決定した位置情報と組み合わせるため、その位置情報を補足するため、及び/又はその位置情報に追加するため、特定の情報をロボットシステムに提供するか、又はロボット及び補足システムからの特定の位置情報を組み合わせることができる他のシステムに提供できる。 In certain embodiments, the supplemental metrology positioning system 150 can operate relatively independently (e.g., from the robot position processor 145) to improve the accuracy of its determinations (e.g., of end tool position, etc.). In other embodiments, the supplemental metrology positioning system 150 can operate in cooperation (e.g., with the robot position processor 145, and/or the control and sensing unit or other portions of the robot, and/or other systems) to improve the accuracy of its determinations. For example, the supplemental metrology positioning system 150 can receive specific information from the robot system (e.g., from the robot position processor, or the control and sensing unit, or other portions) to combine with, supplement, and/or add to determined position information (e.g., to determine end tool position, etc.). As another example, the supplemental metrology positioning system 150 can provide specific information to the robot system, or to other systems that can combine specific position information from the robot and supplemental systems, to combine with, supplement, and/or add to determined position information (e.g., to determine end tool position, etc.).
このようなシステムが種々の代替的なシステムよりも優れたいくつかの利点を有し得ることは認められよう。例えば様々な実施例において、本明細書に開示されるようなシステムは、ロボット移動/位置を追跡するためにレーザトラッカ又は写真測量法のような技術を利用する代替的なシステムに比べて、小型である及び/又は低費用である可能性があり、更に、いくつかの実施例では精度が高い可能性もある。また、開示されるシステムは、動作可能な作業範囲OPVのどの部分も占有したり覆い隠したりしないが、代替的なシステムは、ワークピースに作業及び/又は検査等が実行される可能性のあるエリア(例えば動作可能な作業範囲)内の地上もしくはステージ上もしくは他の場所に、スケール又は基準を含むことがある。更に、様々な実施例では、カメラ及びスケールの全てをロボットに結合することによって(例えば、アーム部及び回転継手のような可動アーム構成の移動部に結合されていることを含む)、ロボット環境における外部構造又は外部結合をカメラ又はスケールに提供する必要はない。 It will be appreciated that such a system may have several advantages over various alternative systems. For example, in various embodiments, a system as disclosed herein may be smaller and/or less expensive, and in some embodiments, more accurate, than alternative systems that utilize technologies such as laser trackers or photogrammetry to track robot movement/position. Also, while the disclosed system does not occupy or obscure any portion of the operable work volume OPV, alternative systems may include scales or fiducials on the ground, stage, or elsewhere within the area (e.g., the operable work volume) where operations and/or inspections, etc., may be performed on the workpiece. Furthermore, in various embodiments, by coupling all of the cameras and scales to the robot (e.g., including being coupled to moving parts of a movable arm configuration such as an arm section and rotary joint), no external structure or external couplings in the robot environment are required for the cameras or scales.
図2は、図1のロボットシステム100と実質的に同様のロボットシステム200の第2の例示的な実施例の等角投影図である。図2のいくつかの番号を付けたコンポーネント(例えば1XX又は2XX)は、図1の同一又は同様の番号を付けた対応するコンポーネント(例えば1XX)に相当する及び/又はそれらと同様の動作を有し、それらと同様又は同一であると理解することができ、そうでなければ類推によって及び以下で記載するように理解され得ることは認められよう。同様の及び/又は同一の設計及び/又は機能を有する要素を示すためのこの番号付けスキームは、以下で説明する他の図にも適用される。 Figure 2 is an isometric view of a second illustrative embodiment of a robotic system 200 substantially similar to the robotic system 100 of Figure 1. It will be appreciated that some numbered components (e.g., 1XX or 2XX) in Figure 2 correspond to and/or have similar operation as, can be understood to be similar or identical to, or otherwise understood by analogy and as described below, identically or similarly numbered corresponding components (e.g., 1XX) in Figure 1. This numbering scheme for indicating elements having similar and/or identical design and/or function also applies to the other figures described below.
図2の構成(すなわち図1の構成と同様)では、補足計測位置決定システム150は、カメラ161A、161B、162A、及び162Bを含み、これらの各々は、対応するスケール171A、171B、172A、及び172Bに向けられ、各アーム部121及び122、回転継手131及び132等に取り付けられている。様々な実施例において、多関節ロボットのコンポーネントの特定の移動、座標、及び角度に言及するため、異なる参照軸及び参照線を指定することがある。例えば、第1及び第2のアーム部121及び122には、各アーム部の中心を通る名目上水平の中心線CT1及びCT2をそれぞれ指定できる。 2 (i.e., similar to the configuration of FIG. 1), the supplemental metrology positioning system 150 includes cameras 161A, 161B, 162A, and 162B, each of which is aimed at a corresponding scale 171A, 171B, 172A, and 172B and is attached to each arm section 121 and 122, rotary joint 131 and 132, etc. In various embodiments, different reference axes and lines may be designated to refer to specific movements, coordinates, and angles of components of the articulated robot. For example, the first and second arm sections 121 and 122 may be designated with nominally horizontal centerlines CT1 and CT2, respectively, passing through the center of each arm section.
様々な実施例において、エンドツール構成ETCNは、第2のアーム部122の遠位端DE2の近傍で第2のアーム部122に結合することができ、第2のアーム部122の中心線CT2と名目上交差するエンドツールETLのエンドツール軸EAを有することを指定できる。エンドツール位置ETPは、座標X2、Y2、Z2を有することを指定できる。様々な実施例において、エンドツールETLは、座標X3、Y3、Z3を有することを指定できる接点CP(例えばワークピースに接触するためのエンドツールスタイラスETSTの端部の)を有し得る。エンドツールETLの接点CPがエンドツールの残り部分に対してx又はy方向に変動しない実施例では、X3及びY3座標は場合によってはそれぞれX2及びY2座標に名目上等しい可能性がある。アーム部121及び122の屈曲又はねじれを決定できる例では(すなわち本明細書に開示される原理に従って)、得られるモデル(例えば運動モデルや幾何学モデル等)は、X3及びY3座標がX2及びY2座標とは異なることを示し得ることは認められよう。例えば、屈曲又はねじれのあるアーム部はそれに応じてエンドツールETLの傾き等を発生させる可能性がある。座標X2及びY2等に対する座標X3及びY3のいっそう正確な指示を決定するため、屈曲/ねじれの量の測定/決定をモデルに含めることができる。 In various embodiments, the end tool configuration ETCN may be coupled to the second arm portion 122 near the distal end DE2 of the second arm portion 122 and may be specified to have an end tool axis EA of the end tool ETL that nominally intersects the centerline CT2 of the second arm portion 122. The end tool position ETP may be specified to have coordinates X2, Y2, and Z2. In various embodiments, the end tool ETL may have a contact point CP (e.g., at the end of the end tool stylus ETST for contacting the workpiece) that may be specified to have coordinates X3, Y3, and Z3. In embodiments in which the contact point CP of the end tool ETL does not move in the x or y directions relative to the rest of the end tool, the X3 and Y3 coordinates may in some cases be nominally equal to the X2 and Y2 coordinates, respectively. It will be appreciated that in instances where bending or twisting of arms 121 and 122 can be determined (i.e., in accordance with the principles disclosed herein), the resulting model (e.g., a kinematic model, a geometric model, etc.) may indicate that the X3 and Y3 coordinates are different from the X2 and Y2 coordinates. For example, a bending or twisting arm may correspondingly cause tilting of the end tool ETL, etc. The measurement/determination of the amount of bending/twisting can be included in the model to determine a more accurate indication of the coordinates X3 and Y3 relative to the coordinates X2 and Y2, etc.
1つの具体的な実施例では、各カメラ161A、161B、162A、及び162Bで取得された各画像を計測位置座標処理部190によって解析して、相対位置(例えば、各スケール171A、171B、172A、及び172Bの位置や向き等に対応する)を決定できる。このような決定は、(例えばスケールに対するカメラの位置や向き等を決定するための)標準的なカメラ/スケール画像処理技法に従って実行できる。このような技法の様々な例が、米国特許第6,781,694号、第6,937,349号、第5,798,947号、第6,222,940号、及び第6,640,008号に記載されている。これらの各々は援用により全体が本願に含まれる。様々な技法を用いて、スケール範囲内(例えば各2Dスケール171A、171B、172A、及び172B内)の視野の位置(例えばカメラの位置に対応する)を決定することができる。これについては図5から図7を参照して以下で詳述する。様々な実施例において、このような決定は、各2Dスケールの取得画像に含まれる少なくとも1つの撮像可能要素及びそれに関連した既知の2Dスケール座標位置を識別することを含み得る。このような決定は、各2Dスケール171A、171B、172A、及び172Bと、対応する参照位置REF1、REF2、REF3、及びREF4(例えば、対応するカメラ161A、161B、162A、及び162Bの位置に対応する及び/又はこれらの位置を示す)との相対位置を決定することに対応し得る。 In one specific example, each image captured by each camera 161A, 161B, 162A, and 162B can be analyzed by the measurement position coordinate processor 190 to determine the relative position (e.g., corresponding to the position, orientation, etc. of each scale 171A, 171B, 172A, and 172B). Such determination can be performed according to standard camera/scale image processing techniques (e.g., for determining the position, orientation, etc. of the camera relative to the scale). Various examples of such techniques are described in U.S. Patent Nos. 6,781,694; 6,937,349; 5,798,947; 6,222,940; and 6,640,008, each of which is incorporated herein by reference in its entirety. Various techniques can be used to determine the position of the field of view (e.g., corresponding to the camera's position) within the scale (e.g., within each 2D scale 171A, 171B, 172A, and 172B). This is described in more detail below with reference to Figures 5-7. In various embodiments, such determination may include identifying at least one imageable element included in the acquired image of each 2D scale and its associated known 2D scale coordinate location. Such determination may correspond to determining the relative position of each 2D scale 171A, 171B, 172A, and 172B with a corresponding reference position REF1, REF2, REF3, and REF4 (e.g., corresponding to and/or indicative of the position of the corresponding camera 161A, 161B, 162A, and 162B).
図3は、図1及び図2に示されているものと同様のロボットシステムの一部の上面図である。より具体的には、図3は、第1及び第2のアーム部121及び122、第1及び第2の回転継手131及び132、並びにスケール171A及び172Aの上面図を示す。スケール171Aは第1の回転継手131上にある2Dスケール結合位置で結合され、スケール172Aは第2の回転継手132上にある2Dスケール結合位置で結合されている。回転継手131の回転中の回転軸RA1に対して垂直方向の移動により、スケール171Aの相対位置が変化し(例えば局所カメラ座標系のx軸及び/又はy軸方向に)、回転継手132の回転中の回転軸RA2に対して垂直方向の移動により、スケール172Aの相対位置が変化する(例えば局所カメラ座標系のx軸及び/又はy軸方向に)。上述したように、カメラ161A及び162Aは、それぞれスケール171A及び172Aの画像を取得できるように配置されている。これらの画像に基づいて、計測位置座標処理部190は、スケール171A及び172Aの各角度向きを決定し、更に、スケール171A及び172Aの相対位置も決定する(例えば局所カメラ座標系のx軸及びy軸座標で決定され、上述のようにカメラによって規定できる参照位置REFを基準とすることができる)。計測位置座標処理部190はこれを用いて、各回転軸RA1及びRA2に対して垂直方向の望ましくない移動が存在する場合はこれを検出する。様々な実施例において、計測位置座標処理部190は、スケール171A及び172Aの決定した相対位置を用いて、第1及び第2の回転継手131及び132のいわゆる「ふらつき」、「揺れ動き」、又は他の移動を検出できる。このような移動は、標準的なロボットエンコーダでは通常は検出されたり明らかにされたりしないので、ロボットアーム端部のエンドツール位置を決定することに関して測定誤差を発生させるものである。 FIG. 3 is a top view of a portion of a robot system similar to that shown in FIGS. 1 and 2. More specifically, FIG. 3 shows a top view of first and second arm sections 121 and 122, first and second rotary joints 131 and 132, and scales 171A and 172A. Scale 171A is coupled at a 2D scale coupling location on first rotary joint 131, and scale 172A is coupled at a 2D scale coupling location on second rotary joint 132. Movement of rotary joint 131 perpendicular to rotation axis RA1 during rotation changes the relative position of scale 171A (e.g., along the x- and/or y-axes of the local camera coordinate system), and movement of rotary joint 132 perpendicular to rotation axis RA2 during rotation changes the relative position of scale 172A (e.g., along the x- and/or y-axes of the local camera coordinate system). As described above, cameras 161A and 162A are positioned to capture images of scales 171A and 172A, respectively. Based on these images, measurement position coordinate processor 190 determines the angular orientations of scales 171A and 172A, as well as the relative positions of scales 171A and 172A (e.g., determined in x- and y-axis coordinates in a local camera coordinate system, which may be referenced to a reference position REF that may be defined by the cameras as described above). Measurement position coordinate processor 190 uses this to detect any undesirable movement perpendicular to rotation axes RA1 and RA2. In various embodiments, measurement position coordinate processor 190 can use the determined relative positions of scales 171A and 172A to detect so-called "wobble," "rocking," or other movement of first and second rotary joints 131 and 132. Such movement would not typically be detected or revealed by standard robot encoders, thereby introducing measurement errors into determining the end tool position at the end of the robot arm.
様々な実施例において、補足計測位置決定システム150は、ロボットエンコーダから第1及び第2の回転継手131及び132の回転情報を取得しないので「自己完結型(self-contained)」である。その代わり補足計測位置決定システム150は、スケール171A及び172Aの画像を取得し、第1及び第2の回転継手131及び132の回転情報(例えば角度向き)を決定する。また、補足計測位置決定システム150は、第1及び第2の回転継手131及び132の相対位置/変位も決定する。様々な実施例において、補足計測位置決定システム150によって決定される第1及び第2の回転継手131及び132の回転情報(例えば角度向き)は通常、それらの回転継手に含まれるロボットエンコーダによって決定される第1及び第2の回転継手131及び132の角度向きよりも精度が高い可能性がある。 In various embodiments, the supplemental metrology positioning system 150 is "self-contained" because it does not obtain rotational information of the first and second rotary joints 131 and 132 from robot encoders. Instead, the supplemental metrology positioning system 150 obtains images of the scales 171A and 172A and determines rotational information (e.g., angular orientation) of the first and second rotary joints 131 and 132. The supplemental metrology positioning system 150 also determines the relative position/displacement of the first and second rotary joints 131 and 132. In various embodiments, the rotational information (e.g., angular orientation) of the first and second rotary joints 131 and 132 determined by the supplemental metrology positioning system 150 may typically be more accurate than the angular orientations of the first and second rotary joints 131 and 132 determined by the robot encoders included in those rotary joints.
図4は、図1及び図2に示されているものと同様のロボットシステムの一部の側面図である。より具体的には、図4は、第1のアーム部121、カメラ161B、及びスケール171Bの側面図を示す。図4には示されていないが、スケール171Bは、第2のアーム部122(例えば図2を参照のこと)に結合されている第2の回転継手132の近くに配置されている。第1のアーム部121、第2のアーム部122、及び/又は第2のアーム部122に結合されたエンドツール、及び/又は他の要素は、図4に破線で示されているように第1のアーム部121の屈曲又はねじれを発生させるのに充分な重さであり得る。このような屈曲又はねじれによってスケール171Bの相対位置が変化し、スケール171Bの下部が予想位置P1から屈曲位置P2へ移動し得る。カメラ161Bに対するスケール171Bの移動に従って、対応する移動/位置変化量D12を検出/測定することができる。より具体的には、アーム121が図示のように屈曲した場合、カメラ161Bの視野にはスケール171Bの異なる部分が示され(例えば、図示の向きではスケール171Bの上部に近付いた部分)、その画像を解析することで、スケール171Bの位置と対応する第1のアーム部121の屈曲量を決定できる(例えば、少なくとも部分的に、異なる画像内のスケールの1つ以上の撮像可能要素の異なる位置の決定等に基づく)。 FIG. 4 is a side view of a portion of a robotic system similar to that shown in FIGS. 1 and 2. More specifically, FIG. 4 shows a side view of the first arm portion 121, the camera 161B, and the scale 171B. Although not shown in FIG. 4, the scale 171B is positioned near the second rotary joint 132 coupled to the second arm portion 122 (see, e.g., FIG. 2). The first arm portion 121, the second arm portion 122, and/or an end tool and/or other element coupled to the second arm portion 122 may be heavy enough to cause bending or twisting of the first arm portion 121, as shown by the dashed lines in FIG. 4. Such bending or twisting may change the relative position of the scale 171B, causing the lower portion of the scale 171B to move from an expected position P1 to a bent position P2. As the scale 171B moves relative to the camera 161B, a corresponding amount of movement/position change D12 can be detected/measured. More specifically, when arm 121 is bent as shown, the field of view of camera 161B shows a different portion of scale 171B (e.g., a portion closer to the top of scale 171B in the orientation shown), and by analyzing the images, the amount of bending of first arm portion 121 corresponding to the position of scale 171B can be determined (e.g., based at least in part on determining different positions of one or more imagable elements of the scale in the different images).
図5は、インクリメンタルスケール2Dスケール171/172の例示的な実施例の図であり、図6は、インクリメンタル2Dスケール171’/172’の例示的な実施例の等角投影図であり、図7は、アブソリュート2Dスケール171’’/172’’の例示的な実施例である。様々な実施例において、2Dスケール171/172、171’/172’、又は171’’/172’’のいずれも、図1及び図2の2Dスケール171A、171B、172A、及び172Bのいずれか、及び/又は図8及び図9の2Dスケール871A、871B、872A、872B、873A、873B、及び874Aのいずれかに使用されるか又はこれらを表し得る。これについては以下で詳述する。 FIG. 5 is a diagram of an exemplary embodiment of incremental 2D scale 171/172, FIG. 6 is an isometric view of an exemplary embodiment of incremental 2D scale 171'/172', and FIG. 7 is an exemplary embodiment of absolute 2D scale 171"/172". In various embodiments, any of 2D scales 171/172, 171'/172', or 171"/172" may be used for or represent any of 2D scales 171A, 171B, 172A, and 172B in FIGS. 1 and 2, and/or any of 2D scales 871A, 871B, 872A, 872B, 873A, 873B, and 874A in FIGS. 8 and 9, as described in more detail below.
図5に示されているように、インクリメンタル2Dスケール171/172は、平面状基板SUB上に分散している均等に離隔したインクリメンタル撮像可能要素IIFのアレイを含む。様々な実施例において、インクリメンタル2Dスケール171/172は、指定された周期性(例えば100ミクロンよりも小さいので、x軸及びy軸の各々に沿ったインクリメンタル撮像可能要素IIF間の周期的間隔はそれぞれ100ミクロン未満であり得る。これについては図6を参照して以下で詳述する)を有し得る。1つの具体的な実施例において、2Dスケール171/172は、スケール座標X0、Y0、Z0に参照位置(例えば原点位置)を有することを指定できる。これについては図6の例を参照して以下で詳述する。 As shown in FIG. 5, the incremental 2D scale 171/172 includes an array of evenly spaced incremental imageable elements IIF distributed on a planar substrate SUB. In various embodiments, the incremental 2D scale 171/172 may have a specified periodicity (e.g., less than 100 microns, such that the periodic spacing between the incremental imageable elements IIF along each of the x-axis and y-axis may be less than 100 microns, as described in more detail below with reference to FIG. 6). In one specific embodiment, the 2D scale 171/172 may be specified to have a reference position (e.g., an origin position) at scale coordinates X0, Y0, and Z0, as described in more detail below with reference to the example of FIG. 6.
図6は、インクリメンタル2Dスケール171’/172’の例示的な実施例の等角投影図である。図6に示されているように、インクリメンタル2Dスケール171’/172’は、平面状基板SUB上に分散している均等に離隔したインクリメンタル撮像可能要素IIFのアレイを含む。様々な実施例において、インクリメンタル2Dスケール171’/172’は、100ミクロンよりも小さい周期性を有し得る(例えば、x軸及びy軸のそれぞれに沿ったインクリメンタル撮像可能要素IIF間の周期的間隔XSP1及びYSP1はそれぞれ100ミクロン未満であり得る)。様々な実施例において、インクリメンタル2Dスケール171’/172’を用いて決定される位置情報は、少なくとも10ミクロンの精度を有し得る。特定の実施例では約100ミクロンであり得るロボット精度に比べ、このような2Dスケールを用いて決定される精度はロボット精度の少なくとも10倍であり得る。1つの具体的な実施例では、インクリメンタル2Dスケール171’/172’は更に高い約10ミクロンの周期性を有することも可能であり、各カメラの倍率が約1であり内挿が10倍で実行される場合、約1ミクロンの精度を達成できる。 FIG. 6 is an isometric view of an exemplary embodiment of the incremental 2D scale 171'/172'. As shown in FIG. 6, the incremental 2D scale 171'/172' includes an array of evenly spaced incremental imageable elements IIF distributed on a planar substrate SUB. In various embodiments, the incremental 2D scale 171'/172' may have a periodicity of less than 100 microns (e.g., the periodic spacings XSP1 and YSP1 between the incremental imageable elements IIF along the x-axis and y-axis, respectively, may each be less than 100 microns). In various embodiments, position information determined using the incremental 2D scale 171'/172' may have an accuracy of at least 10 microns. Compared to the robot accuracy, which may be approximately 100 microns in certain embodiments, the accuracy determined using such a 2D scale may be at least 10 times the robot accuracy. In one specific embodiment, the incremental 2D scales 171'/172' can have an even higher periodicity of about 10 microns, achieving an accuracy of about 1 micron when the magnification of each camera is about 1 and interpolation is performed at 10x.
様々な実施例において、インクリメンタル2Dスケール171’/172’内の各カメラ(例えばカメラ161A、161B等)の視野FOVの位置は、2Dスケール171’/172’と対応する参照位置(例えば参照位置REF1、REF2等)との相対位置の指示を与えることができる。様々な実施例において、各カメラ(例えばカメラ161A、161B等)をインクリメンタル2Dスケール171’/172’と組み合わせて、カメラ/スケール画像処理構成の一部として利用できる。例えば計測位置座標処理部190は、取得された画像(例えば各カメラ及び参照位置に対する2Dスケール171’/172’の位置や向き等を示し得る)内の2Dスケール171’/172’の部分及び向きによって示される(例えばインクリメンタル撮像可能要素IIFの1つ以上の位置及び向きに従った)インクリメンタル2Dスケール171’/172’内の視野FOVの位置に基づいて、更に、カメラ/スケール画像処理技法の技術において既知のように(例えば上述のように本願に含まれる引例に記載されているように)、2Dスケール171’/172’と対応する参照位置(例えば対応するカメラ161Aの位置に対応する及び/又はこの位置を示す参照位置REF1)との相対増分位置を決定できる。様々な実施例において、インクリメンタル2Dスケール171’/172’は、視野FOVに対して様々なサイズとすることができる(例えば、インクリメンタル2Dスケール171’/172’をFOVよりも大きくして、2Dスケールが各カメラに対して移動した場合でもキャプチャされる画像が2Dスケールの一部に含まれるようにする。2Dスケールは、視野FOVの少なくとも2倍、4倍等とすればよい)。 In various embodiments, the position of the field of view FOV of each camera (e.g., cameras 161A, 161B, etc.) within the incremental 2D scale 171'/172' can provide an indication of the relative position of the 2D scale 171'/172' with a corresponding reference position (e.g., reference position REF1, REF2, etc.). In various embodiments, each camera (e.g., cameras 161A, 161B, etc.) can be combined with the incremental 2D scale 171'/172' and used as part of a camera/scale image processing configuration. For example, the measurement position coordinate processing unit 190 can further determine the relative incremental position of the 2D scale 171'/172' and the corresponding reference position (e.g., reference position REF1 corresponding to and/or indicating the position of the corresponding camera 161A) based on the position of the field of view FOV within the incremental 2D scale 171'/172' (e.g., according to one or more positions and orientations of the incremental imageable elements IIF) indicated by the portion and orientation of the 2D scale 171'/172' in the acquired image (which may indicate, for example, the position and orientation of the 2D scale 171'/172' relative to each camera and reference position), as is known in the art of camera/scale image processing techniques (e.g., as described in the references incorporated herein as mentioned above). In various embodiments, the incremental 2D scales 171'/172' can be various sizes relative to the field of view FOV (e.g., the incremental 2D scales 171'/172' can be larger than the FOV so that as the 2D scales move relative to each camera, the captured image is included as part of the 2D scale; the 2D scales can be at least 2x, 4x, etc., the field of view FOV).
様々な実施例において、2Dスケール171’/172’で示される増分位置を、他の2Dスケール、他のセンサ、及び/又は多関節ロボット110からの位置情報と組み合わせて、(例えばエンドツールの)比較的精密な及び/又は絶対的な位置を決定することができる。例えば、多関節ロボット110のセンサSEN1及びSEN2(例えば回転エンコーダ)はエンドツール位置ETPをロボット精度で示すことができ、2Dスケール171’/172’(例えば2Dスケール171A、171B、172A、及び172B)によって示される増分位置を用いて、ロボット精度よりも高い精度を有するようにエンドツール位置ETPを決定する及び/又は決定されたエンドツール位置ETPを更に改善することができる。1つのそのような実施例において、計測位置座標処理部190は、各2Dスケール171’/172’の取得された画像に含まれる1つ以上のインクリメンタル撮像可能要素IIFを識別すると共に、取得された画像内の1つ以上のインクリメンタル撮像可能要素IIFの画像位置を決定するように構成できる。 In various embodiments, the incremental positions indicated by 2D scales 171'/172' can be combined with other 2D scales, other sensors, and/or position information from articulated robot 110 to determine a relatively precise and/or absolute position (e.g., of the end tool). For example, sensors SEN1 and SEN2 (e.g., rotary encoders) on articulated robot 110 can indicate end tool position ETP with robot precision, and the incremental positions indicated by 2D scales 171'/172' (e.g., 2D scales 171A, 171B, 172A, and 172B) can be used to determine end tool position ETP with precision greater than the robot precision and/or to further refine the determined end tool position ETP. In one such embodiment, the measurement position coordinate processing unit 190 can be configured to identify one or more incrementally imageable elements IIF included in the acquired images of each 2D scale 171'/172' and determine the image positions of the one or more incrementally imageable elements IIF within the acquired images.
図2を参照して上述したように、1つの具体的な実施例では、局所スケール座標系に従って(例えば、対応する局所カメラ座標系に関連付けることができ、ロボット座標系とは異なるが、様々な座標系間で変換を行うことも可能である)、2Dスケール171’/172’は、X0、Y0、Z0に参照位置(例えば原点位置)を有することを指定できる(例えば原点位置は0、0、0の値を有し得る)。このような構成において、参照位置REF1(例えば参照位置REF1)は相対座標X1、Y1、Z1に存在し、これに対応する視野FOV(例えば取得された画像内でキャプチャされる)の中心は相対座標X1、Y1、Z0に存在し得る。様々な実施例において、スケール座標系では、2Dスケール上の全ての座標はZ0のZ位置を有し、対応する参照位置(例えばカメラ161Aの位置に対応する及び/又はこの位置を示し得る参照位置REF1)は、2Dスケールに対して異なる相対Z位置を有し、対応するZ位置はZ1である。様々な実施例において、座標X1、Y1の視野FOVの中心は、各カメラ(例えばカメラ161A)の光軸(例えば光軸OA1)に沿っており、いくつかの構成では2Dスケールに名目上直交すると仮定することができる。参照位置REF1も光軸に沿っているので、視野FOVの中心と同じXY座標X1、Y1を有し得る。 As described above with reference to FIG. 2, in one specific embodiment, according to a local scale coordinate system (e.g., which may be related to a corresponding local camera coordinate system and is different from the robot coordinate system, although conversions between various coordinate systems are possible), the 2D scale 171'/172' can be specified to have a reference position (e.g., an origin position) at X0, Y0, Z0 (e.g., the origin position can have values of 0, 0, 0). In such a configuration, the reference position REF1 (e.g., reference position REF1) can exist at relative coordinates X1, Y1, Z1, and the corresponding center of the field of view FOV (e.g., captured in the acquired image) can exist at relative coordinates X1, Y1, Z0. In various embodiments, in the scale coordinate system, all coordinates on the 2D scale have a Z position of Z0, and the corresponding reference position (e.g., reference position REF1, which can correspond to and/or indicate the position of camera 161A) has a different relative Z position with respect to the 2D scale, the corresponding Z position being Z1. In various embodiments, the center of the field of view FOV, at coordinates X1, Y1, is along the optical axis (e.g., optical axis OA1) of each camera (e.g., camera 161A), which in some configurations can be assumed to be nominally orthogonal to the 2D scale. The reference position REF1 is also along the optical axis and may have the same XY coordinates X1, Y1 as the center of the field of view FOV.
動作中、取得された画像を計測位置座標処理部190によって解析して、各カメラの視野FOVの中心に対応するX1、Y1座標を決定することができる。様々な実施例において、このような決定は、スケール範囲内(例えば2Dスケール171’/172’内)の視野の位置(例えばカメラの位置に対応している)を決定するための標準的なカメラ/スケール画像処理技法に従って実行できる。標準的なカメラ/スケール画像処理技法に従って、そのような決定を行うために、参照位置/原点位置X0、Y0、Z0が視野FOV内にある必要はないことは認められよう(すなわち、相対位置は、均等に離隔したインクリメンタル撮像可能要素IIFを含むスケール要素によって部分的に与えられる、2Dスケール171’/172’に沿った任意の位置のスケール情報から決定できる)。様々な実施例において、このような決定は、2Dスケールの取得された画像内に含まれる少なくとも1つの撮像可能要素、及びそれに関連する既知の2Dスケール座標位置を識別することを含み得る。このような決定は、対応する参照位置(例えば参照位置REF1、REF2等)に対する2Dスケール171’/172’の相対位置を決定することに対応し得る。 During operation, the acquired images can be analyzed by the measurement position coordinate processor 190 to determine the X1, Y1 coordinates corresponding to the center of each camera's field of view (FOV). In various embodiments, such determination can be performed according to standard camera/scale image processing techniques for determining the position of the field of view (e.g., corresponding to the camera position) within the scale (e.g., within the 2D scale 171'/172'). It will be appreciated that, in accordance with standard camera/scale image processing techniques, the reference/origin positions X0, Y0, Z0 need not be within the field of view (FOV) to make such a determination (i.e., the relative position can be determined from scale information for any position along the 2D scale 171'/172', provided in part by scale elements including evenly spaced incremental imageable elements IIF). In various embodiments, such determination can include identifying at least one imageable element included within the acquired images of the 2D scale and its associated known 2D scale coordinate location. Such determination may correspond to determining the relative position of the 2D scale 171'/172' with respect to a corresponding reference position (e.g., reference position REF1, REF2, etc.).
上述のように、一度2Dスケールの各々の相対位置が決定されたら、このような情報を他の位置決定及び/又は制御プロセスのため(例えば、エンドツール位置ETP等の決定及び/又は制御のため)に使用できる。上述のように、いくつかの実施例では、2Dスケールの各々の相対位置は、最初は局所座標系(例えばスケール及び/又はカメラ座標系等)で表現/決定され、次いで、ロボット座標系に関して変換又は他の処理を行うことができる。エンドツール位置ETPは、ロボット座標系及び/又は他の座標系に従って決定及び/又は制御することができる。 As described above, once the relative position of each of the 2D scales is determined, such information can be used for other position determination and/or control processes (e.g., for determining and/or controlling the end tool position ETP, etc.). As described above, in some embodiments, the relative position of each of the 2D scales can be initially expressed/determined in a local coordinate system (e.g., scale and/or camera coordinate system, etc.) and then transformed or otherwise processed with respect to the robot coordinate system. The end tool position ETP can be determined and/or controlled according to the robot coordinate system and/or other coordinate systems.
図7は、アブソリュート2Dスケール171’’/172’’の例示的な実施例の等角投影図である。図7の例では、インクリメンタル2Dスケール171’/172’と同様、アブソリュート2Dスケール171’’/172’’は、均等に離隔したインクリメンタル撮像可能要素IIFのアレイを含み、更に、一意の識別可能パターン(例えば16ビットパターン)を有するアブソリュート撮像可能要素AIFのセットも含む。動作中、アブソリュート2Dスケール171’’/172’’内の視野FOV(すなわちキャプチャした画像に含まれる)の位置は、2Dスケール171’’/172’’と対応する参照位置(例えば対応するカメラ161Aの位置に対応する及び/又はその位置を示す参照位置REF1)との間の絶対的な位置の指示を与える。図7の実施例において、アブソリュート撮像可能要素AIFのセットは、各カメラの視野FOVの直径方向の距離に対応する距離よりも小さい距離だけ(例えば間隔XSP2及びYSP2で)離隔するように基板SUB上に分散している(すなわち、常に少なくとも1つのアブソリュート撮像可能要素AIFが視野内に含まれるようになっている)。動作中、計測位置座標処理部190は、2Dスケール171’’/172’’の絶対的な相対位置(例えば、各カメラ及び参照位置等に対する2Dスケール171’’/172’’の相対位置や向き等に対応するか又は他の手法でこれを示す)を決定するためのプロセスの一部として、各アブソリュート撮像可能要素AIFの一意の識別可能パターンに基づき、2Dスケール171’’/172’’の取得された画像に含まれる少なくとも1つのアブソリュート撮像可能要素AIFを識別するように構成されている。 Figure 7 is an isometric view of an exemplary embodiment of absolute 2D scale 171"/172". In the example of Figure 7, like incremental 2D scale 171"/172", absolute 2D scale 171"/172" includes an array of evenly spaced incremental imageable elements IIF and also includes a set of absolute imageable elements AIF having a unique identifiable pattern (e.g., a 16-bit pattern). During operation, the position of the field of view FOV (i.e., contained in a captured image) within absolute 2D scale 171"/172" provides an indication of the absolute position between 2D scale 171"/172" and a corresponding reference position (e.g., reference position REF1 corresponding to and/or indicating the position of corresponding camera 161A). In the embodiment of FIG. 7 , the set of absolute imagable elements AIF are distributed on the substrate SUB at distances (e.g., intervals XSP2 and YSP2) that are less than the distance corresponding to the diameter of the field of view FOV of each camera (i.e., such that at least one absolute imagable element AIF is always included within the field of view). In operation, the measurement position coordinate processing unit 190 is configured to identify at least one absolute imagable element AIF included in an acquired image of the 2D scale 171"/172" based on the unique identifiable pattern of each absolute imagable element AIF, as part of a process for determining the absolute relative position of the 2D scale 171"/172" (e.g., corresponding to or otherwise indicating the relative position or orientation of the 2D scale 171"/172" with respect to each camera, a reference position, etc.).
アブソリュート撮像可能要素AIFを用いて比較的精密な絶対位置を決定する具体例は、以下の通りである。図7に示されているように、取得された画像は、視野FOVの中心が多数のインクリメンタル撮像可能要素IIFの中央にあることを示し得る。含まれる2つのアブソリュート撮像可能要素AIFからの位置情報は、この画像が2Dスケール171’’/172’’のどのセクションを含むかを示すので、含まれる2Dスケールのインクリメンタル撮像可能要素IIFも識別することができる。従って、取得された画像を計測位置座標処理部190によって解析することで、2Dスケールのそのセクション(すなわち2つのアブソリュート撮像可能要素及び複数のインクリメンタル撮像可能要素IIFを含む)内のどこに視野の中心(すなわち座標X1、Y1、Z0)があるかを精密に決定できる。 A specific example of using absolute imagable elements AIF to determine relatively precise absolute positions is as follows. As shown in FIG. 7, an acquired image may show that the center of the field of view FOV is at the center of multiple incremental imagable elements IIF. Position information from the two included absolute imagable elements AIF indicates which section of the 2D scale 171"/172" the image includes, and therefore the included incremental imagable elements IIF of the 2D scale can also be identified. Therefore, by analyzing the acquired image using the measurement position coordinate processing unit 190, it is possible to precisely determine where the center of the field of view (i.e., coordinates X1, Y1, Z0) is within that section of the 2D scale (i.e., including the two absolute imagable elements and multiple incremental imagable elements IIF).
図8は、ロボット810及び補足計測位置決定システム850を含むロボットシステム800の第3の例示的な実施例のブロック図である。ロボット810(例えば多関節ロボット)は、可動アーム構成MAC’及びロボット移動制御及び処理システム840を含む。補足計測位置決定システム850は、少なくとも、カメラ862A、862B、863A、863B、及び864A、スケール872A、872B、873A、873B、及び874A、並びに計測位置座標処理部890を含むことができる。 Figure 8 is a block diagram of a third exemplary embodiment of a robot system 800 including a robot 810 and a supplemental measurement position determination system 850. The robot 810 (e.g., an articulated robot) includes a movable arm configuration MAC' and a robot movement control and processing system 840. The supplemental measurement position determination system 850 may include at least cameras 862A, 862B, 863A, 863B, and 864A, scales 872A, 872B, 873A, 873B, and 874A, and a measurement position coordinate processing unit 890.
図8の構成において、可動アーム構成MAC’は、下方支持ベース部BSE’、アーム部821~825、移動機構831~835、位置センサSEN1’~SEN5’、及びエンドツール実装構成ETMC’を含む。以下で更に詳しく記載し、また図9にも示すように、アーム部821~825の各々はそれぞれ近位端PE1~PE5及び遠位端DE1~DE5を有し得る。様々な実施例において、アーム部821~825のいくつか又は全ては、各アーム部821~825の各近位端PE1~PE5において各移動機構831~835に実装することができる。図8の例において、移動機構831~835(例えば、対応するモータを備えた回転継手及び/又はリニアアクチュエータ等)のいくつか又は全ては、各アーム部821~825の(例えば各回転軸RA1’~RA5’を中心とした、又はこれらの各軸に沿った)移動(例えば回転や線形移動等)を可能とする。様々な実施例において、位置センサSEN1’~SEN5’(例えば回転エンコーダやリニアエンコーダ等)は、各アーム部821~825の位置(例えば角度向きや線形位置等)を決定するために使用できる。 8, the movable arm configuration MAC' includes a lower support base portion BSE', arm portions 821-825, movement mechanisms 831-835, position sensors SEN1'-SEN5', and an end tool mounting configuration ETMC'. As described in more detail below and also shown in FIG. 9, each of the arm portions 821-825 can have a proximal end PE1-PE5 and a distal end DE1-DE5, respectively. In various embodiments, some or all of the arm portions 821-825 can be mounted to a respective movement mechanism 831-835 at a respective proximal end PE1-PE5 of each arm portion 821-825. In the example of FIG. 8, some or all of the movement mechanisms 831-835 (e.g., rotary joints and/or linear actuators with corresponding motors, etc.) enable movement (e.g., rotation, linear movement, etc.) of each arm portion 821-825 (e.g., about or along each rotation axis RA1'-RA5'). In various embodiments, position sensors SEN1'-SEN5' (e.g., rotary encoders, linear encoders, etc.) can be used to determine the position (e.g., angular orientation, linear position, etc.) of each arm portion 821-825.
様々な実施例において、可動アーム構成MAC’は、終端部として指定される部分(例えば第5のアーム部825)を有し得る。図8の例示的な構成において、エンドツール実装構成ETMC’は、可動アーム構成MAC’の遠位端に対応する(例えば終端部として指定された)第5のアーム部825の遠位端DE5の近傍に位置付けられている(例えば遠位端DE5に位置付けられている)。様々な代替的な実施例において、可動アーム構成の終端部は、アーム部でない要素(例えば回転可能要素等)とすることができるが、終端部の少なくとも一部は、エンドツール実装構成ETMC’が配置されている可動アーム構成の遠位端に対応する。 In various embodiments, the movable arm configuration MAC' can have a portion designated as a terminal end (e.g., fifth arm portion 825). In the exemplary configuration of FIG. 8 , the end tool mounting configuration ETMC' is positioned near (e.g., at) the distal end DE5 of the fifth arm portion 825, which corresponds to the distal end of the movable arm configuration MAC' (e.g., designated as a terminal end). In various alternative embodiments, the terminal end of the movable arm configuration can be an element that is not an arm portion (e.g., a rotatable element, etc.), but at least a portion of the terminal end corresponds to the distal end of the movable arm configuration where the end tool mounting configuration ETMC' is located.
様々な実施例において、エンドツール実装構成ETMC’は、可動アーム構成MAC’の遠位端の近傍にエンドツールETLを結合し維持するための様々な要素を含み得る。例えば様々な実施例において、エンドツール実装構成ETMC’は、オートジョイント(autojoint)接続、磁気結合部、及び/又はエンドツールETLを対応する要素に実装するための当技術分野において既知である他の結合要素を含み得る。また、エンドツール実装構成ETMC’は、エンドツールETLの少なくとも一部との間で(例えばエンドツール検知部ETSNとの間で)電力及び/又は信号を提供及び/又は伝送するための電気的接続(例えば電力接続、1つ以上の信号線等)も含み得る。 In various embodiments, the end tool mounting configuration ETMC' may include various elements for coupling and maintaining the end tool ETL near the distal end of the movable arm configuration MAC'. For example, in various embodiments, the end tool mounting configuration ETMC' may include an autojoint connection, a magnetic coupling, and/or other coupling elements known in the art for mounting the end tool ETL to a corresponding element. The end tool mounting configuration ETMC' may also include electrical connections (e.g., a power connection, one or more signal lines, etc.) for providing and/or transmitting power and/or signals to and from at least a portion of the end tool ETL (e.g., to and from the end tool sensing unit ETSN).
様々な実施例において、エンドツールETLは、エンドツール検知部ETSNと、(例えばワークピースWPの表面に接触するための)接点CPを備えたエンドツールスタイラスETSTと、を含むことができる。第5の移動機構835は、第4のアーム部824の遠位端DE4の近傍に位置付けられている。様々な実施例において、第5の移動機構835(例えば対応するモータを備えた回転継手)は、第5のアーム部825を、回転軸RA5’を中心として回転させるように構成できる。いくつかの実施例において第5の移動機構835は、追加的に又は代替的に、第5のアーム部825を線形に(例えば上下に)移動させるように構成されている異なるタイプの移動機構(例えばリニアアクチュエータ)を含み得る。いずれの場合であっても、エンドツールETLは、エンドツール実装構成ETMC’に実装され(例えば結合され)、対応する計測位置座標(例えばロボット座標系のx、y、及びz座標)を持つ対応するエンドツール位置ETP’を有する。様々な実施例において、エンドツール位置ETP’は、エンドツール実装構成ETMC’の位置に相当するか又はその近傍とすることができる(例えば、可動アーム構成MAC’の遠位端に対応する第5のアーム部825の遠位端DE5にあるか又はその近傍にある)。 In various embodiments, the end tool ETL may include an end tool sensing portion ETSN and an end tool stylus ETST having a contact point CP (e.g., for contacting the surface of the workpiece WP). The fifth movement mechanism 835 is positioned near the distal end DE4 of the fourth arm portion 824. In various embodiments, the fifth movement mechanism 835 (e.g., a rotary joint with a corresponding motor) may be configured to rotate the fifth arm portion 825 about a rotation axis RA5'. In some embodiments, the fifth movement mechanism 835 may additionally or alternatively include a different type of movement mechanism (e.g., a linear actuator) configured to move the fifth arm portion 825 linearly (e.g., up and down). In either case, the end tool ETL is mounted (e.g., coupled) to the end tool mounting configuration ETMC' and has a corresponding end tool position ETP' with corresponding measurement position coordinates (e.g., x, y, and z coordinates in the robot coordinate system). In various embodiments, the end tool position ETP' may correspond to or be near the position of the end tool mounting configuration ETMC' (e.g., at or near the distal end DE5 of the fifth arm portion 825, which corresponds to the distal end of the movable arm configuration MAC').
移動制御システム840は、ロボット精度として規定された精度レベルでエンドツールETLのエンドツール位置ETP’を制御するように構成されている。より具体的には、移動制御システム840は概して、少なくとも部分的に、アーム部821~825の位置を検知及び制御するため移動機構831~835及び位置センサSEN1’~SEN5’を使用することに基づいて、ロボット精度でエンドツール位置ETP’の計測位置座標(例えばx、y、及びz座標)を制御するように構成されている。様々な実施例において、移動制御及び処理システム840は移動機構制御及び検知部841~845を含むことができ、これらは、各アーム部821~825の位置(例えば角度位置や線形位置等)を検知するため各位置センサSEN1’~SEN5’からそれぞれ信号を受信する、及び/又は各アーム部821~825を移動させるため各移動機構831~835(例えば回転継手、リニアアクチュエータ、モータ等を含む)に制御信号を提供することができる。 The motion control system 840 is configured to control the end tool position ETP' of the end tool ETL with a level of precision defined as robot precision. More specifically, the motion control system 840 is generally configured to control the measured position coordinates (e.g., x, y, and z coordinates) of the end tool position ETP' with robot precision based, at least in part, on the use of motion mechanisms 831-835 and position sensors SEN1'-SEN5' to sense and control the positions of the arm sections 821-825. In various embodiments, the motion control and processing system 840 can include motion mechanism control and sensing units 841-845, which can receive signals from each position sensor SEN1'-SEN5', respectively, to sense the position (e.g., angular position, linear position, etc.) of each arm section 821-825 and/or provide control signals to each motion mechanism 831-835 (including, for example, rotary joints, linear actuators, motors, etc.) to move each arm section 821-825.
また、移動制御及び処理システム840及び/又は補足計測位置決定システム850は、エンドツール検知部ETSNから信号を受信することができる。様々な実施例において、エンドツール検知部ETSNは、ワークピースWPを検知するためのエンドツールETLの動作に関連した回路及び/又は構成を含み得る。以下で詳述するように、様々な実施例において、エンドツールETL(例えばタッチプローブ、スキャンプローブ、カメラ等)は、ワークピースWP上の表面ロケーション/位置/ポイントに接触するため又は他の方法でそれらを検知するために利用され、これに対応した様々な信号がエンドツール検知部ETSNによって受信、決定、及び/又は処理され、エンドツール検知部ETSNは対応する信号を移動制御及び処理システム840及び/又は補足計測位置決定システム850に提供することができる。様々な実施例において、移動制御及び処理システム840及び/又は補足計測位置決定システム850はエンドツール制御及び検知部846を含むことができ、これは、エンドツール検知部ETSNに制御信号を提供する及び/又はエンドツール検知部ETSNから検知信号を受信することができる。様々な実施例において、エンドツール制御及び検知部846及びエンドツール検知部ETSNはマージされる及び/又は区別できない場合がある。様々な実施例において、移動機構制御及び検知部841~845並びにエンドツール制御及び検知部846は全て、ロボット位置処理部847に出力を提供する及び/又はロボット位置処理部847から制御信号を受信することができる。ロボット位置処理部847は、ロボット移動制御及び処理システム840の一部として、ロボット810の可動アーム構成MAC’及び対応するエンドツール位置ETP’の全体的な配置を制御及び/又は決定できる。 Additionally, the motion control and processing system 840 and/or the supplemental metrology position determination system 850 may receive signals from the end tool sensing unit ETSN. In various embodiments, the end tool sensing unit ETSN may include circuitry and/or configurations related to the operation of the end tool ETL to sense the workpiece WP. As described in more detail below, in various embodiments, the end tool ETL (e.g., a touch probe, a scanning probe, a camera, etc.) is utilized to contact or otherwise sense surface locations/positions/points on the workpiece WP, and various corresponding signals are received, determined, and/or processed by the end tool sensing unit ETSN, which may provide corresponding signals to the motion control and processing system 840 and/or the supplemental metrology position determination system 850. In various embodiments, the motion control and processing system 840 and/or the supplemental metrology position determination system 850 can include an end tool control and sensing unit 846, which can provide control signals to and/or receive sensing signals from the end tool sensing unit ETSN. In various embodiments, the end tool control and sensing unit 846 and the end tool sensing unit ETSN can be merged and/or indistinguishable. In various embodiments, the motion mechanism control and sensing units 841-845 and the end tool control and sensing unit 846 can all provide outputs to and/or receive control signals from a robot position processor 847. The robot position processor 847, as part of the robot motion control and processing system 840, can control and/or determine the overall position of the movable arm configuration MAC' and corresponding end tool position ETP' of the robot 810.
様々な実施例において、補足計測位置決定システム850は、ロボット810と共に含めるか又は他の方法でロボット810に追加することができる(例えば、既存のロボット810に追加するための改造構成の一部として等。様々な実施例において、ロボットは、多関節ロボット、SCARAロボット、直交座標系ロボット、円筒座標系ロボット、球座標系ロボット等とすることができる)。一般に、補足計測位置決定システム850は、エンドツール位置ETP’の決定における精度レベル向上のため利用できる。より具体的には、以下で詳述するように、補足計測位置決定システム850を用いて、ロボット精度よりも良好な精度レベルでエンドツール位置ETP’を示す計測位置座標を決定することができる。 In various embodiments, the supplemental metrology positioning system 850 may be included with the robot 810 or otherwise added to the robot 810 (e.g., as part of a retrofit configuration for addition to an existing robot 810, etc. In various embodiments, the robot may be an articulated robot, a SCARA robot, a Cartesian coordinate robot, a cylindrical coordinate robot, a spherical coordinate robot, etc.). Generally, the supplemental metrology positioning system 850 may be used to improve the level of accuracy in determining the end tool position ETP'. More specifically, as described in more detail below, the supplemental metrology positioning system 850 may be used to determine measurement position coordinates indicative of the end tool position ETP' with a level of accuracy better than the robot accuracy.
図8に示されているように、補足計測位置決定システム850は、それぞれ対応するスケール872A、872B、873A、873B、及び874Aに向けられたカメラ862A、862B、863A、863B、及び864Aを含む5つのカメラ/スケールセットを含む。スケール872A、873A、及び874Aはロボットの回転継手上にあり(例えば、それぞれ各回転継手の回転軸に対応する結合位置にある)、スケール872B及び873Bはロボットのアーム部上にある。より具体的には、スケール872Aは第1の2Dスケール結合位置で第2の移動機構832の回転継手に結合され、スケール872Bは第2の2Dスケール結合位置で第2のアーム部822に結合され、スケール873Aは第3の2Dスケール結合位置で第3の移動機構833の回転継手に結合され、スケール873Bは第4の2Dスケール結合位置で第3のアーム部823に結合され、スケール874Aは第5の2Dスケール結合位置で第4の移動機構834の回転継手に結合されている。5つのカメラ862A、862B、863A、863B、及び864Aの各々は、撮像構成制御及び処理部(ICCPP)882A、882B、883A、883B、及び884Aによってそれぞれ制御され、これら処理部に画像信号を提供する。トリガ部887は、いくつかの例において、カメラの全てのトリガを調整して、(例えば、ある特定の時点でロボットの端部のエンドツール位置を決定するため、その時点のロボットの位置に対応した)画像を同時に取得することができる。 As shown in FIG. 8, the supplemental metrology positioning system 850 includes five camera/scale sets including cameras 862A, 862B, 863A, 863B, and 864A, each pointed at a corresponding scale 872A, 872B, 873A, 873B, and 874A. Scales 872A, 873A, and 874A are located on the robot's rotary joints (e.g., at coupling locations corresponding to the axes of rotation of each rotary joint), and scales 872B and 873B are located on the robot's arm. More specifically, scale 872A is coupled to the rotary joint of the second movement mechanism 832 at a first 2D scale coupling location, scale 872B is coupled to the second arm portion 822 at a second 2D scale coupling location, scale 873A is coupled to the rotary joint of the third movement mechanism 833 at a third 2D scale coupling location, scale 873B is coupled to the third arm portion 823 at a fourth 2D scale coupling location, and scale 874A is coupled to the rotary joint of the fourth movement mechanism 834 at a fifth 2D scale coupling location. Each of the five cameras 862A, 862B, 863A, 863B, and 864A is controlled by and provides image signals to imaging configuration control and processing portions (ICCCPs) 882A, 882B, 883A, 883B, and 884A, respectively. The trigger unit 887, in some examples, can coordinate the triggering of all of the cameras to simultaneously acquire images (e.g., corresponding to the position of the robot at a particular time to determine the position of the end tool at the end of the robot at that time).
様々な実施例において、エンドツール作業範囲ETWV’は、エンドツールETLの少なくとも一部を移動させることができる範囲から成る。図8の例では、エンドツール作業範囲ETWV’は、ワークピースを検査する場合にエンドツールETLの接点CPを移動させることができる範囲を含むものとして図示されている。様々な実施例において、ロボット810は、エンドツール実装構成ETMC’に実装されたエンドツールETLの少なくとも一部(例えば接点CP)を、エンドツール作業範囲ETWV’内で少なくとも2次元(例えばx及びy次元)で移動させるように、可動アーム構成MAC’を移動させるよう構成されている。図8の例において、エンドツールETLの一部(例えば接点CP)は、ロボット810によって3次元(例えばx、y、及びz次元)で移動可能である。 In various embodiments, the end tool working volume ETWV' comprises a range within which at least a portion of the end tool ETL can be moved. In the example of FIG. 8, the end tool working volume ETWV' is illustrated as including a range within which the contact point CP of the end tool ETL can be moved when inspecting a workpiece. In various embodiments, the robot 810 is configured to move the movable arm configuration MAC' to move at least a portion (e.g., contact point CP) of the end tool ETL mounted in the end tool mounting configuration ETMC' in at least two dimensions (e.g., x and y dimensions) within the end tool working volume ETWV'. In the example of FIG. 8, a portion (e.g., contact point CP) of the end tool ETL can be moved in three dimensions (e.g., x, y, and z dimensions) by the robot 810.
様々な実施例において、図5から図7を参照して上述したように、2Dスケール872A、872B、873A、873B、及び874Aの各々は、名目上平面状の基板SUBと、基板SUB上に分散した複数の撮像可能な要素とを含む。本明細書で用いる場合、「名目上」という用語は、許容可能な公差内に収まる1つ以上のパラメータのばらつきを包含する。撮像可能要素はそれぞれ、各2Dスケール上の既知の局所x及びyスケール座標に位置付けられている。様々な実施例において、各2Dスケールはインクリメンタルスケール又はアブソリュートスケールとすることができる。 In various embodiments, as described above with reference to Figures 5-7, each of 2D scales 872A, 872B, 873A, 873B, and 874A includes a nominally planar substrate SUB and a plurality of imagable elements distributed on the substrate SUB. As used herein, the term "nominal" encompasses variations in one or more parameters that fall within acceptable tolerances. Each of the imagable elements is positioned at known local x and y scale coordinates on each 2D scale. In various embodiments, each 2D scale can be an incremental scale or an absolute scale.
様々な実施例において、撮像及び検知構成制御及び処理部880、トリガ部887、及び/又は計測位置座標処理部890は、外部制御システムECS’の一部として(例えば外部コンピュータ等の一部として)含めることができる。トリガ部887は、撮像及び検知構成制御及び処理部880の一部として含めることができる。様々な実施例において、トリガ部887は、エンドツール位置ETP’に関連した少なくとも1つの入力信号を入力し、この少なくとも1つの入力信号に基づいて第1のトリガ信号のタイミングを決定し、更に、この第1のトリガ信号をカメラ862A、862B、863A、863B、及び864Aに出力するよう構成されている。様々な実施例において、カメラ862A、862B、863A、863B、及び864Aの各々は、第1のトリガ信号の受信に応答して、画像取得時点で対応する2Dスケール872A、872B、873A、873B、及び874Aのデジタル画像を取得するよう構成されている。様々な実施例において、計測位置座標処理部890は、取得された画像を入力し、2Dスケールの取得された画像に含まれる少なくとも1つの撮像可能要素及び関連する既知の2Dスケール座標位置を識別するように構成されている。様々な実施例において外部制御システムECS’は、対応するモードを実施するため、標準ロボット位置座標モード部849及び補足計測位置座標モード部892も含むことができる。これらについては以下で詳述する。 In various embodiments, the imaging and detection configuration control and processing unit 880, the trigger unit 887, and/or the measurement position coordinate processing unit 890 can be included as part of an external control system ECS' (e.g., as part of an external computer, etc.). The trigger unit 887 can be included as part of the imaging and detection configuration control and processing unit 880. In various embodiments, the trigger unit 887 is configured to receive at least one input signal related to the end tool position ETP', determine the timing of a first trigger signal based on the at least one input signal, and output the first trigger signal to the cameras 862A, 862B, 863A, 863B, and 864A. In various embodiments, the cameras 862A, 862B, 863A, 863B, and 864A are each configured to acquire a digital image of the corresponding 2D scale 872A, 872B, 873A, 873B, and 874A at the time of image acquisition in response to receiving the first trigger signal. In various embodiments, the measurement position coordinate processor 890 is configured to input the acquired image and identify at least one imagable element included in the acquired image at 2D scale and an associated known 2D scale coordinate location. In various embodiments, the external control system ECS' can also include a standard robot position coordinate mode component 849 and a supplemental measurement position coordinate mode component 892 to implement corresponding modes, which are described in more detail below.
様々な実施例において、各撮像構成制御及び処理部882A、882B、883A、883B、及び884Aは、対応するカメラ862A、862B、863A、863B、及び864Aの画像積分を周期的に(例えば設定されたタイミング間隔で)活性化するコンポーネント(例えばサブ回路、ルーチン等)を含むことができ、トリガ部887からの第1のトリガ信号は、ストロボ光タイミング(例えば各カメラ862A、862B、863A、863B、及び864Aはストロボ光を含み得る)、又は事実上動きを止めると共に対応して積分期間内の露光を決定する他の機構を活性化できる。このような実施例では、積分期間中に第1のトリガ信号が受信されない場合、得られる画像を破棄することができ、積分期間中に第1のトリガ信号が受信された場合、得られる画像をセーブする及び/又は他の方法で処理/解析して計測位置座標を決定することができる。これについては以下で詳述する。 In various embodiments, each imaging configuration control and processing unit 882A, 882B, 883A, 883B, and 884A can include a component (e.g., a subcircuit, routine, etc.) that periodically (e.g., at set timing intervals) activates image integration of the corresponding camera 862A, 862B, 863A, 863B, and 864A, and a first trigger signal from trigger unit 887 can activate strobe light timing (e.g., each camera 862A, 862B, 863A, 863B, and 864A can include a strobe light) or other mechanism that effectively stops motion and correspondingly determines exposure during the integration period. In such embodiments, if the first trigger signal is not received during an integration period, the resulting image can be discarded; if the first trigger signal is received during an integration period, the resulting image can be saved and/or otherwise processed/analyzed to determine measurement position coordinates, as described in more detail below.
様々な実施例では、異なるタイプのエンドツールETLがそれぞれ異なるタイプの出力を提供し、これらの出力をトリガ部887と関連して使用することができる。例えば、エンドツールETLが、ワークピースを測定するために使用されるタッチプローブであり、ワークピースに触れると(例えば接点CPがワークピースに触れると)タッチ信号を出力する実施例では、トリガ部887は、そのタッチ信号又はそれから導出された信号を少なくとも1つの入力信号として入力し、それに基づいて第1のトリガ信号のタイミングを決定するように構成できる。別の例として、エンドツールETLが、ワークピースを測定するために使用されるスキャンプローブであり、各サンプルタイミング信号に対応した各ワークピース測定サンプルデータを与える実施例では、トリガ部887は、その各サンプルタイミング信号又はそれから導出された信号を少なくとも1つの入力信号として入力するように構成できる。別の例として、エンドツールETLが、各ワークピース画像取得信号に対応した各ワークピース測定画像を与えるために使用されるカメラである実施例では、トリガ部887は、そのワークピース画像取得信号又はそれから導出された信号を少なくとも1つの入力信号として入力するように構成できる。 In various embodiments, different types of end tool ETLs may provide different types of outputs, which may be used in conjunction with the trigger unit 887. For example, in an embodiment where the end tool ETL is a touch probe used to measure a workpiece and outputs a touch signal when the workpiece is touched (e.g., when a contact point CP touches the workpiece), the trigger unit 887 may be configured to receive the touch signal or a signal derived therefrom as at least one input signal and determine the timing of the first trigger signal based thereon. As another example, in an embodiment where the end tool ETL is a scanning probe used to measure a workpiece and provides workpiece measurement sample data corresponding to each sample timing signal, the trigger unit 887 may be configured to receive the sample timing signal or a signal derived therefrom as at least one input signal. As another example, in an embodiment where the end tool ETL is a camera used to provide workpiece measurement images corresponding to each workpiece image acquisition signal, the trigger unit 887 may be configured to receive the workpiece image acquisition signal or a signal derived therefrom as at least one input signal.
図8の例示的な実施例において、補足計測位置決定システム850は、各2Dスケール872A、872B、873A、873B、及び874Aと、対応する参照位置REF1’、REF2’、REF3’、REF4’、REF5’(例えば各カメラ862A、862B、863A、863B、及び864Aの位置に対応する及び/又はそれらの位置を示す)との相対位置を、例えば取得した各画像内で識別された少なくとも1つの撮像可能要素の画像位置の決定に基づいて、計測位置座標処理部890が決定するように動作可能であるよう構成されている。決定された相対位置を(例えば補足計測位置決定システム850によって)使用して、画像取得時点におけるエンドツール位置ETP’の計測位置座標を、ロボット精度よりも良好な精度レベルで決定できる。 In the exemplary embodiment of FIG. 8 , the supplemental metrology position determination system 850 is configured such that the measurement position coordinate processor 890 is operable to determine the relative position of each 2D scale 872A, 872B, 873A, 873B, and 874A and a corresponding reference position REF1', REF2', REF3', REF4', REF5' (e.g., corresponding to and/or indicative of the position of each camera 862A, 862B, 863A, 863B, and 864A) based, for example, on determining the image position of at least one imagable element identified in each acquired image. The determined relative positions can be used (e.g., by the supplemental metrology position determination system 850) to determine the measurement position coordinate of the end tool position ETP' at the time of image acquisition with a level of accuracy better than robot accuracy.
図1及び図8に示されるようなロボットシステムが種々の代替的なシステムよりも優れたいくつかの利点を有し得ることは認められよう。例えば様々な実施例において、本明細書に開示されるようなシステムは、ロボット移動/位置を追跡するためにレーザトラッカ又は写真測量法のような技術を利用する代替的なシステムに比べて、小型である及び/又は低費用である可能性があり、更に、いくつかの実施例では精度が高い可能性もある。また、開示されるシステムは、エンドツール作業範囲ETWV又はETWV’のどの部分も占有したり覆い隠したりしないが、代替的なシステムは、ワークピースに作業及び/又は検査等が実行される可能性のあるエリア(例えばエンドツール作業範囲ETWV又はETWV’)内の地上もしくはステージ上もしくは他の場所に、スケール又は基準を含むことがある。更に、様々な実施例では、カメラ及びスケールの全てをロボットに結合することによって(例えば、アーム部及び回転継手のような可動アーム構成の移動部に結合されていることを含む)、ロボット環境における外部構造又は外部結合をカメラ又はスケールに提供する必要はない。 It will be appreciated that robotic systems such as those shown in FIGS. 1 and 8 may have several advantages over various alternative systems. For example, in various embodiments, systems such as those disclosed herein may be smaller and/or less expensive, and in some embodiments, more accurate, than alternative systems that utilize technologies such as laser trackers or photogrammetry to track robot movement/position. Additionally, while the disclosed systems do not occupy or obscure any portion of the end tool working volume ETWV or ETWV', alternative systems may include scales or fiducials on the ground, stage, or elsewhere within the area where operations and/or inspections, etc., may be performed on a workpiece (e.g., the end tool working volume ETWV or ETWV'). Furthermore, in various embodiments, by coupling all of the cameras and scales to the robot (including, for example, being coupled to the moving parts of a movable arm configuration such as an arm section and rotary joint), no external structure or external couplings in the robot environment are required for the cameras or scales.
図9は、図8のロボットシステム800と実質的に同様のロボットシステム900の第4の例示的な実施例の一部の等角投影図である。上述の番号付けスキームと同様、図9のいくつかの名前又は番号を付けたコンポーネント(例えば8XX、8XX’、又は9XX)は、図8又は他の図における同一又は同様の名前又は番号を付けた対応するコンポーネント(例えば8XX)に相当する及び/又はそれらと同様の動作を有し、それらと同様又は同一であると理解することができ、そうでなければ類推によって及び以下で記載するように理解され得ることは認められよう。上述のように、同様の及び/又は同一の設計及び/又は機能を有する要素を示すためのこの名前付け及び番号付けスキームは、本出願の様々な図に概ね適用される(例えば図1から図11)。 FIG. 9 is an isometric view of a portion of a fourth illustrative embodiment of a robotic system 900 substantially similar to the robotic system 800 of FIG. 8. Similar to the numbering scheme described above, it will be appreciated that some named or numbered components (e.g., 8XX, 8XX', or 9XX) in FIG. 9 correspond to and/or have similar operation as, can be understood to be similar or identical to, or otherwise understood by analogy and as described below, identically or similarly named or numbered corresponding components (e.g., 8XX) in FIG. 8 or other figures. As noted above, this naming and numbering scheme for indicating elements having similar and/or identical design and/or function generally applies to the various figures of the present application (e.g., FIGS. 1 through 11).
図9に示されているように、第1のアーム部821(例えば上方ベース部)は、第1のアーム部821の近位端PE1において第1の移動機構831(例えば回転継手を含む)に実装されている。第1の移動機構831は、下方支持ベース部BSE’の上端に位置付けられ、第1のアーム部821が名目上水平な面内で回転するように回転軸RA1’を有する。様々な実施例において、第1のアーム部821の角度位置(例えば角度向き)を決定するために位置センサSEN1’(例えば回転エンコーダ)を使用できる。 As shown in FIG. 9 , the first arm portion 821 (e.g., the upper base portion) is mounted to a first movement mechanism 831 (e.g., including a rotary joint) at the proximal end PE1 of the first arm portion 821. The first movement mechanism 831 is positioned at the upper end of the lower support base portion BSE' and has a rotation axis RA1' such that the first arm portion 821 rotates in a nominally horizontal plane. In various embodiments, a position sensor SEN1' (e.g., a rotary encoder) can be used to determine the angular position (e.g., angular orientation) of the first arm portion 821.
第2の移動機構832(例えば回転継手を含む)は、第1のアーム部821の遠位端DE1の近傍に位置付けられている。第2の移動機構832は回転軸RA2’を有する。第2のアーム部822は、第2の移動機構832を中心として移動するように、第2のアーム部822の近位端PE2で第2の移動機構832に実装されている。様々な実施例において、第2のアーム部822の角度位置を決定するために位置センサSEN2’(例えば回転エンコーダ)を使用できる。 A second movement mechanism 832 (e.g., including a rotary joint) is positioned near the distal end DE1 of the first arm portion 821. The second movement mechanism 832 has a rotation axis RA2'. The second arm portion 822 is mounted to the second movement mechanism 832 at the proximal end PE2 of the second arm portion 822 so as to move about the second movement mechanism 832. In various embodiments, a position sensor SEN2' (e.g., a rotary encoder) can be used to determine the angular position of the second arm portion 822.
第3の移動機構833(例えば回転継手を含む)は、第2のアーム部822の遠位端DE2に位置付けられている。第3の移動機構833は回転軸RA3’を有する。第3のアーム部823は、第3の移動機構833を中心として移動するように、第3のアーム部823の近位端PE3で第3の移動機構833に実装されている。様々な実施例において、第3のアーム部823の角度位置を決定するために位置センサSEN3’(例えば回転エンコーダ)を使用できる。 A third movement mechanism 833 (e.g., including a rotary joint) is positioned at the distal end DE2 of the second arm portion 822. The third movement mechanism 833 has a rotation axis RA3'. The third arm portion 823 is mounted to the third movement mechanism 833 at the proximal end PE3 of the third arm portion 823 for movement about the third movement mechanism 833. In various embodiments, a position sensor SEN3' (e.g., a rotary encoder) can be used to determine the angular position of the third arm portion 823.
第4の移動機構834(例えば回転継手を含む)は、第3のアーム部823の遠位端DE3に位置付けられている。第4の移動機構834は回転軸RA4’を有する。第4のアーム部824は、回転するように、第4のアーム部824の近位端PE4で第4の移動機構834に実装されている。様々な実施例において、第4のアーム部824の角度位置を決定するために位置センサSEN4’(例えば回転エンコーダ)を使用できる。 A fourth movement mechanism 834 (e.g., including a rotary joint) is positioned at the distal end DE3 of the third arm portion 823. The fourth movement mechanism 834 has a rotation axis RA4'. The fourth arm portion 824 is rotationally mounted to the fourth movement mechanism 834 at the proximal end PE4 of the fourth arm portion 824. In various embodiments, a position sensor SEN4' (e.g., a rotary encoder) can be used to determine the angular position of the fourth arm portion 824.
第5の移動機構835は、第4のアーム部824の遠位端DE4に位置付けることができる。上述のように、いくつかの実施例において、第5の移動機構835(例えば回転継手を含む)は、回転軸RA5’を中心として第5のアーム部825を回転させるように構成できる。そのような構成では、第5のアーム部825は、第5のアーム部825の近位端PE5で第5の移動機構835に実装することができる。いくつかの実施例では、第5の移動機構835は追加的に又は代替的に、第5のアーム部825を線形に(例えば上下に)移動させるよう構成されている異なるタイプの移動機構(例えばリニアアクチュエータ)を含み得る。様々な実施例において、第5のアーム部825は、可動アーム構成MAC’の終端部として指定することができ、可動アーム構成MAC’の遠位端は、エンドツール実装構成ETMC’を配置できる第5のアーム部825の遠位端DE5に対応する。第5の移動機構835が回転継手を含む実施例では、それに応じていくつかの構成でエンドツールETLを回転させることができる(例えば、いくつかの例ではz軸に直交するxy面内で)。 The fifth movement mechanism 835 can be located at the distal end DE4 of the fourth arm portion 824. As described above, in some embodiments, the fifth movement mechanism 835 (e.g., including a rotary joint) can be configured to rotate the fifth arm portion 825 about a rotation axis RA5'. In such a configuration, the fifth arm portion 825 can be mounted to the fifth movement mechanism 835 at the proximal end PE5 of the fifth arm portion 825. In some embodiments, the fifth movement mechanism 835 can additionally or alternatively include a different type of movement mechanism (e.g., a linear actuator) configured to move the fifth arm portion 825 linearly (e.g., up and down). In various embodiments, the fifth arm portion 825 can be designated as the terminal end of a movable arm configuration MAC', the distal end of which corresponds to the distal end DE5 of the fifth arm portion 825 at which the end tool mounting configuration ETMC' can be positioned. In embodiments in which the fifth movement mechanism 835 includes a rotary joint, the end tool ETL can be rotated accordingly in several configurations (e.g., in the xy plane orthogonal to the z-axis in some examples).
様々な実施例において、可動アーム構成MAC’のコンポーネントの特定の移動、座標、及び角度に言及するため、異なる参照軸及び参照線を指定することがある。いくつかの具体的な例として、図9に示されているように、第2及び第3のアーム部822及び823には、各アーム部の中心を通る中心線CT2’及びCT3’をそれぞれ指定できる。他のアーム部821、824、及び825も同様に、可動アーム構成MAC’のコンポーネントの特定の移動、座標、及び角度に言及するため、対応する参照線及び/又は参照軸等を有し得ることは認められよう。 In various embodiments, different reference axes and lines may be designated to refer to specific movements, coordinates, and angles of components of the movable arm configuration MAC'. As some specific examples, as shown in FIG. 9, second and third arm sections 822 and 823 may be designated with centerlines CT2' and CT3', respectively, passing through the center of each arm section. It will be appreciated that the other arm sections 821, 824, and 825 may similarly have corresponding reference lines and/or axes, etc., to refer to specific movements, coordinates, and angles of components of the movable arm configuration MAC'.
様々な実施例において、エンドツールETLは、第5のアーム部825の遠位端DE5の近傍でエンドツール実装構成ETMC’に実装する(例えば結合する)ことができる。エンドツールETLは、第5の移動機構835の第5の回転軸RA5’と一致し得ると共に第4の移動機構834の第4の回転軸RA4’の延長線と交差し得るエンドツール軸EA(例えばスタイラスETSTの中央軸及び/又は中心軸を通る)を有することを指定できる。様々な実施例において、エンドツール軸EAはエンドツール位置ETP’を通る。エンドツール位置ETP’は、(例えばロボット座標系の)座標X2、Y2、Z2を有することを指定できる。様々な実施例において、エンドツールETLは、座標X3、Y3、Z3を有することを指定できる接点CP(例えばワークピースに接触するためのエンドツールスタイラスETSTの端部)を有し得る。 In various embodiments, the end tool ETL can be mounted (e.g., coupled) to the end tool mounting configuration ETMC' near the distal end DE5 of the fifth arm portion 825. The end tool ETL can be specified to have an end tool axis EA (e.g., passing through the central axis and/or center axis of the stylus ETST) that can coincide with the fifth rotational axis RA5' of the fifth movement mechanism 835 and intersect with an extension of the fourth rotational axis RA4' of the fourth movement mechanism 834. In various embodiments, the end tool axis EA passes through an end tool position ETP'. The end tool position ETP' can be specified to have coordinates X2, Y2, Z2 (e.g., in the robot coordinate system). In various embodiments, the end tool ETL can have a contact point CP (e.g., the end of the end tool stylus ETST for contacting the workpiece) that can be specified to have coordinates X3, Y3, Z3.
1つの具体的な実施例では、各カメラ862A、862B、863A、863B、及び864Aで取得された各画像を計測位置座標処理部890によって解析して、相対位置(例えば、各スケール872A、872B、873A、873B、及び874Aの位置や向き等に対応する)を決定できる。このような決定は、(例えばスケールに対するカメラの位置や向き等を決定するための)標準的なカメラ/スケール画像処理技法に従って実行できる。このような技法の様々な例が、前述した本願に含まれる米国特許第6,781,694号、第6,937,349号、第5,798,947号、第6,222,940号、及び第6,640,008号に記載されている。様々な実施例では、このような技法を用いて、図5から図7を参照して上述したように、スケール範囲内(例えば各2Dスケール872A、872B、873A、873B、及び874A内)の視野の位置(例えばカメラの位置や向き等に対応する)を決定することができる。様々な実施例において、このような決定は、各2Dスケールの取得画像に含まれる少なくとも1つの撮像可能要素及びそれに関連した既知の2Dスケール座標位置を識別することを含み得る。このような決定は、各2Dスケール872A、872B、873A、873B、及び874Aと、対応する参照位置REF1’、REF2’、REF3’、REF4’、及びREF5’(例えば、各カメラ862A、862B、863A、863B、及び864Aの位置に対応する及び/又は位置を示す)との相対位置を決定することに対応し得る。 In one specific example, each image captured by each camera 862A, 862B, 863A, 863B, and 864A can be analyzed by a measurement position coordinate processor 890 to determine the relative position (e.g., corresponding to the position, orientation, etc. of each scale 872A, 872B, 873A, 873B, and 874A). Such determination can be performed according to standard camera/scale image processing techniques (e.g., to determine the position, orientation, etc. of the camera relative to the scale). Examples of such techniques are described in the aforementioned incorporated U.S. Patent Nos. 6,781,694, 6,937,349, 5,798,947, 6,222,940, and 6,640,008. In various embodiments, such techniques may be used to determine the position of a field of view (e.g., corresponding to a camera's position, orientation, etc.) within a scale range (e.g., within each of 2D scales 872A, 872B, 873A, 873B, and 874A), as described above with reference to FIGS. 5-7 . In various embodiments, such determination may include identifying at least one imagable element included in a captured image of each of the 2D scales and its associated known 2D scale coordinate location. Such determination may correspond to determining the relative position of each of 2D scales 872A, 872B, 873A, 873B, and 874A to a corresponding reference position REF1′, REF2′, REF3′, REF4′, and REF5′ (e.g., corresponding to and/or indicating the position of each of cameras 862A, 862B, 863A, 863B, and 864A).
図10は、図8及び図9に示されているものと同様のロボットシステムの一部の側面図である。より具体的には、図10は、第2、第3、及び第5のアーム部822、823、及び825、第2、第3、及び第4の移動機構832、833、及び834、並びにスケール872A、873A、及び874の側面図を示す。スケール872Aは、第1の2Dスケール結合位置で第2の移動機構832の回転継手に結合され、スケール873Aは、第2の2Dスケール結合位置で第3の移動機構833の回転継手に結合され、スケール874Aは、第3の2Dスケール結合位置で第4の移動機構834の回転継手に結合されている。第2の移動機構832の回転継手の回転中の回転軸RA2’に対して垂直方向の移動により、スケール872Aの相対位置が変化する(例えばカメラ座標系のx軸及び/又はy軸方向に)。第3の移動機構833の回転継手の回転中の回転軸RA3’に対して垂直方向の移動により、スケール873Aの相対位置が変化する(例えばカメラ座標系のx軸及び/又はy軸方向に)。第4の移動機構834の回転継手の回転中の回転軸RA4’に対して垂直方向の移動により、スケール874Aの相対位置が変化する(例えば局所カメラ座標系のx軸及び/又はy軸方向に)。カメラ862A、863A、及び864Aは、それぞれスケール872A、873A、及び874Aに含まれる要素の画像を取得できるように配置されている。これらの画像に基づいて、計測位置座標処理部890は、スケール872A、873A、及び874Aの各角度向きを決定し、更に、スケール872A、873A、及び874Aの相対位置も決定する(例えば、局所カメラ座標系のx軸及びy軸座標で)。計測位置座標処理部890はこれを用いて、各回転軸RA2’、RA3’,及びRA4’に対して垂直方向の望ましくない移動が存在する場合はこれを検出する。計測位置座標処理部890は、スケール872A、873A、及び874Aの決定した相対位置を用いて、第2、第3、及び第4の移動機構832、833、及び834の回転継手のいわゆる「ふらつき」、「揺れ動き」、又は他の移動を検出できる。このような移動は、標準的なロボットエンコーダでは通常は検出されたり明らかにされたりしないので、ロボットアームの端部のエンドツール位置を決定することに関して測定誤差を発生させるものである。 FIG. 10 is a side view of a portion of a robotic system similar to that shown in FIGS. 8 and 9. More specifically, FIG. 10 shows a side view of second, third, and fifth arm sections 822, 823, and 825, second, third, and fourth movement mechanisms 832, 833, and 834, and scales 872A, 873A, and 874. Scale 872A is coupled to the rotary joint of the second movement mechanism 832 at a first 2D scale coupling location, scale 873A is coupled to the rotary joint of the third movement mechanism 833 at a second 2D scale coupling location, and scale 874A is coupled to the rotary joint of the fourth movement mechanism 834 at a third 2D scale coupling location. Movement of the rotary joint of the second movement mechanism 832 perpendicular to the rotation axis RA2' during rotation changes the relative position of scale 872A (e.g., along the x- and/or y-axes of the camera coordinate system). Movement of the third movement mechanism 833 perpendicular to the axis of rotation RA3′ during rotation of the rotary joint changes the relative position of the scale 873A (e.g., along the x- and/or y-axes of the camera coordinate system). Movement of the fourth movement mechanism 834 perpendicular to the axis of rotation RA4′ during rotation of the rotary joint changes the relative position of the scale 874A (e.g., along the x- and/or y-axes of the local camera coordinate system). Cameras 862A, 863A, and 864A are positioned to capture images of the elements included in scales 872A, 873A, and 874A, respectively. Based on these images, the measurement position coordinate processing unit 890 determines the angular orientations of the scales 872A, 873A, and 874A and also determines the relative positions of the scales 872A, 873A, and 874A (e.g., in x- and y-axis coordinates of the local camera coordinate system). This is used by the measurement position coordinate processor 890 to detect any unwanted movement perpendicular to each of the rotation axes RA2', RA3', and RA4'. The determined relative positions of scales 872A, 873A, and 874A can be used by the measurement position coordinate processor 890 to detect so-called "wobble," "rocking," or other movement of the rotary joints of the second, third, and fourth movement mechanisms 832, 833, and 834. Such movement would not normally be detected or revealed by standard robot encoders, and would therefore introduce measurement errors into determining the position of the end tool at the end of the robot arm.
図11は、図8及び図9に示されているものと同様のロボットシステムの一部の側面図である。より具体的には、図11は、第2のアーム部822、カメラ862B、及びスケール872Bの側面図を示す。図11には示されていないが、スケール872Bは、第3のアーム部823(例えば図9を参照のこと)に結合されている第3の移動機構833の回転継手の近くに配置されている。様々な実施例において、第2のアーム部822、第3のアーム部823、及び/又は第3のアーム部823に結合された他のコンポーネントは、図11に破線で示されているように第2のアーム部822の屈曲又はねじれを発生させるのに充分な重さであり得る。このような屈曲又はねじれによってスケール872Bの相対位置が変化し、スケール872Bが予想位置P1’から屈曲位置P2’へ移動する可能性がある。カメラ862Bに対するスケール872Bの移動に従って、対応する移動/位置の変化量D12’を検出/測定することができる。より具体的には、第2のアーム部822が図示のように屈曲した場合、カメラ862Bの視野にはスケール872Bの異なる部分が示され(例えば、図示の向きではスケール872Bの上部に近付いた部分)、その画像を解析することで、スケール872Bの位置と対応する第2のアーム部822の屈曲量を決定できる(例えば、少なくとも部分的に、異なる画像等内のスケールの1つ以上の撮像可能要素の異なる位置の決定に基づく)。 FIG. 11 is a side view of a portion of a robotic system similar to that shown in FIGS. 8 and 9. More specifically, FIG. 11 shows a side view of the second arm portion 822, the camera 862B, and the scale 872B. Although not shown in FIG. 11, the scale 872B is positioned near a rotary joint of the third movement mechanism 833, which is coupled to the third arm portion 823 (see, for example, FIG. 9). In various embodiments, the second arm portion 822, the third arm portion 823, and/or other components coupled to the third arm portion 823 may be heavy enough to cause bending or twisting of the second arm portion 822, as shown by the dashed lines in FIG. 11. Such bending or twisting may change the relative position of the scale 872B, causing the scale 872B to move from an expected position P1' to a bent position P2'. As the scale 872B moves relative to the camera 862B, a corresponding change in movement/position D12' can be detected/measured. More specifically, when second arm portion 822 is bent as shown, the field of view of camera 862B shows a different portion of scale 872B (e.g., a portion closer to the top of scale 872B in the orientation shown), and by analyzing that image, the amount of bending of second arm portion 822 corresponding to the position of scale 872B can be determined (e.g., based at least in part on determining different positions of one or more imagable elements of the scale in different images, etc.).
図12A及び図12Bは、多関節ロボット及び補足計測位置決定システムを含むロボットシステムを動作させるためのルーチン1200A及び1200Bの例示的な実施例を示すフロー図である。図12Aに示されているように、決定ブロック1210では、ロボットシステムを補足計測位置座標モードで動作させるか否かを決定する。様々な実施例において、補足計測位置座標モード又は標準ロボット位置座標モードの選択及び/又は活性化は、ユーザによって行う、及び/又は特定の動作及び/又は命令に応答してシステムによって自動的に行うことができる。例えば1つの実施例では、多関節ロボットが特定の位置に移動した場合(例えばエンドツールを、アセンブリ又は他の動作が実行される一般エリアから、ワークピース検査動作が典型的に実行され、補足計測位置座標モードが利用される特定エリアに移動させた場合)、補足計測位置座標モードを開始することができる(例えば自動的に又はユーザによる選択に従って)。様々な実施例では、このようなモードは外部制御システムECSによって実施できる(例えば、標準ロボット位置座標モード部147及び補足計測位置座標モード部192を使用する図1の外部制御システムECS等)。様々な実施例では、ハイブリッドモードを、独立して又は補足計測位置座標モードの一部として動作させる及び/又はモード間の切り替えとして実施することができる。これについては図13を参照して以下で詳述する。 12A and 12B are flow diagrams illustrating exemplary embodiments of routines 1200A and 1200B for operating a robotic system including an articulated robot and a supplemental metrology position determination system. As shown in FIG. 12A, decision block 1210 determines whether the robotic system is to operate in supplemental metrology position coordinate mode. In various embodiments, selection and/or activation of supplemental metrology position coordinate mode or standard robot position coordinate mode can be performed by a user and/or automatically by the system in response to specific operations and/or commands. For example, in one embodiment, the supplemental metrology position coordinate mode can be initiated (e.g., automatically or pursuant to user selection) when the articulated robot is moved to a specific location (e.g., when the end tool is moved from a general area where assembly or other operations are performed to a specific area where workpiece inspection operations are typically performed and supplemental metrology position coordinate mode is utilized). In various embodiments, such a mode can be implemented by an external control system ECS (e.g., the external control system ECS of FIG. 1 using standard robot position coordinate mode portion 147 and supplemental metrology position coordinate mode portion 192). In various embodiments, the hybrid mode may be implemented to operate independently or as part of the supplemental measurement position coordinate mode and/or as a switch between modes, as described in more detail below with reference to FIG. 13.
決定ブロック1210でロボットシステムを補足計測位置座標モードで動作させないことが決定された場合、ルーチンはブロック1220に進み、ロボットシステムを標準ロボット位置座標モードで動作させる。標準ロボット位置座標モードの一部として、多関節ロボットの位置センサ(例えば回転エンコーダ)を用いて、ロボット精度(例えば、多関節ロボットの位置センサの精度に少なくとも部分的に基づく)で、多関節ロボットの移動及び対応するエンドツール位置を制御及び決定する。一般に、ロボット位置座標モードは、多関節ロボットの独立した及び/又は標準的な動作モードに対応し得る(例えば、補足計測位置座標決定システムがアクティブでないか又は他の理由で提供されない場合に多関節ロボットを独立して動作させるモード)。 If, at decision block 1210, it is determined not to operate the robot system in the supplemental metrology position coordinate mode, the routine proceeds to block 1220 and operates the robot system in the standard robot position coordinate mode. As part of the standard robot position coordinate mode, the articulated robot's position sensors (e.g., rotary encoders) are used to control and determine articulated robot movements and corresponding end tool positions with robot accuracy (e.g., based at least in part on the accuracy of the articulated robot's position sensors). In general, the robot position coordinate mode may correspond to an independent and/or standard operating mode of the articulated robot (e.g., a mode in which the articulated robot operates independently when the supplemental metrology position coordinate determination system is inactive or otherwise not provided).
ロボットシステムを補足計測位置座標モードで動作させる場合、ルーチンはブロック1230に進み、多関節ロボットのエンドツール位置に関連した少なくとも1つの入力信号を受信する(すなわちトリガ部で)。この少なくとも1つの入力信号に基づいて第1のトリガ信号のタイミングを決定し、この第1のトリガ信号を補足計測位置決定システムのカメラに出力する。カメラはそれぞれ、第1のトリガ信号の受信に応答して、画像取得時点で対応する2Dスケールのデジタル画像を取得する。ブロック1240では、取得した画像を受信し(例えば計測位置座標処理部で)、各画像において、2Dスケールの取得画像に含まれる少なくとも1つの撮像可能要素及び関連する各既知の2Dスケール座標位置を識別する。 If the robot system is to operate in the supplemental measurement position coordinate mode, the routine proceeds to block 1230 and receives at least one input signal (i.e., at a trigger unit) related to the end tool position of the articulated robot. Based on the at least one input signal, the routine determines the timing of a first trigger signal and outputs the first trigger signal to cameras of the supplemental measurement position determination system. In response to receiving the first trigger signal, each camera acquires a corresponding 2D scale digital image at the image acquisition time. In block 1240, the acquired images are received (e.g., at a measurement position coordinate processor) and, for each image, at least one imagable element included in the acquired 2D scale image and each associated known 2D scale coordinate position are identified.
ブロック1250では、各取得画像内で識別された少なくとも1つの撮像可能要素の画像位置の決定に基づいて、各2Dスケールの相対位置を決定する。ブロック1260では、決定した位置情報(例えば決定した相対位置及び/又は他の関連する決定した位置情報を含む)を、指定された機能のために使用する(例えば、エンドツール位置の計測位置座標の決定、ワークピース測定、多関節ロボットの配置制御等のため)。このような動作又は他のものの一部として、ルーチンは次いでポイントAに進み、様々な実施例ではここでルーチンは終了するか、又は図12Bを参照して以下で詳述するように継続することができる。 At block 1250, the relative position of each 2D scale is determined based on determining the image position of at least one imagable element identified in each acquired image. At block 1260, the determined position information (e.g., including the determined relative positions and/or other related determined position information) is used for a specified function (e.g., for determining measurement position coordinates for an end tool position, workpiece measurement, position control of an articulated robot, etc.). As part of such an operation or others, the routine then proceeds to point A, where in various embodiments the routine may end, or may continue as described in more detail below with reference to FIG. 12B.
図12Bに示されているように、ルーチン1200Bは続いてポイントAからブロック1270に進むことができる。以下で詳述するように、ルーチン1200Bの一部として、決定した位置情報(例えばブロック1260からの)は、ワークピース上の第1の表面位置を決定することに対応し得るか又はそのために使用され得る。次いで、ワークピース上の第2の表面位置を決定することができる(例えばワークピース測定の一部として)。ブロック1270では、エンドツール位置に関連した少なくとも1つの第2の入力信号を受信し(例えばトリガ部で)、この少なくとも1つの第2の入力信号に基づいて第2のトリガ信号のタイミングを決定する。第2のトリガ信号を補足計測位置決定システムのカメラに出力する。カメラはそれぞれ、第2のトリガ信号の受信に応答して、第2の画像取得時点で対応する2Dスケールの第2のデジタル画像を取得する。 As shown in FIG. 12B, routine 1200B may continue from point A to block 1270. As described in more detail below, as part of routine 1200B, the determined position information (e.g., from block 1260) may correspond to or be used to determine a first surface position on the workpiece. A second surface position on the workpiece may then be determined (e.g., as part of workpiece measurement). In block 1270, at least one second input signal related to the end tool position is received (e.g., at a trigger) and the timing of a second trigger signal is determined based on the at least one second input signal. The second trigger signal is output to cameras of the supplemental metrology position determination system. Each camera, in response to receiving the second trigger signal, acquires a second digital image at a corresponding 2D scale at the second image acquisition time point.
ブロック1280では、取得した画像を受信し(例えば計測位置座標処理部で)、各画像において、2Dスケールの第2の取得画像に含まれる少なくとも1つの第2の撮像可能要素及び関連する第2の既知の2Dスケール座標位置を識別する。ブロック1290では、各第2の取得画像内で識別された少なくとも1つの第2の撮像可能要素の第2の画像位置の決定に基づいて、各2Dスケールの第2の相対位置を決定する。 In block 1280, the acquired images are received (e.g., by a measurement position coordinate processor) and, in each image, at least one second imagable element included in the second acquired image of the 2D scale and an associated second known 2D scale coordinate location are identified. In block 1290, a second relative position of each 2D scale is determined based on determining the second image location of the at least one second imagable element identified in each second acquired image.
ブロック1295では、決定した相対位置及び/又は関連する位置情報を用いて、第1及び第2の画像取得時点における各エンドツール位置(例えば、接点位置等を示す)に対応するワークピース上の第1及び第2の表面位置間の距離に対応するワークピースの寸法を決定する。多関節ロボットの位置センサ(例えば回転エンコーダ)を用いてロボット精度でワークピース上の第1及び第2の表面位置を決定するのではなく、上述したような技法を用いて、より正確な位置情報を決定できることは認められよう。 In block 1295, the determined relative positions and/or associated position information are used to determine a dimension of the workpiece corresponding to the distance between the first and second surface locations on the workpiece corresponding to the respective end tool positions (e.g., indicating contact points, etc.) at the time of the first and second image capture. It will be appreciated that rather than using a position sensor (e.g., a rotary encoder) on an articulated robot to determine the first and second surface locations on the workpiece with robotic precision, more accurate position information can be determined using techniques such as those described above.
図13は、移動タイミングの異なる部分でそれぞれ異なる技法を使用することができる、エンドツール位置を決定するためのルーチン1300の1つの例示的な実施例を示すフロー図である。概して、移動タイミング中に、ロボットの1つ以上のアーム部を第1の位置から第2の位置へ移動させる(例えば、移動機構を中心として1つ以上のアーム部を第1の回転向きから第2の回転向きへ回転させること、又は他の手法でこれらのアーム部を移動させること等を含み得る)。図13に示されているように、決定ブロック1310では、移動タイミング中にエンドツール位置を決定するためハイブリッドモードを利用するか否かを決定する。様々な実施例において、ハイブリッドモードは、図12Aを参照して上述したように、補足計測位置座標モードと標準ロボット位置座標モードとの切り替えを含むプロセスも表し得る。ハイブリッドモードが利用されない場合、ルーチンはブロック1320に進み、移動タイミング中にエンドツール位置を決定するため(例えば可動アーム構成MAC又はMAC’のような可動アーム構成の)ロボットの位置センサ(例えば回転エンコーダ、リニアエンコーダ等)のみを単独で利用する。 FIG. 13 is a flow diagram illustrating one exemplary embodiment of a routine 1300 for determining end tool position, which can use different techniques during different portions of the move timing. Generally, during the move timing, one or more arms of the robot are moved from a first position to a second position (e.g., this may include rotating one or more arms from a first rotational orientation to a second rotational orientation about a movement mechanism, or moving the arms in other ways). As shown in FIG. 13, decision block 1310 determines whether to utilize hybrid mode for determining end tool position during the move timing. In various embodiments, hybrid mode may also represent a process that includes switching between a supplemental measurement position coordinate mode and a standard robot position coordinate mode, as described above with reference to FIG. 12A. If hybrid mode is not utilized, the routine proceeds to block 1320 and solely utilizes the robot's position sensors (e.g., rotary encoders, linear encoders, etc.) (e.g., of a movable arm configuration such as MAC or MAC′) to determine end tool position during the move timing.
ハイブリッドモードが使用される場合、ルーチンはブロック1330に進み、移動タイミングの第1の部分の間、エンドツール位置を決定するためロボットに含まれる(例えばロボットの可動アーム構成MAC又はMAC’に含まれる)位置センサを使用する。このような動作中、エンドツール位置を決定するために補足計測位置決定システムは使用されない可能性がある。ブロック1340では、移動タイミングの第1の部分の後に生じる移動タイミングの第2の部分の間、補足計測位置決定システムを用いてエンドツール位置を決定する。このような動作によって、システムは、移動タイミングの第1の部分の間にエンドツール位置の初期の/高速の/粗い移動を実行できると共に、移動タイミングの第2の部分の間にエンドツール位置の高精度の最後の/低速の/細かい移動を実行できることは認められよう。 If hybrid mode is used, the routine proceeds to block 1330 and uses a position sensor included in the robot (e.g., included in the robot's movable arm configuration MAC or MAC') to determine the end tool position during a first portion of the movement timing. During such operation, the supplemental metrology positioning system may not be used to determine the end tool position. In block 1340, the supplemental metrology positioning system is used to determine the end tool position during a second portion of the movement timing, which occurs after the first portion of the movement timing. It will be appreciated that such operation allows the system to perform an initial/fast/coarse movement of the end tool position during the first portion of the movement timing, and a highly accurate final/slow/fine movement of the end tool position during the second portion of the movement timing.
図14は、ロボットと共に使用される補足計測位置決定システムを動作させるためのルーチン1400の例示的な実施を示すフロー図である。図14に示されているように、ブロック1410では、第1の画像取得時点で第1の2Dスケールの第1の画像を取得するように第1のカメラを動作させる。第1のカメラは、第1のカメラ結合位置でロボットの可動アーム構成に結合され、第1の参照位置を規定する。第1の2Dスケールは、第1の2Dスケール結合位置で可動アーム構成に結合されている。例えば、トリガ部187がカメラ161Aに制御信号を送信し、これによってカメラ161Aは第1の画像取得時点でスケール171Aの第1の画像を取得する。 FIG. 14 is a flow diagram illustrating an exemplary implementation of a routine 1400 for operating a supplemental metrology position determination system for use with a robot. As shown in FIG. 14, in block 1410, a first camera is operated to capture a first image of a first 2D scale at a first image acquisition time point. The first camera is coupled to the movable arm arrangement of the robot at a first camera coupling position and defines a first reference position. The first 2D scale is coupled to the movable arm arrangement at a first 2D scale coupling position. For example, trigger unit 187 sends a control signal to camera 161A, causing camera 161A to capture a first image of scale 171A at the first image acquisition time point.
ブロック1420では、第1の画像取得時点で第2の2Dスケールの第1の画像を取得するように第2のカメラを動作させる。第2のカメラは、第2のカメラ結合位置でロボットの可動アーム構成に結合され、第2の参照位置を規定する。第2の2Dスケールは、第2の2Dスケール結合位置で可動アーム構成に結合されている。例えば、トリガ部187がカメラ161Bに制御信号を送信し、これによってカメラ161Bは第1の画像取得時点でスケール171Bの第1の画像を取得する。 In block 1420, the second camera is operated to capture a first image of a second 2D scale at the first image acquisition time point. The second camera is coupled to the movable arm arrangement of the robot at a second camera coupling position and defines a second reference position. The second 2D scale is coupled to the movable arm arrangement at a second 2D scale coupling position. For example, the trigger unit 187 sends a control signal to camera 161B, causing camera 161B to capture a first image of scale 171B at the first image acquisition time point.
ブロック1430では、少なくとも部分的に、第1の画像取得時点で第1のカメラにより取得された第1の2Dスケールの第1の画像に基づいて、第1の2Dスケールの第1の相対位置を決定する。例えば、計測位置座標処理部190は、ブロック1410でカメラ161Aにより取得されたスケール171Aの第1の画像に基づいて、スケール171Aの相対位置を決定する。 In block 1430, a first relative position of the first 2D scale is determined based, at least in part, on a first image of the first 2D scale acquired by the first camera at the time of first image acquisition. For example, the measurement position coordinate processing unit 190 determines the relative position of scale 171A based on a first image of scale 171A acquired by camera 161A in block 1410.
ブロック1440では、少なくとも部分的に、第1の画像取得時点で第2のカメラにより取得された第2の2Dスケールの第1の画像に基づいて、第2の2Dスケールの第1の相対位置を決定する。例えば、計測位置座標処理部190は、ブロック1420でカメラ161Bにより取得されたスケール171Bの第1の画像に基づいて、スケール171Bの相対位置を決定する。 In block 1440, a first relative position of the second 2D scale is determined based, at least in part, on a first image of the second 2D scale acquired by the second camera at the time of first image acquisition. For example, the measurement position coordinate processing unit 190 determines the relative position of scale 171B based on a first image of scale 171B acquired by camera 161B in block 1420.
いくつかの実施例では、ブロック1440の後、少なくとも部分的に第1及び第2の2Dスケールの決定された第1の相対位置に基づいて、第1の画像取得時点における第1のエンドツール位置の計測位置座標を決定する。例えば計測位置座標処理部190は、少なくとも部分的にスケール171A及び171Bの決定された第1の相対位置に基づいて、エンドツール位置ETP(例えば図2を参照のこと)の計測位置座標(X2、Y2、Z2)を決定する。 In some embodiments, after block 1440, measurement position coordinates of the first end tool position at the time of first image acquisition are determined based at least in part on the determined first relative positions of the first and second 2D scales. For example, the measurement position coordinate processor 190 determines measurement position coordinates (X2, Y2, Z2) of the end tool position ETP (e.g., see FIG. 2) based at least in part on the determined first relative positions of the scales 171A and 171B.
いくつかの実施例では、ブロック1440の後、この方法は更に、第2の画像取得時点で第1の2Dスケールの第2の画像を取得するように第1のカメラを動作させることと、第2の画像取得時点で第2の2Dスケールの第2の画像を取得するように第2のカメラを動作させることと、少なくとも部分的に、第2の画像取得時点で第1のカメラにより取得された第1の2Dスケールの第2の画像に基づいて、第1の2Dスケールの第2の相対位置を決定することと、少なくとも部分的に、第2の画像取得時点で第2のカメラにより取得された第2の2Dスケールの第2の画像に基づいて、第2の2Dスケールの第2の相対位置を決定することと、を含む。例えば、ブロック1410、1420、1430、及び1440に関連付けて記載した行為を、異なる時点で(すなわち第2の画像取得時点で)繰り返す。 In some embodiments, after block 1440, the method further includes operating the first camera to acquire a second image at the first 2D scale at the second image acquisition time point; operating the second camera to acquire a second image at the second 2D scale at the second image acquisition time point; determining a second relative position of the first 2D scale based, at least in part, on the second image at the first 2D scale acquired by the first camera at the second image acquisition time point; and determining a second relative position of the second 2D scale based, at least in part, on the second image at the second 2D scale acquired by the second camera at the second image acquisition time point. For example, the acts described in association with blocks 1410, 1420, 1430, and 1440 may be repeated at a different time point (i.e., at the second image acquisition time point).
いくつかの実施例では、方法は更に、少なくとも部分的に第1及び第2の2Dスケールの決定された第1の相対位置に基づいて、第1の画像取得時点における第1のエンドツール位置の計測位置座標を決定することと、少なくとも部分的に第1及び第2の2Dスケールの決定された第2の相対位置に基づいて、第2の画像取得時点における第2のエンドツール位置の計測位置座標を決定することと、を含む。例えば計測位置座標処理部190は、少なくとも部分的にスケール171A及び171Bの決定された第1の相対位置に基づいて、エンドツール位置ETPの計測位置座標(X2a、Y2a、Z2a)を決定し、少なくとも部分的にスケール171A及び171Bの決定された第2の相対位置に基づいて、エンドツール位置ETPの計測位置座標(X2b、Y2b、Z2b)を決定する。いくつかの実施例において、方法は更に、第1及び第2のエンドツール位置の決定された計測位置座標を用いて、第1及び第2のエンドツール位置間の距離に関連した寸法を決定することを含む。例えば計測位置座標処理部190は、上述した計測位置座標(X2a、Y2a、Z2a)及び計測位置座標(X2b、Y2b、Z2b)を用いて第1及び第2のエンドツール位置間の距離を計算し、第1及び第2のエンドツール位置間の距離に関連した寸法を決定する。この寸法は、ワークピース上の第1及び第2の表面位置間の距離であるか又はこれに対応し得る。この場合、エンドツールの接点は、第1の画像取得時点でワークピース上の第1の表面位置に接触し、第2の画像取得時点でワークピース上の第2の表面位置に接触する。 In some embodiments, the method further includes determining measurement position coordinates of a first end tool position at the time of first image acquisition based at least in part on the determined first relative positions of the first and second 2D scales, and determining measurement position coordinates of a second end tool position at the time of second image acquisition based at least in part on the determined second relative positions of the first and second 2D scales. For example, the measurement position coordinate processing unit 190 determines measurement position coordinates (X2a, Y2a, Z2a) of the end tool position ETP based at least in part on the determined first relative positions of scales 171A and 171B, and determines measurement position coordinates (X2b, Y2b, Z2b) of the end tool position ETP based at least in part on the determined second relative positions of scales 171A and 171B. In some embodiments, the method further includes determining a dimension related to the distance between the first and second end tool positions using the determined measurement position coordinates of the first and second end tool positions. For example, the measurement position coordinate processing unit 190 calculates the distance between the first and second end tool positions using the above-described measurement position coordinates (X2a, Y2a, Z2a) and measurement position coordinates (X2b, Y2b, Z2b) and determines a dimension related to the distance between the first and second end tool positions. This dimension may be or correspond to the distance between the first and second surface positions on the workpiece. In this case, the contact point of the end tool contacts the first surface position on the workpiece at the time of acquiring the first image, and contacts the second surface position on the workpiece at the time of acquiring the second image.
いくつかの実施例では、ブロック1410の前に、方法は更に、第1及び第2の2Dスケールをそれぞれ第1及び第2の2Dスケール結合位置で可動アーム構成に結合することと、第1のカメラを第1のカメラ結合位置で可動アーム構成に結合することと、第2のカメラを第2のカメラ結合位置で可動アーム構成に結合することと、を含む。例えば、方法は、スケール171Aをスケール結合位置CL2で第1のアーム部121に結合することと、スケール171Bをスケール結合位置CL4で第1のアーム部121に結合することと、カメラ161Aをカメラ結合位置CL1で支持ベース部BSEに結合することと、カメラ161Bをカメラ結合位置CL3で第1のアーム部121に結合することと、を含む。 In some embodiments, prior to block 1410, the method further includes coupling first and second 2D scales to the movable arm configuration at first and second 2D scale coupling positions, respectively; coupling a first camera to the movable arm configuration at a first camera coupling position; and coupling a second camera to the movable arm configuration at a second camera coupling position. For example, the method includes coupling scale 171A to the first arm portion 121 at scale coupling position CL2, coupling scale 171B to the first arm portion 121 at scale coupling position CL4, coupling camera 161A to the support base portion BSE at camera coupling position CL1, and coupling camera 161B to the first arm portion 121 at camera coupling position CL3.
他の例において、第1及び第2のカメラは、カメラ161A、161B、162A、162B、862A、862B、863A、863B、864A等のうち任意のものとすればよく、第1及び第2の2Dスケールは、スケール171A、171B、172A、172B、872A、872B、873A、873B、874A等のうち任意のものとすればよく、これに対応して本明細書に記載されている構成のうち任意のものとすればよいことは認められよう。 In other examples, it will be appreciated that the first and second cameras may be any of cameras 161A, 161B, 162A, 162B, 862A, 862B, 863A, 863B, 864A, etc., and the first and second 2D scales may be any of scales 171A, 171B, 172A, 172B, 872A, 872B, 873A, 873B, 874A, etc., and correspondingly any of the configurations described herein.
本開示において、相対スケール要素等に関して要素名「2Dスケール」を用いたが、この要素名は単なる例示であって限定ではないことは理解されよう。これは、デカルト座標系の一部としてx及びyスケール座標に関連付けて「2Dスケール」と称され、名目上平面状の基板を含むものとして記載されている。しかしながら更に一般的には、要素名2Dスケールは、本明細書に開示されるように動作できるならば、任意の参照スケールであって、このスケール上の既知の2次元座標(例えば2次元の正確な位置及び/又は正確に較正された位置)に対応する複数の要素又はマークを含むものを指すと理解するべきである。例えばそのようなスケール要素は、その参照スケール上のデカルト座標系、又は極座標系、又は他の任意の好都合な座標系で表現する及び/又は指し示すことができる。更に、そのような要素は、これらの要素がスケール上の既知の2次元座標に対応すると共に本明細書に開示されるように動作できるならば、動作スケールエリア全体にわたって均一に又は不均一に分散させた要素を含み、目盛の付いた(graduated)又は目盛の付いていない(ungraduated)スケールマークを含むことができる。 While the element name "2D scale" has been used in this disclosure to refer to relative scale elements and the like, it will be understood that this element name is merely exemplary and not limiting. This "2D scale" is described as being associated with x and y scale coordinates as part of a Cartesian coordinate system and including a nominally planar substrate. More generally, however, the element name 2D scale should be understood to refer to any reference scale including a plurality of elements or marks corresponding to known two-dimensional coordinates (e.g., precise and/or precisely calibrated positions in two dimensions) on the scale, provided that the scale is operable as disclosed herein. For example, such scale elements may be expressed and/or indexed in Cartesian, polar, or any other convenient coordinate system on the reference scale. Furthermore, such elements may include elements uniformly or non-uniformly distributed throughout the operating scale area and may include graduated or ungraduated scale marks, provided that the elements correspond to known two-dimensional coordinates on the scale and are operable as disclosed herein.
本明細書に開示され説明されるロボットシステム及び対応する可動アーム構成は、概ね特定の数のアーム部(例えば3つのアーム部、5つのアーム部等)を参照して図示され記載されるが、このようなシステムはそのように限定されないことは理解されよう。様々な実施例において、本明細書に記載されるもののようなアーム部を含むならば、ロボットシステムは所望の場合はより少ないか又はより多くのアーム部を含むことも可能である。 While the robotic systems and corresponding movable arm configurations disclosed and described herein are generally illustrated and described with reference to a particular number of arms (e.g., three arms, five arms, etc.), it will be understood that such systems are not so limited. In various embodiments, while including arms such as those described herein, robotic systems can also include fewer or more arms, if desired.
本明細書で記載されるように、2Dスケール及びこのスケールを撮像するため使用されるカメラは、ロボットシステムの移動及び/又は位置に応じて、相互に対して回転し得ることは理解されよう(例えばスケールは回転継手等に実装されている)。(例えば本願に含まれる引用文献に開示されているような)当技術分野で既知の方法を用いて、そのような相対的な回転を正確に決定すること及び/又は必要な座標変換を実行すること、及び/又はそのような相対的な回転に関して本明細書に開示される原理に従ってカメラとスケールの相対位置を解析することが可能であることは認められよう。様々な実施例において、本明細書で言及される計測位置座標はそのような相対的な回転を考慮に入れていることは理解されよう。更に、いくつかの実施例において、本明細書で言及される計測位置座標は、そのような相対的な回転の精密な決定値及び/又は指示を含む座標セットを含むことは理解されよう。 As described herein, it will be understood that the 2D scale and the camera used to image the scale may rotate relative to one another (e.g., the scale is mounted on a rotary joint, etc.) depending on the movement and/or position of the robotic system. It will be appreciated that methods known in the art (e.g., as disclosed in the references incorporated herein) can be used to accurately determine such relative rotation and/or perform the necessary coordinate transformations and/or analyze the relative position of the camera and scale in accordance with the principles disclosed herein with respect to such relative rotation. It will be understood that in various embodiments, the measured position coordinates referred to herein take such relative rotation into account. It will further be understood that in some embodiments, the measured position coordinates referred to herein include coordinate sets that include precise determinations and/or indications of such relative rotation.
本開示の好適な実施例について図示及び記載したが、本開示に基づいて、図示及び記載した要素の構成及び動作のシーケンスにおける多数の変形が当業者には明らかであろう。種々の代替的な形態を用いて本明細書に開示された原理を実施することができる。更に、上述の様々な実施例を組み合わせて別の実施例を提供することも可能である。本明細書において言及した米国特許及び米国特許出願は全て、援用によりその全体が本願に含まれるものとする。これらの様々な特許及び出願の概念を用いて更に別の実施例を提供するために必要な場合は、上述の実施例の態様は変更可能である。 While preferred embodiments of the present disclosure have been shown and described, numerous variations in the arrangement of elements and sequence of operation shown and described will be apparent to those skilled in the art based on this disclosure. Various alternative configurations can be used to implement the principles disclosed herein. Furthermore, various embodiments described above can be combined to provide additional embodiments. All U.S. patents and U.S. patent applications referenced herein are incorporated by reference in their entirety. Aspects of the above-described embodiments can be modified as necessary to provide still further embodiments using concepts from these various patents and applications.
前述の記載に照らして、実施例にこれら及び他の変更を行うことができる。一般に、以下の特許請求の範囲において、使用される用語は本明細書及び特許請求の範囲に開示される特定の実施例に特許請求の範囲を限定するものとして解釈されず、そのような特許請求の範囲の権利が与えられる(entitled)均等物の全範囲に加えて全ての可能な実施例を包含するものとして解釈されるべきである。 These and other changes can be made to the embodiments in light of the foregoing description. In general, in the following claims, the terms used should not be construed as limiting the scope of the claims to the specific embodiments disclosed in the specification and claims, but should be construed as embracing all possible embodiments along with the full range of equivalents to which such claims are entitled.
Claims (21)
可動アーム構成であって、
第1のアーム部であって、前記第1のアーム部の近位端において第1の回転軸を有する第1の回転継手に実装され、前記第1のアーム部の遠位端に位置付けられる、第2の回転軸を有する第2の回転継手を有する、第1のアーム部と、
第2のアーム部であって、前記第2の回転継手を中心として回転するように、前記第2のアーム部の近位端において前記第2の回転継手に実装される、第2のアーム部と、
エンドツールを実装するためのエンドツール実装構成であって、前記可動アーム構成の遠位端の近傍に設けられるエンドツール実装構成と、
を備える可動アーム構成と、
少なくとも部分的に、前記ロボットに含まれる回転センサを用いて前記第1の回転継手及び前記第2の回転継手を中心とした前記第1のアーム部及び前記第2のアーム部の角度位置をそれぞれ検知及び制御することに基づいて、ロボット精度として規定された精度レベルで前記エンドツールの位置であるエンドツール位置を制御するように構成された移動制御システムと、
を備えるロボットと、
補足計測位置決定システムであって、
第1の2次元(2D)スケール結合位置及び第2の2Dスケール結合位置でそれぞれ前記可動アーム構成に結合されている第1の2Dスケール及び第2の2Dスケールであって、それぞれの2Dスケールは、名目上平面状の基板と、前記平面状の基板の上に分散された複数の撮像可能な要素と、を含む、第1の2Dスケール及び第2の2Dスケールと、
画像取得時点で前記第1の2Dスケールの画像を取得するための第1のカメラであって、第1の参照位置を規定し、第1のカメラ結合位置で前記可動アーム構成に結合されている第1のカメラと、
前記画像取得時点で前記第2の2Dスケールの画像を取得するための第2のカメラであって、第2の参照位置を規定し、第2のカメラ結合位置で前記可動アーム構成に結合されている第2のカメラと、
計測処理部であって、
少なくとも部分的に、第1の画像取得時点で前記第1のカメラにより取得された前記第1の2Dスケールの第1の画像に基づいて、前記第1の2Dスケールの第1の相対位置を決定し、
少なくとも部分的に、前記第1の画像取得時点で前記第2のカメラにより取得された前記第2の2Dスケールの第1の画像に基づいて、前記第2の2Dスケールの第1の相対位置を決定する、
ように構成された計測処理部と、
を備える補足計測位置決定システムと、
を備えるロボットシステム。 A robot,
A movable arm arrangement,
a first arm portion mounted to a first rotary joint having a first axis of rotation at a proximal end of the first arm portion and having a second rotary joint having a second axis of rotation located at a distal end of the first arm portion;
a second arm mounted to the second rotary joint at a proximal end thereof for rotation about the second rotary joint;
an end tool mounting structure for mounting an end tool, the end tool mounting structure being provided near a distal end of the movable arm structure;
a movable arm arrangement comprising:
a motion control system configured to control an end tool position, the position of the end tool, to a level of precision defined as robot precision based at least in part on sensing and controlling the angular positions of the first arm section and the second arm section about the first rotary joint and the second rotary joint, respectively, using rotation sensors included in the robot; and
a robot comprising:
1. A supplemental measurement position determination system, comprising:
a first two-dimensional (2D) scale and a second 2D scale coupled to the movable arm arrangement at a first 2D scale coupling location and a second 2D scale coupling location, respectively, each 2D scale including a nominally planar substrate and a plurality of imagable elements distributed on the planar substrate;
a first camera for acquiring an image at the first 2D scale at an image acquisition time, the first camera defining a first reference position and coupled to the movable arm arrangement at a first camera coupling position;
a second camera for capturing an image at the second 2D scale at the image capture time, the second camera defining a second reference position and coupled to the movable arm arrangement at a second camera coupling position;
A measurement processing unit,
determining a first relative position of the first 2D scale based at least in part on a first image of the first 2D scale acquired by the first camera at a first image acquisition time;
determining a first relative position of the second 2D scale based, at least in part, on a first image of the second 2D scale acquired by the second camera at the time of the first image acquisition;
a measurement processing unit configured as above;
a supplemental measurement position determination system comprising:
A robot system comprising:
前記第1の回転継手の回転中の前記第1の回転軸に対する垂直方向の移動によって、前記第1の2Dスケールの前記第1の相対位置に変化を生じる、請求項1に記載のロボットシステム。 the first 2D scale coupling location is on the first rotary joint;
2. The robotic system of claim 1, wherein movement of the first rotary joint perpendicular to the first axis of rotation during rotation causes a change in the first relative position of the first 2D scale.
前記第1のアーム部の屈曲又はねじれのうち少なくとも1つによって、前記第1の2Dスケールの前記第1の相対位置に変化を生じる、請求項1に記載のロボットシステム。 the first 2D scale attachment location is on the first arm portion;
The robotic system of claim 1 , wherein at least one of bending or twisting of the first arm portion causes a change in the first relative position of the first 2D scale.
少なくとも部分的に、第2の画像取得時点で前記第1のカメラにより取得された前記第1の2Dスケールの第2の画像に基づいて、前記第1の2Dスケールの第2の相対位置を決定し、
少なくとも部分的に、前記第2の画像取得時点で前記第2のカメラにより取得された前記第2の2Dスケールの第2の画像に基づいて、前記第2の2Dスケールの第2の相対位置を決定する、
ように構成されている、請求項1に記載のロボットシステム。 The measurement processing unit
determining a second relative position of the first 2D scale based at least in part on a second image of the first 2D scale acquired by the first camera at a second image acquisition time;
determining a second relative position of the second 2D scale based, at least in part, on a second image of the second 2D scale acquired by the second camera at the second image acquisition time;
The robot system according to claim 1 , wherein the robot system is configured as follows:
少なくとも部分的に前記第1及び第2の2Dスケールの前記決定された第1の相対位置に基づいて、前記第1の画像取得時点における第1のエンドツール位置の計測位置座標を決定し、
少なくとも部分的に前記第1及び第2の2Dスケールの前記決定された第2の相対位置に基づいて、前記第2の画像取得時点における第2のエンドツール位置の計測位置座標を決定する、
ように構成されている、請求項6に記載のロボットシステム。 The measurement processing unit
determining a measurement position coordinate of a first end tool position at the time of the first image acquisition based at least in part on the determined first relative position of the first and second 2D scales;
determining a measurement position coordinate of a second end tool position at the time of the second image acquisition based at least in part on the determined second relative position of the first and second 2D scales;
The robot system according to claim 6 , wherein the robot system is configured as follows:
前記ロボットは、
可動アーム構成であって、
第1のアーム部であって、前記第1のアーム部の近位端において第1の回転軸を有する第1の回転継手に実装され、前記第1のアーム部の遠位端に位置付けられる、第2の回転軸を有する第2の回転継手を有する、第1のアーム部と、
第2のアーム部であって、前記第2の回転継手を中心として回転するように、前記第2のアーム部の近位端において前記第2の回転継手に実装される、第2のアーム部と、
エンドツールを実装するためのエンドツール実装構成であって、前記可動アーム構成の遠位端の近傍に設けられるエンドツール実装構成と、
を備える可動アーム構成と、
少なくとも部分的に、前記ロボットに含まれる回転センサを用いて前記第1の回転継手及び前記第2の回転継手を中心とした前記第1のアーム部及び前記第2のアーム部の角度位置をそれぞれ検知及び制御することに基づいて、ロボット精度として規定された精度レベルで前記エンドツールの位置であるエンドツール位置を制御するように構成された移動制御システムと、を備え、
前記補足計測位置決定システムは、
第1の2次元(2D)スケール及び第2の2次元スケールであって、それぞれの2Dスケールは、名目上平面状の基板と、前記平面状の基板の上に分散された複数の撮像可能な要素と、を含む、第1の2Dスケール及び第2の2Dスケールと、
第1のカメラ及び第2のカメラと、を備え、
前記方法は、
第1の画像取得時点で前記第1の2Dスケールの第1の画像を取得するように前記第1のカメラを動作させることであって、
前記第1のカメラは、第1のカメラ結合位置で前記ロボットの前記可動アーム構成に結合されて、第1の参照位置を規定し、
前記第1の2Dスケールは、第1の2Dスケール結合位置で前記可動アーム構成に結合されている、
前記第1のカメラを動作させることと、
前記第1の画像取得時点で前記第2の2Dスケールの第1の画像を取得するように前記第2のカメラを動作させることであって、
前記第2のカメラは、第2のカメラ結合位置で前記ロボットの前記可動アーム構成に結合されて、第2の参照位置を規定し、
前記第2の2Dスケールは、第2の2Dスケール結合位置で前記可動アーム構成に結合されている、
前記第2のカメラを動作させることと、
少なくとも部分的に、前記第1の画像取得時点で前記第1のカメラにより取得された前記第1の2Dスケールの前記第1の画像に基づいて、前記第1の2Dスケールの第1の相対位置を決定することと、
少なくとも部分的に、前記第1の画像取得時点で前記第2のカメラにより取得された前記第2の2Dスケールの前記第1の画像に基づいて、前記第2の2Dスケールの第1の相対位置を決定することと、
を含む方法。 1. A method for operating a supplemental metrology position determination system for use with a robot, comprising:
The robot
A movable arm arrangement,
a first arm portion mounted to a first rotary joint having a first axis of rotation at a proximal end of the first arm portion and having a second rotary joint having a second axis of rotation located at a distal end of the first arm portion;
a second arm mounted to the second rotary joint at a proximal end thereof for rotation about the second rotary joint;
an end tool mounting structure for mounting an end tool, the end tool mounting structure being provided near a distal end of the movable arm structure;
a movable arm arrangement comprising:
a motion control system configured to control an end tool position, the position of the end tool, to a level of precision defined as robot precision based at least in part on sensing and controlling the angular positions of the first arm section and the second arm section about the first rotary joint and the second rotary joint, respectively, using rotation sensors included in the robot;
the supplemental measurement position determining system;
a first two-dimensional (2D) scale and a second two-dimensional scale, each of the 2D scales including a nominally planar substrate and a plurality of imageable elements distributed on the planar substrate;
a first camera and a second camera,
The method comprises:
operating the first camera to acquire a first image at the first 2D scale at a first image acquisition time;
the first camera is coupled to the movable arm arrangement of the robot at a first camera coupling position to define a first reference position;
the first 2D scale is coupled to the movable arm arrangement at a first 2D scale coupling location;
operating the first camera;
operating the second camera to acquire a first image at the second 2D scale at the first image acquisition time;
the second camera is coupled to the movable arm arrangement of the robot at a second camera coupling location to define a second reference location;
the second 2D scale is coupled to the movable arm arrangement at a second 2D scale coupling location;
operating the second camera;
determining a first relative position of the first 2D scale based, at least in part, on the first image of the first 2D scale acquired by the first camera at the first image acquisition time;
determining a first relative position of the second 2D scale based, at least in part, on the first image of the second 2D scale acquired by the second camera at the time of the first image acquisition;
A method comprising:
前記第2の画像取得時点で前記第2の2Dスケールの第2の画像を取得するように前記第2のカメラを動作させることと、
少なくとも部分的に、前記第2の画像取得時点で前記第1のカメラにより取得された前記第1の2Dスケールの前記第2の画像に基づいて、前記第1の2Dスケールの第2の相対位置を決定することと、
少なくとも部分的に、前記第2の画像取得時点で前記第2のカメラにより取得された前記第2の2Dスケールの前記第2の画像に基づいて、前記第2の2Dスケールの第2の相対位置を決定することと、
を更に含む、請求項11に記載の方法。 operating the first camera to acquire a second image at the first 2D scale at a second image acquisition time point;
operating the second camera to capture a second image at the second 2D scale at the second image capture time;
determining a second relative position of the first 2D scale based, at least in part, on the second image of the first 2D scale acquired by the first camera at the second image acquisition time;
determining a second relative position of the second 2D scale based, at least in part, on a second image of the second 2D scale acquired by the second camera at the second image acquisition time;
The method of claim 11 further comprising:
少なくとも部分的に、前記第1の2Dスケールの前記決定された第2の相対位置と、前記第2の2Dスケールの前記決定された第2の相対位置に基づいて、前記第2の画像取得時点における第2のエンドツール位置の計測位置座標を決定することと、
を更に含む、請求項13に記載の方法。 determining a measurement position coordinate of a first end tool position at the time of the first image acquisition based at least in part on the determined first relative position of the first 2D scale and the determined first relative position of the second 2D scale;
determining a measurement position coordinate of a second end tool position at the time of the second image acquisition based at least in part on the determined second relative position of the first 2D scale and the determined second relative position of the second 2D scale;
The method of claim 13 further comprising:
前記エンドツールの接点は、前記第1の画像取得時点で前記ワークピース上の前記第1の表面位置に接触し、前記第2の画像取得時点で前記ワークピース上の前記第2の表面位置に接触する、請求項15に記載の方法。 the dimension is a distance between a first surface location and a second surface location on the workpiece;
16. The method of claim 15, wherein a contact point of the end tool contacts the first surface location on the workpiece at the time of the first image acquisition and contacts the second surface location on the workpiece at the time of the second image acquisition.
前記第1のカメラを前記第1のカメラ結合位置で前記可動アーム構成に結合することと、
前記第2のカメラを前記第2のカメラ結合位置で前記可動アーム構成に結合することと、
を更に含む、請求項11に記載の方法。 coupling the first 2D scale and the second 2D scale to the movable arm arrangement at the first 2D scale coupling location and the second 2D scale coupling location, respectively;
coupling the first camera to the movable arm arrangement at the first camera coupling location;
coupling the second camera to the movable arm arrangement at the second camera coupling location;
The method of claim 11 further comprising:
第1の2次元(2D)スケール結合位置及び第2の2Dスケール結合位置でそれぞれ前記ロボットの前記可動アーム構成に結合されるように構成された第1の2Dスケール及び第2の2Dスケールであって、それぞれの2Dスケールは、名目上平面状の基板と、前記平面状の基板の上に分散された複数の撮像可能な要素と、を含む、第1の2Dスケール及び第2の2Dスケールと、
画像取得時点で前記第1の2Dスケールの画像を取得するための第1のカメラであって、第1の参照位置を規定し、第1のカメラ結合位置で前記可動アーム構成に結合されるように構成される第1のカメラと、
前記画像取得時点で前記第2の2Dスケールの画像を取得するための第2のカメラであって、第2の参照位置を規定し、第2のカメラ結合位置で前記可動アーム構成に結合されるように構成される第2のカメラと、
計測処理部であって、
少なくとも部分的に、第1の画像取得時点で前記第1のカメラにより取得された前記第1の2Dスケールの第1の画像に基づいて、前記第1の2Dスケールの第1の相対位置を決定し、
少なくとも部分的に、前記第1の画像取得時点で前記第2のカメラにより取得された前記第2の2Dスケールの第1の画像に基づいて、前記第2の2Dスケールの第1の相対位置を決定する、
ように構成された計測処理部と、
を備え、
少なくとも部分的に、前記第1の2Dスケール及び第2の2Dスケールの前記決定された第1の相対位置に基づいて、前記第1の画像取得時点における第1のエンドツール位置の計測位置座標を決定する、補足計測位置決定システム。 1. A supplemental metrology positioning system for use with a robot comprising: a movable arm arrangement having an end tool mounting arrangement for mounting an end tool; and a motion control system configured to control an end tool position of the end tool,
a first two-dimensional (2D) scale and a second 2D scale configured to be coupled to the movable arm arrangement of the robot at a first 2D scale coupling location and a second 2D scale coupling location, respectively, each 2D scale including a nominally planar substrate and a plurality of imagable elements distributed on the planar substrate;
a first camera for acquiring an image at the first 2D scale at an image acquisition time, the first camera defining a first reference position and configured to be coupled to the movable arm arrangement at a first camera coupling position;
a second camera for acquiring an image at the second 2D scale at the image acquisition time, the second camera defining a second reference position and configured to be coupled to the movable arm arrangement at a second camera coupling position;
A measurement processing unit,
determining a first relative position of the first 2D scale based at least in part on a first image of the first 2D scale acquired by the first camera at a first image acquisition time;
determining a first relative position of the second 2D scale based, at least in part, on a first image of the second 2D scale acquired by the second camera at the time of the first image acquisition;
a measurement processing unit configured as above;
Equipped with
a supplemental measurement position determination system that determines measurement position coordinates of a first end tool position at the time of the first image acquisition based at least in part on the determined first relative position of the first 2D scale and the second 2D scale.
前記第1の回転継手は第1の回転軸を有し、前記第1の回転継手の回転中の前記第1の回転軸に対する垂直方向の移動によって、前記第1の2Dスケールの前記第1の相対位置に変化を生じる、請求項18に記載の補足計測位置決定システム。 the first 2D scale coupling location is on a first rotary joint of the movable arm arrangement;
20. The supplemental measurement position determination system of claim 18, wherein the first rotary joint has a first axis of rotation, and wherein movement of the first rotary joint perpendicular to the first axis of rotation during rotation causes a change in the first relative position of the first 2D scale.
前記第1のアーム部の屈曲又はねじれのうち少なくとも1つによって、前記第1の2Dスケールの前記第1の相対位置に変化を生じる、請求項18に記載の補足計測位置決定システム。 the first 2D scale binding location is on a first arm portion of the movable arm arrangement;
20. The supplemental measurement position determination system of claim 18, wherein at least one of bending or twisting of the first arm portion causes a change in the first relative position of the first 2D scale.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US17/071,974 US11002529B2 (en) | 2018-08-16 | 2020-10-15 | Robot system with supplementary metrology position determination system |
| US17/071,974 | 2020-10-15 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022065646A JP2022065646A (en) | 2022-04-27 |
| JP7718949B2 true JP7718949B2 (en) | 2025-08-05 |
Family
ID=80929487
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021168330A Active JP7718949B2 (en) | 2020-10-15 | 2021-10-13 | Robotic systems using complementary measurement and positioning systems. |
Country Status (3)
| Country | Link |
|---|---|
| JP (1) | JP7718949B2 (en) |
| CN (1) | CN114367973B (en) |
| DE (1) | DE102021211677A1 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20250112800A (en) * | 2022-11-22 | 2025-07-24 | 노박 테크놀로지스 아이엔씨. | Welding torch assembly with integrated vision system |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003117861A (en) | 2001-10-15 | 2003-04-23 | Denso Corp | Robot position correction system |
| JP2015042437A (en) | 2013-07-22 | 2015-03-05 | キヤノン株式会社 | Robot system and robot system calibration method |
| JP2017056503A (en) | 2015-09-15 | 2017-03-23 | ファナック株式会社 | Sag measurement system for measuring sag of multijoint robot |
| JP2020026031A (en) | 2018-08-16 | 2020-02-20 | 株式会社ミツトヨ | Robot system using supplemental measurement position coordinate determination system |
| JP2020026032A (en) | 2018-08-16 | 2020-02-20 | 株式会社ミツトヨ | Supplemental measurement position coordinate determination system to be used together with robot |
| US20200298411A1 (en) | 2016-05-31 | 2020-09-24 | Siemens Aktiengesellschaft | Method for the orientation of an industrial robot, and industrial robot |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4606691A (en) * | 1983-04-30 | 1986-08-19 | Alex Zalucky | Beam bending compensation |
| US4725965A (en) * | 1986-07-23 | 1988-02-16 | American Telephone And Telegraph Company | Method for calibrating a SCARA robot |
| US5798947A (en) | 1996-09-25 | 1998-08-25 | The Board Of Trustees Of The Leland Stanford, Jr. University | Methods, apparatus and computer program products for self-calibrating two-dimensional metrology stages |
| US6222940B1 (en) | 1999-01-06 | 2001-04-24 | National Instruments Corporation | Pattern matching system and method which detects rotated and scaled template images |
| US6640008B1 (en) | 2001-06-29 | 2003-10-28 | Shih-Jong J. Lee | Rotation and scale invariant pattern matching method |
| US6781694B2 (en) | 2002-07-16 | 2004-08-24 | Mitutoyo Corporation | Two-dimensional scale structures and method usable in an absolute position transducer |
| US6937349B2 (en) | 2003-05-02 | 2005-08-30 | Mitutoyo Corporation | Systems and methods for absolute positioning using repeated quasi-random pattern |
| CN101449229B (en) * | 2006-05-19 | 2011-10-12 | 马科外科公司 | A method and apparatus for controlling a haptic device |
| JP4298757B2 (en) * | 2007-02-05 | 2009-07-22 | ファナック株式会社 | Robot mechanism calibration apparatus and method |
| JP5854815B2 (en) * | 2011-12-20 | 2016-02-09 | キヤノン株式会社 | Information processing apparatus, information processing apparatus control method, and program |
| US9616573B2 (en) * | 2012-05-25 | 2017-04-11 | The Ritsumeikan Trust | Robot control apparatus, robot control method, program, recording medium and robot system |
| US9452533B2 (en) * | 2013-05-15 | 2016-09-27 | Hexagon Technology Center Gmbh | Robot modeling and positioning |
| JP6564428B2 (en) * | 2017-08-03 | 2019-08-21 | ファナック株式会社 | Calibration system and calibration method |
| CN110919654B (en) * | 2019-12-02 | 2021-04-30 | 中国船舶工业系统工程研究院 | A method of automatic docking of aircraft based on visual servo and mechanical arm |
-
2021
- 2021-10-13 JP JP2021168330A patent/JP7718949B2/en active Active
- 2021-10-14 CN CN202111196686.2A patent/CN114367973B/en active Active
- 2021-10-15 DE DE102021211677.9A patent/DE102021211677A1/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003117861A (en) | 2001-10-15 | 2003-04-23 | Denso Corp | Robot position correction system |
| JP2015042437A (en) | 2013-07-22 | 2015-03-05 | キヤノン株式会社 | Robot system and robot system calibration method |
| JP2017056503A (en) | 2015-09-15 | 2017-03-23 | ファナック株式会社 | Sag measurement system for measuring sag of multijoint robot |
| US20200298411A1 (en) | 2016-05-31 | 2020-09-24 | Siemens Aktiengesellschaft | Method for the orientation of an industrial robot, and industrial robot |
| JP2020026031A (en) | 2018-08-16 | 2020-02-20 | 株式会社ミツトヨ | Robot system using supplemental measurement position coordinate determination system |
| JP2020026032A (en) | 2018-08-16 | 2020-02-20 | 株式会社ミツトヨ | Supplemental measurement position coordinate determination system to be used together with robot |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102021211677A1 (en) | 2022-04-21 |
| JP2022065646A (en) | 2022-04-27 |
| CN114367973B (en) | 2024-09-10 |
| CN114367973A (en) | 2022-04-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11002529B2 (en) | Robot system with supplementary metrology position determination system | |
| US10751883B2 (en) | Robot system with supplementary metrology position coordinates determination system | |
| JP7420506B2 (en) | Supplementary measurement position coordinate determination system used with robots | |
| US10913156B2 (en) | Robot system with end tool metrology position coordinates determination system | |
| JP7256106B2 (en) | Inductive position detection arrangement for indicating stylus position of a measuring device | |
| US20090177438A1 (en) | Apparatus and method for relocating an articulating-arm coordinate measuring machine | |
| US20040148791A1 (en) | Articulation measuring arm having rotatable part-carrying platen | |
| JP2000288965A (en) | Measurement device and machine error correction method | |
| US11745354B2 (en) | Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot | |
| US11408554B2 (en) | Gantry-type positioning device | |
| US12174005B2 (en) | Metrology system with position and orientation tracking utilizing light beams | |
| JP7718949B2 (en) | Robotic systems using complementary measurement and positioning systems. | |
| JP4964691B2 (en) | Measuring method of measured surface | |
| JP7431216B2 (en) | Supplementary metrology position coordinate determination system including alignment sensors used with robots | |
| CN105222715B (en) | A kind of direct incident-type light arm scale-up version one-dimensional linear gauge head | |
| US20250198744A1 (en) | Metrology system with high speed position and orientation tracking mode | |
| US20250198806A1 (en) | Metrology system with position and orientation tracking utilizing patterns of light beams | |
| JP2023040576A (en) | Shape measuring instrument and calibration method thereof | |
| CN121042948A (en) | Five-axis machine tool knife point and knife shaft direction precision synchronous visual measurement device and method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240918 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250520 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250625 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250724 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7718949 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |