[go: up one dir, main page]

JP2024011492A - Three-dimensional coordinate measurement apparatus - Google Patents

Three-dimensional coordinate measurement apparatus Download PDF

Info

Publication number
JP2024011492A
JP2024011492A JP2022113500A JP2022113500A JP2024011492A JP 2024011492 A JP2024011492 A JP 2024011492A JP 2022113500 A JP2022113500 A JP 2022113500A JP 2022113500 A JP2022113500 A JP 2022113500A JP 2024011492 A JP2024011492 A JP 2024011492A
Authority
JP
Japan
Prior art keywords
probe
main body
coordinate system
set point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022113500A
Other languages
Japanese (ja)
Inventor
淳史 松谷
Atsushi Matsutani
俊亮 五十嵐
Shunsuke Igarashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2022113500A priority Critical patent/JP2024011492A/en
Publication of JP2024011492A publication Critical patent/JP2024011492A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a three-dimensional coordinate measurement apparatus which can easily and properly expand a measurement possible range.SOLUTION: An imaging head 100 generates information about a position and a posture of a probe 200 instructing a measurement point. Coordinates of the measurement point on a coordinate system defined according to an installation state of the imaging head 100 are calculated on the basis of the generated information. When the installation state of the imaging head 100 is changed from a first installation state to a second installation state, processing of matching a first coordinate system corresponding to the first installation state with a second coordinate system corresponding to the second installation state is performed. Measurement over the first and second measurement points is performed on the basis of a result of the matching processing and the coordinates of the first and second measurement points calculated respectively when the installation state of the imaging head 100 is in the first and second installation states. A guidance image based on the relative physical relation between the probe 200 and the imaging head 100 is generated for the matching.SELECTED DRAWING: Figure 1

Description

本発明は、プローブを用いて測定対象物の形状を測定する三次元座標測定装置に関する。 The present invention relates to a three-dimensional coordinate measuring device that measures the shape of an object to be measured using a probe.

従来より、測定対象物の形状を測定するためにプローブを備える三次元座標測定装置が用いられる。例えば、特許文献1に記載された三次元座標測定装置は、接触部を有するプローブおよび撮像ヘッドを備える。撮像ヘッドは、基準スタンドにより床面等の設置面上に固定され、プローブに設けられた複数のマーカを撮像する。 2. Description of the Related Art Conventionally, a three-dimensional coordinate measuring device equipped with a probe has been used to measure the shape of an object to be measured. For example, the three-dimensional coordinate measuring device described in Patent Document 1 includes a probe having a contact portion and an imaging head. The imaging head is fixed on an installation surface such as a floor by a reference stand, and images a plurality of markers provided on the probe.

測定対象物の形状測定時には、測定対象物における測定対象部分にプローブの接触部が接触される。プローブに設けられた複数のマーカが撮像ヘッドによって撮像されることにより、画像データが生成される。その画像データに基づいて測定対象物と接触部との接触位置の座標が算出される。 When measuring the shape of an object to be measured, a contact portion of the probe is brought into contact with a portion of the object to be measured. Image data is generated by capturing images of a plurality of markers provided on the probe using an imaging head. Based on the image data, the coordinates of the contact position between the object to be measured and the contact portion are calculated.

特開2020-20699号公報JP 2020-20699 Publication

上記の三次元座標測定装置によれば、撮像ヘッドが一の場所に設置された状態で測定対象物の測定が可能な範囲は、当該撮像ヘッドによりプローブの複数のマーカを撮像することができる範囲に限られる。 According to the three-dimensional coordinate measuring device described above, the range in which the object to be measured can be measured with the imaging head installed at one location is the range in which the imaging head can image multiple markers on the probe. limited to.

三次元座標測定装置による測定対象物の測定可能な範囲を拡大するために、撮像ヘッドを複数の場所に移動させることが考えられる。しかしながら、測定ヘッドを移動させつつ、その移動の前後で取得された測定結果(測定データ)の整合をとるためには、煩雑な設定作業が必要になる。 In order to expand the measurable range of the object to be measured by the three-dimensional coordinate measuring device, it is conceivable to move the imaging head to a plurality of locations. However, in order to match the measurement results (measurement data) obtained before and after the movement of the measurement head while moving the measurement head, complicated setting work is required.

本発明の目的は、測定可能範囲を容易かつ適切に拡大することが可能な三次元座標測定装置を提供することである。 An object of the present invention is to provide a three-dimensional coordinate measuring device that can easily and appropriately expand the measurable range.

本発明の一局面に従う三次元座標測定装置は、測定点を指示するプローブと、前記プローブの位置および姿勢に関する情報を生成する本体部と、前記本体部により生成された情報に基づいて測定点を指示する前記プローブの位置および姿勢を測定するとともに、測定された当該プローブの位置および姿勢に基づいて、前記本体部の設置状態に応じて定義される座標系上の前記測定点の座標を算出する座標算出部と、前記本体部の設置状態が第1の設置状態であるときに前記座標算出部により算出された第1の測定点の座標を記憶する記憶部と、前記本体部の設置状態が前記第1の設置状態から前記第2の設置状態に変更される場合に、前記第1の設置状態に対応する第1の座標系と、当該第2の設置状態に対応する第2の座標系とを整合させる座標整合処理部と、前記座標整合処理部により整合された前記第1の座標系および前記第2の座標系、前記記憶部に記憶された前記第1の測定点の座標、ならびに、前記本体部の設置状態が第2の設置状態であるときに前記座標算出部により算出された第2の測定点の座標に基づいて、前記第1の測定点と当該第2の測定点を跨ぐ測定を行う測定部と、前記第1の座標系と前記第2の座標系を整合させるために前記プローブと前記本体部の相対的な位置関係に基づく誘導画像を生成する誘導画像生成部とを備える。 A three-dimensional coordinate measuring device according to one aspect of the present invention includes a probe that indicates a measurement point, a main body that generates information regarding the position and orientation of the probe, and a three-dimensional coordinate measuring device that determines the measurement point based on the information generated by the main body. The position and orientation of the probe to be instructed are measured, and the coordinates of the measurement point on a coordinate system defined according to the installation state of the main body are calculated based on the measured position and orientation of the probe. a coordinate calculation section; a storage section that stores the coordinates of a first measurement point calculated by the coordinate calculation section when the installation state of the main body section is a first installation state; When changing from the first installation state to the second installation state, a first coordinate system corresponding to the first installation state and a second coordinate system corresponding to the second installation state. a coordinate matching processing unit that matches the first coordinate system and the second coordinate system that are matched by the coordinate matching processing unit, the coordinates of the first measurement point stored in the storage unit, and , the first measurement point and the second measurement point are determined based on the coordinates of the second measurement point calculated by the coordinate calculation unit when the installation state of the main body is the second installation state. a measurement unit that performs straddling measurement; and a guidance image generation unit that generates a guidance image based on the relative positional relationship between the probe and the main body in order to align the first coordinate system and the second coordinate system. Equipped with.

本発明によれば、三次元座標測定装置による測定可能範囲を容易かつ適切に拡大することが可能になる。 According to the present invention, it becomes possible to easily and appropriately expand the measurable range by a three-dimensional coordinate measuring device.

第1の実施の形態に係る三次元座標測定装置の使用例を示す模式図である。FIG. 2 is a schematic diagram showing an example of use of the three-dimensional coordinate measuring device according to the first embodiment. 撮像ヘッドおよび処理装置の基本構成を示すブロック図である。FIG. 2 is a block diagram showing the basic configuration of an imaging head and a processing device. プローブの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a probe. プローブの外観斜視図である。It is an external perspective view of a probe. 図2の本体制御回路による測定処理の一例を示すフローチャートである。3 is a flowchart showing an example of measurement processing by the main body control circuit of FIG. 2. FIG. 測定点座標算出処理の一例を示すフローチャートである。It is a flowchart which shows an example of measurement point coordinate calculation processing. 図2の本体制御回路による追跡処理の一例を示すフローチャートである。3 is a flowchart showing an example of tracking processing by the main body control circuit of FIG. 2. FIG. 第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 3 is a diagram for explaining a movement setting work and a setting burden reduction function according to the first embodiment. 第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 3 is a diagram for explaining a movement setting work and a setting burden reduction function according to the first embodiment. 第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 3 is a diagram for explaining a movement setting work and a setting burden reduction function according to the first embodiment. 第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 3 is a diagram for explaining a movement setting work and a setting burden reduction function according to the first embodiment. 第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 3 is a diagram for explaining a movement setting work and a setting burden reduction function according to the first embodiment. 第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 3 is a diagram for explaining a movement setting work and a setting burden reduction function according to the first embodiment. 第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 3 is a diagram for explaining a movement setting work and a setting burden reduction function according to the first embodiment. 第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 3 is a diagram for explaining a movement setting work and a setting burden reduction function according to the first embodiment. 第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 3 is a diagram for explaining a movement setting work and a setting burden reduction function according to the first embodiment. 第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 3 is a diagram for explaining a movement setting work and a setting burden reduction function according to the first embodiment. 第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 3 is a diagram for explaining a movement setting work and a setting burden reduction function according to the first embodiment. 第1の実施の形態に係る移動設定処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of movement setting processing according to the first embodiment. 第1の実施の形態に係る移動設定処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of movement setting processing according to the first embodiment. 第2の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 7 is a diagram for explaining a movement setting work and a setting burden reduction function according to the second embodiment. 第2の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 7 is a diagram for explaining a movement setting work and a setting burden reduction function according to the second embodiment. 第2の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 7 is a diagram for explaining a movement setting work and a setting burden reduction function according to the second embodiment. 第2の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。FIG. 7 is a diagram for explaining a movement setting work and a setting burden reduction function according to the second embodiment. 第2の実施の形態に係る本体制御回路の機能部の一例を示す図である。FIG. 7 is a diagram illustrating an example of a functional section of a main body control circuit according to a second embodiment. 第2の実施の形態に係る移動設定処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of movement setting processing according to the second embodiment. 第2の実施の形態に係る移動設定処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of movement setting processing according to the second embodiment.

1.第1の実施の形態
<1>三次元座標測定装置の概略構成および使用例
図1は、第1の実施の形態に係る三次元座標測定装置の使用例を示す模式図である。図1に示すように、本実施の形態に係る三次元座標測定装置1は、主として撮像ヘッド100、プローブ200および処理装置300から構成され、例えば測定対象物Sの各部の形状(寸法等)を測定するために用いられる。図1の例では、測定対象物Sは、床面上に置かれている。
1. First Embodiment <1> Schematic configuration and usage example of three-dimensional coordinate measuring device FIG. 1 is a schematic diagram showing a usage example of the three-dimensional coordinate measuring device according to the first embodiment. As shown in FIG. 1, the three-dimensional coordinate measuring device 1 according to the present embodiment mainly includes an imaging head 100, a probe 200, and a processing device 300. used for measurement. In the example of FIG. 1, the measurement target S is placed on the floor.

プローブ200は、使用者Uにより携行される。プローブ200には、接触部211aが設けられている。使用者Uは、測定対象物Sの所望の部分にプローブ200の接触部211aを接触させる。これにより、測定対象物Sにおける接触部211aとの接触部分が測定点として指示される。 Probe 200 is carried by user U. The probe 200 is provided with a contact portion 211a. The user U brings the contact portion 211a of the probe 200 into contact with a desired portion of the object S to be measured. Thereby, the contact portion of the measurement object S with the contact portion 211a is designated as the measurement point.

撮像ヘッド100は、基準スタンド10により例えば設置面としての床面上に固定される。撮像ヘッド100の内部には、可動カメラ120が設けられている。可動カメラ120によりプローブ200に設けられた後述する複数のマーカeq(図4)が撮像される。基準スタンド10は、例えば三脚である。 The imaging head 100 is fixed by a reference stand 10 on, for example, a floor surface as an installation surface. A movable camera 120 is provided inside the imaging head 100. A plurality of markers eq (FIG. 4), which will be described later, provided on the probe 200 are imaged by the movable camera 120. The reference stand 10 is, for example, a tripod.

また、撮像ヘッド100は、ケーブルCAを介して処理装置300に接続されている。処理装置300は、例えばパーソナルコンピュータであり、本体表示部310および本体操作部320が接続されている。処理装置300においては、可動カメラ120がプローブ200を撮像することにより得られる画像データ(以下、測定画像データと呼ぶ。)と後述する基準画像データとに基づいて測定対象物S上の測定点の座標が算出される。測定対象物Sにおける1または複数の測定点の座標が算出されることにより、それらの算出結果に基づいて測定対象物Sの各部の形状が測定される。 Further, the imaging head 100 is connected to a processing device 300 via a cable CA. The processing device 300 is, for example, a personal computer, to which a main body display section 310 and a main body operation section 320 are connected. In the processing device 300, the measurement points on the measurement object S are determined based on image data obtained by imaging the probe 200 by the movable camera 120 (hereinafter referred to as measurement image data) and reference image data to be described later. Coordinates are calculated. By calculating the coordinates of one or more measurement points on the measurement object S, the shape of each part of the measurement object S is measured based on the calculation results.

使用者Uがプローブ200を携行して移動する場合には、可動カメラ120の撮像視野の向きは、一定の範囲内でプローブ200の移動に追従する。それにより、三次元座標測定装置1は、比較的広い測定可能範囲を有する。しかしながら、撮像ヘッド100が床面上の一点に固定されていると、可動カメラ120がプローブ200を撮像することができないことにより、測定対象物Sの所望の部分の形状を測定することができない場合がある。 When user U moves while carrying probe 200, the direction of the imaging field of view of movable camera 120 follows the movement of probe 200 within a certain range. Thereby, the three-dimensional coordinate measuring device 1 has a relatively wide measurable range. However, if the imaging head 100 is fixed to one point on the floor, the movable camera 120 cannot image the probe 200, and the shape of the desired part of the measurement object S cannot be measured. There is.

例えば、図1に示される測定対象物Sは、ベース部s1および突出部s2を有する。ベース部s1は、一定の厚みを有する矩形の平板状に形成され、一方向に延びている。突出部s2は、ベース部s1の短手方向における中央部から上方に突出するように形成され、ベース部s1の長手方向に平行に延びている。突出部s2は、ベース部s1の短手方向に並びかつ高さが異なる2つの上面s21,s22を有する。ベース部s1は、その短手方向において突出部s2を挟み込む2つの上面s11,s12を有する。 For example, the measurement object S shown in FIG. 1 has a base portion s1 and a protrusion portion s2. The base portion s1 is formed in a rectangular flat plate shape with a constant thickness, and extends in one direction. The protruding portion s2 is formed to protrude upward from the center portion of the base portion s1 in the lateral direction, and extends in parallel to the longitudinal direction of the base portion s1. The protruding portion s2 has two upper surfaces s21 and s22 that are arranged in the lateral direction of the base portion s1 and have different heights. The base portion s1 has two upper surfaces s11 and s12 that sandwich the protrusion portion s2 in the transverse direction thereof.

図1の例では、測定対象物Sの上面s12に近くかつ測定対象物Sの上面s11から遠い位置P1上に撮像ヘッド100が固定されている。この状態で、可動カメラ120は、上面s12のほぼ全体に渡って、測定点を指示するプローブ200を撮像することができる。一方、上面s11の大部分は、突出部s2により可動カメラ120の死角になる。そのため、可動カメラ120は、上面s11のうち限られた部分が指示される場合にしかプローブ200を撮像することができない。 In the example of FIG. 1, the imaging head 100 is fixed at a position P1 close to the top surface s12 of the measurement object S and far from the top surface s11 of the measurement object S. In this state, the movable camera 120 can image the probe 200 indicating the measurement point over almost the entire upper surface s12. On the other hand, most of the upper surface s11 becomes a blind spot for the movable camera 120 due to the protrusion s2. Therefore, the movable camera 120 can image the probe 200 only when a limited portion of the upper surface s11 is instructed.

そこで、図1に太い一点鎖線の矢印で示すように、位置P1で測定対象物Sの上面s12上の所望の部分について測定点が指示された後、上面s11のほぼ全体に渡って測定点を指示可能な位置に撮像ヘッド100を移動させる。例えば、図1に点線で示すように、基準スタンド10を、測定対象物Sの上面s11に近くかつ測定対象物Sの上面s12から遠い位置P2に配置する。これにより、可動カメラ120は、上面s11のほぼ全体に渡って、測定点を指示するプローブ200を撮像することができる。したがって、測定対象物Sにおける形状測定の可能な範囲が拡大される。 Therefore, as shown by the thick dashed-dotted arrow in FIG. The imaging head 100 is moved to a position where it can be instructed. For example, as shown by the dotted line in FIG. 1, the reference stand 10 is placed at a position P2 close to the top surface s11 of the measurement object S and far from the top surface s12 of the measurement object S. Thereby, the movable camera 120 can image the probe 200 indicating the measurement point over almost the entire upper surface s11. Therefore, the range in which the shape of the measurement target S can be measured is expanded.

後述するように、三次元座標測定装置1においては、基準カメラ110の位置および姿勢に応じて測定点を表す座標系が定義される。そのため、撮像ヘッド100の移動前に指示された測定点と、撮像ヘッド100の移動後に指示された測定点との間では、算出される座標の座標系が異なる。 As will be described later, in the three-dimensional coordinate measuring device 1, a coordinate system representing measurement points is defined according to the position and orientation of the reference camera 110. Therefore, the coordinate systems of the calculated coordinates are different between the measurement point designated before the imaging head 100 moves and the measurement point designated after the imaging head 100 moves.

そこで、撮像ヘッド100の移動の前後で指示された複数の測定点の座標の算出結果について、座標系の整合をとる。これにより、撮像ヘッド100の移動の前後で指示された複数の測定点の間の寸法等を算出することが可能になる。図1の吹き出し内には、測定対象物Sの平面図とともに、撮像ヘッド100を移動させることにより突出部s2を挟む2つの上面s11,s12上の2つの測定点m1,m2間の距離が算出される例が示される。 Therefore, the coordinate systems are matched with respect to the calculation results of the coordinates of the plurality of measurement points designated before and after the movement of the imaging head 100. This makes it possible to calculate dimensions, etc. between a plurality of designated measurement points before and after the movement of the imaging head 100. In the balloon of FIG. 1, the distance between two measurement points m1 and m2 on the two upper surfaces s11 and s12 sandwiching the protrusion s2 is calculated by moving the imaging head 100 along with a plan view of the measurement target S. An example is shown below.

上記のように、撮像ヘッド100の移動の前後で指示された測定対象物Sの複数の測定点の座標の算出結果について、座標系の整合をとるために、使用者Uは、所定の設定作業を行う必要がある。以下の説明では、撮像ヘッド100の移動の前後で、測定結果の整合をとるために使用者に要求される作業を、移動設定作業と呼ぶ。本実施の形態に係る三次元座標測定装置1は、使用者Uによる上記の移動設定作業の負担を軽減する機能(設定負担軽減機能)を有する。この機能の詳細については後述する。 As described above, in order to align the coordinate systems with respect to the calculation results of the coordinates of a plurality of measurement points on the measurement object S that are instructed before and after the movement of the imaging head 100, the user U performs the predetermined setting work. need to be done. In the following description, the work required of the user to match the measurement results before and after the movement of the imaging head 100 will be referred to as a movement setting work. The three-dimensional coordinate measuring device 1 according to the present embodiment has a function to reduce the burden of the above movement setting work on the user U (setting burden reduction function). Details of this function will be described later.

<2>撮像ヘッド100および処理装置300の基本構成
(a)撮像ヘッド100
図2は、撮像ヘッド100および処理装置300の基本構成を示すブロック図である。まず、撮像ヘッド100の構成について説明する。図2に示すように、撮像ヘッド100は、電気的な構成として基準カメラ110、可動カメラ120、マーカ駆動回路130、回転駆動回路140、ヘッド制御回路150、無線通信回路160、通信回路170、俯瞰カメラ180および参照部材190を含む。これらの構成は、図2に二点鎖線で示される固定連結部20、支持部材30および可動部材40のいずれかにより支持された状態で、ケーシング90(図1)内に収容される。ケーシング90は、可動カメラ120および俯瞰カメラ180の撮像視野を、当該ケーシング90の外部に導くように構成されている。
<2> Basic configuration of imaging head 100 and processing device 300 (a) Imaging head 100
FIG. 2 is a block diagram showing the basic configuration of the imaging head 100 and the processing device 300. First, the configuration of the imaging head 100 will be explained. As shown in FIG. 2, the imaging head 100 has an electrical configuration including a reference camera 110, a movable camera 120, a marker drive circuit 130, a rotation drive circuit 140, a head control circuit 150, a wireless communication circuit 160, a communication circuit 170, and an overhead camera. It includes a camera 180 and a reference member 190. These structures are housed in the casing 90 (FIG. 1) while being supported by any one of the fixed connection part 20, the support member 30, and the movable member 40 shown by the two-dot chain line in FIG. The casing 90 is configured to guide the imaging fields of the movable camera 120 and the overhead camera 180 to the outside of the casing 90 .

固定連結部20は、図1の基準スタンド10上に固定される。固定連結部20には、回転駆動回路140、ヘッド制御回路150、無線通信回路160および通信回路170が実装された各種基板が設けられる。また、固定連結部20には、基準カメラ110が取り付けられている。基準カメラ110は、撮像素子として、赤外線を検出可能なCMOS(相補性金属酸化膜半導体)イメージセンサを含む。また、基準カメラ110は、図示しない複数のレンズ(光学系)を含む。 The fixed coupling part 20 is fixed on the reference stand 10 of FIG. The fixed connection section 20 is provided with various substrates on which a rotation drive circuit 140, a head control circuit 150, a wireless communication circuit 160, and a communication circuit 170 are mounted. Further, a reference camera 110 is attached to the fixed connection part 20. The reference camera 110 includes a CMOS (complementary metal oxide semiconductor) image sensor capable of detecting infrared rays as an imaging device. Further, the reference camera 110 includes a plurality of lenses (optical systems) not shown.

固定連結部20において、基準カメラ110は、当該基準カメラ110の撮像視野が上方を向くように固定されている。本例では、基準カメラ110の光学系の光軸は、鉛直方向に延びている。 In the fixed connection part 20, the reference camera 110 is fixed so that the imaging field of the reference camera 110 faces upward. In this example, the optical axis of the optical system of the reference camera 110 extends in the vertical direction.

支持部材30は、基準カメラ110の光学系の光軸の周りで回転可能に、固定連結部20により支持されている。可動部材40は、基準カメラ110の上方の位置で、基準カメラ110の光学系の光軸に直交する軸の周りで回転可能(水平面に対してチルト可能)に、支持部材30により支持されている。固定連結部20には、さらに、水平回転機構(図示せず)およびチルト回転機構(図示せず)が設けられている。水平回転機構は、支持部材30を基準カメラ110の光学系の光軸の周りで回転させることが可能に構成される。また、チルト回転機構は、可動部材40を水平面に対してチルトさせることが可能に構成される。 The support member 30 is rotatably supported by the fixed coupling part 20 around the optical axis of the optical system of the reference camera 110. The movable member 40 is supported by the support member 30 at a position above the reference camera 110 so as to be rotatable (tiltable with respect to a horizontal plane) around an axis perpendicular to the optical axis of the optical system of the reference camera 110. . The fixed connection part 20 is further provided with a horizontal rotation mechanism (not shown) and a tilt rotation mechanism (not shown). The horizontal rotation mechanism is configured to be able to rotate the support member 30 around the optical axis of the optical system of the reference camera 110. Further, the tilt rotation mechanism is configured to be able to tilt the movable member 40 with respect to a horizontal plane.

可動部材40には、可動カメラ120、マーカ駆動回路130および参照部材190が一体的に取り付けられている。可動カメラ120は、撮像素子として、赤外線を検出可能なCMOSイメージセンサを含むとともに、図示しない複数のレンズ(光学系)を含む。参照部材190は予め定められた位置関係で並ぶ複数のマーカepを有する。各マーカepは、赤外光を放出する自発光型のマーカである。参照部材190の複数のマーカepは、可動部材40が支持部材30により支持された状態で、基準カメラ110の撮像視野内に位置する。マーカ駆動回路130は、複数のマーカepを駆動する。それにより、各マーカepが発光する。参照部材190の複数のマーカepのうち少なくとも一部(例えば2つ)のマーカepは、他のマーカepに対して識別可能に構成されている。 A movable camera 120, a marker drive circuit 130, and a reference member 190 are integrally attached to the movable member 40. The movable camera 120 includes a CMOS image sensor capable of detecting infrared rays as an image sensor, and also includes a plurality of lenses (optical systems) not shown. The reference member 190 has a plurality of markers ep arranged in a predetermined positional relationship. Each marker ep is a self-luminous marker that emits infrared light. The plurality of markers ep of the reference member 190 are located within the imaging field of view of the reference camera 110 in a state where the movable member 40 is supported by the support member 30. The marker drive circuit 130 drives a plurality of markers ep. As a result, each marker ep emits light. At least some (for example, two) of the plurality of markers ep of the reference member 190 are configured to be distinguishable from other markers ep.

基準カメラ110と可動部材40との間には、基準カメラ110から参照部材190までの基準カメラ110の撮像視野内の空間を当該撮像視野から外れた空間から光学的かつ空間的に遮断する蛇腹50が設けられている。 Between the reference camera 110 and the movable member 40, there is a bellows 50 that optically and spatially blocks the space within the imaging field of view of the reference camera 110 from the reference camera 110 to the reference member 190 from the space outside the imaging field of view. is provided.

回転駆動回路140は、上記の水平回転機構およびチルト回転機構を駆動する。これにより、基準カメラ110に対する可動カメラ120の位置および姿勢が変更され、可動カメラ120の撮像視野の向きが変更される。 The rotation drive circuit 140 drives the horizontal rotation mechanism and tilt rotation mechanism described above. As a result, the position and orientation of the movable camera 120 with respect to the reference camera 110 are changed, and the direction of the imaging field of view of the movable camera 120 is changed.

上記のように、可動部材40には、可動カメラ120および参照部材190が一体的に固定されている。それにより、基準カメラ110が参照部材190の複数のマーカepを撮像することにより得られる画像データ(以下、基準画像データと呼ぶ。)に基づいて、基準カメラ110に対する可動カメラ120の位置および姿勢を算出することが可能である。 As described above, the movable camera 120 and the reference member 190 are integrally fixed to the movable member 40. Thereby, the position and orientation of the movable camera 120 with respect to the reference camera 110 are determined based on image data (hereinafter referred to as reference image data) obtained by the reference camera 110 capturing images of a plurality of markers ep on the reference member 190. It is possible to calculate.

俯瞰カメラ180は、その撮像視野が可動カメラ120の撮像視野と同じかまたはほぼ同じ方向を向くように、支持部材30の一部に取り付けられている。俯瞰カメラ180は、撮像素子として、赤外線を検出可能なCMOSイメージセンサを含むとともに、図示しない複数のレンズ(光学系)を含む。俯瞰カメラ180の画角は、基準カメラ110および可動カメラ120の画角に比べて大きい。そのため、俯瞰カメラ180の撮像視野は、基準カメラ110および可動カメラ120の撮像視野に比べて大きい。 The bird's-eye view camera 180 is attached to a portion of the support member 30 so that its imaging field of view faces in the same or substantially the same direction as the imaging field of view of the movable camera 120. The bird's-eye camera 180 includes a CMOS image sensor capable of detecting infrared rays as an imaging device, and also includes a plurality of lenses (optical systems) not shown. The angle of view of the overhead camera 180 is larger than the angles of view of the reference camera 110 and the movable camera 120. Therefore, the imaging field of view of the bird's-eye camera 180 is larger than that of the reference camera 110 and the movable camera 120.

後述する追跡処理において、俯瞰カメラ180は、広い範囲に渡ってプローブ200を撮像するために用いられる。この場合、例えばプローブ200が移動することにより可動カメラ120の撮像視野からプローブ200が外れる場合でも、当該プローブ200が俯瞰カメラ180で撮像されることにより、撮像により得られる画像データ(以下、俯瞰画像データと呼ぶ。)に基づいてプローブ200の大まかな位置を特定することができる。特定された位置に基づいて、可動カメラ120の撮像視野内にプローブ200が位置するように、可動カメラ120の位置および姿勢が調整される。 In tracking processing, which will be described later, the overhead camera 180 is used to image the probe 200 over a wide range. In this case, even if the probe 200 is removed from the imaging field of view of the movable camera 120 due to movement of the probe 200, for example, the probe 200 is imaged by the bird's-eye camera 180, and image data obtained by imaging (hereinafter, bird's-eye image The approximate position of the probe 200 can be specified based on the data (referred to as data). Based on the identified position, the position and orientation of movable camera 120 are adjusted so that probe 200 is located within the imaging field of view of movable camera 120.

ヘッド制御回路150は、CPU(中央演算処理装置)およびメモリ、またはマイクロコンピュータを含み、基準カメラ110、可動カメラ120、マーカ駆動回路130、回転駆動回路140および俯瞰カメラ180を制御する。 Head control circuit 150 includes a CPU (Central Processing Unit) and a memory, or a microcomputer, and controls reference camera 110, movable camera 120, marker drive circuit 130, rotation drive circuit 140, and overhead camera 180.

基準カメラ110、可動カメラ120および俯瞰カメラ180の各画素からは、検出量に対応するアナログの電気信号(以下、受光信号と呼ぶ)がヘッド制御回路150に出力される。ヘッド制御回路150には、図示しないA/D変換器(アナログ/デジタル変換器)およびFIFO(First In First Out)メモリが実装されている。基準カメラ110、可動カメラ120および俯瞰カメラ180からそれぞれ出力される受光信号は、ヘッド制御回路150のA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は、画素データとして順次処理装置300に転送される。 Each pixel of the reference camera 110, movable camera 120, and overhead camera 180 outputs an analog electrical signal (hereinafter referred to as a light reception signal) corresponding to the detected amount to the head control circuit 150. The head control circuit 150 is equipped with an A/D converter (analog/digital converter) and a FIFO (First In First Out) memory (not shown). The light reception signals outputted from the reference camera 110, the movable camera 120, and the bird's-eye camera 180 are sampled at a constant sampling period by the A/D converter of the head control circuit 150, and are converted into digital signals. Digital signals output from the A/D converter are sequentially stored in a FIFO memory. The digital signals stored in the FIFO memory are sequentially transferred to the processing device 300 as pixel data.

また、ヘッド制御回路150は、無線通信回路160を介してプローブ200との間で無線通信を行う。また、ヘッド制御回路150は、通信回路170およびケーブルCA(図1)を介して処理装置300との間で有線通信を行う。 Further, the head control circuit 150 performs wireless communication with the probe 200 via the wireless communication circuit 160. Further, the head control circuit 150 performs wired communication with the processing device 300 via the communication circuit 170 and the cable CA (FIG. 1).

(b)処理装置300
図2に示すように、処理装置300は、通信回路301、本体制御回路302および本体メモリ303を含む。通信回路301および本体メモリ303は、本体制御回路302に接続されている。また、本体制御回路302には、本体操作部320および本体表示部310が接続されている。
(b) Processing device 300
As shown in FIG. 2, the processing device 300 includes a communication circuit 301, a main body control circuit 302, and a main body memory 303. Communication circuit 301 and main body memory 303 are connected to main body control circuit 302 . Further, a main body operation section 320 and a main body display section 310 are connected to the main body control circuit 302 .

本体メモリ303は、ROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)およびハードディスクを含む。本体メモリ303には、システムプログラムとともに、後述する移動設定プログラム、測定処理プログラムおよび追跡処理プログラムが記憶される。また、本体メモリ303は、種々のデータの処理および撮像ヘッド100から与えられる画素データ等の種々のデータを保存するために用いられる。 The main body memory 303 includes a ROM (read only memory), a RAM (random access memory), and a hard disk. The main body memory 303 stores a movement setting program, a measurement processing program, and a tracking processing program, which will be described later, along with the system program. Further, the main body memory 303 is used for processing various data and storing various data such as pixel data provided from the imaging head 100.

本体制御回路302は、CPUを含む。本体制御回路302および本体メモリ303は、例えばパーソナルコンピュータにより実現される。本体制御回路302は、撮像ヘッド100からケーブルCA(図1)および通信回路301を介して与えられる画素データに基づいて画像データを生成する。画像データは複数の画素データの集合である。 Main body control circuit 302 includes a CPU. The main body control circuit 302 and the main body memory 303 are realized by, for example, a personal computer. The main body control circuit 302 generates image data based on pixel data provided from the imaging head 100 via the cable CA (FIG. 1) and the communication circuit 301. Image data is a collection of multiple pixel data.

本実施の形態では、撮像ヘッド100に設けられる基準カメラ110、可動カメラ120および俯瞰カメラ180にそれぞれ対応する基準画像データ、測定画像データおよび俯瞰画像データが生成される。また、プローブ200に設けられる後述するプローブカメラ208に対応する画像データが生成される。本体制御回路302は、基準画像データおよび測定画像データに基づいて、プローブ200の接触部211a(図1)の位置を算出する。 In this embodiment, reference image data, measurement image data, and overhead image data corresponding to the reference camera 110, movable camera 120, and overhead camera 180 provided in the imaging head 100, respectively, are generated. Further, image data corresponding to a probe camera 208 provided in the probe 200 and described later is generated. The main body control circuit 302 calculates the position of the contact portion 211a (FIG. 1) of the probe 200 based on the reference image data and the measured image data.

さらに、本実施の形態においては、本体制御回路302は、機能部として座標算出部302a、誘導画像生成部302b、座標整合処理部302cおよび偏差算出部302dを含む。本体制御回路302の機能部は、本体制御回路302のCPUが上記の移動設定プログラムを実行することにより実現される。本体制御回路302の機能部の一部または全てが電子回路等のハードウェアにより実現されてもよい。図2に示される本体制御回路302の機能部の動作については、後述する。 Further, in this embodiment, the main body control circuit 302 includes a coordinate calculation section 302a, a guided image generation section 302b, a coordinate matching processing section 302c, and a deviation calculation section 302d as functional sections. The functional units of the main body control circuit 302 are realized by the CPU of the main body control circuit 302 executing the above movement setting program. Some or all of the functional units of the main body control circuit 302 may be realized by hardware such as an electronic circuit. The operation of the functional units of the main body control circuit 302 shown in FIG. 2 will be described later.

本体表示部310は、例えば液晶ディスプレイパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。本体表示部310には、本体制御回路302による制御に基づいて、測定対象物S上の測定点の座標および測定対象物Sの各部の測定結果等が表示される。また、本体表示部310には、測定に関する種々の設定を行うための設定画面が表示される。 The main body display section 310 is configured by, for example, a liquid crystal display panel or an organic EL (electroluminescence) panel. The main body display section 310 displays the coordinates of the measurement point on the object S to be measured, the measurement results of each part of the object S, etc. based on the control by the main body control circuit 302. Further, the main body display section 310 displays a setting screen for making various settings related to measurement.

本体操作部320は、キーボードおよびポインティングデバイスを含む。ポインティングデバイスは、マウスまたはジョイスティック等を含む。本体操作部320は、使用者Uにより操作される。 Main body operation section 320 includes a keyboard and a pointing device. Pointing devices include a mouse, a joystick, or the like. The main body operation unit 320 is operated by the user U.

<3>プローブ200の基本構成
図3は、プローブ200の構成を示すブロック図である。図4はプローブ200の外観斜視図である。図3に示すように、プローブ200は、電気的な構成としてプローブ制御部201、表示灯202、バッテリ203、マーカ駆動回路204、プローブメモリ205、無線通信回路206、モーションセンサ207、プローブカメラ208、プローブ操作部221、タッチパネルディスプレイ230および複数(本例では3つ)の目標部材290を含む。
<3> Basic configuration of probe 200 FIG. 3 is a block diagram showing the configuration of probe 200. FIG. 4 is an external perspective view of the probe 200. As shown in FIG. 3, the probe 200 has an electrical configuration including a probe control unit 201, an indicator light 202, a battery 203, a marker drive circuit 204, a probe memory 205, a wireless communication circuit 206, a motion sensor 207, a probe camera 208, It includes a probe operation section 221, a touch panel display 230, and a plurality of (three in this example) target members 290.

バッテリ203は、プローブ200に設けられた他の構成要素に電力を供給する。プローブ制御部201は、CPUおよびメモリ、またはマイクロコンピュータを含み、表示灯202、マーカ駆動回路204、プローブカメラ208およびタッチパネルディスプレイ230を制御する。また、プローブ制御部201は、使用者Uによるプローブ操作部221およびタッチパネルディスプレイ230の操作に応答して、各種処理を行う。 Battery 203 supplies power to other components provided in probe 200. Probe control unit 201 includes a CPU and memory, or a microcomputer, and controls indicator light 202, marker drive circuit 204, probe camera 208, and touch panel display 230. Further, the probe control unit 201 performs various processes in response to user U's operations on the probe operation unit 221 and the touch panel display 230.

図3に二点鎖線で示すように、プローブ200は、上記の各構成要素を収容または支持するプローブケーシング210および把持部220を有する。複数の目標部材290は、プローブケーシング210の後述する上面部210c(図4)に設けられる。プローブ操作部221は、押下操作が可能に構成されたボタンであり、把持部220に設けられる。タッチパネルディスプレイ230は、プローブ表示部231およびタッチパネル232を含む。プローブ表示部231は、例えば液晶ディスプレイパネルまたは有機ELパネルにより構成される。 As shown by the two-dot chain line in FIG. 3, the probe 200 includes a probe casing 210 and a grip portion 220 that house or support each of the above components. A plurality of target members 290 are provided on a later-described upper surface portion 210c (FIG. 4) of the probe casing 210. The probe operation section 221 is a button that can be pressed down, and is provided on the grip section 220 . Touch panel display 230 includes a probe display section 231 and a touch panel 232. The probe display section 231 is composed of, for example, a liquid crystal display panel or an organic EL panel.

表示灯202は、例えば1または複数のLEDを含み、その発光部がプローブケーシング210の外部に露出するように設けられている。表示灯202は、プローブ制御部201の制御に基づいてプローブ200の状態に応じた発光動作を行う。3つの目標部材290の各々は、基本的に図2の参照部材190と同じ構成を有する。マーカ駆動回路204は、複数の目標部材290に接続され、プローブ制御部201の制御に基づいて各目標部材290が有する複数のマーカeqを駆動する。 The indicator light 202 includes, for example, one or more LEDs, and is provided so that its light emitting part is exposed outside the probe casing 210. The indicator light 202 performs a light emitting operation according to the state of the probe 200 based on the control of the probe control unit 201. Each of the three target members 290 has basically the same configuration as the reference member 190 of FIG. The marker drive circuit 204 is connected to the plurality of target members 290 and drives the plurality of markers eq included in each target member 290 based on the control of the probe control unit 201.

プローブメモリ205は、不揮発性メモリまたはハードディスク等の記録媒体を含む。プローブメモリ205は、種々のデータの処理および撮像ヘッド100から与えられる画像データ等の種々のデータを保存するために用いられる。 Probe memory 205 includes a recording medium such as a nonvolatile memory or a hard disk. Probe memory 205 is used to process various data and store various data such as image data provided from imaging head 100.

モーションセンサ207は、例えば使用者Uがプローブ200を携行して移動する際に、そのプローブ200の動きを検出する。例えば、モーションセンサ207は、プローブ200の移動時に、その移動方向、加速度および姿勢等を検出する。プローブカメラ208は、例えばCCD(電荷結合素子)カメラである。 The motion sensor 207 detects the movement of the probe 200, for example, when the user U moves while carrying the probe 200. For example, the motion sensor 207 detects the moving direction, acceleration, posture, etc. of the probe 200 when it moves. The probe camera 208 is, for example, a CCD (charge coupled device) camera.

プローブ制御部201には、上記のCPUおよびメモリ、またはマイクロコンピュータに加えて、図示しないA/D変換器およびFIFOメモリが実装されている。それにより、プローブ制御部201においては、モーションセンサ207により検出されたプローブ200の動きを示す信号がデジタル信号形式のデータ(以下、動きデータと呼ぶ。)に変換される。また、プローブ制御部201においては、プローブカメラ208の各画素から出力される受光信号がデジタル信号形式の複数の画素データに変換される。プローブ制御部201は、デジタル形式の動きデータおよび複数の画素データを、無線通信回路206を通して図2の撮像ヘッド100に無線通信により送信する。この場合、動きデータおよび複数の画素データは、さらに撮像ヘッド100から処理装置300に転送される。 In addition to the above-described CPU and memory or microcomputer, the probe control unit 201 is equipped with an A/D converter and a FIFO memory (not shown). Thereby, in the probe control unit 201, a signal indicating the movement of the probe 200 detected by the motion sensor 207 is converted into data in a digital signal format (hereinafter referred to as movement data). Further, in the probe control unit 201, the light reception signal output from each pixel of the probe camera 208 is converted into a plurality of pixel data in a digital signal format. The probe control unit 201 transmits digital motion data and a plurality of pixel data to the imaging head 100 in FIG. 2 through the wireless communication circuit 206 by wireless communication. In this case, the motion data and the plurality of pixel data are further transferred from the imaging head 100 to the processing device 300.

図4に示すように、プローブケーシング210は、一方向に延びるように形成され、前端部210a、後端部210b、上面部210cおよび底面部210dを有する。底面部210dには、把持部220が設けられている。把持部220は、プローブケーシング210に平行に延びるように形成されている。プローブ操作部221は、把持部220のうちプローブケーシング210の後端部210bに近い部分に設けられている。 As shown in FIG. 4, the probe casing 210 is formed to extend in one direction and has a front end 210a, a rear end 210b, a top surface 210c, and a bottom surface 210d. A grip portion 220 is provided on the bottom surface portion 210d. The grip part 220 is formed to extend parallel to the probe casing 210. The probe operation section 221 is provided in a portion of the grip section 220 that is close to the rear end section 210b of the probe casing 210.

プローブケーシング210の後端部210bには、タッチパネルディスプレイ230が設けられている。前端部210aには、スタイラス211が設けられている。スタイラス211は、先端部に接触部211aを有する棒状の部材である。前端部210aには、さらに上記のプローブカメラ208が設けられている。 A touch panel display 230 is provided at the rear end 210b of the probe casing 210. A stylus 211 is provided at the front end 210a. The stylus 211 is a rod-shaped member having a contact portion 211a at its tip. The probe camera 208 described above is further provided at the front end portion 210a.

プローブケーシング210の上面部210cには、前端部210aから後端部210bにかけて並ぶように3つの目標部材290が設けられている。本例の3つの目標部材290のうち前端部210aに最も近い目標部材290は、3つのマーカeqを有する。残りの2つの目標部材290の各々は、2つのマーカeqを有する。各マーカeqは、赤外光を放出する自発光型のマーカである。 Three target members 290 are provided on the top surface 210c of the probe casing 210 so as to be lined up from the front end 210a to the rear end 210b. Of the three target members 290 in this example, the target member 290 closest to the front end 210a has three markers eq. Each of the remaining two target members 290 has two markers eq. Each marker eq is a self-luminous marker that emits infrared light.

使用者Uは、プローブケーシング210の上面部210cが撮像ヘッド100に向くように把持部220を把持する。その上で、使用者Uは、測定対象物Sの所望の部分に接触部211aを接触させる。また、使用者Uは、タッチパネルディスプレイ230に表示される画像を視認しつつ、プローブ操作部221およびタッチパネルディスプレイ230を操作する。 The user U grips the grip part 220 so that the upper surface part 210c of the probe casing 210 faces the imaging head 100. Then, the user U brings the contact portion 211a into contact with a desired portion of the object S to be measured. Further, the user U operates the probe operation section 221 and the touch panel display 230 while viewing the image displayed on the touch panel display 230.

<4>測定点の座標の算出方法
本実施の形態に係る三次元座標測定装置1においては、基準カメラ110の位置および姿勢に対して予め定められた関係を有する三次元座標系が定義される。換言すれば、三次元座標測定装置1においては、撮像ヘッド100の設置状態に応じて予め定められた関係を有する三次元座標系(以下、装置座標系と呼ぶ。)が定義される。
<4> Method for calculating coordinates of measurement points In the three-dimensional coordinate measuring device 1 according to the present embodiment, a three-dimensional coordinate system having a predetermined relationship with the position and orientation of the reference camera 110 is defined. . In other words, in the three-dimensional coordinate measuring device 1, a three-dimensional coordinate system (hereinafter referred to as the device coordinate system) having a predetermined relationship depending on the installation state of the imaging head 100 is defined.

処理装置300の本体メモリ303には、予め参照部材190における複数のマーカepの相対的な位置関係が記憶されている。上記のように、基準カメラ110は、参照部材190の複数のマーカepを撮像する。この場合、図2の本体制御回路302は、撮像により得られる基準画像データと、本体メモリ303に記憶されている複数のマーカepの位置関係とに基づいて、装置座標系における各マーカepの座標を算出する。 The main body memory 303 of the processing device 300 stores in advance the relative positional relationship of the plurality of markers ep on the reference member 190. As described above, the reference camera 110 images the plurality of markers ep on the reference member 190. In this case, the main body control circuit 302 in FIG. Calculate.

また、本体制御回路302は、算出された複数のマーカepの座標に基づいて、参照部材190上に固定された可動カメラ120の位置および姿勢を装置座標系により示す情報を第1の位置姿勢情報として生成する。 Further, the main body control circuit 302 converts information indicating the position and orientation of the movable camera 120 fixed on the reference member 190 in the device coordinate system into first position and orientation information based on the calculated coordinates of the plurality of markers ep. Generate as.

本実施の形態に係る三次元座標測定装置1においては、上記の装置座標系に加えて、可動カメラ120に対して予め定められた関係を有する三次元座標系(以下、可動座標系と呼ぶ。)が予め定義されている。また、処理装置300の本体メモリ303には、予めプローブ200における複数のマーカeqの相対的な位置関係が記憶されている。 In addition to the device coordinate system described above, the three-dimensional coordinate measuring device 1 according to the present embodiment includes a three-dimensional coordinate system (hereinafter referred to as a movable coordinate system) having a predetermined relationship with respect to the movable camera 120. ) are predefined. Further, the main body memory 303 of the processing device 300 stores in advance the relative positional relationship of the plurality of markers eq on the probe 200.

上記のように、可動カメラ120は、プローブ200の複数のマーカeqを撮像する。この場合、図2の本体制御回路302は、撮像により得られる測定画像データと、本体メモリ303に記憶されている複数のマーカeqの位置関係とに基づいて、可動座標系における各マーカeqの各座標を算出する。 As described above, the movable camera 120 images the plurality of markers eq on the probe 200. In this case, the main body control circuit 302 of FIG. Calculate coordinates.

その後、本体制御回路302は、算出された複数のマーカeqの座標に基づいて、プローブ200の位置および姿勢を可動座標系により示す情報を第2の位置姿勢情報として生成する。 Thereafter, the main body control circuit 302 generates information indicating the position and orientation of the probe 200 using a movable coordinate system as second position and orientation information, based on the calculated coordinates of the plurality of markers eq.

基準カメラ110は基準スタンド10に固定されている。そのため、撮像ヘッド100が床面上で移動しない場合、測定対象物Sの測定時に装置座標系は変化しない。一方、可動カメラ120は、撮像視野がプローブ200の移動に追従するように、回転可能に設けられている。そのため、装置座標系と可動座標系との間の関係は、可動カメラ120の撮像視野の向きが変更されることにより変化する。 A reference camera 110 is fixed to a reference stand 10. Therefore, when the imaging head 100 does not move on the floor surface, the device coordinate system does not change when measuring the object S to be measured. On the other hand, the movable camera 120 is rotatably provided so that its imaging field of view follows the movement of the probe 200. Therefore, the relationship between the device coordinate system and the movable coordinate system changes as the direction of the imaging field of view of the movable camera 120 is changed.

そこで、本体制御回路302は、第1および第2の位置姿勢情報に基づいて、プローブ200の位置および姿勢を装置座標系で表す第3の位置姿勢情報を生成する。すなわち、本体制御回路302は、第1の位置姿勢情報に基づいて装置座標系に対する可動座標系の相対的な関係を算出するとともに、算出された関係に基づいて第2の位置姿勢情報を装置座標系に従う情報に変換する。それにより、第3の位置姿勢情報が生成される。 Therefore, the main body control circuit 302 generates third position and orientation information that represents the position and orientation of the probe 200 in the device coordinate system based on the first and second position and orientation information. That is, the main body control circuit 302 calculates the relative relationship of the movable coordinate system to the device coordinate system based on the first position and orientation information, and also converts the second position and orientation information into the device coordinate system based on the calculated relationship. Convert to information according to the system. As a result, third position and orientation information is generated.

その後、本体制御回路302は、生成された第3の位置姿勢情報と、プローブ200における複数のマーカeqおよび接触部211a間の位置関係とに基づいてプローブ200により指示された測定点の座標を算出する。 Thereafter, the main body control circuit 302 calculates the coordinates of the measurement point designated by the probe 200 based on the generated third position and orientation information and the positional relationship between the plurality of markers eq and the contact portion 211a on the probe 200. do.

<5>基本的な測定例
図4のプローブ操作部221は、測定点の座標を算出するために使用者Uにより押下操作される。例えば、使用者Uは、測定対象物Sの所望の部分に接触部211aが接触された状態で、プローブ操作部221を押下操作する。この場合、この場合、測定対象物Sにおける接触部211aとの接触部分の座標が、測定点の座標として算出される。算出された測定点の座標は、測定結果として本体メモリ303に記憶されるとともに、プローブ表示部231および本体表示部310に表示される。
<5> Basic Measurement Example The probe operation unit 221 in FIG. 4 is pressed by the user U in order to calculate the coordinates of a measurement point. For example, the user U presses the probe operation section 221 while the contact section 211a is in contact with a desired portion of the object S to be measured. In this case, the coordinates of the contact portion of the measurement object S with the contact portion 211a are calculated as the coordinates of the measurement point. The calculated coordinates of the measurement point are stored in the main body memory 303 as a measurement result, and are also displayed on the probe display section 231 and the main body display section 310.

三次元座標測定装置1においては、使用者Uは、図2の本体操作部320または図3のタッチパネルディスプレイ230を操作することにより、測定対象物Sに対して所望の測定条件を設定することができる。 In the three-dimensional coordinate measuring device 1, the user U can set desired measurement conditions for the measurement object S by operating the main body operation section 320 in FIG. 2 or the touch panel display 230 in FIG. can.

具体的には、使用者Uは、測定対象物Sについて、幾何要素および測定項目の選択を行う。幾何要素は、測定対象物Sにおいて測定すべき部分の形状を示す幾何学形状の種類である。幾何学形状の種類には、点、直線、平面、円、円筒および球等が含まれる。また、測定項目は、測定対象物Sに対して何を測定すべきかを示すものであり、距離、角度および平面度等の種々の物理量が含まれる。 Specifically, the user U selects the geometric elements and measurement items for the measurement object S. The geometric element is a type of geometric shape that indicates the shape of the part of the measurement object S to be measured. Types of geometric shapes include points, straight lines, planes, circles, cylinders, spheres, and the like. Furthermore, the measurement items indicate what should be measured with respect to the measurement object S, and include various physical quantities such as distance, angle, and flatness.

幾何要素および測定項目の選択後、使用者Uは、選択された幾何要素についてプローブ200を用いた1または複数の測定点の指示を行う。それにより、選択された幾何要素であって、測定対象物S上で1または複数の測定点により特定される幾何要素を装置座標系で示す情報(以下、要素特定情報と呼ぶ。)が生成される。その後、生成された要素特定情報に関して選択された測定項目の値が算出される。 After selecting the geometric element and the measurement item, the user U instructs one or more measurement points using the probe 200 for the selected geometric element. As a result, information indicating the selected geometric element specified by one or more measurement points on the measurement object S in the device coordinate system (hereinafter referred to as element identification information) is generated. Ru. Thereafter, the value of the selected measurement item regarding the generated element identification information is calculated.

例えば、使用者Uは、互いに平行かつ反対側の第1および第2の面を有する測定対象物Sの第1の面と第2の面との間の距離を測定したい場合には、幾何要素「平面1」および「平面2」を選択する。また、使用者Uは、測定項目「距離」を選択する。 For example, when the user U wants to measure the distance between the first surface and the second surface of the measurement object S, which has first and second surfaces parallel and opposite to each other, the user U uses the geometric element Select "Plane 1" and "Plane 2". Further, the user U selects the measurement item "distance".

この場合、使用者Uは、幾何要素「平面1」に対応する測定対象物S上の平面(第1の面)を特定するために、プローブ200を用いて測定対象物Sの第1の面の複数(本例では3点以上)の部分を測定点として指示する。これにより、幾何要素「平面1」に対応する要素特定情報が生成される。 In this case, the user U uses the probe 200 to locate the first surface of the measurement object S in order to identify the plane (first surface) on the measurement object S that corresponds to the geometric element "plane 1". A plurality of (three or more points in this example) portions are designated as measurement points. As a result, element specifying information corresponding to the geometric element "plane 1" is generated.

さらに、使用者Uは、幾何要素「平面2」に対応する測定対象物S上の平面(第2の面)を特定するために、プローブ200を用いて測定対象物Sの第2の面の複数(本例では3点以上)の部分を測定点として指示する。これにより、幾何要素「平面2」に対応する要素特定情報が生成される。 Furthermore, the user U uses the probe 200 to identify the plane (second surface) on the measurement object S that corresponds to the geometric element "plane 2". A plurality of parts (three or more points in this example) are designated as measurement points. As a result, element specifying information corresponding to the geometric element "plane 2" is generated.

その後、幾何要素「平面1」および「平面2」にそれぞれ対応する2つの要素特定情報に基づいて、測定項目「距離」に対応する測定対象物Sの第1の面と第2の面との間の距離が算出される。 Then, based on the two element specifying information corresponding to the geometric elements "plane 1" and "plane 2", the relationship between the first surface and the second surface of the measurement object S corresponding to the measurement item "distance" is determined. The distance between them is calculated.

算出された測定結果は、本体メモリ303に記憶されるとともに、プローブ表示部231および本体表示部310に表示される。 The calculated measurement results are stored in the main body memory 303 and displayed on the probe display section 231 and the main body display section 310.

<6>測定処理
図5は、図2の本体制御回路302による測定処理の一例を示すフローチャートである。図5の測定処理は、図2の本体制御回路302のCPUが本体メモリ303に記憶された測定処理プログラムを実行することにより所定周期で繰り返して行われる。また、測定処理の開始時には、本体制御回路302に内蔵されたタイマがリセットされるとともにスタートされる。
<6> Measurement Processing FIG. 5 is a flowchart showing an example of measurement processing by the main body control circuit 302 of FIG. 2. The measurement process in FIG. 5 is repeatedly performed at a predetermined period by the CPU of the main body control circuit 302 in FIG. 2 executing the measurement processing program stored in the main body memory 303. Furthermore, at the start of the measurement process, a timer built into the main body control circuit 302 is reset and started.

まず、本体制御回路302は、使用者Uによる図2の本体操作部320または図3のタッチパネルディスプレイ230の操作の有無に基づいて、幾何要素および測定項目の選択が行われたか否かを判定する(ステップS11)。 First, the main body control circuit 302 determines whether or not a geometric element and a measurement item have been selected based on whether or not the user U operates the main body operation unit 320 in FIG. 2 or the touch panel display 230 in FIG. (Step S11).

幾何要素および測定項目の選択が行われた場合、本体制御回路302は、選択された幾何要素および測定項目を図2の本体メモリ303に記憶させることにより測定条件として幾何要素および測定項目の設定を行う(ステップS12)。その後、本体制御回路302は、ステップS11の処理に戻る。 When the geometric elements and measurement items are selected, the main body control circuit 302 stores the selected geometric elements and measurement items in the main body memory 303 in FIG. 2, thereby setting the geometric elements and measurement items as measurement conditions. (Step S12). Thereafter, the main body control circuit 302 returns to the process of step S11.

ステップS11において、幾何要素および測定項目の選択が行われない場合、本体制御回路302は、幾何要素および測定項目が設定されているか否かを判定する(ステップS13)。幾何要素および測定項目が設定されている場合、本体制御回路302は、測定対象物Sの測定を開始すべき指令を受けたか否かを判定する(ステップS14)。この判定は、例えば使用者Uによる本体操作部320またはタッチパネルディスプレイ230の操作の有無に基づいて行われる。 If the geometric element and measurement item are not selected in step S11, the main body control circuit 302 determines whether the geometric element and measurement item have been set (step S13). If the geometric elements and measurement items have been set, the main body control circuit 302 determines whether or not it has received a command to start measuring the measurement object S (step S14). This determination is made, for example, based on whether or not the user U operates the main body operation unit 320 or the touch panel display 230.

測定対象物Sの測定を開始すべき指令を受けた場合、本体制御回路302(図2)は、測定点座標算出処理を行う(ステップS15)。測定点座標算出処理の詳細は後述する。この処理により、本体制御回路302は、使用者によるプローブ200の操作に基づいて、選択された幾何要素を特定するための測定点の座標を算出する。 When receiving a command to start measuring the measurement object S, the main body control circuit 302 (FIG. 2) performs measurement point coordinate calculation processing (step S15). Details of the measurement point coordinate calculation process will be described later. Through this process, the main body control circuit 302 calculates the coordinates of the measurement point for specifying the selected geometric element based on the user's operation of the probe 200.

また、本体制御回路302は、ステップS15の測定点座標算出処理により算出される1または複数の測定点の座標を本体メモリ303に記憶させる(ステップS16)。 Further, the main body control circuit 302 stores the coordinates of one or more measurement points calculated by the measurement point coordinate calculation process of step S15 in the main body memory 303 (step S16).

次に、本体制御回路302は、測定対象物Sの測定を終了すべき指令を受けたか否かを判定する(ステップS17)。この判定は、例えば使用者Uによる本体操作部320またはタッチパネルディスプレイ230の操作の有無に基づいて行われる。 Next, the main body control circuit 302 determines whether or not it has received a command to end the measurement of the measurement object S (step S17). This determination is made, for example, based on whether or not the user U operates the main body operation unit 320 or the touch panel display 230.

測定の終了指令を受けない場合、本体制御回路302は、処理を上記のステップS15に戻す。一方、測定の終了指令を受けると、本体制御回路302は、直前のステップS16の処理で本体メモリ303に記憶された1または複数の測定点の座標から設定された幾何要素について要素特定情報を生成する(ステップS18)。 If the measurement end command is not received, the main body control circuit 302 returns the process to step S15 described above. On the other hand, upon receiving the instruction to end the measurement, the main body control circuit 302 generates element identification information for the geometric element set from the coordinates of one or more measurement points stored in the main body memory 303 in the process of the immediately preceding step S16. (Step S18).

その後、本体制御回路302は、ステップS18の処理で生成された要素特定情報に基づいて設定された測定項目の値を算出し(ステップS19)、測定処理を終了する。なお、ステップS13の判定時において、複数の幾何要素(例えば、2つの平面等)が設定されている場合には、設定された幾何要素ごとに上記のステップS14~S18の処理が行われる。 After that, the main body control circuit 302 calculates the value of the set measurement item based on the element specifying information generated in the process of step S18 (step S19), and ends the measurement process. Note that if a plurality of geometric elements (for example, two planes, etc.) are set at the time of determination in step S13, the processes of steps S14 to S18 described above are performed for each set geometric element.

ステップS13において幾何要素および測定項目が設定されていない場合およびステップS14において測定対象物Sの測定を開始すべき指令を受けない場合、本体制御回路302は、内蔵のタイマによる計測時間に基づいて、当該測定処理が開始された後予め定められた時間が経過したか否かを判定する(ステップS20)。 If the geometric elements and measurement items are not set in step S13, and if the instruction to start measuring the object S is not received in step S14, the main body control circuit 302 performs It is determined whether a predetermined time has elapsed after the measurement process was started (step S20).

予め定められた時間が経過していない場合、本体制御回路302は、ステップS11の処理に戻る。一方、予め定められた時間が経過した場合、本体制御回路302は、ステップS15の処理と同様に、後述する測定点座標算出処理を行う(ステップS21)。その後、本体制御回路302は、測定処理を終了する。 If the predetermined time has not elapsed, the main body control circuit 302 returns to the process of step S11. On the other hand, if the predetermined time has elapsed, the main body control circuit 302 performs measurement point coordinate calculation processing, which will be described later, similarly to the processing at step S15 (step S21). After that, the main body control circuit 302 ends the measurement process.

なお、ステップS21の処理は、例えば後述する追跡処理においてプローブ200が可動カメラ120または俯瞰カメラ180の撮像視野内にあるか否かを判定するために行われる。 Note that the process of step S21 is performed, for example, in order to determine whether the probe 200 is within the imaging field of view of the movable camera 120 or the bird's-eye camera 180 in the tracking process described later.

図6は、測定点座標算出処理の一例を示すフローチャートである。まず、本体制御回路302は、プローブ200のプローブ制御部201に対して複数のマーカeq(図4)の発光を指令するとともに、撮像ヘッド100のヘッド制御回路150に対して参照部材190の複数のマーカep(図2)の発光を指令する(ステップS101)。 FIG. 6 is a flowchart illustrating an example of measurement point coordinate calculation processing. First, the main body control circuit 302 instructs the probe control unit 201 of the probe 200 to emit light of a plurality of markers eq (FIG. 4), and also instructs the head control circuit 150 of the imaging head 100 to instruct a plurality of markers The marker ep (FIG. 2) is instructed to emit light (step S101).

次に、本体制御回路302は、ヘッド制御回路150により基準カメラ110を用いて参照部材190の複数のマーカepを撮像させることにより基準画像データを生成する(ステップS102)。また、本体制御回路302は、生成された基準画像データに基づいて、可動カメラ120の位置および姿勢を装置座標系により示す第1の位置姿勢情報を生成する(ステップS103)。 Next, the main body control circuit 302 generates reference image data by causing the head control circuit 150 to image a plurality of markers ep on the reference member 190 using the reference camera 110 (step S102). Furthermore, the main body control circuit 302 generates first position and orientation information indicating the position and orientation of the movable camera 120 in the device coordinate system based on the generated reference image data (step S103).

次に、本体制御回路302は、可動カメラ120を用いてプローブ200の複数のマーカeqを撮像することにより測定画像データを生成する(ステップS104)。また、本体制御回路302は、生成された測定画像データに基づいて、プローブ200の位置および姿勢を可動座標系により示す第2の位置姿勢情報を生成する(ステップS105)。 Next, the main body control circuit 302 generates measurement image data by capturing images of the plurality of markers eq of the probe 200 using the movable camera 120 (step S104). Furthermore, the main body control circuit 302 generates second position and orientation information indicating the position and orientation of the probe 200 using a movable coordinate system based on the generated measurement image data (step S105).

その後、本体制御回路302は、第1および第2の位置姿勢情報に基づいて、プローブ200の位置および姿勢を装置座標系で表す第3の位置姿勢情報を生成する(ステップS106)。また、本体制御回路302は、生成された第3の位置姿勢情報に基づいてプローブ200により指示された測定点の座標を算出する。 After that, the main body control circuit 302 generates third position and orientation information that represents the position and orientation of the probe 200 in the device coordinate system based on the first and second position and orientation information (step S106). Furthermore, the main body control circuit 302 calculates the coordinates of the measurement point designated by the probe 200 based on the generated third position and orientation information.

なお、上記のステップS102,S103の処理とステップS104,S105の処理とは、逆の順に行われてもよい。 Note that the processing in steps S102 and S103 and the processing in steps S104 and S105 may be performed in the reverse order.

上記の測定処理によれば、使用者Uは、予め定められた複数の幾何要素および予め定められた複数の測定項目から所望の幾何要素および測定項目を選択することにより、測定対象物Sにおける所望の物理量を容易に測定することができる。 According to the above measurement process, the user U selects a desired geometric element and a measurement item from a plurality of predetermined geometric elements and a plurality of predetermined measurement items, thereby obtaining a desired value on the measurement target S. physical quantities can be easily measured.

<7>追跡処理
図7は、図2の本体制御回路302による追跡処理の一例を示すフローチャートである。図7の追跡処理は、図2の本体制御回路302のCPUが本体メモリ303に記憶された追跡処理プログラムを実行することにより所定周期で繰り返して行われる。
<7> Tracking Process FIG. 7 is a flowchart showing an example of the tracking process by the main body control circuit 302 of FIG. The tracking process in FIG. 7 is repeatedly performed at predetermined intervals by the CPU of the main body control circuit 302 in FIG. 2 executing the tracking process program stored in the main body memory 303.

まず、本体制御回路302は、プローブ200が可動カメラ120の撮像視野内にあるか否かを判定する(ステップS31)。この判定は、測定処理におけるステップS15,S21の処理中に生成される測定画像データに、複数のマーカeqに対応する画像データが含まれているか否かを判定することにより行われる。 First, the main body control circuit 302 determines whether the probe 200 is within the imaging field of view of the movable camera 120 (step S31). This determination is made by determining whether or not the measurement image data generated during the processing of steps S15 and S21 in the measurement process includes image data corresponding to a plurality of markers eq.

プローブ200が可動カメラ120の撮像視野内にある場合、本体制御回路302は、後述するステップS38の処理に進む。一方、プローブ200が可動カメラ120の撮像視野内にない場合、本体制御回路302は、プローブ200が俯瞰カメラ180の撮像視野内にあるか否かを判定する(ステップS32)。この判定は、上記の測定処理におけるステップS15,S21の処理中に生成される俯瞰画像データに、複数のマーカeqに対応する画像データが含まれているか否かを判定することにより行われる。 If the probe 200 is within the imaging field of view of the movable camera 120, the main body control circuit 302 proceeds to the process of step S38, which will be described later. On the other hand, if the probe 200 is not within the imaging field of view of the movable camera 120, the main body control circuit 302 determines whether the probe 200 is within the imaging field of view of the overhead camera 180 (step S32). This determination is made by determining whether or not the overhead image data generated during the processing in steps S15 and S21 in the measurement processing described above includes image data corresponding to a plurality of markers eq.

プローブ200が俯瞰カメラ180の撮像視野内にある場合、本体制御回路302は、後述するステップS37の処理に進む。一方、プローブ200が可動カメラ120の撮像視野内にない場合、本体制御回路302は、プローブ200から転送される動きデータに基づいてプローブ200の座標推定を行うことが可能か否かを判定する(ステップS33)。この判定は、例えば動きデータが異常な値を示しているか否かまたは動きデータの示す値が0であるか否か等に基づいて行われる。動きデータが異常な値を示す場合、または動きデータが0である場合、プローブ200の座標推定は不可能である。 If the probe 200 is within the field of view of the overhead camera 180, the main body control circuit 302 proceeds to step S37, which will be described later. On the other hand, if the probe 200 is not within the imaging field of view of the movable camera 120, the main body control circuit 302 determines whether it is possible to estimate the coordinates of the probe 200 based on the movement data transferred from the probe 200 ( Step S33). This determination is made based on, for example, whether the motion data indicates an abnormal value or whether the value indicated by the motion data is 0. If the motion data shows an abnormal value or if the motion data is 0, coordinate estimation of the probe 200 is not possible.

プローブ200の座標推定が可能である場合、本体制御回路302は、動きデータに基づいてプローブ200の位置を推定する。また、本体制御回路302は、プローブ200が可動カメラ120の撮像視野内に位置するように、可動カメラ120の位置および姿勢の調整を指令する(ステップS34)。その後、本体制御回路302は、ステップS31の処理に戻る。 If the coordinates of the probe 200 can be estimated, the main body control circuit 302 estimates the position of the probe 200 based on the movement data. The main body control circuit 302 also instructs adjustment of the position and attitude of the movable camera 120 so that the probe 200 is located within the imaging field of view of the movable camera 120 (step S34). Thereafter, the main body control circuit 302 returns to the process of step S31.

ここで、使用者Uは、図2の本体操作部320または図3のタッチパネルディスプレイ230を操作することにより、本体制御回路302にプローブ200の探索を指令することができる。 Here, the user U can command the main body control circuit 302 to search for the probe 200 by operating the main body operation section 320 in FIG. 2 or the touch panel display 230 in FIG. 3.

そこで、ステップS33において、プローブ200の座標推定が不可能である場合、本体制御回路302は、プローブ200の探索指令を受けたか否かを判定する(ステップS35)。プローブ200の探索指令を受けない場合、本体制御回路302は、ステップS31の処理に戻る。一方、プローブ200の探索指令を受けた場合、本体制御回路302は、撮像ヘッド100の支持部材30を回転するように、ヘッド制御回路150に指令する。このようにして、本体制御回路302は、俯瞰カメラ180によるプローブ200の探索を行う(ステップS36)。 Therefore, in step S33, if it is impossible to estimate the coordinates of the probe 200, the main body control circuit 302 determines whether a search command for the probe 200 has been received (step S35). If the search command for the probe 200 is not received, the main body control circuit 302 returns to the process of step S31. On the other hand, when receiving a search command for the probe 200, the main body control circuit 302 commands the head control circuit 150 to rotate the support member 30 of the imaging head 100. In this way, the main body control circuit 302 searches for the probe 200 using the overhead camera 180 (step S36).

その後、本体制御回路302は、プローブ200が俯瞰カメラ180の撮像視野内に位置することになると、俯瞰画像データに基づいてプローブ200の位置を算出する。また、本体制御回路302は、プローブ200が可動カメラ120の撮像視野内に位置するように可動カメラ120の位置および姿勢の調整をヘッド制御回路150に指令する(ステップS37)。 Thereafter, when the probe 200 is located within the imaging field of the bird's-eye view camera 180, the main body control circuit 302 calculates the position of the probe 200 based on the bird's-eye view image data. Furthermore, the main body control circuit 302 instructs the head control circuit 150 to adjust the position and posture of the movable camera 120 so that the probe 200 is located within the imaging field of view of the movable camera 120 (step S37).

次に、本体制御回路302は、プローブ200が可動カメラ120の撮像視野内に位置することになると、プローブ200の複数のマーカeqの重心が可動カメラ120の撮像視野の中心に位置するように可動カメラ120の位置および姿勢の調整をヘッド制御回路150に指令する(ステップS38)。その後、本体制御回路302は、追跡処理を終了する。 Next, when the probe 200 is located within the imaging field of view of the movable camera 120, the main body control circuit 302 moves the probe 200 so that the center of gravity of the plurality of markers eq of the probe 200 is located at the center of the imaging field of view of the movable camera 120. The head control circuit 150 is instructed to adjust the position and orientation of the camera 120 (step S38). Thereafter, the main body control circuit 302 ends the tracking process.

上記の追跡処理によれば、プローブ200が移動する場合でも、可動カメラ120の撮像視野がプローブ200の複数のマーカeqに追従する。それにより、使用者Uは、可動カメラ120の撮像視野を手動で調整する必要がない。したがって、煩雑な調整作業を要することなく広い範囲で測定対象物Sの所望の測定点の座標を測定することが可能になる。 According to the tracking process described above, even when the probe 200 moves, the imaging field of view of the movable camera 120 follows the plurality of markers eq of the probe 200. Thereby, the user U does not need to manually adjust the imaging field of view of the movable camera 120. Therefore, it becomes possible to measure the coordinates of a desired measurement point on the measurement object S over a wide range without requiring complicated adjustment work.

<8>第1の実施の形態に係る移動設定作業および設定負担軽減機能
上記のように、本実施の形態に係る三次元座標測定装置1は、使用者Uの移動設定作業により、三次元座標測定装置1による測定対象物Sの測定可能範囲を拡大することができる。以下、本実施の形態に係る三次元座標測定装置1に係る移動設定作業の内容について、設定負担軽減機能とともに説明する。
<8> Movement setting work and setting burden reduction function according to the first embodiment As described above, the three-dimensional coordinate measuring device 1 according to the present embodiment can perform three-dimensional coordinate measurement by the movement setting work of the user U. The measurable range of the measurement target S by the measuring device 1 can be expanded. Hereinafter, the contents of the movement setting work related to the three-dimensional coordinate measuring device 1 according to the present embodiment will be explained together with the setting burden reduction function.

移動設定作業は、撮像ヘッド100の移動前の設置状態に対応する装置座標系と、撮像ヘッド100の移動後の設置状態に対応する装置座標系との相対的なずれを解消する整合情報を生成するために行われる。以下の説明では、撮像ヘッド100の移動前に対応する装置座標系を第1の座標系と呼ぶ。また、撮像ヘッド100の移動後に対応する装置座標系を第2の座標系と呼ぶ。整合情報は、例えば第2の座標系を第1の座標系に変換する変換情報(変換行列等)である。 The movement setting work generates alignment information that eliminates the relative deviation between the device coordinate system corresponding to the installation state of the imaging head 100 before movement and the device coordinate system corresponding to the installation state after the movement of the imaging head 100. done in order to In the following description, the device coordinate system corresponding to the state before the imaging head 100 moves will be referred to as a first coordinate system. Further, the device coordinate system corresponding to the movement of the imaging head 100 is referred to as a second coordinate system. The matching information is, for example, transformation information (such as a transformation matrix) for transforming the second coordinate system into the first coordinate system.

整合情報は、3点以上の共通の位置について、撮像ヘッド100の移動前に測定点が指示されることにより算出される第1の座標系に従う座標と、撮像ヘッド100の移動後に測定点が指示されることにより算出される第2の座標系に従う座標とを用いることにより求めることができる。 The alignment information includes coordinates according to a first coordinate system calculated by specifying a measurement point before the imaging head 100 moves, and coordinates calculated by specifying the measurement point after the imaging head 100 moves, for three or more common positions. It can be determined by using the coordinates according to the second coordinate system calculated by

そこで、本実施の形態では、使用者Uは、移動設定作業として、撮像ヘッド100の移動の前後で3点以上の共通の位置に測定点を指示する。本実施の形態に係る設定負担軽減機能は、使用者Uが撮像ヘッド100の移動の前後で3以上の共通の位置に測定点を適切に指示することを容易にする機能である。 Therefore, in the present embodiment, the user U instructs measurement points at three or more common positions before and after the movement of the imaging head 100 as a movement setting work. The setting burden reduction function according to the present embodiment is a function that facilitates the user U to appropriately designate measurement points at three or more common positions before and after moving the imaging head 100.

以下の説明では、整合情報を生成するために指示される測定点を測定対象物Sの形状を測定するために指示される測定点から区別するため、整合情報を生成するために指示される測定点を設定点と呼ぶ。 In the following description, in order to distinguish measurement points designated for generating matching information from measurement points designated for measuring the shape of the measurement object S, measurements designated for generating matching information will be used. The point is called the set point.

図8~図18は、第1の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。本例では、初期状態で、図1の測定対象物Sについて少なくとも1つの測定点が指示され、各測定点の第1の座標系に従う座標が算出されているものとする。また、撮像ヘッド100は、床面の位置P1上に設置されている。 8 to 18 are diagrams for explaining the movement setting work and the setting burden reduction function according to the first embodiment. In this example, in the initial state, it is assumed that at least one measurement point is specified for the measurement object S in FIG. 1, and the coordinates of each measurement point according to the first coordinate system are calculated. Further, the imaging head 100 is installed at a position P1 on the floor surface.

図8の上段に示すように、移動設定作業が開始されると、使用者Uは、プローブ200が撮像ヘッド100の可動カメラ120により撮像される状態で、プローブカメラ208により測定対象物Sを撮像する。それにより、図8の下段に示すように、撮像により得られた画像が、移動前画像I10として本体表示部310に表示される。図8の移動前画像I10には、測定対象物Sの画像iSが含まれる。さらに、このとき、本体表示部310には、本体表示部310に表示される画像(移動前画像I10)に対応する空間内で3点以上の設定点を指示することを促すメッセージM1が表示される。 As shown in the upper part of FIG. 8, when the movement setting work is started, the user U images the measurement target S with the probe camera 208 while the probe 200 is imaged by the movable camera 120 of the imaging head 100. do. Thereby, as shown in the lower part of FIG. 8, the image obtained by imaging is displayed on the main body display section 310 as the pre-movement image I10. The pre-movement image I10 in FIG. 8 includes an image iS of the measurement object S. Further, at this time, a message M1 is displayed on the main body display section 310 to prompt the user to specify three or more set points in the space corresponding to the image displayed on the main body display section 310 (image before movement I10). Ru.

ここで、プローブ200の複数のマーカeqとプローブカメラ208との位置関係、およびプローブカメラ208の特性(画角およびディストーション等)は、例えば図2の本体メモリ303に撮像情報として予め記憶されている。そのため、複数のマーカeqが可動カメラ120により撮像される状態で、プローブカメラ208により撮像される領域は、図2の本体制御回路302により認識される。すなわち、撮像により得られた移動前画像I10に対応する三次元空間が、本体制御回路302により認識される。 Here, the positional relationship between the plurality of markers eq of the probe 200 and the probe camera 208, and the characteristics of the probe camera 208 (angle of view, distortion, etc.) are stored in advance as imaging information in the main body memory 303 in FIG. 2, for example. . Therefore, in a state where a plurality of markers eq are imaged by the movable camera 120, the area imaged by the probe camera 208 is recognized by the main body control circuit 302 in FIG. 2. That is, the three-dimensional space corresponding to the pre-movement image I10 obtained by imaging is recognized by the main body control circuit 302.

次に、使用者Uは、図8の下段のメッセージM1に応答して、設定点の指示を行う。この設定点の指示作業は、整合情報を生成するための3点以上の位置を順次決定する作業である。本例では、使用者Uは、整合情報を生成するための3つの位置にそれぞれ対応する3つの設定点を、それぞれ第1の設定点、第2の設定点および第3の設定点として指示する。図9、図10および図11の上段に、第1の設定点、第2の設定点および第3の設定点を指示する際の使用者Uの状態が示される。 Next, the user U instructs the set point in response to the message M1 shown in the lower part of FIG. This setting point designation work is a work of sequentially determining the positions of three or more points for generating matching information. In this example, the user U specifies three set points corresponding to three positions for generating matching information as a first set point, a second set point, and a third set point, respectively. . The states of the user U when indicating the first set point, the second set point, and the third set point are shown in the upper rows of FIGS. 9, 10, and 11.

上記のように、プローブカメラ208により撮像された領域は、図2の本体制御回路302により認識されている。それにより、移動前画像I10に対応する三次元空間内でプローブ200が可動カメラ120により撮像される際には、プローブ200の位置および姿勢を示す画像がプローブ画像i200として移動前画像I10上に重畳表示される。なお、プローブ画像i200は、例えば、本体制御回路302がプローブ200の位置および姿勢を認識し、可動カメラ120からプローブ200を見たときのプローブ200の外表面を示す画像(すなわち、可動カメラ120の視野におけるプローブ200表面を示す画像)であってもよい。別の言い方をすれば、プローブ画像i200は、プローブ200の外表面のうち、可動カメラ120の視線方向に射影(投影)したときの画像であると言ってもよい。図9、図10および図11の下段に、使用者Uが第1の設定点、第2の設定点および第3の設定点を指示する際の本体表示部310の表示状態が示される。 As described above, the area imaged by the probe camera 208 is recognized by the main body control circuit 302 in FIG. Therefore, when the probe 200 is imaged by the movable camera 120 in the three-dimensional space corresponding to the pre-movement image I10, an image indicating the position and orientation of the probe 200 is superimposed on the pre-movement image I10 as the probe image i200. Is displayed. Note that the probe image i200 is, for example, an image showing the outer surface of the probe 200 when the main body control circuit 302 recognizes the position and orientation of the probe 200 and the probe 200 is viewed from the movable camera 120 (i.e., an image of the probe 200 when the probe 200 is viewed from the movable camera 120). (an image showing the surface of the probe 200 in the field of view). In other words, the probe image i200 can be said to be an image of the outer surface of the probe 200 projected in the viewing direction of the movable camera 120. The display state of the main body display section 310 when the user U indicates the first set point, the second set point, and the third set point is shown in the lower rows of FIGS. 9, 10, and 11.

図9、図10および図11の下段の図では、第1の設定点、第2の設定点および第3の設定点が指示されるときのプローブ画像i200が移動前画像I10上に重畳表示されている。これにより、使用者Uは、本体表示部310に表示されるプローブ画像i200を視認しつつ、第1の設定点、第2の設定点および第3の設定点を順次指示することができる。このとき、移動前画像I10上には、各設定点が指示されるごとに、当該設定点を示す指標がさらに重畳表示される。設定点を示す指標は、例えば、指示された設定点の位置を示す黒点、引き出し線および文字列を含む。各設定点の指標に含まれる文字列には、当該設定点の設定順の番号を示す情報が含まれる。本例では、各設定点に対して当該設定点の設定順を示す番号が付されている。また、各設定点の第1の座標系に従う座標が算出され、本体メモリ303に記憶される。 In the lower diagrams of FIGS. 9, 10, and 11, the probe image i200 when the first set point, second set point, and third set point are specified is displayed superimposed on the pre-movement image I10. ing. Thereby, the user U can sequentially designate the first set point, second set point, and third set point while viewing the probe image i200 displayed on the main body display section 310. At this time, each time each set point is designated, an index indicating the set point is further superimposed on the pre-movement image I10. The indicator indicating the set point includes, for example, a black dot, a leader line, and a character string indicating the position of the indicated set point. The character string included in the index of each set point includes information indicating the number in the setting order of the set point. In this example, each set point is assigned a number indicating the order in which the set point is set. Further, the coordinates of each set point according to the first coordinate system are calculated and stored in the main body memory 303.

撮像ヘッド100の移動前の第1の設定点、第2の設定点および第3の設定点の指示が完了すると、移動前画像I10上に第1の設定点、第2の設定点および第3の設定点を示す指標が重畳表示された画像が誘導画像として生成され、本体メモリ303に記憶される。 When the instructions for the first set point, second set point, and third set point before movement of the imaging head 100 are completed, the first set point, second set point, and third set point are displayed on the pre-movement image I10. An image on which an index indicating the set point of is superimposed is generated as a guidance image and stored in the main body memory 303.

次に、図12に太い一点鎖線で示すように、使用者Uは、撮像ヘッド100を位置P1から位置P2に移動させる。これにより、測定対象物Sにおける可動カメラ120の死角部分が変化する。 Next, as shown by the thick dashed line in FIG. 12, the user U moves the imaging head 100 from the position P1 to the position P2. As a result, the blind spot of the movable camera 120 in the measurement target S changes.

その後、図13の上段に示すように、使用者Uは、プローブ200が撮像ヘッド100の可動カメラ120により撮像される状態で、プローブカメラ208により測定対象物Sを撮像する。それにより、図13の下段に示すように、撮像により得られた画像が、移動後画像I20として本体表示部310に表示される。図13の移動後画像I20には、図8の例と同様に、測定対象物Sの画像iSが含まれる。 Thereafter, as shown in the upper part of FIG. 13, the user U images the measurement target S with the probe camera 208 while the probe 200 is imaged by the movable camera 120 of the imaging head 100. Thereby, as shown in the lower part of FIG. 13, the image obtained by imaging is displayed on the main body display section 310 as the moved image I20. The moved image I20 in FIG. 13 includes an image iS of the measurement target S, similar to the example in FIG.

撮像ヘッド100の移動後のプローブカメラ208による撮像が完了すると、本体表示部310の表示状態が変化する。具体的には、図14に示すように、本体表示部310の画面上に左表示領域310Lおよび右表示領域310Rが設定される。また、本体メモリ303に記憶された誘導画像が左表示領域310Lに表示され、移動後画像I20が右表示領域310Rに表示される。さらに、右表示領域310Rには、撮像ヘッド100の移動前に指示された第1の設定点、第2の設定点および第3の設定点をこの順で指示することを促すメッセージM2が表示される。 When imaging by the probe camera 208 after the imaging head 100 has been moved is completed, the display state of the main body display section 310 changes. Specifically, as shown in FIG. 14, a left display area 310L and a right display area 310R are set on the screen of the main body display section 310. Further, the guided image stored in the main body memory 303 is displayed in the left display area 310L, and the moved image I20 is displayed in the right display area 310R. Furthermore, a message M2 is displayed in the right display area 310R, prompting the user to specify the first set point, second set point, and third set point that were specified before moving the imaging head 100 in this order. Ru.

次に、使用者Uは、図14のメッセージM2に応答して、第1の設定点、第2の設定点および第3の設定点の指示を行う。図15、図16および図17の上段に、第1の設定点、第2の設定点および第3の設定点を指示する際の使用者Uの状態が示される。 Next, the user U instructs the first set point, the second set point, and the third set point in response to the message M2 of FIG. 14. The states of the user U when indicating the first set point, second set point, and third set point are shown in the upper rows of FIGS. 15, 16, and 17.

上記のように、撮像ヘッド100の移動前に指示された第1の設定点、第2の設定点および第3の設定点の位置は、整合情報を生成するための3つの位置である。したがって、撮像ヘッド100の移動後に指示されるべき第1の設定点、第2の設定点および第3の設定点の位置は、撮像ヘッド100の移動前に指示された第1の設定点、第2の設定点および第3の設定点の位置に一致することが望ましい。 As described above, the positions of the first set point, second set point, and third set point instructed before movement of the imaging head 100 are three positions for generating alignment information. Therefore, the positions of the first set point, second set point, and third set point that should be instructed after the movement of the imaging head 100 are the same as those of the first set point, the second set point, and the third set point that should be instructed before the movement of the imaging head 100. It is desirable that the positions of the second and third set points coincide.

そこで、使用者Uは、図15、図16および図17の下段に示すように、本体表示部310の左表示領域310Lに表示される誘導画像を視認するとともに、実際の測定対象物Sを視認する。これにより、使用者Uは、指示されるべき第1の設定点、第2の設定点および第3の設定点の位置を容易かつ正確に認識することができる。そこで、使用者Uは、第1の設定点、第2の設定点および第3の設定点を順次指示する。 Therefore, as shown in the lower part of FIGS. 15, 16, and 17, the user U visually recognizes the guidance image displayed on the left display area 310L of the main body display section 310, and also visually recognizes the actual measurement target S. do. Thereby, the user U can easily and accurately recognize the positions of the first set point, second set point, and third set point to be indicated. Therefore, the user U instructs the first set point, the second set point, and the third set point in sequence.

このとき、移動後画像I20上には、各設定点が指示されるごとに、当該設定点を示す指標がさらに重畳表示される。設定点を示す指標は、左表示領域310Lに表示される画像の例と同様に、例えば、指示された設定点の位置を示す黒点、引き出し線および文字列を含む。文字列には、当該設定点の設定順の番号を示す情報が含まれる。本例では、各設定点に対して当該設定点の設定順を示す番号が付されている。また、各設定点の第2の座標系に従う座標が算出され、本体メモリ303に記憶される。なお、移動後画像I20に対応する三次元空間内でプローブ200が可動カメラ120により撮像される際には、図9等の移動前画像I10の例と同様に、右表示領域310Rの移動後画像I20上にプローブ画像i200が重畳表示される。なお、プローブ画像i200は、例えば、本体制御回路302がプローブ200の位置および姿勢を認識し、可動カメラ120からプローブ200を見たときのプローブ200の外表面を示す画像(すなわち、可動カメラ120の視野におけるプローブ200表面を示す画像)であってもよい。 At this time, each time a set point is designated, an index indicating the set point is further superimposed on the moved image I20. Similar to the example of the image displayed in the left display area 310L, the index indicating the set point includes, for example, a black dot, a leader line, and a character string indicating the position of the designated set point. The character string includes information indicating the number in the setting order of the set point. In this example, each set point is assigned a number indicating the order in which the set point is set. Further, the coordinates of each set point according to the second coordinate system are calculated and stored in the main body memory 303. Note that when the probe 200 is imaged by the movable camera 120 in the three-dimensional space corresponding to the post-movement image I20, the post-movement image of the right display area 310R is captured as in the example of the pre-movement image I10 in FIG. A probe image i200 is displayed superimposed on I20. Note that the probe image i200 is, for example, an image showing the outer surface of the probe 200 when the main body control circuit 302 recognizes the position and orientation of the probe 200 and the probe 200 is viewed from the movable camera 120 (i.e., an image of the probe 200 when the probe 200 is viewed from the movable camera 120). (an image showing the surface of the probe 200 in the field of view).

撮像ヘッド100の移動後の第1の設定点、第2の設定点および第3の設定点の指示が完了すると、整合情報として座標系の変換情報が生成される。ここで、撮像ヘッド100の移動後に指示された第1の設定点、第2の設定点および第3の設定点の位置と、撮像ヘッド100の移動前に指示された第1の設定点、第2の設定点および第3の設定点の位置とは完全に一致するとは限らない。そのため、変換情報は、撮像ヘッド100の移動後に指示された各設定点の第2の座標系に従う座標を第1の座標系に従う座標に変換した場合に、変換後の当該設定点の座標が撮像ヘッド100の移動前に指示された対応する設定点の第1の座標系に従う座標に一致するかまたはできるだけ近づくように生成される。 When the instructions for the first set point, second set point, and third set point after the movement of the imaging head 100 are completed, coordinate system conversion information is generated as alignment information. Here, the positions of the first set point, second set point, and third set point instructed after the movement of the imaging head 100, and the positions of the first set point, the third set point instructed before the movement of the imaging head 100, The positions of the second set point and the third set point do not necessarily match completely. Therefore, the conversion information indicates that when the coordinates of each specified set point according to the second coordinate system are converted to the coordinates according to the first coordinate system after the movement of the imaging head 100, the coordinates of the set point after conversion are The coordinates are generated to match or be as close as possible to the coordinates according to the first coordinate system of the corresponding set point indicated before the movement of the head 100.

その変換情報の生成においては、レーベンバーグ・マーカート法等の誤差を最小化する最小二乗法が用いられてもよいし、平面、軸および点等の1または複数の要素を用いたベストフィットによる位置合わせ方法が用いられてもよい。 In generating the transformation information, a least squares method that minimizes errors such as the Levenberg-Marquardt method may be used, or a best-fit method using one or more elements such as planes, axes, and points may be used. A matching method may also be used.

撮像ヘッド100の移動後に指示された第1の設定点、第2の設定点および第3の設定点の位置と、撮像ヘッド100の移動前に指示された第1の設定点、第2の設定点および第3の設定点の位置とのずれが大きいと、適切な変換情報を得ることはできない。そこで、本実施の形態では、変換情報が生成されると、図18に示すように、右表示領域310Rに設定点偏差一覧iEが表示される。 The positions of the first set point, second set point, and third set point instructed after the imaging head 100 moves, and the first set point and second setting instructed before the imaging head 100 moves. If the deviation between the point and the position of the third set point is large, appropriate conversion information cannot be obtained. Therefore, in this embodiment, when the conversion information is generated, a set point deviation list iE is displayed in the right display area 310R, as shown in FIG. 18.

設定点偏差一覧iEは、撮像ヘッド100の移動前に指示された各設定点の位置に対して、撮像ヘッド100の移動後に指示された対応する設定点の位置がどれだけずれているのかを示す。これにより、使用者は、設定点偏差一覧iEを視認することにより、撮像ヘッド100の移動の前後で、第1の設定点、第2の設定点および第3の設定点をそれぞれ適切に指示できたか否かを容易に認識することができる。上記の一連の作業が終了することにより、移動設定作業が完了する。 The set point deviation list iE indicates how much the position of the corresponding set point instructed after the movement of the imaging head 100 deviates from the position of each set point instructed before the movement of the imaging head 100. . As a result, the user can appropriately specify the first set point, second set point, and third set point before and after moving the imaging head 100 by visually checking the set point deviation list iE. It is easy to recognize whether the By completing the above series of tasks, the movement setting task is completed.

本実施の形態においては、設定点偏差一覧iEが表示される際に、設定点偏差一覧iEの側方に、各設定点に対応する削除ボタンbdが表示される。各削除ボタンbdは、対応する設定点の指示を取り消すために用いられる。使用者Uは、設定点偏差一覧iEにおいて例えば一の設定点に関するずれの度合いが大きい場合に、当該一の設定点に対応する削除ボタンbdを操作する。それにより、一の設定点に関する座標情報がリセットされ、使用者Uは、再度一の設定点を指示することができる。 In this embodiment, when the set point deviation list iE is displayed, a delete button bd corresponding to each set point is displayed on the side of the set point deviation list iE. Each delete button bd is used to cancel the corresponding set point designation. For example, when the degree of deviation regarding one set point is large in the set point deviation list iE, the user U operates the delete button bd corresponding to the one set point. As a result, the coordinate information regarding the one set point is reset, and the user U can specify the one set point again.

上記の移動設定作業により変換情報が生成された場合には、上記の測定点座標算出処理により算出される測定点の座標が撮像ヘッド100の移動前の装置座標系に従う座標に変換される。これにより、撮像ヘッド100の移動の前後で指示された複数の測定点の間の位置関係を正確に把握することが可能になる。 When conversion information is generated by the movement setting work described above, the coordinates of the measurement point calculated by the measurement point coordinate calculation process described above are converted into coordinates according to the apparatus coordinate system before the imaging head 100 is moved. This makes it possible to accurately grasp the positional relationship between the plurality of measurement points specified before and after the movement of the imaging head 100.

<9>第1の実施の形態に係る移動設定処理
図19および図20は、第1の実施の形態に係る移動設定処理の一例を示すフローチャートである。使用者Uは、上記の移動設定作業を行う際、図2の本体操作部320または図3のタッチパネルディスプレイ230を操作することにより当該移動設定作業の開始を入力する。図19および図20の移動設定処理は、図2の本体制御回路302のCPUが移動設定作業の開始の入力に応答して移動設定プログラムを実行することにより行われる。移動設定処理により、三次元座標測定装置1における設定負担軽減機能が発揮される。なお、図19の移動設定処理が開始される前には、撮像ヘッド100を移動する前に、図5、図6を用いて説明したような測定処理が行われているものとする。すなわち、撮像ヘッド100の設置状態が移動前の第1の設置状態であるときに、使用者Uは、予め定められた複数の幾何要素および予め定められた複数の測定項目から所望の幾何要素および測定項目を選択し、測定対象物における所望の物理量(点や面など)を測定している(測定点の座標が算出されている)。このようにして座標算出された測定点の座標は、第1の測定点の座標として本体メモリ303に記憶されている。
<9> Movement setting processing according to the first embodiment FIGS. 19 and 20 are flowcharts illustrating an example of movement setting processing according to the first embodiment. When performing the movement setting work described above, the user U inputs the start of the movement setting work by operating the main body operation section 320 in FIG. 2 or the touch panel display 230 in FIG. 3. The movement setting process shown in FIGS. 19 and 20 is performed by the CPU of the main body control circuit 302 shown in FIG. 2 executing the movement setting program in response to the input to start the movement setting work. The movement setting process provides a function to reduce the setting burden on the three-dimensional coordinate measuring device 1. Note that before the movement setting process in FIG. 19 is started, it is assumed that the measurement process as described using FIGS. 5 and 6 has been performed before moving the imaging head 100. That is, when the installation state of the imaging head 100 is the first installation state before movement, the user U selects a desired geometric element and a plurality of predetermined measurement items from a plurality of predetermined geometric elements and a plurality of predetermined measurement items. A measurement item is selected and a desired physical quantity (point, surface, etc.) on the measurement target is measured (the coordinates of the measurement point are calculated). The coordinates of the measurement point calculated in this way are stored in the main body memory 303 as the coordinates of the first measurement point.

移動設定処理が開始されると、図2の本体制御回路302は、撮像ヘッド100の移動前にプローブカメラ208による撮像を行うことを促す画像(メッセージ等)を本体表示部310に表示させる(ステップS111)。 When the movement setting process is started, the main body control circuit 302 in FIG. 2 causes the main body display unit 310 to display an image (such as a message) prompting the probe camera 208 to take an image before moving the imaging head 100 (step S111).

次に、本体制御回路302は、プローブカメラ208による撮像が行われることにより、移動前画像I10の画像データが生成されたか否かを判定する(ステップS112)。 Next, the main body control circuit 302 determines whether image data of the pre-movement image I10 has been generated by imaging by the probe camera 208 (step S112).

本体制御回路302は、移動前画像I10の画像データが生成されない場合、当該ステップS112の処理を繰り返す。一方、本体制御回路302は、移動前画像I10の画像データが生成された場合、移動前画像I10を本体表示部310に表示させる(ステップS113)。また、本体制御回路302は、移動前画像I10に対応する空間内で3点以上の設定点を指示することを促す画像(メッセージ等)を本体表示部310に表示させる(ステップS114)。ここで、使用者Uに対して要求される設定点の指示は、整合情報を生成するための3点以上の位置を決定するための設定点の指示である。上記のステップS113,S114の処理時における本体表示部310の表示態様は、図8の下段に示される画面表示例に対応する。 If the image data of the pre-movement image I10 is not generated, the main body control circuit 302 repeats the process of step S112. On the other hand, when the image data of the pre-movement image I10 is generated, the main body control circuit 302 displays the pre-movement image I10 on the main body display section 310 (step S113). Furthermore, the main body control circuit 302 causes the main body display unit 310 to display an image (message, etc.) prompting to specify three or more set points in the space corresponding to the pre-movement image I10 (step S114). Here, the set point instruction requested to the user U is a set point instruction for determining the positions of three or more points for generating matching information. The display mode of the main body display section 310 during the processing of steps S113 and S114 above corresponds to the screen display example shown in the lower part of FIG.

次に、本体制御回路302は、使用者Uによりプローブ200を用いた設定点の指示があったか否かを判定する(ステップS115)。本体制御回路302は、設定点の指示がない場合、当該ステップS115の処理を繰り返す。一方、座標算出部302aは、設定点の指示があった場合、指示された設定点の座標を図6の測定点座標算出処理に従って算出し、算出結果を本体メモリ303に記憶させる(ステップS116)。 Next, the main body control circuit 302 determines whether or not the user U has given a setting point instruction using the probe 200 (step S115). If there is no set point instruction, the main body control circuit 302 repeats the process of step S115. On the other hand, when there is a setting point instruction, the coordinate calculation unit 302a calculates the coordinates of the specified setting point according to the measurement point coordinate calculation process of FIG. 6, and stores the calculation result in the main body memory 303 (step S116). .

なお、座標算出部302aは、後述するステップS118の処理により1または複数の設定点の座標が既に本体メモリ303に記憶されている場合、新たに算出された設定点の座標を、他の設定点の座標と識別可能に本体メモリ303に記憶させる。この場合、本体メモリ303に複数の設定点が記憶される場合に、その設定順序を把握することが可能になる。そこで、本実施の形態では、座標算出部302aは、ステップS116の処理時に、現在指示された設定点が、撮像ヘッド100の移動前において何番目に指示された設定点であるのかを示す情報も本体メモリ303に記憶させる。 Note that, if the coordinates of one or more set points have already been stored in the main body memory 303 through the process of step S118, which will be described later, the coordinate calculation unit 302a uses the newly calculated coordinates of the set point to other set points. The coordinates are stored in the main body memory 303 in a manner distinguishable from the coordinates. In this case, when a plurality of setting points are stored in the main body memory 303, it becomes possible to grasp the setting order. Therefore, in the present embodiment, the coordinate calculation unit 302a also includes information indicating which set point the currently designated set point is the designated set point before the movement of the imaging head 100 at the time of processing in step S116. It is stored in the main body memory 303.

次に、本体制御回路302は、指示された設定点の位置を示す指標を本体表示部310に表示されている移動前画像I10上に重畳表示させる(ステップS117)。その後、本体制御回路302は、設定点の指示が完了したか否かを判定する(ステップS118)。設定点の指示が完了したか否かの判定は、例えば、規定数(例えば3)の設定点の指示が連続して行われたか否かに基づいて行われる。あるいは、設定点の指示が完了したか否かの判定は、使用者Uが本体操作部320またはタッチパネルディスプレイ230を操作することにより設定点の指示の終了が入力されたか否かに基づいて行われる。上記のステップS115~S118の処理時における本体表示部310の表示態様は、図9~図11の下段に示される画面表示例に対応する。 Next, the main body control circuit 302 superimposes and displays an index indicating the position of the designated set point on the pre-movement image I10 displayed on the main body display section 310 (step S117). After that, the main body control circuit 302 determines whether or not the setting point instruction is completed (step S118). The determination as to whether the set point instructions have been completed is made, for example, based on whether or not a predetermined number (for example, three) of set point instructions have been given consecutively. Alternatively, the determination as to whether or not the set point instruction is completed is made based on whether or not the user U inputs the end of the set point instruction by operating the main body operation unit 320 or the touch panel display 230. . The display mode of the main body display section 310 during the processing of steps S115 to S118 above corresponds to the screen display examples shown in the lower rows of FIGS. 9 to 11.

ステップS118において、設定点の指示が完了しない場合、本体制御回路302は、処理をステップS115に戻す。一方、設定点の指示が完了すると、図2の誘導画像生成部302bは、誘導画像を生成する(ステップS119)。ここで、本実施の形態に係る誘導画像は、移動前画像I10上にステップS116において指示された設定点を示す指標が重畳表示された画像である。 In step S118, if the setting point instruction is not completed, the main body control circuit 302 returns the process to step S115. On the other hand, when the setting point instruction is completed, the guidance image generation unit 302b of FIG. 2 generates a guidance image (step S119). Here, the guidance image according to the present embodiment is an image in which an index indicating the set point instructed in step S116 is displayed superimposed on the pre-movement image I10.

その後、本体制御回路302は、撮像ヘッド100の移動および撮像ヘッド100の移動後にプローブカメラ208による撮像を行うことを促す画像(メッセージ等)を本体表示部310に表示させる(ステップS120)。 Thereafter, the main body control circuit 302 causes the main body display unit 310 to display an image (such as a message) prompting the movement of the imaging head 100 and the movement of the imaging head 100 to perform imaging with the probe camera 208 (step S120).

次に、本体制御回路302は、プローブカメラ208による撮像が行われることにより、移動後画像I20の画像データが生成されたか否かを判定する(ステップS121)。 Next, the main body control circuit 302 determines whether image data of the moved image I20 has been generated by imaging by the probe camera 208 (step S121).

本体制御回路302は、移動後画像I20の画像データが生成されない場合、当該ステップS121の処理を繰り返す。一方、本体制御回路302は、移動後画像I20の画像データが生成された場合、誘導画像とともに移動後画像I20を本体表示部310に表示させる(ステップS122)。また、本体制御回路302は、ステップS115~S117の処理で指示された複数の設定点に対応する複数の設定点を、それらの複数の設定点の指示の順に指示することを促す画像(メッセージ等)を本体表示部310に表示させる(ステップS123)。上記のステップS122,S123の処理時における本体表示部310の表示態様は、図14に示される画面表示例に対応する。 If the image data of the moved image I20 is not generated, the main body control circuit 302 repeats the process of step S121. On the other hand, when the image data of the moved image I20 is generated, the main body control circuit 302 causes the main body display unit 310 to display the moved image I20 together with the guide image (step S122). The main body control circuit 302 also displays an image (such as a message) prompting the user to instruct the plurality of setting points corresponding to the plurality of setting points instructed in the processing of steps S115 to S117 in the order of the instruction of the plurality of setting points. ) is displayed on the main body display section 310 (step S123). The display mode of the main body display section 310 during the processing of steps S122 and S123 above corresponds to the screen display example shown in FIG. 14.

次に、本体制御回路302は、使用者Uによりプローブ200を用いた設定点の指示があったか否かを判定する(ステップS124)。本体制御回路302は、設定点の指示がない場合、当該ステップS124の処理を繰り返す。一方、座標算出部302aは、設定点の指示があった場合、指示された設定点の座標を図6の測定点座標算出処理により算出し、算出結果を本体メモリ303に記憶させる(ステップS125)。 Next, the main body control circuit 302 determines whether or not the user U has given a setting point instruction using the probe 200 (step S124). If there is no set point instruction, the main body control circuit 302 repeats the process of step S124. On the other hand, when there is a setting point instruction, the coordinate calculation unit 302a calculates the coordinates of the specified setting point by the measurement point coordinate calculation process of FIG. 6, and stores the calculation result in the main body memory 303 (step S125). .

ここでも、上記のステップS116の処理と同様に、座標算出部302aは、後述するステップS127の処理により1または複数の設定点の座標が既に本体メモリ303に記憶されている場合、新たに算出された設定点の座標を、他の設定点の座標と識別可能に本体メモリ303に記憶させる。また、座標算出部302aは、現在指示された設定点が、撮像ヘッド100の移動後において何番目に指示された設定点であるのかを示す情報も本体メモリ303に記憶させる。 Here, similarly to the process of step S116 described above, the coordinate calculation unit 302a calculates new coordinates if the coordinates of one or more set points have already been stored in the main body memory 303 by the process of step S127, which will be described later. The coordinates of the set point are stored in the body memory 303 in a manner distinguishable from the coordinates of other set points. The coordinate calculation unit 302a also stores information indicating which set point the currently designated set point is after the movement of the imaging head 100 in the main body memory 303.

次に、本体制御回路302は、指示された設定点の位置を示す指標を本体表示部310に表示されている移動後画像I20上に重畳表示させる(ステップS126)。その後、本体制御回路302は、設定点の指示が完了したか否かを判定する(ステップS127)。設定点の指示が完了したか否かの判定は、例えば、ステップS116の処理で、撮像ヘッド100の移動前に本体メモリ303に記憶された複数の設定点に対応する数の設定点が指示されたか否かに基づいて行われる。上記のステップS124~S127の処理時における本体表示部310の表示態様は、図15~図17の下段に示される画面表示例に対応する。なお、これらの処理中、本体表示部310には、移動後画像I20とともに、継続して誘導画像が表示される。 Next, the main body control circuit 302 superimposes and displays an index indicating the position of the designated set point on the moved image I20 displayed on the main body display section 310 (step S126). After that, the main body control circuit 302 determines whether or not the setting point instruction is completed (step S127). The determination as to whether or not the instruction of the set points has been completed is made, for example, in the process of step S116, when the number of set points corresponding to the plurality of set points stored in the main body memory 303 before the movement of the imaging head 100 is instructed. It is based on whether or not the The display mode of the main body display section 310 during the processing of steps S124 to S127 above corresponds to the screen display examples shown in the lower part of FIGS. 15 to 17. Note that during these processes, the guide image is continuously displayed on the main body display section 310 together with the post-movement image I20.

ステップS127において、設定点の指示が完了しない場合、本体制御回路302は、処理をステップS124に戻す。一方、設定点の指示が完了すると、図2の座標整合処理部302cは、本体メモリ303に記憶された複数の設定点の座標に基づいて、撮像ヘッド100の移動の前後の座標系の整合をとるための整合処理を行う(ステップS128)。具体的には、座標整合処理部302cは、撮像ヘッド100の移動前に対応する装置座標系(上記の第1の座標系)と、撮像ヘッド100の移動後の装置座標系(上記の第2の座標系)との整合をとるための整合処理を行う。この整合処理は、第1の座標系を第2の座標系に変換する変換情報を生成すること、および生成された変換情報を本体メモリ303に記憶させることを含む。 In step S127, if the setting point instruction is not completed, the main body control circuit 302 returns the process to step S124. On the other hand, when the setting point instruction is completed, the coordinate matching processing unit 302c in FIG. A matching process is performed to ensure the same (step S128). Specifically, the coordinate matching processing unit 302c determines the device coordinate system (the above-mentioned first coordinate system) before the imaging head 100 moves, and the device coordinate system (the above-mentioned second coordinate system) after the imaging head 100 moves. (coordinate system)). This matching process includes generating conversion information for converting the first coordinate system to the second coordinate system, and storing the generated conversion information in the main body memory 303.

その後、図2の偏差算出部302dは、整合処理で生成された変換情報に基づいて、撮像ヘッド100の移動前に指示された各設定点の位置に対して、撮像ヘッド100の移動後に指示された対応する設定点の位置がどれだけずれているのかを示す偏差を算出する(ステップS129)。また、本体制御回路302は、互いに対応する移動前後の各2つの設定点の間の偏差の算出結果を本体表示部310に表示させる(ステップS130)。上記のステップS130の処理時における本体表示部310の表示態様は、図18に示される画面表示例に対応する。 Thereafter, the deviation calculation unit 302d in FIG. 2 calculates the position of each set point instructed after the movement of the imaging head 100, based on the conversion information generated in the matching process. A deviation indicating how much the position of the corresponding set point deviates is calculated (step S129). Furthermore, the main body control circuit 302 causes the main body display unit 310 to display the calculation result of the deviation between the two corresponding set points before and after the movement (step S130). The display mode of the main body display section 310 during the process of step S130 above corresponds to the screen display example shown in FIG. 18.

最後に、本体制御回路302は、使用者Uが設定点の再指示を指令したか否かを判定する(ステップS131)。使用者Uが設定点の再指示を指令したか否かは、例えば、使用者Uが本体操作部320またはタッチパネルディスプレイ230を操作することにより図18の複数の削除ボタンbdのいずれかが選択されたか否かに基づいて行われる。あるいは、使用者Uが設定点の再指示を指令したか否かは、使用者Uが本体操作部320またはタッチパネルディスプレイ230を操作することにより設定点の再指示の指令が入力されたか否かに基づいて行われる。設定点の再指示があった場合、本体制御回路302は、処理をステップS124に戻す。一方、設定点の再指示がない場合、本体制御回路302は、移動設定処理を終了する。 Finally, the main body control circuit 302 determines whether the user U has given a command to re-instruct the set point (step S131). Whether or not the user U has instructed to re-instruct the set point can be determined by, for example, selecting one of the plurality of delete buttons bd in FIG. It is based on whether or not the Alternatively, whether or not the user U has commanded to re-instruct the set point depends on whether or not the user U has input a command to re-instruct the set point by operating the main body operation section 320 or the touch panel display 230. It is done on the basis of If there is a re-indication of the set point, the main body control circuit 302 returns the process to step S124. On the other hand, if there is no re-indication of the set point, the main body control circuit 302 ends the movement setting process.

上記の移動設定処理が行われた場合、本体制御回路302は、撮像ヘッド100の移動後に指示される測定点については、第2の座標系に従う座標算出を行った後、算出された座標を、ステップS128の処理で得られた変換情報を用いて第1の座標系に従う座標に変換する。それにより、撮像ヘッド100の移動の前後で指示された複数の測定点の座標を共通の座標系(本例では、第1の座標系)で把握することができる。なお、図20では図示を省略しているが、撮像ヘッド100を移動した後に、図5、図6を用いて説明したような測定処理が行われる。すなわち、撮像ヘッド100の設置状態が移動後の第2の設置状態であるときに、使用者Uは、予め定められた複数の幾何要素および予め定められた複数の測定項目から所望の幾何要素および測定項目を選択し、測定対象物における所望の物理量(点や面など)を測定する(測定点の座標が算出される)。そして、本体制御回路302は、整合された第1の座標系および第2の座標系(上述した共通の座標系と言ってもよい)、本体メモリ303に記憶された第1の測定点の座標、および、撮像ヘッド100の設置状態が第2の設置状態であるときに算出された第2の測定点の座標に基づいて、第1の測定点と第2の測定点を跨ぐ測定を行う。 When the above movement setting process is performed, the main body control circuit 302 calculates the coordinates according to the second coordinate system for the measurement point specified after the movement of the imaging head 100, and then converts the calculated coordinates into Using the conversion information obtained in step S128, the coordinates are converted into coordinates according to the first coordinate system. Thereby, the coordinates of a plurality of measurement points designated before and after the movement of the imaging head 100 can be grasped using a common coordinate system (in this example, the first coordinate system). Note that although not shown in FIG. 20, after the imaging head 100 is moved, the measurement process as described using FIGS. 5 and 6 is performed. That is, when the installation state of the imaging head 100 is the second installation state after movement, the user U selects a desired geometric element and a plurality of predetermined measurement items from a plurality of predetermined geometric elements and a plurality of predetermined measurement items. Select a measurement item and measure a desired physical quantity (point, surface, etc.) on the object to be measured (the coordinates of the measurement point are calculated). The main body control circuit 302 then uses the matched first coordinate system and second coordinate system (which may also be referred to as the above-mentioned common coordinate system), and the coordinates of the first measurement point stored in the main body memory 303. , and the measurement across the first measurement point and the second measurement point is performed based on the coordinates of the second measurement point calculated when the installation state of the imaging head 100 is the second installation state.

<10>第1の実施の形態の効果
(a)本実施の形態に係る三次元座標測定装置1は、設定負担軽減機能を有する。それにより、使用者Uは、移動設定作業時に、本体表示部310に表示される誘導画像に基づいて、第1の座標系と第2の座標系とを整合させるために行われるべきプローブ200の操作を容易かつ適切に行うことができる。それにより、撮像ヘッド100の移動の前後で、測定点の座標系の整合をとるための使用者Uの作業負担が軽減される。その結果、三次元座標測定装置1による測定可能な範囲を容易かつ適切に拡大することが可能になる。
<10> Effects of the first embodiment (a) The three-dimensional coordinate measuring device 1 according to the present embodiment has a setting burden reduction function. Thereby, the user U can adjust the probe 200 to match the first coordinate system and the second coordinate system based on the guidance image displayed on the main body display section 310 during the movement setting work. Operation can be performed easily and appropriately. Thereby, the work burden on the user U to align the coordinate systems of the measurement points before and after the movement of the imaging head 100 is reduced. As a result, it becomes possible to easily and appropriately expand the measurable range by the three-dimensional coordinate measuring device 1.

(b)本実施の形態に係る誘導画像は、移動前画像I10上に第1の設定点、第2の設定点および第3の設定点を示す指標が重畳表示された画像である。したがって、使用者Uは、撮像により得られた測定対象物Sの画像を視認することにより、第1の設定点、第2の設定点および第3の設定点の位置をより正確に把握することができる。 (b) The guidance image according to the present embodiment is an image in which indicators indicating the first set point, the second set point, and the third set point are displayed superimposed on the pre-movement image I10. Therefore, the user U can more accurately grasp the positions of the first set point, second set point, and third set point by visually recognizing the image of the measurement target S obtained by imaging. Can be done.

(c)誘導画像に用いられる移動前画像I10は、プローブカメラ208を用いた撮像により得られる。ここで、プローブカメラ208はプローブ200において一体的に固定されている。それにより、プローブカメラ208の撮像視野は、プローブ200の位置および姿勢により一義的に定まる。そのため、移動前画像I10においては、第1の座標系に従う座標が算出された第1の設定点、第2の設定点および第3の設定点の位置を正確に示すことができる。したがって、使用者Uは、誘導画像に基づいて、第1の設定点、第2の設定点および第3の設定点の位置を容易かつ正確に把握することができる。その結果、第1の設定点、第2の設定点および第3の設定点にそれぞれ対応する設定点の指示がより適切に行われ、第1の座標系と第2の座標系との整合処理の精度が向上する。 (c) The pre-movement image I10 used as the guidance image is obtained by imaging using the probe camera 208. Here, the probe camera 208 is integrally fixed to the probe 200. Thereby, the imaging field of view of the probe camera 208 is uniquely determined by the position and orientation of the probe 200. Therefore, in the pre-movement image I10, it is possible to accurately indicate the positions of the first set point, second set point, and third set point whose coordinates according to the first coordinate system have been calculated. Therefore, the user U can easily and accurately grasp the positions of the first set point, second set point, and third set point based on the guided image. As a result, the setting points corresponding to the first setting point, the second setting point, and the third setting point are more appropriately specified, and the matching process between the first coordinate system and the second coordinate system is performed. accuracy is improved.

2.第2の実施の形態
第2の実施の形態に係る三次元座標測定装置1は、第1の実施の形態に係る三次元座標測定装置1と同様に、使用者Uの移動設定作業により、三次元座標測定装置1による測定対象物Sの測定可能範囲を拡大することができる。また、本実施の形態に係る三次元座標測定装置1は、移動設定作業の負担を軽減する設定負担軽減機能を有する。しかしながら、本実施の形態に係る移動設定作業および設定負担軽減機能の内容は、第1の実施の形態に係る移動設定作業および設定負担軽減機能の内容とは異なる。
2. Second Embodiment Similar to the three-dimensional coordinate measuring device 1 according to the first embodiment, the three-dimensional coordinate measuring device 1 according to the second embodiment can perform three-dimensional coordinate measuring device 1 by the movement setting work of the user U. The measurable range of the measurement target S by the original coordinate measuring device 1 can be expanded. Furthermore, the three-dimensional coordinate measuring device 1 according to the present embodiment has a setting burden reduction function that reduces the burden of movement setting work. However, the contents of the movement setting work and the setting burden reduction function according to the present embodiment are different from the contents of the movement setting work and the setting burden reduction function according to the first embodiment.

第2の実施の形態に係る三次元座標測定装置1は、移動設定作業および設定負担軽減機能に関する構成および動作が異なる点を除いて、第1の実施の形態に係る三次元座標測定装置1と基本的に同じ構成および動作を有する。以下、本実施の形態に係る移動設定作業および設定負担軽減機能について説明する。 The three-dimensional coordinate measuring device 1 according to the second embodiment is different from the three-dimensional coordinate measuring device 1 according to the first embodiment, except for the configuration and operation regarding movement setting work and setting burden reduction function. They have basically the same configuration and operation. The movement setting work and setting burden reduction function according to this embodiment will be explained below.

<1>第2の実施の形態に係る移動設定作業および設定負担軽減機能
第1の実施の形態において説明したように、プローブ200は複数のマーカeqを有する。プローブ200において、複数のマーカeqの相対的な位置関係は固定されている。また、その位置関係は、本体メモリ303に記憶されている。そこで、本実施の形態では、プローブ200の複数のマーカeqが、整合情報を生成するための3点以上の位置、すなわち撮像ヘッド100の移動の前後で共通の基準となる位置(以下、共通基準位置と呼ぶ。)を示す設定点として用いられる。
<1> Movement setting work and setting burden reduction function according to second embodiment As described in the first embodiment, the probe 200 has a plurality of markers eq. In the probe 200, the relative positional relationship of the plurality of markers eq is fixed. Further, the positional relationship is stored in the main body memory 303. Therefore, in the present embodiment, the plurality of markers eq of the probe 200 are set at three or more positions for generating alignment information, that is, positions that serve as a common reference before and after the movement of the imaging head 100 (hereinafter referred to as a common reference). (referred to as position).

そのため、本実施の形態では、まず使用者Uにより所定の位置にプローブ200が設置される。この状態で、プローブ200の複数のマーカeqが、移動前の撮像ヘッド100の可動カメラ120により撮像され、複数のマーカeqの第1の座標系に従う座標が算出される。さらに、プローブ200の設置状態が維持されつつ、撮像ヘッド100が移動される。その後、プローブ200の複数のマーカeqが、移動後の撮像ヘッド100の可動カメラ120により撮像され、複数のマーカeqの第2の座標系に従う座標が算出される。撮像ヘッド100の移動の前後で算出された複数のマーカの座標の算出結果に基づいて、整合情報が生成される。 Therefore, in this embodiment, the probe 200 is first installed at a predetermined position by the user U. In this state, the plurality of markers eq of the probe 200 are imaged by the movable camera 120 of the imaging head 100 before movement, and the coordinates of the plurality of markers eq according to the first coordinate system are calculated. Furthermore, the imaging head 100 is moved while the installed state of the probe 200 is maintained. Thereafter, the plurality of markers eq of the probe 200 are imaged by the movable camera 120 of the imaging head 100 after the movement, and the coordinates of the plurality of markers eq according to the second coordinate system are calculated. Matching information is generated based on the calculation results of the coordinates of the plurality of markers calculated before and after the movement of the imaging head 100.

したがって、使用者Uは、本実施の形態に係る移動設定作業として、撮像ヘッド100の移動の前に、可動カメラ120により複数のマーカeqを撮像可能な位置にプローブ200を固定する必要がある。また、使用者Uは、本実施の形態に係る移動設定作業として、プローブ200の固定後、可動カメラ120により複数のマーカeqを撮像可能な位置に撮像ヘッド100を移動させる必要がある。 Therefore, as the movement setting work according to the present embodiment, the user U needs to fix the probe 200 at a position where the movable camera 120 can image the plurality of markers eq before moving the imaging head 100. Further, as a movement setting work according to the present embodiment, the user U needs to move the imaging head 100 to a position where the movable camera 120 can image a plurality of markers eq after fixing the probe 200.

しかしながら、使用者Uは、複数のマーカepから発生する赤外光を視認することができない。また、撮像ヘッド100における可動カメラ120の撮像可能範囲は使用者Uが視認できるものではない。そこで、本実施の形態に係る設定負担軽減機能は、使用者Uによる移動設定作業時に、撮像ヘッド100の可動カメラ120による撮像可能な範囲を示す画像を本体表示部310に表示することを含む。また、本実施の形態に係る設定負担軽減機能は、使用者Uによる移動設定作業時に、撮像ヘッド100とプローブ200との相対的な位置関係を示す画像と、プローブ200の複数のマーカeqから発生される光の照射範囲を示す画像とを本体表示部310に表示することを含む。 However, the user U cannot visually recognize the infrared light generated from the plurality of markers ep. Further, the imaging range of the movable camera 120 in the imaging head 100 is not visible to the user U. Therefore, the setting burden reduction function according to the present embodiment includes displaying an image showing the range that can be imaged by the movable camera 120 of the imaging head 100 on the main body display section 310 when the user U performs movement setting work. Further, the setting burden reduction function according to the present embodiment is generated from an image showing the relative positional relationship between the imaging head 100 and the probe 200 and a plurality of markers eq of the probe 200 when the user U performs movement setting work. This includes displaying an image showing the irradiation range of the light on the main body display section 310.

図21~図24は、第2の実施の形態に係る移動設定作業および設定負担軽減機能を説明するための図である。本例では、初期状態で、図1の測定対象物Sについて少なくとも1つの測定点が指示され、各測定点の第1の座標系に従う座標が算出されているものとする。 FIGS. 21 to 24 are diagrams for explaining the movement setting work and the setting burden reduction function according to the second embodiment. In this example, in the initial state, it is assumed that at least one measurement point is specified for the measurement object S in FIG. 1, and the coordinates of each measurement point according to the first coordinate system are calculated.

図21の上段に示すように、移動設定作業が開始されると、使用者Uは、プローブ200を持ち、共通基準位置として適切な場所を検討する。このとき、図21の下段に示すように、本体表示部310には、撮像ヘッド100の位置を平面視で示すヘッド画像i101が表示される。また、本体表示部310には、可動カメラ120による撮像可能な範囲を平面視で示す視野範囲画像i102が表示される。また、本体表示部310には、プローブ200の設置を促すメッセージM11が表示される。さらに、本体表示部310には、視野範囲画像i102の縮尺を示すスケールが表示される。以下の説明では、ヘッド画像i101および視野範囲画像i102が組み合わされた画像をヘッド俯瞰画像i100と呼ぶ。 As shown in the upper part of FIG. 21, when the movement setting work is started, the user U holds the probe 200 and considers a suitable location as the common reference position. At this time, as shown in the lower part of FIG. 21, a head image i101 showing the position of the imaging head 100 in a plan view is displayed on the main body display section 310. Further, the main body display section 310 displays a viewing range image i102 that shows the range that can be imaged by the movable camera 120 in a plan view. Furthermore, a message M11 prompting the installation of the probe 200 is displayed on the main body display section 310. Furthermore, a scale indicating the scale of the viewing range image i102 is displayed on the main body display unit 310. In the following description, an image in which the head image i101 and the viewing range image i102 are combined will be referred to as a head overhead image i100.

ここで、可動カメラ120による撮像可能な範囲は、所定の撮像精度が保証される範囲であり、撮像ヘッド100の位置に加えて、可動カメラ120の画角、可動カメラ120の焦点深度および基準スタンド10上で変更可能な可動カメラ120の向きによって定まる。可動カメラ120に関するこれらの情報は、撮像情報として予め本体メモリ303に記憶されている。視野範囲画像i102の画像データは、本体メモリ303に記憶された上記の撮像情報に基づいて生成される。 Here, the range that can be imaged by the movable camera 120 is a range in which a predetermined imaging accuracy is guaranteed, and in addition to the position of the imaging head 100, the angle of view of the movable camera 120, the depth of focus of the movable camera 120, and the reference stand It is determined by the orientation of the movable camera 120 that can be changed on the camera 10 . This information regarding the movable camera 120 is stored in advance in the main body memory 303 as imaging information. The image data of the viewing range image i102 is generated based on the above imaging information stored in the main body memory 303.

次に、使用者Uは、図21の下段のメッセージM11に応答して、図22の上段に示すように、共通標準位置として適切と考える位置にプローブ200を設置する。このとき、プローブ200の複数のマーカeqが可動カメラ120により撮像されると、第1の座標系に従う複数のマーカeqの座標が算出される。それにより、図22の下段に示すように、本体表示部310には、現在の撮像ヘッド100の位置に対するプローブ200の相対的な位置を示すプローブ位置画像i211がヘッド俯瞰画像i100上に重畳表示される。また、本体表示部310には、プローブ200の複数のマーカeqから発生される光の照射範囲を示す照射範囲画像i212がヘッド俯瞰画像i100上に重畳表示される。以下の説明では、プローブ位置画像i211および照射範囲画像i212の組み合わされた画像をプローブ俯瞰画像i210と呼ぶ。 Next, in response to the message M11 shown in the lower part of FIG. 21, the user U places the probe 200 at a position that he deems appropriate as the common standard position, as shown in the upper part of FIG. 22. At this time, when the plurality of markers eq of the probe 200 are imaged by the movable camera 120, the coordinates of the plurality of markers eq according to the first coordinate system are calculated. As a result, as shown in the lower part of FIG. 22, a probe position image i211 indicating the relative position of the probe 200 with respect to the current position of the imaging head 100 is displayed on the main body display section 310 in a superimposed manner on the head overhead image i100. Ru. Further, on the main body display section 310, an irradiation range image i212 indicating the irradiation range of light generated from the plurality of markers eq of the probe 200 is displayed in a superimposed manner on the head overhead image i100. In the following description, the combined image of the probe position image i211 and the irradiation range image i212 will be referred to as a probe overhead image i210.

これにより、使用者Uは、ヘッド俯瞰画像i100およびプローブ俯瞰画像i210を視認することにより、プローブ200が撮像ヘッド100の可動カメラ120による撮像可能な範囲にあるか否かを容易に把握することができる。また、使用者Uは、プローブ200の複数のマーカeqから発生される光が撮像ヘッド100の可動カメラ120に入射するか否かを容易に把握することができる。 Thereby, the user U can easily grasp whether the probe 200 is within the range that can be imaged by the movable camera 120 of the imaging head 100 by visually recognizing the head overhead image i100 and the probe overhead image i210. can. Further, the user U can easily grasp whether the light generated from the plurality of markers eq of the probe 200 is incident on the movable camera 120 of the imaging head 100.

なお、プローブ200の複数のマーカeqから発生される光の照射範囲は、プローブ200から所定の光量以上の光が届く範囲であり、図3の目標部材290の構成およびマーカeqの発光に用いられるエネルギー等によって定まる。複数のマーカeqに関するこれらの情報は、撮像情報として予め本体メモリ303に記憶されている。照射範囲画像i212の画像データは、本体メモリ303に記憶された上記の撮像情報と、複数のマーカeqの位置から算出されるプローブ200の姿勢とに基づいて生成される。 Note that the irradiation range of the light generated from the plurality of markers eq of the probe 200 is the range where a predetermined amount of light or more can reach from the probe 200, and is used for the configuration of the target member 290 in FIG. 3 and the light emission of the markers eq. Determined by energy etc. This information regarding the plurality of markers eq is stored in advance in the main body memory 303 as imaging information. The image data of the irradiation range image i212 is generated based on the above imaging information stored in the main body memory 303 and the attitude of the probe 200 calculated from the positions of the plurality of markers eq.

プローブ200の設置が完了すると、プローブ200が固定された状態で、第1の座標系に従う複数のマーカeqの座標が算出され、算出結果が共通基準位置の座標として本体メモリ303に記憶される。 When the installation of the probe 200 is completed, the coordinates of the plurality of markers eq according to the first coordinate system are calculated with the probe 200 fixed, and the calculation results are stored in the main body memory 303 as the coordinates of the common reference position.

その後、使用者Uは、図23の上段に示すように、固定されたプローブ200に対して撮像ヘッド100を移動させる。このとき、可動カメラ120が複数のマーカeqを撮像することにより、撮像ヘッド100に対するプローブ200の位置および姿勢が微小周期で算出される。その算出結果に基づいて、図23の下段に示すように、ヘッド俯瞰画像i100とプローブ俯瞰画像i210との位置関係が、プローブ200に対する撮像ヘッド100の相対的な位置の変化に追従するようにリアルタイムで調整される。 Thereafter, the user U moves the imaging head 100 relative to the fixed probe 200, as shown in the upper part of FIG. At this time, the position and orientation of the probe 200 with respect to the imaging head 100 are calculated at minute intervals by the movable camera 120 capturing images of the plurality of markers eq. Based on the calculation results, as shown in the lower part of FIG. 23, the positional relationship between the head overhead image i100 and the probe overhead image i210 is adjusted in real time to follow changes in the relative position of the imaging head 100 with respect to the probe 200. is adjusted.

図23の下段の例では、プローブ位置画像i211が視野範囲画像i102から外れている。それにより、使用者Uは、現在の撮像ヘッド100の位置は、撮像ヘッド100の移動先の位置として不適切であることを容易に認識することができる。このとき、本体表示部310には、プローブ200が可動カメラ120による撮像可能な範囲から外れていることを知らせるためのメッセージM12が表示されてもよい。なお、図23および後述する図24の下段に示される本体表示部310には、現在の撮像ヘッド100の状態およびプローブ200の状態を示すヘッド俯瞰画像i100およびプローブ俯瞰画像i210に加えて、移動前の撮像ヘッド100の状態を示す初期状態画像i190が点線で示される。 In the example in the lower part of FIG. 23, the probe position image i211 is out of the visual field range image i102. Thereby, the user U can easily recognize that the current position of the imaging head 100 is inappropriate as the position to which the imaging head 100 is to be moved. At this time, a message M12 may be displayed on the main body display section 310 to notify that the probe 200 is out of the range that can be imaged by the movable camera 120. Note that the main body display section 310 shown in FIG. 23 and the lower part of FIG. An initial state image i190 showing the state of the imaging head 100 is indicated by a dotted line.

使用者Uは、ヘッド俯瞰画像i100およびプローブ俯瞰画像i210を視認しつつ撮像ヘッド100を移動させる。それにより、図24の上段および下段に示すように、撮像ヘッド100の移動の前後で座標系の整合をとるために適切な位置に撮像ヘッド100を移動させることができる。 The user U moves the imaging head 100 while visually recognizing the head overhead image i100 and the probe overhead image i210. Thereby, as shown in the upper and lower rows of FIG. 24, the imaging head 100 can be moved to an appropriate position in order to align the coordinate systems before and after the movement of the imaging head 100.

撮像ヘッド100の移動が完了すると、第2の座標系に従う複数のマーカeqの座標が算出され、算出結果が共通基準位置の座標として本体メモリ303に記憶される。本体メモリ303に記憶された、第1の座標系に従う複数のマーカeqの座標と第2の座標系に従う複数のマーカeqの座標とに基づいて整合情報が生成される。 When the movement of the imaging head 100 is completed, the coordinates of the plurality of markers eq according to the second coordinate system are calculated, and the calculation results are stored in the main body memory 303 as the coordinates of the common reference position. Matching information is generated based on the coordinates of the plurality of markers eq according to the first coordinate system and the coordinates of the plurality of markers eq according to the second coordinate system, which are stored in the main body memory 303.

<2>第2の実施の形態に係る移動設定処理
図25は、第2の実施の形態に係る本体制御回路302の機能部の一例を示す図である。図25に示すように、本実施の形態に係る本体制御回路302の機能部は、座標算出部302a、誘導画像生成部302bおよび座標整合処理部302cを含む。本体制御回路302の機能部は、本体制御回路302のCPUが本体メモリ303に記憶された移動設定プログラムを実行することにより実現される。本体制御回路302の機能部の一部または全てが電子回路等のハードウェアにより実現されてもよい。以下、第2の実施の形態に係る移動設定処理について、図25の各機能部の動作とともに説明する。
<2> Movement setting processing according to the second embodiment FIG. 25 is a diagram illustrating an example of a functional section of the main body control circuit 302 according to the second embodiment. As shown in FIG. 25, the functional units of the main body control circuit 302 according to this embodiment include a coordinate calculation unit 302a, a guidance image generation unit 302b, and a coordinate matching processing unit 302c. The functional units of the main body control circuit 302 are realized by the CPU of the main body control circuit 302 executing a movement setting program stored in the main body memory 303. Some or all of the functional units of the main body control circuit 302 may be realized by hardware such as an electronic circuit. The movement setting process according to the second embodiment will be described below along with the operation of each functional unit in FIG. 25.

図26および図27は、第2の実施の形態に係る移動設定処理の一例を示すフローチャートである。本実施の形態においても、第1の実施の形態と同様に、使用者Uは、上記の移動設定作業を行う際、図2の本体操作部320を操作することにより当該移動設定作業の開始を入力する。図26および図27の移動設定処理は、図25の本体制御回路302のCPUが移動設定作業の開始の入力に応答して移動設定プログラムを実行することにより行われる。移動設定処理により、三次元座標測定装置1における設定負担軽減機能が発揮される。 26 and 27 are flowcharts illustrating an example of movement setting processing according to the second embodiment. In the present embodiment, as in the first embodiment, when performing the movement setting work described above, the user U starts the movement setting work by operating the main body operation section 320 in FIG. input. The movement setting process shown in FIGS. 26 and 27 is performed by the CPU of the main body control circuit 302 shown in FIG. 25 executing the movement setting program in response to the input to start the movement setting work. The movement setting process provides a function to reduce the setting burden on the three-dimensional coordinate measuring device 1.

移動設定処理が開始されると、図25の誘導画像生成部302bは、ヘッド俯瞰画像i100を本体表示部310に表示させる(ステップS141)。また、図25の本体制御回路302は、撮像ヘッド100の移動前にプローブ200を設置することを促す画像(メッセージ等)を本体表示部310に表示させる(ステップS142)。上記のステップS141,S142の処理時における本体表示部310の表示態様は、図21の下段に示される画面表示例に対応する。 When the movement setting process is started, the guide image generation unit 302b in FIG. 25 displays the head overhead image i100 on the main body display unit 310 (step S141). Furthermore, the main body control circuit 302 in FIG. 25 causes the main body display unit 310 to display an image (message, etc.) urging the user to install the probe 200 before moving the imaging head 100 (step S142). The display mode of the main body display section 310 during the processing of steps S141 and S142 above corresponds to the screen display example shown in the lower part of FIG. 21.

次に、本体制御回路302は、プローブ200の複数のマーカeqが可動カメラ120で撮像されることにより、複数のマーカeqが検出されたか否かを判定する(ステップS143)。本体制御回路302は、複数のマーカeqが検出されない場合、当該ステップS143の処理を繰り返す。一方、誘導画像生成部302bは、複数のマーカeqが検出された場合に、複数のマーカeqの第1の座標系に従う座標を算出し、算出結果に基づいてプローブ俯瞰画像i210の画像データを生成する。それにより、誘導画像生成部302bは、プローブ俯瞰画像i210を本体表示部310に表示されているヘッド俯瞰画像i100上に重畳表示させる(ステップS144)。 Next, the main body control circuit 302 determines whether a plurality of markers eq of the probe 200 are detected by imaging the plurality of markers eq with the movable camera 120 (step S143). If a plurality of markers eq are not detected, the main body control circuit 302 repeats the process of step S143. On the other hand, when a plurality of markers eq are detected, the guidance image generation unit 302b calculates the coordinates of the plurality of markers eq according to the first coordinate system, and generates image data of the probe overhead image i210 based on the calculation result. do. Thereby, the guidance image generation unit 302b displays the probe overhead image i210 superimposed on the head overhead image i100 displayed on the main body display unit 310 (step S144).

プローブ俯瞰画像i210の生成および重畳表示は、微小周期で更新される。それにより、使用者Uは、本体表示部310に表示されるヘッド俯瞰画像i100およびプローブ俯瞰画像i210に基づいて、リアルタイムで撮像ヘッド100とプローブ200との位置関係を把握することができる。上記のステップS144の処理時における本体表示部310の表示態様は、図22の下段に示される画面表示例に対応する。 The generation and superimposed display of the probe overhead image i210 are updated at minute intervals. Thereby, the user U can grasp the positional relationship between the imaging head 100 and the probe 200 in real time based on the head overhead image i100 and the probe overhead image i210 displayed on the main body display section 310. The display mode of the main body display section 310 during the process of step S144 above corresponds to the screen display example shown in the lower part of FIG. 22.

次に、本体制御回路302は、プローブ200の設置が完了したか否かを判定する(ステップS145)。プローブ200の設置が完了したか否かは、例えば、使用者Uが本体操作部320またはタッチパネルディスプレイ230を操作することによりプローブ200の設置の完了が入力されたか否かに基づいて行われる。 Next, the main body control circuit 302 determines whether the installation of the probe 200 is completed (step S145). Whether or not the installation of the probe 200 is completed is determined based on, for example, whether or not the user U inputs the completion of the installation of the probe 200 by operating the main body operation section 320 or the touch panel display 230.

ステップS145において、プローブ200の設置が完了していない場合、本体制御回路302は、処理をステップS143に戻す。一方、プローブ200の設置が完了した場合、図25の座標算出部302aは、複数のマーカeqの第1の座標系に従う座標を算出し、算出結果を共通基準位置の第1の座標系に従う座標として本体メモリ303に記憶させる(ステップS146)。その後、本体制御回路302は、撮像ヘッド100の移動を促す画像(メッセージ等)を本体表示部310に表示させる(ステップS147)。 In step S145, if the installation of the probe 200 is not completed, the main body control circuit 302 returns the process to step S143. On the other hand, when the installation of the probe 200 is completed, the coordinate calculation unit 302a in FIG. It is stored in the main body memory 303 as (step S146). Thereafter, the main body control circuit 302 causes the main body display unit 310 to display an image (such as a message) urging movement of the imaging head 100 (step S147).

次に、本体制御回路302は、ステップS143の処理と同様に、プローブ200の複数のマーカeqが可動カメラ120で撮像されることにより、複数のマーカeqが検出されたか否かを判定する(ステップS148)。 Next, the main body control circuit 302 determines whether or not a plurality of markers eq of the probe 200 are detected by imaging the plurality of markers eq of the probe 200 with the movable camera 120, similarly to the process of step S143 (step S148).

本体制御回路302は、複数のマーカeqが検出されない場合、当該ステップS148の処理を繰り返す。一方、誘導画像生成部302bは、複数のマーカeqが検出された場合に、現在の撮像ヘッド100の状態に応じて算出される複数のマーカeqの位置を示す座標に基づいて、プローブ200の複数のマーカeqに対する撮像ヘッド100の位置および姿勢を算出する(ステップS149)。また、誘導画像生成部302bは、算出結果に基づいて本体表示部310に表示されるヘッド俯瞰画像i100とプローブ画像i200との位置関係を調整する(ステップS150)。上記のステップS148~S150の処理時における本体表示部310の表示態様は、図23および図24に示される画面表示例に対応する。 If a plurality of markers eq are not detected, the main body control circuit 302 repeats the process of step S148. On the other hand, when a plurality of markers eq are detected, the guidance image generation unit 302b generates a plurality of probes 200 based on coordinates indicating the positions of the plurality of markers eq calculated according to the current state of the imaging head 100. The position and orientation of the imaging head 100 with respect to the marker eq are calculated (step S149). Further, the guidance image generation unit 302b adjusts the positional relationship between the head overhead image i100 and the probe image i200 displayed on the main body display unit 310 based on the calculation result (step S150). The display mode of the main body display section 310 during the processing of steps S148 to S150 above corresponds to the screen display examples shown in FIGS. 23 and 24.

その後、本体制御回路302は、撮像ヘッド100の移動が完了したか否かを判定する(ステップS151)。撮像ヘッド100の移動が完了したか否かは、例えば、使用者Uが本体操作部320またはタッチパネルディスプレイ230を操作することにより撮像ヘッド100の移動の完了が入力されたか否かに基づいて行われる。 After that, the main body control circuit 302 determines whether the movement of the imaging head 100 is completed (step S151). Whether the movement of the imaging head 100 is completed is determined based on, for example, whether the user U inputs the completion of movement of the imaging head 100 by operating the main body operation unit 320 or the touch panel display 230. .

ステップS151において、撮像ヘッド100の移動が完了していない場合、本体制御回路302は、処理をステップS148に戻す。一方、撮像ヘッド100の移動が完了した場合、図25の座標算出部302aは、複数のマーカeqの第2の座標系に従う座標を算出し、算出結果を共通基準位置の第2の座標系に従う座標として本体メモリ303に記憶させる(ステップS152)。 In step S151, if the movement of the imaging head 100 is not completed, the main body control circuit 302 returns the process to step S148. On the other hand, when the movement of the imaging head 100 is completed, the coordinate calculation unit 302a in FIG. 25 calculates the coordinates of the plurality of markers eq according to the second coordinate system, and uses the calculation results according to the second coordinate system of the common reference position. The coordinates are stored in the main body memory 303 (step S152).

次に、図25の座標整合処理部302cは、本体メモリ303に記憶された共通基準位置の第1の座標系に従う座標および第2の座標系に従う座標に基づいて、撮像ヘッド100の移動の前後の座標系の整合をとるための整合処理を行う(ステップS128)。具体的には、座標整合処理部302cは、撮像ヘッド100の移動前に対応する装置座標系(上記の第1の座標系)と、撮像ヘッド100の移動後の装置座標系(上記の第2の座標系)との整合をとるための整合処理を行う。この整合処理は、第1の座標系を第2の座標系に変換する変換情報を生成すること、および生成された変換情報を本体メモリ303に記憶させることを含む。その後、本体制御回路302は、移動設定処理を終了する。 Next, the coordinate matching processing unit 302c in FIG. 25 moves the imaging head 100 back and forth based on the coordinates according to the first coordinate system and the coordinates according to the second coordinate system of the common reference position stored in the main body memory 303. A matching process is performed to match the coordinate systems of (step S128). Specifically, the coordinate matching processing unit 302c determines the device coordinate system (the above-mentioned first coordinate system) before the imaging head 100 moves, and the device coordinate system (the above-mentioned second coordinate system) after the imaging head 100 moves. (coordinate system)). This matching process includes generating conversion information for converting the first coordinate system to the second coordinate system, and storing the generated conversion information in the main body memory 303. Thereafter, the main body control circuit 302 ends the movement setting process.

<3>第2の実施の形態の効果
本実施の形態に係る三次元座標測定装置1は、設定負担軽減機能を有する。それにより、使用者Uは、移動設定作業時に、本体表示部310に表示されるヘッド俯瞰画像i100およびプローブ画像i200の位置関係に基づいて、第1の座標系と第2の座標系とを整合させることが可能な撮像ヘッド100とプローブ200との位置関係を容易に把握することができる。それにより、撮像ヘッド100の移動の前後で、測定点の座標系の整合をとるための使用者Uの作業負担が軽減される。その結果、三次元座標測定装置1による測定可能な範囲を容易かつ適切に拡大することが可能になる。
<3> Effects of the second embodiment The three-dimensional coordinate measuring device 1 according to the present embodiment has a setting burden reduction function. Thereby, during movement setting work, the user U aligns the first coordinate system and the second coordinate system based on the positional relationship between the head overhead image i100 and the probe image i200 displayed on the main body display section 310. It is possible to easily understand the positional relationship between the imaging head 100 and the probe 200 that can be used. Thereby, the work burden on the user U to align the coordinate systems of the measurement points before and after the movement of the imaging head 100 is reduced. As a result, it becomes possible to easily and appropriately expand the measurable range by the three-dimensional coordinate measuring device 1.

3.他の実施の形態
(a)上記のように、第1の実施の形態に係る設定負担低減機能と第2の実施の形態に係る設定負担低減機能とは、使用者Uの移動設定作業の内容とともに異なるが、三次元座標測定装置1は、第1の実施の形態に係る設定負担低減機能と第2の実施の形態に係る設定負担低減機能とを選択的に使用可能に構成されてもよい。この場合、使用者Uは、測定対象物Sの種類および形状の測定内容等に応じて、より適切な方法で移動設定作業を行うことができる。
3. Other Embodiments (a) As described above, the setting burden reduction function according to the first embodiment and the setting burden reduction function according to the second embodiment are the contents of the movement setting work of the user U. However, the three-dimensional coordinate measuring device 1 may be configured to be able to selectively use the setting burden reduction function according to the first embodiment and the setting burden reduction function according to the second embodiment. . In this case, the user U can perform the movement setting work in a more appropriate manner depending on the type and shape of the object S to be measured, and the like.

(b)第1の実施の形態においては、移動設定作業時に使用者Uが3つの設定点を指示することにより、それらの3つの設定点の座標の測定結果に基づいて整合情報が生成されるが、本発明はこれに限定されない。移動設定作業時に、使用者Uは、4つの設定点を指示してもよいし、5つ以上の設定点を指示してもよい。この場合、撮像ヘッド100の移動の前後で設定点の指示の精度が著しく低下しない場合には、設定点の数が多いほどより適切な整合情報を得ることが可能になる。 (b) In the first embodiment, when the user U specifies three set points during movement setting work, matching information is generated based on the measurement results of the coordinates of those three set points. However, the present invention is not limited thereto. During the movement setting work, the user U may instruct four set points, or may instruct five or more set points. In this case, if the accuracy of the set point instructions does not drop significantly before and after the movement of the imaging head 100, the larger the number of set points, the more appropriate matching information can be obtained.

(c)第1の実施の形態においては、測定対象物Sの一部に対して複数の設定点が指示されるが、本発明はこれに限定されない。設定点は、移動設定作業時に、本体表示部310に表示される移動前画像I10に対応する空間内で指示されればよい。したがって、測定対象物Sとは異なる部材(例えば、測定対象物Sが載置されたステージ等)の一部に、設定点が指示されてもよい。 (c) In the first embodiment, a plurality of set points are specified for a part of the measurement target S, but the present invention is not limited thereto. The setting point may be specified within the space corresponding to the pre-movement image I10 displayed on the main body display section 310 during the movement setting work. Therefore, the set point may be specified on a part of a member different from the measurement object S (for example, a stage on which the measurement object S is placed).

(d)第1の実施の形態においては、移動設定作業による撮像ヘッド100の移動後かつ複数の設定点の指示後に、本体表示部310に設定点偏差一覧iEおよび複数の削除ボタンbdが表示されるが、設定点偏差一覧iEおよび削除ボタンbdのうち少なくとも一方は表示されなくてもよい。 (d) In the first embodiment, after the imaging head 100 is moved by the movement setting work and after a plurality of set points are specified, a set point deviation list iE and a plurality of delete buttons bd are displayed on the main body display section 310. However, at least one of the set point deviation list iE and the delete button bd may not be displayed.

この場合、本体制御回路302は、偏差算出部302dにより算出される設定点ごとの偏差と、予め定められたしきい値とに基づいて、各設定点についての指示状態の良否を判定し、判定結果または判定結果に応じたメッセージ(再指示を行うべきメッセージ等)を本体表示部310に表示させてもよい。 In this case, the main body control circuit 302 determines whether the indicated state of each set point is good or bad based on the deviation for each set point calculated by the deviation calculation unit 302d and a predetermined threshold value, and makes a judgment. A message (such as a message that requires re-instruction) depending on the result or determination result may be displayed on the main body display section 310.

(e)第1の実施の形態に係る三次元座標測定装置1は、接触部211aを所望の位置に位置決めすることが可能に構成された治具を備えてもよい。例えば、上記のプローブ200の接触部211aは、球形状を有する。そこで、治具は、すり鉢状の被接触部と、例えばマグネットまたは接着部材等により当該被接触部を任意の位置に固定可能な固定機構とを有してもよい。すり鉢状の被接触部によれば、球形状を有する接触部211aが押し当てられることにより、当該接触部211aを当該非接触部内の一意の点に位置決めすることが可能となる。 (e) The three-dimensional coordinate measuring device 1 according to the first embodiment may include a jig configured to be able to position the contact portion 211a at a desired position. For example, the contact portion 211a of the probe 200 described above has a spherical shape. Therefore, the jig may include a mortar-shaped contact portion and a fixing mechanism that can fix the contact portion at an arbitrary position using, for example, a magnet or an adhesive member. According to the mortar-shaped contacted portion, by pressing the spherical contact portion 211a against it, it becomes possible to position the contact portion 211a at a unique point within the non-contacted portion.

上記の治具を用いる場合には、移動設定作業の開始時に、複数の設定点にそれぞれ対応する位置に複数の治具をそれぞれ設ける。それにより、使用者Uは、撮像ヘッド100の移動の前後で、プローブ200の接触部211aを各治具の非接触部に押し当てる。それにより、使用者Uは、複数の設定点を適切に指示することができる。 When using the above-described jigs, a plurality of jigs are provided at positions corresponding to the plurality of setting points, respectively, at the start of the movement setting work. Thereby, the user U presses the contact portion 211a of the probe 200 against the non-contact portion of each jig before and after moving the imaging head 100. Thereby, the user U can appropriately indicate a plurality of set points.

なお、測定対象物Sまたはその周辺に位置する部材に、接触部211aの直径よりも小さい直径を有する円形の開口部(例えば、ねじ孔)が存在する場合には、当該開口部の位置を設定点としてもよい。この場合、上記の治具等を用いることなく、使用者Uは比較的容易かつ適切に、設定点の指示を行うことができる。 Note that if a circular opening (for example, a screw hole) having a diameter smaller than the diameter of the contact portion 211a exists in the measurement target S or a member located around it, the position of the opening can be set. It may also be a point. In this case, the user U can relatively easily and appropriately specify the set point without using the above-mentioned jig or the like.

(f)第1の実施の形態に係る三次元座標測定装置1においては、撮像ヘッド100の移動の前後で3以上の測定点が指示されることにより、整合情報が生成される。三次元座標測定装置1により、同一形状を有する複数の測定対象物Sの共通部分について移動設定作業を伴う形状測定を行う場合、使用者Uは、1つの測定対象物Sごとに同一の移動設定作業を繰り返す必要がある。 (f) In the three-dimensional coordinate measuring device 1 according to the first embodiment, alignment information is generated by specifying three or more measurement points before and after the movement of the imaging head 100. When using the three-dimensional coordinate measuring device 1 to perform shape measurement that involves movement setting work on a common part of a plurality of measurement objects S having the same shape, the user U performs the same movement setting for each measurement object S. It is necessary to repeat the work.

したがって、三次元座標測定装置1の本体メモリ303には、測定対象物Sの種類ごと、または測定対象物Sの測定内容ごとに、移動設定作業に関する情報のファイルが記憶されてもよい。この場合、移動設定作業に関する情報は、一の形状を有する測定対象物Sの移動設定作業時に指示されるべき複数の設定点の位置を示す情報を含んでもよい。また、移動設定作業に関する情報は、測定対象物Sに対する撮像ヘッド100の移動前の相対位置、および測定対象物Sに対する撮像ヘッド100の移動後の相対位置等を含んでもよい。これらの情報が、本体表示部310上に提示されることにより、使用者Uは移動設定作業をさらに効率よく行うことができる。 Therefore, the main body memory 303 of the three-dimensional coordinate measuring device 1 may store a file of information regarding the movement setting work for each type of object S to be measured or for each measurement content of the object S to be measured. In this case, the information regarding the movement setting work may include information indicating the positions of a plurality of setting points to be instructed during the movement setting work of the measuring object S having one shape. Further, the information regarding the movement setting work may include the relative position of the imaging head 100 before the movement with respect to the measurement object S, the relative position of the imaging head 100 after the movement with respect to the measurement object S, and the like. By presenting this information on the main body display section 310, the user U can perform the movement setting work more efficiently.

(g)第2の実施の形態に係る三次元座標測定装置1においては、ヘッド俯瞰画像i100の視野範囲画像i102により、撮像ヘッド100における可動カメラ120の撮像可能範囲が平面図で示される。また、第2の実施の形態に係る三次元座標測定装置1においては、プローブ俯瞰画像i210の照射範囲画像i212により、プローブ200の複数のマーカeqから発生される光の照射範囲が平面図で示される。しかしながら、本発明はこれらに限定されない。 (g) In the three-dimensional coordinate measuring device 1 according to the second embodiment, the viewing range image i102 of the head overhead image i100 shows the imaging range of the movable camera 120 in the imaging head 100 in a plan view. In addition, in the three-dimensional coordinate measuring device 1 according to the second embodiment, the irradiation range of light generated from the plurality of markers eq of the probe 200 is shown in a plan view by the irradiation range image i212 of the probe overhead image i210. It will be done. However, the present invention is not limited thereto.

本体表示部310には、第2の実施の形態に係る移動設定作業時に、上記の視野範囲画像i102に加えて、または上記の視野範囲画像i102に代えて、可動カメラ120の撮像可能範囲の側面図が表示されてもよい。さらに、本体表示部310には、第2の実施の形態に係る移動設定作業時に、上記のプローブ俯瞰画像i210に加えて、または上記のプローブ俯瞰画像i210に代えて、プローブ200の複数のマーカeqから発生される光の照射範囲の側面図が表示されてもよい。この場合、撮像ヘッド100を上下方向に移動させつつ測定対象物Sの測定可能範囲を拡大することができる。 During the movement setting work according to the second embodiment, the main body display section 310 displays a side view of the imageable range of the movable camera 120 in addition to or in place of the above-mentioned viewing range image i102. A diagram may be displayed. Furthermore, the main body display unit 310 displays a plurality of markers eq of the probe 200 in addition to or in place of the probe overhead image i210 during the movement setting work according to the second embodiment. A side view of the irradiation range of light emitted from the screen may be displayed. In this case, the measurable range of the measurement target S can be expanded while moving the imaging head 100 in the vertical direction.

(h)第2の実施の形態に係る三次元座標測定装置1は、撮像ヘッド100の移動の前後でプローブ200を固定するための固定具を備えてもよい。固定具は、プローブ200の一部を着脱可能に支持する支持部と、例えばマグネットまたは接着部材等により当該支持部を任意の位置に固定可能な固定機構とを有してもよい。この場合、上記の固定具を用いることにより、第2の実施の形態に係る移動設定作業がより適切に行われる。 (h) The three-dimensional coordinate measuring device 1 according to the second embodiment may include a fixture for fixing the probe 200 before and after the movement of the imaging head 100. The fixture may include a support part that removably supports a part of the probe 200, and a fixing mechanism that can fix the support part in any position using, for example, a magnet or an adhesive member. In this case, by using the above fixture, the movement setting work according to the second embodiment can be performed more appropriately.

(i)第1および第2の実施の形態に係る三次元座標測定装置1においては、整合情報として、第1の座標系を第2の座標系に変換する変換情報が生成されるが、本発明はこれに限定されない。整合情報として、第2の座標系を第1の座標系に変換する変換情報が生成されてもよいし、第1の座標系および第2の座標系を第1の座標系および第2の座標系とは異なる第3の座標系に変換する変換情報が生成されてもよい。これらの場合においても、生成された変換情報を用いることにより、撮像ヘッド100の移動の前後で指示された複数の測定点の座標を共通の座標系に従う座標に変換することができる。 (i) In the three-dimensional coordinate measuring device 1 according to the first and second embodiments, conversion information for converting the first coordinate system into the second coordinate system is generated as the matching information. The invention is not limited to this. As matching information, conversion information for converting the second coordinate system into the first coordinate system may be generated, or conversion information for converting the first coordinate system and the second coordinate system into the first coordinate system and the second coordinate system may be generated. Conversion information for converting to a third coordinate system different from the coordinate system may be generated. Even in these cases, by using the generated conversion information, the coordinates of a plurality of measurement points designated before and after the movement of the imaging head 100 can be converted into coordinates according to a common coordinate system.

(j)第1および第2の実施の形態は本発明を接触式のプローブ200とそのプローブ200を撮像することによりプローブ200により指示された測定点の座標を算出する三次元座標測定装置に適用した例であるが、本発明の適用可能な範囲は、上記の例に限定されない。 (j) The first and second embodiments apply the present invention to a contact type probe 200 and a three-dimensional coordinate measuring device that calculates the coordinates of a measurement point indicated by the probe 200 by capturing an image of the probe 200. However, the applicable scope of the present invention is not limited to the above example.

本発明は、プローブ等により指示される測定点の座標を、光学的、電気的または機械的手段により算出可能な他の三次元座標測定装置にも適用することが可能である。具体的には、本発明は、所望の位置に配置されたターゲットにレーザ光を照射するとともに、ターゲットから反射されるレーザ光を受けることによりターゲットの位置を算出する三次元座標測定装置(いわゆる、レーザトラッカ)に適用することもできる。 The present invention can also be applied to other three-dimensional coordinate measuring devices that can calculate the coordinates of a measurement point indicated by a probe or the like by optical, electrical, or mechanical means. Specifically, the present invention provides a three-dimensional coordinate measuring device (so-called It can also be applied to laser trackers).

また、本発明は、多関節アームにより指示されたプローブを用いて測定点を指示することにより、多関節アームの複数の関節部分に内蔵されたエンコーダの出力に基づいて指示された測定点の位置を算出する三次元座標測定装置に適用することもできる。 In addition, the present invention provides a method for specifying a measurement point using a probe specified by a multi-joint arm, thereby making it possible to position the specified measurement point based on the output of an encoder built into a plurality of joints of the multi-joint arm. It can also be applied to a three-dimensional coordinate measuring device that calculates.

また、本発明は、カメラ等により測定対象物Sの少なくとも一部の形状または測定点の位置を非接触で取得可能な非接触式のプローブとそのプローブを撮像することにより、当該プローブにより取得された測定対象物Sの少なくとも一部の座標を算出する三次元座標測定装置に適用することもできる。このような三次元座標測定装置として、例えば、カメラ式CMM(Coordinate Measuring Machine)またはマーカー検知式CMM等がある。 The present invention also provides a non-contact type probe capable of non-contactly obtaining the shape of at least a portion of the object S to be measured or the position of a measurement point using a camera or the like, and by imaging the probe. The present invention can also be applied to a three-dimensional coordinate measuring device that calculates the coordinates of at least a portion of the measured object S. Examples of such three-dimensional coordinate measuring devices include camera type CMMs (Coordinate Measuring Machines) and marker detection type CMMs.

4.請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることができる。
4. Correspondence between each component of the claims and each part of the embodiments Examples of correspondences between each component of the claims and each part of the embodiments will be described below, but the present invention is not limited to the following examples. Various other elements having the configuration or function described in the claims can be used as each component in the claims.

上記実施の形態においては、三次元座標測定装置1が三次元座標測定装置の例であり、撮像ヘッド100の移動前の設置状態が第1の設置状態の例であり、撮像ヘッド100の移動後の設置状態が第2の設置状態の例であり、プローブ200がプローブの例であり、撮像ヘッド100が本体部の例であり、本体メモリ303が記憶部の例であり、本体制御回路302が測定部の例であり、本体制御回路302および座標算出部302aが座標算出部の例であり、座標整合処理部302cが座標整合処理部の例であり、誘導画像生成部302bが誘導画像生成部の例である。 In the embodiment described above, the three-dimensional coordinate measuring device 1 is an example of a three-dimensional coordinate measuring device, the installation state before the imaging head 100 is moved is an example of the first installation state, and the installation state after the imaging head 100 is moved is an example of the first installation state. The installation state is an example of the second installation state, the probe 200 is an example of the probe, the imaging head 100 is an example of the main body part, the main body memory 303 is an example of the storage part, and the main body control circuit 302 is an example of the second installation state. This is an example of the measurement unit, the main body control circuit 302 and the coordinate calculation unit 302a are examples of the coordinate calculation unit, the coordinate matching processing unit 302c is an example of the coordinate matching processing unit, and the guided image generation unit 302b is an example of the guided image generation unit. This is an example.

また、プローブカメラ208がプローブ撮像部の例であり、可動カメラ120が本体撮像部の例であり、プローブ200の複数のマーカeqが複数の測定マーカの例であり、複数の設定点を示す指標が移動前画像I10上に重畳表示された誘導画像(図14等)が第1の誘導画像の例であり、ヘッド俯瞰画像i100およびプローブ画像i200が第2の誘導画像の例である。 Further, the probe camera 208 is an example of a probe imaging section, the movable camera 120 is an example of a main body imaging section, the plurality of markers eq of the probe 200 are an example of a plurality of measurement markers, and the indicators indicating a plurality of set points. The guided image (FIG. 14, etc.) in which is displayed superimposed on the pre-movement image I10 is an example of the first guided image, and the head overhead image i100 and the probe image i200 are examples of the second guided image.

5.実施の形態の総括
(第1項)第1項に係る三次元座標測定装置は、
測定点を指示するプローブと、
前記プローブの位置および姿勢に関する情報を生成する本体部と、
前記本体部により生成された情報に基づいて測定点を指示する前記プローブの位置および姿勢を測定するとともに、測定された当該プローブの位置および姿勢に基づいて、前記本体部の設置状態に応じて定義される座標系上の前記測定点の座標を算出する座標算出部と、
前記本体部の設置状態が第1の設置状態であるときに前記座標算出部により算出された第1の測定点の座標を記憶する記憶部と、
前記本体部の設置状態が前記第1の設置状態から第2の設置状態に変更される場合に、前記第1の設置状態に対応する第1の座標系と、当該第2の設置状態に対応する第2の座標系とを整合させる座標整合処理部と、
前記座標整合処理部により整合された前記第1の座標系および前記第2の座標系、前記記憶部に記憶された前記第1の測定点の座標、ならびに、前記本体部の設置状態が第2の設置状態であるときに前記座標算出部により算出された第2の測定点の座標に基づいて、前記第1の測定点と当該第2の測定点を跨ぐ測定を行う測定部と、
前記第1の座標系と前記第2の座標系を整合させるために前記プローブと前記本体部の相対的な位置関係に基づく誘導画像を生成する誘導画像生成部とを備える。
5. Summary of Embodiments (Section 1) The three-dimensional coordinate measuring device according to Section 1 is
a probe that indicates the measurement point;
a main body that generates information regarding the position and orientation of the probe;
Measure the position and orientation of the probe that indicates the measurement point based on information generated by the main body, and define according to the installation state of the main body based on the measured position and orientation of the probe. a coordinate calculation unit that calculates the coordinates of the measurement point on the coordinate system to be measured;
a storage unit that stores coordinates of a first measurement point calculated by the coordinate calculation unit when the main body unit is in a first installation state;
When the installation state of the main body is changed from the first installation state to the second installation state, a first coordinate system corresponding to the first installation state and a first coordinate system corresponding to the second installation state. a coordinate matching processing unit that matches the second coordinate system with the second coordinate system;
The first coordinate system and the second coordinate system aligned by the coordinate matching processing section, the coordinates of the first measurement point stored in the storage section, and the installation state of the main body section are a measurement unit that performs a measurement across the first measurement point and the second measurement point based on the coordinates of the second measurement point calculated by the coordinate calculation unit when the measurement unit is in an installed state;
The apparatus further includes a guidance image generation section that generates a guidance image based on the relative positional relationship between the probe and the main body in order to align the first coordinate system and the second coordinate system.

上記の三次元座標測定装置によれば、使用者は、第1の座標系と第2の座標系とを整合させる際に、上記の誘導画像に基づいて、プローブの操作を容易かつ適切に行ったり、予め定められた本体部の設置状態の変更可能範囲を容易に把握したりすることができる。それにより、本体部の設置状態の変更を容易かつ適切に行うことができる。 According to the above three-dimensional coordinate measuring device, the user can easily and appropriately operate the probe based on the above-mentioned guidance image when aligning the first coordinate system and the second coordinate system. In addition, it is possible to easily grasp a predetermined range in which the installation state of the main body can be changed. Thereby, the installation state of the main body can be easily and appropriately changed.

したがって、本体部の設置状態の変更の前後で、測定点の座標系の整合をとるための使用者の作業負担が軽減される。これらの結果、三次元座標測定装置による測定可能な範囲を容易かつ適切に拡大することが可能になる。 Therefore, the work burden on the user for aligning the coordinate systems of the measurement points before and after changing the installation state of the main body is reduced. As a result, it becomes possible to easily and appropriately expand the measurable range by the three-dimensional coordinate measuring device.

(第2項)第1項に記載の三次元座標測定装置において、
前記座標整合処理部は、前記第1の座標系および前記第2の座標系のうち少なくとも一方の座標系を共通の座標系に変換するための整合情報を生成してもよい。
(Section 2) In the three-dimensional coordinate measuring device according to Section 1,
The coordinate matching processing section may generate matching information for converting at least one of the first coordinate system and the second coordinate system into a common coordinate system.

この場合、整合情報に基づいて、本体部の設置状態の変更の前後で指示された複数の測定点の座標を共通の座標系に従って表すことが可能になる。 In this case, based on the alignment information, it becomes possible to express the coordinates of a plurality of measurement points designated before and after changing the installation state of the main body according to a common coordinate system.

(第3項)第1項または第2項に記載の三次元座標測定装置において、
前記プローブは、前記第1の座標系と前記第2の座標系とを整合させるための設定点をさらに指示可能に構成され、
前記誘導画像生成部は、前記第1の座標系と前記第2の座標系とを整合させるために操作されるべき前記プローブの操作手順を示す画像を前記誘導画像として生成し、
前記第1の座標系と前記第2の座標系とを整合させるために操作されるべき前記プローブの操作手順は、前記本体部が前記第1の設置状態にあるときに前記プローブにより指示された第1の設定点、第2の設定点および第3の設定点にそれぞれ対応する設定点を、前記本体部が前記第2の設置状態にあるときに前記プローブにより指示することを含み、
前記誘導画像は、前記第1の設定点、前記第2の設定点および前記第3の設定点を示す画像であってもよい。
(Section 3) In the three-dimensional coordinate measuring device according to Item 1 or 2,
The probe is further configured to indicate a set point for aligning the first coordinate system and the second coordinate system;
The guidance image generation unit generates, as the guidance image, an image showing an operation procedure of the probe to be operated to align the first coordinate system and the second coordinate system,
The operation procedure of the probe to be operated to align the first coordinate system and the second coordinate system is instructed by the probe when the main body is in the first installed state. indicating with the probe a set point corresponding to a first set point, a second set point, and a third set point, respectively, when the body portion is in the second installed state;
The guidance image may be an image showing the first set point, the second set point, and the third set point.

この場合、使用者は、本体部が第2の設置状態にあるときに、誘導画像に基づいて、第1の設定点、第2の設定点および第3の設定点にそれぞれ対応する設定点をプローブにより容易かつ適切に指示することができる。 In this case, when the main body is in the second installation state, the user sets the set points corresponding to the first set point, the second set point, and the third set point, respectively, based on the guidance image. It can be easily and appropriately indicated by a probe.

(第4項)第3項に記載の三次元座標測定装置において、
前記座標整合処理部は、前記本体部が前記第1の設置状態にあるときの前記第1の設定点、前記第2の設定点および前記第3の設定点の前記第1の座標系に従う座標と、前記本体部が前記第2の設置状態にあるときの前記第1の設定点、前記第2の設定点および前記第3の設定点にそれぞれ対応する設定点の前記第2の座標系に従う座標とに基づいて、前記第1の座標系と前記第2の座標系とを整合させてもよい。
(Section 4) In the three-dimensional coordinate measuring device according to Section 3,
The coordinate matching processing unit determines the coordinates of the first set point, the second set point, and the third set point according to the first coordinate system when the main body is in the first installed state. and according to the second coordinate system of set points corresponding to the first set point, the second set point, and the third set point, respectively, when the main body is in the second installed state. The first coordinate system and the second coordinate system may be matched based on the coordinates.

この場合、本体部が第1の設置状態にあるときの第1の設定点、第2の設定点および第3の設定点の指示、および本体部が第2の設置状態にあるときの第1の設定点、第2の設定点および第3の設定点にそれぞれ対応する設定点の指示により、第1の座標系と第2の座標系との整合がとられる。 In this case, an indication of a first set point, a second set point, and a third set point when the main body is in the first installed state, and an indication of the first set point when the main body is in the second installed state are provided. The first coordinate system and the second coordinate system are aligned by designating set points corresponding to the set point, the second set point, and the third set point, respectively.

(第5項)第3項または第4項に記載の三次元座標測定装置において、
前記三次元座標測定装置は、
前記プローブに一体的に固定され、前記第1の設定点、前記第2の設定点および前記第3の設定点を含む対象領域を撮像することにより前記対象領域を示す画像を生成するためのプローブ撮像部をさらに含み、
前記プローブ撮像部は、前記プローブに一体的に固定され、
前記誘導画像は、前記本体部が前記第1の設置状態にあるときに前記プローブ撮像部により生成された前記対象領域を示す画像上に、前記第1の設定点、前記第2の設定点および前記第3の設定点を示す画像が重畳表示された画像を含んでもよい。
(Section 5) In the three-dimensional coordinate measuring device according to Section 3 or 4,
The three-dimensional coordinate measuring device includes:
a probe integrally fixed to the probe for generating an image indicative of the region of interest by imaging the region of interest including the first set point, the second set point, and the third set point; further including an imaging unit;
The probe imaging unit is integrally fixed to the probe,
The guided image includes the first set point, the second set point, and It may also include an image in which an image indicating the third set point is displayed in a superimposed manner.

この場合、プローブ撮像部がプローブに一体的に固定されているので、プローブ撮像部の撮像視野は、プローブの位置および姿勢により一義的に定まる。これにより、本体部が第1の設置状態にあるときにプローブ撮像部により生成された画像においては、第1の座標系に従う座標が算出された第1の設定点、第2の設定点および第3の設定点の位置を正確に示すことができる。したがって、使用者は、誘導画像に基づいて、第1の設定点、第2の設定点および第3の設定点の位置を容易かつ正確に把握することができる。 In this case, since the probe imaging section is integrally fixed to the probe, the imaging field of the probe imaging section is uniquely determined by the position and orientation of the probe. As a result, in the image generated by the probe imaging unit when the main body is in the first installation state, the first set point, the second set point, and the second set point whose coordinates according to the first coordinate system are calculated are The location of the 3 set points can be precisely indicated. Therefore, the user can easily and accurately grasp the positions of the first set point, second set point, and third set point based on the guided image.

その結果、第1の設定点、第2の設定点および第3の設定点にそれぞれ対応する設定点の指示がより適切に行われ、第1の座標系と第2の座標系との整合処理の精度が向上する。 As a result, the setting points corresponding to the first setting point, the second setting point, and the third setting point are more appropriately specified, and the matching process between the first coordinate system and the second coordinate system is performed. accuracy is improved.

(第6項)第3項~第5項のいずれか一項に記載の三次元座標測定装置において、
前記三次元座標測定装置は、
前記本体部が前記第1の設置状態にあるときに前記プローブにより指示された前記第1の設定点、前記第2の設定点および前記第3の設定点の間の相対的な第1の位置関係と、前記本体部が前記第2の設置状態にあるときに前記プローブにより指示された前記第1の設定点、前記第2の設定点および前記第3の設定点にそれぞれ対応する設定点の間の相対的な第2の位置関係との間の偏差情報を生成する偏差生成部をさらに備えてもよい。
(Section 6) In the three-dimensional coordinate measuring device according to any one of Items 3 to 5,
The three-dimensional coordinate measuring device includes:
a relative first position between the first set point, the second set point, and the third set point indicated by the probe when the body portion is in the first installed state; and the set points corresponding to the first set point, the second set point, and the third set point indicated by the probe when the main body is in the second installed state. The device may further include a deviation generation unit that generates deviation information between the second positional relationship and the relative second positional relationship.

この場合、使用者は、第1の位置関係と第2の位置関係との間の偏差情報に基づいて、第1の設定点、第2の設定点および第3の設定点にそれぞれ対応する設定点の指示の良否を容易に認識することができる。 In this case, the user sets the settings corresponding to the first set point, the second set point, and the third set point, respectively, based on the deviation information between the first positional relationship and the second positional relationship. It is possible to easily recognize whether the point indication is good or bad.

(第7項)第1項または第2項に記載の三次元座標測定装置において、
前記誘導画像生成部は、前記第1の座標系と前記第2の座標系とを整合させるために予め定められた前記本体部の設置状態の変更可能範囲を示す画像を前記誘導画像として生成し、
前記本体部は、前記プローブを撮像することにより前記プローブの画像を前記プローブの位置および姿勢に関する情報として生成するための本体撮像部を含み、
前記誘導画像は、前記予め定められた本体部の設置状態の変更可能範囲として前記本体撮像部により前記プローブを撮像可能な範囲を示す画像であってもよい。
(Section 7) In the three-dimensional coordinate measuring device according to Item 1 or 2,
The guidance image generation unit generates, as the guidance image, an image showing a predetermined changeable range of the installation state of the main body in order to match the first coordinate system and the second coordinate system. ,
The main body includes a main body imaging unit for generating an image of the probe as information regarding the position and orientation of the probe by imaging the probe,
The guidance image may be an image showing a range in which the probe can be imaged by the main body imaging unit as a range in which the predetermined installation state of the main body can be changed.

この場合、使用者は、誘導画像に基づいて、本体撮像部によりプローブを撮像可能な範囲を容易に把握することができる。それにより、本体部の設置状態の変更を容易かつ適切に行うことができる。 In this case, the user can easily grasp the range in which the probe can be imaged by the main body imaging section based on the guided image. Thereby, the installation state of the main body can be easily and appropriately changed.

(第8項)第7項に記載の三次元座標測定装置において、
前記プローブは、複数の測定マーカを有し、
前記本体撮像部が前記複数の測定マーカを撮像することにより前記複数の測定マーカを示す画像が生成され、
前記座標算出部は、前記プローブの位置および姿勢を測定する際に、前記複数の測定マーカの画像に基づいて、前記本体部の設置状態に応じて定義される座標系上の前記複数の測定マーカの座標をさらに算出し、
前記整合情報生成部は、前記プローブが固定された状態で、前記本体部が前記第1の設置状態にあるときに算出される前記第1の座標系に従う前記複数の測定マーカの座標と、前記本体部が前記第2の設置状態にあるときに算出される前記第2の座標系に従う前記複数の測定マーカの座標とに基づいて、前記第1の座標系と前記第2の座標系とを整合させてもよい。
(Section 8) In the three-dimensional coordinate measuring device according to Section 7,
The probe has a plurality of measurement markers,
An image showing the plurality of measurement markers is generated by the main body imaging unit capturing the plurality of measurement markers,
The coordinate calculation unit calculates the plurality of measurement markers on a coordinate system defined according to the installation state of the main body based on the images of the plurality of measurement markers when measuring the position and orientation of the probe. Further calculate the coordinates of
The alignment information generation unit is configured to generate coordinates of the plurality of measurement markers according to the first coordinate system, which are calculated when the main body is in the first installation state with the probe fixed; the first coordinate system and the second coordinate system based on the coordinates of the plurality of measurement markers according to the second coordinate system calculated when the main body is in the second installation state; They may be matched.

この場合、プローブが固定された状態で、本体部を第1の設置状態にして本体撮像部により複数の測定マーカを撮像すること、および本体部を第2の設置状態にして本体撮像部により複数の測定マーカを撮像することにより、第1の座標系と第2の座標系との整合がとられる。 In this case, with the probe fixed, the main body is placed in the first installation state and the main body imaging section images a plurality of measurement markers, and the main body is placed in the second installation state and the main body imaging section images a plurality of measurement markers. By capturing an image of the measurement marker, the first coordinate system and the second coordinate system are aligned.

(第9項)第8項に記載の三次元座標測定装置において、
前記本体撮像部により前記プローブを撮像可能な範囲を示す画像は、前記本体撮像部の撮像視野および前記測定マーカから発生される光の照射範囲のうち少なくとも一方を含んでもよい。
(Section 9) In the three-dimensional coordinate measuring device according to Section 8,
The image indicating the range in which the probe can be imaged by the main body imaging section may include at least one of an imaging field of view of the main body imaging section and an irradiation range of light generated from the measurement marker.

この場合、使用者は、誘導画像に基づいて、本体部の設置状態の変更をより容易かつ適切に行うことができる。 In this case, the user can more easily and appropriately change the installation state of the main body based on the guidance image.

(第10項)第1項に記載の三次元座標測定装置において、
前記誘導画像生成部は、第1の誘導画像および第2の誘導画像のうち少なくとも一方の画像を前記誘導画像として生成し、
前記第1の誘導画像は、前記第1の座標系と前記第2の座標系とを整合させるために操作されるべき前記プローブの操作手順を示す画像であり、
前記第2の誘導画像は、前記第1の座標系と前記第2の座標系とを整合させるために予め定められた前記本体部の設置状態の変更可能範囲を示す画像であってもよい。
(Section 10) In the three-dimensional coordinate measuring device according to Section 1,
The guided image generation unit generates at least one of a first guided image and a second guided image as the guided image,
The first guidance image is an image showing a procedure for operating the probe to align the first coordinate system and the second coordinate system,
The second guidance image may be an image showing a predetermined range in which the installation state of the main body can be changed in order to match the first coordinate system and the second coordinate system.

この場合、使用者は、第1の誘導画像に基づいて、第1の座標系と第2の座標系とを整合させるために行われるべきプローブの操作を容易かつ適切に行うことができる。あるいは、使用者は、第2の誘導画像に基づいて、第1の座標系と第2の座標系とを整合させるために予め定められた本体部の設置状態の変更可能範囲を容易に把握することができる。それにより、本体部の設置状態の変更を容易かつ適切に行うことができる。 In this case, the user can easily and appropriately operate the probe to align the first coordinate system and the second coordinate system based on the first guidance image. Alternatively, the user can easily grasp the changeable range of the installation state of the main body section, which is predetermined in order to match the first coordinate system and the second coordinate system, based on the second guidance image. be able to. Thereby, the installation state of the main body can be easily and appropriately changed.

1…三次元座標測定装置,2…平面,10…基準スタンド,20…固定連結部,30…支持部材,40…可動部材,50…蛇腹,90…ケーシング,100…撮像ヘッド,110…基準カメラ,120…可動カメラ,130…マーカ駆動回路,140…回転駆動回路,150…ヘッド制御回路,160…無線通信回路,170…通信回路,180…俯瞰カメラ,190…参照部材,200…プローブ,201…プローブ制御部,202…表示灯,203…バッテリ,204…マーカ駆動回路,205…プローブメモリ,206…無線通信回路,207…モーションセンサ,208…プローブカメラ,210…プローブケーシング,210a…前端部,210b…後端部,210c…上面部,210d…底面部,211…スタイラス,211a…接触部,220…把持部,221…プローブ操作部,230…タッチパネルディスプレイ,231…プローブ表示部,232…タッチパネル,290…目標部材,300…処理装置,301…通信回路,302…本体制御回路,302a…座標算出部,302b…誘導画像生成部,302c…座標整合処理部,302d…偏差算出部,303…本体メモリ,310…本体表示部,310L…左表示領域,310R…右表示領域,320…本体操作部,CA…ケーブル,I10…移動前画像,I20…移動後画像,M1,M2,M11,M12…メッセージ,S…測定対象物,U…使用者,bd…削除ボタン,ep,eq…マーカ,i100…ヘッド俯瞰画像,i101…ヘッド画像,i102…視野範囲画像,i190…初期状態画像,i200…プローブ画像,i210…プローブ俯瞰画像,i211…プローブ位置画像,i212…照射範囲画像,iE…設定点偏差一覧,iS…画像,m1,m2…測定点,s1…ベース部,s2…突出部,s11…上面,s12,s21,s22…上面 DESCRIPTION OF SYMBOLS 1... Three-dimensional coordinate measuring device, 2... Plane, 10... Reference stand, 20... Fixed connection part, 30... Support member, 40... Movable member, 50... Bellows, 90... Casing, 100... Imaging head, 110... Reference camera , 120...Movable camera, 130...Marker drive circuit, 140...Rotation drive circuit, 150...Head control circuit, 160...Wireless communication circuit, 170...Communication circuit, 180...Overhead camera, 190...Reference member, 200...Probe, 201 ...Probe control unit, 202...Indicator light, 203...Battery, 204...Marker drive circuit, 205...Probe memory, 206...Wireless communication circuit, 207...Motion sensor, 208...Probe camera, 210...Probe casing, 210a...Front end part , 210b...rear end part, 210c...top part, 210d...bottom part, 211...stylus, 211a...contact part, 220...grip part, 221...probe operating part, 230...touch panel display, 231...probe display part, 232... Touch panel, 290...Target member, 300...Processing device, 301...Communication circuit, 302...Main body control circuit, 302a...Coordinate calculation section, 302b...Guidance image generation section, 302c...Coordinate matching processing section, 302d...Difference calculation section, 303 ...Body memory, 310...Body display section, 310L...Left display area, 310R...Right display area, 320...Body operation section, CA...Cable, I10...Image before movement, I20...Image after movement, M1, M2, M11, M12...Message, S...Measurement object, U...User, bd...Delete button, ep, eq...Marker, i100...Head overhead image, i101...Head image, i102...Viewing range image, i190...Initial state image, i200 ...Probe image, i210...Probe overhead image, i211...Probe position image, i212...Irradiation range image, iE...Set point deviation list, iS...Image, m1, m2...Measurement point, s1...Base part, s2...Protrusion part, s11...Top surface, s12, s21, s22...Top surface

Claims (10)

測定点を指示するプローブと、
前記プローブの位置および姿勢に関する情報を生成する本体部と、
前記本体部により生成された情報に基づいて測定点を指示する前記プローブの位置および姿勢を測定するとともに、測定された当該プローブの位置および姿勢に基づいて、前記本体部の設置状態に応じて定義される座標系上の前記測定点の座標を算出する座標算出部と、
前記本体部の設置状態が第1の設置状態であるときに前記座標算出部により算出された第1の測定点の座標を記憶する記憶部と、
前記本体部の設置状態が前記第1の設置状態から第2の設置状態に変更される場合に、前記第1の設置状態に対応する第1の座標系と、当該第2の設置状態に対応する第2の座標系とを整合させる座標整合処理部と、
前記座標整合処理部により整合された前記第1の座標系および前記第2の座標系、前記記憶部に記憶された前記第1の測定点の座標、ならびに、前記本体部の設置状態が第2の設置状態であるときに前記座標算出部により算出された第2の測定点の座標に基づいて、前記第1の測定点と当該第2の測定点を跨ぐ測定を行う測定部と、
前記第1の座標系と前記第2の座標系を整合させるために前記プローブと前記本体部の相対的な位置関係に基づく誘導画像を生成する誘導画像生成部とを備える、三次元座標測定装置。
a probe that indicates the measurement point;
a main body that generates information regarding the position and orientation of the probe;
Measure the position and orientation of the probe that indicates the measurement point based on information generated by the main body, and define according to the installation state of the main body based on the measured position and orientation of the probe. a coordinate calculation unit that calculates the coordinates of the measurement point on the coordinate system to be measured;
a storage unit that stores coordinates of a first measurement point calculated by the coordinate calculation unit when the main body unit is in a first installation state;
When the installation state of the main body is changed from the first installation state to the second installation state, a first coordinate system corresponding to the first installation state and a first coordinate system corresponding to the second installation state. a coordinate matching processing unit that matches the second coordinate system with the second coordinate system;
The first coordinate system and the second coordinate system aligned by the coordinate matching processing section, the coordinates of the first measurement point stored in the storage section, and the installation state of the main body section are a measurement unit that performs a measurement across the first measurement point and the second measurement point based on the coordinates of the second measurement point calculated by the coordinate calculation unit when the measurement unit is in an installed state;
A three-dimensional coordinate measuring device, comprising a guidance image generation unit that generates a guidance image based on the relative positional relationship between the probe and the main body in order to align the first coordinate system and the second coordinate system. .
前記座標整合処理部は、前記第1の座標系および前記第2の座標系のうち少なくとも一方の座標系を共通の座標系に変換するための整合情報を生成する、請求項1記載の三次元座標測定装置。 The three-dimensional coordinate system according to claim 1, wherein the coordinate matching processing unit generates matching information for converting at least one of the first coordinate system and the second coordinate system into a common coordinate system. Coordinate measuring device. 前記プローブは、前記第1の座標系と前記第2の座標系とを整合させるための設定点をさらに指示可能に構成され、
前記誘導画像生成部は、前記第1の座標系と前記第2の座標系とを整合させるために操作されるべき前記プローブの操作手順を示す画像を前記誘導画像として生成し、
前記第1の座標系と前記第2の座標系とを整合させるために操作されるべき前記プローブの操作手順は、前記本体部が前記第1の設置状態にあるときに前記プローブにより指示された第1の設定点、第2の設定点および第3の設定点にそれぞれ対応する設定点を、前記本体部が前記第2の設置状態にあるときに前記プローブにより指示することを含み、
前記誘導画像は、前記第1の設定点、前記第2の設定点および前記第3の設定点を示す画像である、請求項1または2記載の三次元座標測定装置。
The probe is further configured to indicate a set point for aligning the first coordinate system and the second coordinate system;
The guidance image generation unit generates, as the guidance image, an image showing an operation procedure of the probe to be operated to align the first coordinate system and the second coordinate system,
The operation procedure of the probe to be operated to align the first coordinate system and the second coordinate system is instructed by the probe when the main body is in the first installed state. indicating with the probe a set point corresponding to a first set point, a second set point, and a third set point, respectively, when the body portion is in the second installed state;
The three-dimensional coordinate measuring device according to claim 1 or 2, wherein the guidance image is an image showing the first set point, the second set point, and the third set point.
前記座標整合処理部は、前記本体部が前記第1の設置状態にあるときの前記第1の設定点、前記第2の設定点および前記第3の設定点の前記第1の座標系に従う座標と、前記本体部が前記第2の設置状態にあるときの前記第1の設定点、前記第2の設定点および前記第3の設定点にそれぞれ対応する設定点の前記第2の座標系に従う座標とに基づいて、前記第1の座標系と前記第2の座標系とを整合させる、請求項3記載の三次元座標測定装置。 The coordinate matching processing unit determines the coordinates of the first set point, the second set point, and the third set point according to the first coordinate system when the main body is in the first installed state. and according to the second coordinate system of set points corresponding to the first set point, the second set point, and the third set point, respectively, when the main body is in the second installed state. The three-dimensional coordinate measuring device according to claim 3, wherein the first coordinate system and the second coordinate system are matched based on the coordinates. 前記プローブに一体的に固定され、前記第1の設定点、前記第2の設定点および前記第3の設定点を含む対象領域を撮像することにより前記対象領域を示す画像を生成するためのプローブ撮像部をさらに含み、
前記プローブ撮像部は、前記プローブに一体的に固定され、
前記誘導画像は、前記本体部が前記第1の設置状態にあるときに前記プローブ撮像部により生成された前記対象領域を示す画像上に、前記第1の設定点、前記第2の設定点および前記第3の設定点を示す画像が重畳表示された画像を含む、請求項3記載の三次元座標測定装置。
a probe integrally fixed to the probe for generating an image indicative of the region of interest by imaging the region of interest including the first set point, the second set point, and the third set point; further including an imaging unit;
The probe imaging unit is integrally fixed to the probe,
The guided image includes the first set point, the second set point, and The three-dimensional coordinate measuring device according to claim 3, further comprising an image in which an image indicating the third set point is displayed in a superimposed manner.
前記本体部が前記第1の設置状態にあるときに前記プローブにより指示された前記第1の設定点、前記第2の設定点および前記第3の設定点の間の相対的な第1の位置関係と、前記本体部が前記第2の設置状態にあるときに前記プローブにより指示された前記第1の設定点、前記第2の設定点および前記第3の設定点にそれぞれ対応する設定点の間の相対的な第2の位置関係との間の偏差情報を生成する偏差生成部をさらに備える、請求項3記載の三次元座標測定装置。 a relative first position between the first set point, the second set point, and the third set point indicated by the probe when the body portion is in the first installed state; and the set points corresponding to the first set point, the second set point, and the third set point indicated by the probe when the main body is in the second installed state. 4. The three-dimensional coordinate measuring device according to claim 3, further comprising a deviation generating section that generates deviation information between the two relative second positional relationships. 前記誘導画像生成部は、前記第1の座標系と前記第2の座標系とを整合させるために予め定められた前記本体部の設置状態の変更可能範囲を示す画像を前記誘導画像として生成し、
前記本体部は、前記プローブを撮像することにより前記プローブの画像を前記プローブの位置および姿勢に関する情報として生成するための本体撮像部を含み、
前記誘導画像は、前記予め定められた本体部の設置状態の変更可能範囲として前記本体撮像部により前記プローブを撮像可能な範囲を示す画像である、請求項1または2記載の三次元座標測定装置。
The guidance image generation unit generates, as the guidance image, an image showing a predetermined changeable range of the installation state of the main body in order to match the first coordinate system and the second coordinate system. ,
The main body includes a main body imaging unit for generating an image of the probe as information regarding the position and orientation of the probe by imaging the probe,
The three-dimensional coordinate measuring device according to claim 1 or 2, wherein the guidance image is an image indicating a range in which the probe can be imaged by the main body imaging unit as a changeable range of the predetermined installation state of the main body. .
前記プローブは、複数の測定マーカを有し、
前記本体撮像部が前記複数の測定マーカを撮像することにより前記複数の測定マーカを示す画像が生成され、
前記座標算出部は、前記プローブの位置および姿勢を測定する際に、前記複数の測定マーカの画像に基づいて、前記本体部の設置状態に応じて定義される座標系上の前記複数の測定マーカの座標をさらに算出し、
前記整合情報生成部は、前記プローブが固定された状態で、前記本体部が前記第1の設置状態にあるときに算出される前記第1の座標系に従う前記複数の測定マーカの座標と、前記本体部が前記第2の設置状態にあるときに算出される前記第2の座標系に従う前記複数の測定マーカの座標とに基づいて、前記第1の座標系と前記第2の座標系とを整合させる、請求項7記載の三次元座標測定装置。
The probe has a plurality of measurement markers,
An image showing the plurality of measurement markers is generated by the main body imaging unit capturing the plurality of measurement markers,
The coordinate calculation unit calculates the plurality of measurement markers on a coordinate system defined according to the installation state of the main body based on the images of the plurality of measurement markers when measuring the position and orientation of the probe. Further calculate the coordinates of
The alignment information generation unit is configured to generate coordinates of the plurality of measurement markers according to the first coordinate system, which are calculated when the main body is in the first installation state with the probe fixed; the first coordinate system and the second coordinate system based on the coordinates of the plurality of measurement markers according to the second coordinate system calculated when the main body is in the second installation state; The three-dimensional coordinate measuring device according to claim 7, wherein the three-dimensional coordinate measuring device is aligned.
前記本体撮像部により前記プローブを撮像可能な範囲を示す画像は、前記本体撮像部の撮像視野および前記測定マーカから発生される光の照射範囲のうち少なくとも一方を含む、請求項8記載の三次元座標測定装置。 The three-dimensional image sensor according to claim 8, wherein the image showing the range in which the probe can be imaged by the main body imaging section includes at least one of an imaging field of view of the main body imaging section and an irradiation range of light generated from the measurement marker. Coordinate measuring device. 前記誘導画像生成部は、第1の誘導画像および第2の誘導画像のうち少なくとも一方の画像を前記誘導画像として生成し、
前記第1の誘導画像は、前記第1の座標系と前記第2の座標系とを整合させるために操作されるべき前記プローブの操作手順を示す画像であり、
前記第2の誘導画像は、前記第1の座標系と前記第2の座標系とを整合させるために予め定められた前記本体部の設置状態の変更可能範囲を示す画像である、請求項1記載の三次元座標測定装置。
The guided image generation unit generates at least one of a first guided image and a second guided image as the guided image,
The first guidance image is an image showing a procedure for operating the probe to align the first coordinate system and the second coordinate system,
1 . The second guiding image is an image showing a predetermined range in which the installation state of the main body can be changed in order to match the first coordinate system and the second coordinate system. The three-dimensional coordinate measuring device described.
JP2022113500A 2022-07-14 2022-07-14 Three-dimensional coordinate measurement apparatus Pending JP2024011492A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022113500A JP2024011492A (en) 2022-07-14 2022-07-14 Three-dimensional coordinate measurement apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022113500A JP2024011492A (en) 2022-07-14 2022-07-14 Three-dimensional coordinate measurement apparatus

Publications (1)

Publication Number Publication Date
JP2024011492A true JP2024011492A (en) 2024-01-25

Family

ID=89621875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022113500A Pending JP2024011492A (en) 2022-07-14 2022-07-14 Three-dimensional coordinate measurement apparatus

Country Status (1)

Country Link
JP (1) JP2024011492A (en)

Similar Documents

Publication Publication Date Title
US10444401B2 (en) Locating system comprising a hand-held locating device, and locating method
JP7211891B2 (en) Three-dimensional coordinate measuring device
US9007601B2 (en) Automatic measurement of dimensional data with a laser tracker
CN101363717B (en) Method and measuring system for contactless coordinate measurement of the surface of an object
EP1941235B1 (en) Surveying method and surveying instrument
JP6333075B2 (en) Surveying equipment
US20190242971A1 (en) Relative Object Localization Process for Local Positioning System
EP2636987B1 (en) An apparatus for pointing spatial coordinates, comprising a movable hand-held probe and a portable base unit, and a related method
JP2006276022A (en) Image measuring device
CN102985789B (en) Target point recognition method and surveying instrument
US20190339067A1 (en) Three-dimensional shape data and texture information generating system, imaging control program, and three-dimensional shape data and texture information generating method
CN111721265B (en) A three-dimensional measuring device for indoor ground inclination
JP7257113B2 (en) Three-dimensional coordinate measuring device
US10670390B2 (en) System and method for verifying projection accuracy
CN113155100A (en) Geodetic instrument comprising a base and a geodetic surveying and/or projection module
JP2007120993A (en) Object shape measuring device
JP2024011492A (en) Three-dimensional coordinate measurement apparatus
JP2019188467A (en) Recording device, welding support device, recording method and program
JP2021063760A (en) Surveying system
JPH09193066A (en) Remote work equipment
JP2020020698A (en) Three-dimensional coordinate measuring device
JP4259910B2 (en) Robot teaching method and teaching apparatus
JP2025092238A (en) Three-dimensional measuring device, three-dimensional measuring method, and three-dimensional measuring program
JPH10300510A (en) Moving distance detector
JP2023004477A (en) Probe for three-dimensional coordinate measurement device and three-dimensional coordinate measurement device equipped with the same