[go: up one dir, main page]

JP2020148517A - Three-dimensional coordinate measuring device - Google Patents

Three-dimensional coordinate measuring device Download PDF

Info

Publication number
JP2020148517A
JP2020148517A JP2019044325A JP2019044325A JP2020148517A JP 2020148517 A JP2020148517 A JP 2020148517A JP 2019044325 A JP2019044325 A JP 2019044325A JP 2019044325 A JP2019044325 A JP 2019044325A JP 2020148517 A JP2020148517 A JP 2020148517A
Authority
JP
Japan
Prior art keywords
measurement
main body
probe
sub
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019044325A
Other languages
Japanese (ja)
Inventor
茂人 村上
Shigeto Murakami
茂人 村上
慶太 永良
Keita Nagara
慶太 永良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2019044325A priority Critical patent/JP2020148517A/en
Publication of JP2020148517A publication Critical patent/JP2020148517A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

To smooth the workability of assembling a three-dimensional coordinate measuring device to a reference stand, etc. as a foundation therefor.SOLUTION: A distance measuring optical member (110) for detecting a hand-held probe (200) is provided in a second sub-member (150). The second sub-member (150) is displaceable in the vertical and horizontal directions. The attitude of the second sub-member (150) is detected by an attitude detection sensor (160) provided in a base member (130). A fitting part (132) extending downward from the base member (130) is included. The fitting part (132) tightly fitted to a fixing part (11) of a foundation section (10) by protrusion-to-recess fitting. Tapered faces (133a, 13a) for guiding the protrusion-to-recess fitting with the fixing part (11) of the foundation section are formed at an end of the fixing part (11) of the foundation section and/or the fitting part (132).SELECTED DRAWING: Figure 20

Description

本発明は三次元座標測定装置に関する。 The present invention relates to a three-dimensional coordinate measuring device.

特許文献1は、レーザビームを用いてターゲットの測定点を実質的に検出する測定ユニットにおいて、モータ駆動により偏光ミラーを回転させる機構を有し、受信したレーザビームの変位を検出して、この変位がゼロとなるように、レーザビームを差し向ける方向を偏光ミラーにより修正する三次元座標測定装置を開示している。この種の三次元座標測定装置は「レーザトラッカ」と呼ばれている。レーザビームを用いた三次元座標測定装置を開示している。この三次元座標測定装置は、ベース部材と、ベース部材に対して縦軸を中心に回転可能な支柱(第1サブ部材)と、支柱に対して横軸を中心に回転可能なユニット(第2サブ部材)とを有している。第2サブ部材のユニットは、支柱と共に縦軸を中心に回転可能であり、また、横軸を中心に上下にチルト可能である。 Patent Document 1 has a mechanism for rotating a polarizing mirror by driving a motor in a measurement unit that substantially detects a measurement point of a target using a laser beam, detects the displacement of the received laser beam, and detects this displacement. Discloses a three-dimensional coordinate measuring device that corrects the direction in which the laser beam is directed by a polarizing mirror so that is zero. This type of 3D coordinate measuring device is called a "laser tracker". A three-dimensional coordinate measuring device using a laser beam is disclosed. This three-dimensional coordinate measuring device includes a base member, a support column (first sub-member) that can rotate about the vertical axis with respect to the base member, and a unit (second) that can rotate about the horizontal axis with respect to the support column. It has a sub-member). The unit of the second sub-member can be rotated about the vertical axis together with the support column, and can be tilted up and down about the horizontal axis.

特許文献2は、測定対象物体の表面上のターゲット点までの直線距離を測定する光波距離計と該光波距離計の光軸の傾け角度を測定する測角計とを用い、前記光波距離計の光軸を測定対象物体表面上のターゲット点に合わせ込んだ後の測定距離と測定角度から前記ターゲット点の3次元座標を計測する3次元座標計測装置である。 Patent Document 2 uses a light wave distance meter that measures a linear distance to a target point on the surface of an object to be measured and an angle meter that measures the tilt angle of the optical axis of the light wave distance meter. This is a three-dimensional coordinate measuring device that measures the three-dimensional coordinates of the target point from the measurement distance and the measurement angle after the optical axis is aligned with the target point on the surface of the object to be measured.

特許文献3は、カメラを備えた三次元座標測定装置を開示している。この三次元座標測定装置は、プローブに設けられた複数のマーカをカメラで撮像して、その画像データ画像データに基づいて、測定対象物に対するプローブの接触位置の検出が行われる。 Patent Document 3 discloses a three-dimensional coordinate measuring device including a camera. This three-dimensional coordinate measuring device captures a plurality of markers provided on the probe with a camera, and the contact position of the probe with respect to the measurement object is detected based on the image data image data.

特開2010−054429号公報Japanese Unexamined Patent Publication No. 2010-054429 特開2001−296124号公報Japanese Unexamined Patent Publication No. 2001-296124 特開2015−194452号公報Japanese Unexamined Patent Publication No. 2015-194452

三次元座標測定装置は、上述したように、レーザビーム方式(特許文献1、2)とカメラ方式(特許文献3)が知られている。この種の三次元座標測定装置は、使用者が測定現場まで持ち運んで基準スタンドや台座などの基礎部分に定置され、測定中、三次元座標測定装置の設置位置は不動の状態が維持される。三次元座標測定装置は高い検出精度が要求されるため堅固なフレーム構造を有し、比較的重量物である。 As described above, the three-dimensional coordinate measuring device is known as a laser beam method (Patent Documents 1 and 2) and a camera method (Patent Document 3). This type of 3D coordinate measuring device is carried by the user to the measurement site and placed on a basic part such as a reference stand or a pedestal, and the installation position of the 3D coordinate measuring device is maintained in an immovable state during measurement. Since the three-dimensional coordinate measuring device requires high detection accuracy, it has a solid frame structure and is relatively heavy.

このことから、基礎部分に対して三次元座標測定装置を取り付ける際に円滑に且つできるだけ衝撃が発生しないように取付作業が完了することが望ましい。円滑に取付作業ができない場合、三次元座標測定装置の主要な構成部品である測距光学系部材に衝撃や荷重が加わる虞があり、これが長期に亘る使用によって繰り返されると、測距光学系部材に誤差が発生してしまう可能性としての問題がある。 For this reason, it is desirable that the mounting work be completed smoothly and with as little impact as possible when mounting the three-dimensional coordinate measuring device to the foundation portion. If the mounting work cannot be performed smoothly, an impact or load may be applied to the distance measuring optical system member, which is a main component of the 3D coordinate measuring device, and if this is repeated over a long period of use, the distance measuring optical system member There is a problem that an error may occur in.

本発明の目的は、三次元座標測定装置をその基礎部分となる基準スタンドなどに組み付ける、その作業性を円滑化できる三次元座標測定装置を提供することにある。 An object of the present invention is to provide a three-dimensional coordinate measuring device capable of facilitating the workability of assembling a three-dimensional coordinate measuring device to a reference stand or the like as a basic portion thereof.

上記の技術的課題は、本発明によれば、
ベース部材と、
該ベース部材に対して第1の軸を中心に回転自在に支持される第1サブ部材と、
該第1サブ部材に対して第1の軸と直交する第2の軸周りに回転自在に支持される第2サブ部材と、
該第2サブ部材に設けられ、手持ちプローブを検出するための測距光学系部材と、
前記ベース部材に対する前記第2サブ部材の姿勢を検出する姿勢検出センサと、
前記ベース部材、前記第1、第2のサブ部材を包囲する筐体と、
前記ベース部材から下方に延びて、基礎部分の固定部に密に凹凸嵌合される取付部と、
前記第1サブ部材の姿勢、前記第2サブ部材の姿勢および前記測距光学系部材を介して検出された前記手持ちプローブの情報に基づいて前記手持ちプローブが指し示す測定点の三次元座標を求め、測定対象として予め設定された幾何学形状と前記測定点の三次元座標とに基づいて前記幾何学形状に関する幾何学的特徴を求める座標測定部と、を備え、
前記基礎部分の固定部及び/又は前記取付部の端部には、前記基礎部分の固定部と凹凸嵌合する際に案内するテーパ面が形成されていることを特徴とする三次元座標測定装置を提供することにより達成される。
According to the present invention, the above technical problems are solved.
With the base member
A first sub-member that is rotatably supported about the first axis with respect to the base member,
A second sub-member that is rotatably supported around a second axis that is orthogonal to the first axis with respect to the first sub-member.
A ranging optical system member provided on the second sub-member for detecting a hand-held probe, and
A posture detection sensor that detects the posture of the second sub-member with respect to the base member, and
A housing that surrounds the base member and the first and second sub-members,
A mounting portion that extends downward from the base member and is closely fitted to the fixing portion of the base portion.
Based on the posture of the first sub-member, the posture of the second sub-member, and the information of the hand-held probe detected via the distance measuring optical system member, the three-dimensional coordinates of the measurement point pointed to by the hand-held probe are obtained. It is provided with a coordinate measuring unit for obtaining a geometric feature related to the geometric shape based on a geometric shape preset as a measurement target and three-dimensional coordinates of the measurement point.
A three-dimensional coordinate measuring device characterized in that a tapered surface is formed at the fixed portion and / or the end portion of the mounting portion of the foundation portion to guide the fixed portion of the foundation portion when it is unevenly fitted. Is achieved by providing.

本発明によれば、三次元座標測定装置を基準スタンドなどの基礎部分に設置する際に上記テーパ面によって円滑に且つ衝撃が生じない状態で設置することができる。これにより、三次元座標測定装置に含まれる測距光学系部材に衝撃が加わるのを抑制することができる。これにより三次元座標測定装置を長期に亘って使用しても、その測定精度を維持することができる。 According to the present invention, when the three-dimensional coordinate measuring device is installed on a basic portion such as a reference stand, it can be installed smoothly and without impact due to the tapered surface. As a result, it is possible to suppress an impact from being applied to the distance measuring optical system member included in the three-dimensional coordinate measuring device. As a result, the measurement accuracy can be maintained even if the three-dimensional coordinate measuring device is used for a long period of time.

本発明の作用効果、他の目的は、以下の本発明の好ましい実施例の説明から明らかになろう。 The effects and other objectives of the present invention will be apparent from the following description of preferred embodiments of the present invention.

実施例の三次元座標測定装置の全体構成及びその使用例を説明するための図である。It is a figure for demonstrating the whole structure of the 3D coordinate measuring apparatus of an Example, and the use example thereof. 筐体を取り外した状態で測定装置本体の内部構造の概要を説明するための斜視図である。It is a perspective view for demonstrating the outline of the internal structure of the measuring apparatus main body with the housing removed. 図2に関連して測定装置本体の内部構造の概要を説明するための断面図である。It is sectional drawing for demonstrating the outline of the internal structure of the measuring apparatus main body in relation to FIG. 測定装置本体と処理装置(PC)との機能ブロック図である。It is a functional block diagram of a measuring device main body and a processing device (PC). (a)は測定装置本体に含まれる参照部材の模式的縦断面図である。(b)は参照部材の下面図である。(A) is a schematic vertical sectional view of a reference member included in the main body of the measuring device. (B) is a bottom view of the reference member. 測定装置本体に含まれる基準カメラが参照部材を撮像することにより得られる複数の参照マーカの画像例を示す図である。It is a figure which shows the image example of a plurality of reference markers obtained by the reference camera included in the measuring apparatus main body image | photographing the reference member. 測定装置本体のフレーム構造を説明するための図である。It is a figure for demonstrating the frame structure of the measuring apparatus main body. 図7に図示のフレーム構造に包囲部材を配置した状態を説明するための図である。FIG. 7 is a diagram for explaining a state in which a surrounding member is arranged in the illustrated frame structure. 測定装置本体の外観図である。It is an external view of the measuring apparatus main body. 上方筐体を取り外した状態の測定装置本体の外観図である。It is the external view of the measuring apparatus main body in the state which removed the upper housing. 下方筐体を取り外した状態の測定装置本体の外観図である。It is the external view of the measuring apparatus main body with the lower housing removed. 図9に図示の測定装置本体の縦断面図である。9 is a vertical cross-sectional view of the main body of the measuring device shown in FIG. 可動カメラのレンズ鏡筒の周囲の構造を説明するための断面図である。It is sectional drawing for demonstrating the structure around the lens barrel of a movable camera. 図12とは異なる縦面で切断した測定装置本体の断面図である。It is sectional drawing of the measuring apparatus main body cut in the vertical plane different from FIG. 上方筐体を取り外して、ハーネス室の一部を斜め上方から見た一部切り欠き斜視図である。It is a partially cutaway perspective view of a part of the harness chamber viewed from diagonally above with the upper housing removed. 図15と同様に上方筐体を取り外して、ハーネス室を上方から見た斜視図である。FIG. 15 is a perspective view of the harness chamber viewed from above with the upper housing removed in the same manner as in FIG. カウンタウエイトの存在を明らかにするために上方筐体の一部を切り欠いた測定装置本体の側面図である。It is a side view of the measuring apparatus main body which cut out a part of the upper housing in order to clarify the existence of a counterweight. 単一のカウンタウエイトの配置に関する設計指針を説明するための図である。It is a figure for demonstrating the design guideline regarding the arrangement of a single counterweight. 測定装置本体に含まれる可動カメラの視野が限定的であることを説明するための図である。It is a figure for demonstrating that the field of view of the movable camera included in the measuring apparatus main body is limited. 測定装置本体と基準スタンドとの間の固定構造を説明するための図である。It is a figure for demonstrating the fixed structure between a measuring apparatus main body and a reference stand. 測定装置本体を基準スタンドに設置した後の状態を説明するための固定構造の縦断面図である。It is a vertical cross-sectional view of a fixed structure for demonstrating the state after installing the measuring apparatus main body on a reference stand. 基準スタンドが操作レバーを備え、使用者がレバーを操作することにより、測定装置本体の固定をロック又はアンロックできることを説明するための図である。It is a figure for demonstrating that the reference stand is provided with an operation lever, and the user can lock or unlock the fixing of the measuring apparatus main body by operating the lever. アンロック状態の固定構造の縦断面図である。It is a vertical sectional view of the fixed structure in an unlocked state. ロック状態の固定構造の縦断面図である。It is a vertical sectional view of a fixed structure in a locked state. 使用者側から見たプローブの斜視図である。It is a perspective view of the probe seen from the user side. 図25とは反対側から見たプローブの斜視図である。It is a perspective view of the probe seen from the side opposite to FIG. 図25に関連してプローブが測定装置本体との間で無線通信するための通信窓を備えていることを説明するための部分図である。FIG. 25 is a partial view for explaining that the probe is provided with a communication window for wireless communication with the main body of the measuring device in relation to FIG. 25. プローブの機能ブロック図である。It is a functional block diagram of a probe. 処理装置(PC)の本体表示部に表示される画像の一例を示す図である。It is a figure which shows an example of the image displayed on the main body display part of a processing apparatus (PC). 測定対象物の一例を示す図である。It is a figure which shows an example of the object of measurement. 図30に図示の測定対象物についての基本的な測定例を説明するための図である。FIG. 30 is a diagram for explaining a basic measurement example of the illustrated measurement object. 図30に図示の測定対象物についての基本的な測定例を説明するための図である。FIG. 30 is a diagram for explaining a basic measurement example of the illustrated measurement object. 図30に図示の測定対象物についての基本的な測定例を説明するための図である。FIG. 30 is a diagram for explaining a basic measurement example of the illustrated measurement object. 図30に図示の測定対象物についての基本的な測定例を説明するための図である。FIG. 30 is a diagram for explaining a basic measurement example of the illustrated measurement object. 図30に図示の測定対象物についての基本的な測定例を説明するための図である。FIG. 30 is a diagram for explaining a basic measurement example of the illustrated measurement object. 処理装置(PC)の本体メモリおよびプローブのプローブメモリにそれぞれ記憶される主画面生成用データおよび副画面生成用データと使用者による三次元座標測定装置の操作との関係を示す図である。It is a figure which shows the relationship between the main screen generation data and subscreen generation data stored in the main body memory of a processing apparatus (PC) and the probe memory of a probe, respectively, and the operation of a 3D coordinate measuring apparatus by a user. 幾何要素および測定項目の選択操作時に処理装置(PC)およびプローブに表示される第1の主画面および第1の副画面の表示例を示す図である。It is a figure which shows the display example of the 1st main screen and 1st subscreen which are displayed on a processing apparatus (PC) and a probe at the time of a selection operation of a geometric element and a measurement item. 測定点の指示操作時および測定対象部分の設定操作時に処理装置(PC)およびプローブに表示される第2の主画面および第2の副画面の表示例を示す図である。It is a figure which shows the display example of the 2nd main screen and the 2nd sub-screen which are displayed on a processing apparatus (PC) and a probe at the time of the instruction operation of a measurement point and the setting operation of a measurement target part. 測定対象部分の選択操作時に処理装置(PC)およびプローブに表示される第3の主画面および第3の副画面の表示例を示す図である。It is a figure which shows the display example of the 3rd main screen and the 3rd sub screen which are displayed on the processing apparatus (PC) and a probe at the time of the selection operation of the measurement target part. 幾何公差の選択操作時に処理装置(PC)およびプローブに表示される第4の主画面および第4の副画面の表示例を示す図である。It is a figure which shows the display example of the 4th main screen and the 4th sub screen displayed on the processing apparatus (PC) and a probe at the time of the selection operation of a geometrical tolerance. 処理装置(PC)の本体制御回路による測定対象部分設定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the measurement target part setting process by the main body control circuit of a processing apparatus (PC). 測定点座標算出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the measurement point coordinate calculation process. 処理装置(PC)の本体制御回路による測定値算出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the measurement value calculation processing by the main body control circuit of a processing apparatus (PC). 処理装置(PC)の本体制御回路による追跡処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the tracking process by the main body control circuit of a processing apparatus (PC). 三次元座標測定装置の主として画面表示に関する機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure mainly about a screen display of a 3D coordinate measuring apparatus.

以下、本発明の好ましい実施例として、カメラを使った距離測定を行う三次元座標測定装置1を例示的に挙げて添付の図面に基づいて実施例の三次元座標測定装置1を説明する。図1は、三脚12を含む基準スタンド10に設置した三次元座標測定装置1を示す。三次元座標測定装置1は、測定装置本体100と、プローブ200、処理装置300との組み合わせで構成され、例えば大型の測定対象物Sの各部の寸法等の物理量を測定するために用いられる。典型的には、三次元座標測定装置1は、測定対象物Sが設計通りに作られているかを確認するのに用いられる。図1には、測定対象物Sの例として大型の配管が図示されている。測定対象物Sは床面上に置かれ、測定中は定置した状態が維持される。 Hereinafter, as a preferred embodiment of the present invention, a three-dimensional coordinate measuring device 1 for performing distance measurement using a camera will be exemplified, and the three-dimensional coordinate measuring device 1 of the embodiment will be described with reference to the accompanying drawings. FIG. 1 shows a three-dimensional coordinate measuring device 1 installed on a reference stand 10 including a tripod 12. The three-dimensional coordinate measuring device 1 is composed of a combination of the measuring device main body 100, the probe 200, and the processing device 300, and is used for measuring physical quantities such as the dimensions of each part of a large measurement object S, for example. Typically, the three-dimensional coordinate measuring device 1 is used to confirm whether the measurement object S is made as designed. FIG. 1 shows a large-sized pipe as an example of the measurement object S. The object S to be measured is placed on the floor surface and is maintained in a stationary state during the measurement.

プローブ200は、使用者Uにより携行される。プローブ200は接触子201を有している。使用者Uは測定対象物Sの所望の部分に接触子201を当接させる。接触子201の接触ポイントが「測定点」となる。 The probe 200 is carried by the user U. The probe 200 has a contact 201. The user U brings the contactor 201 into contact with a desired portion of the object S to be measured. The contact point of the contactor 201 becomes the "measurement point".

基準スタンド10の一部を構成する三脚12は、測定装置本体100を固定するための固定部11を含む。基準スタンド10は床面上に定置され、測定対象物Sの測定が完了するまで位置固定される。 The tripod 12 that forms a part of the reference stand 10 includes a fixing portion 11 for fixing the measuring device main body 100. The reference stand 10 is placed on the floor surface and fixed in position until the measurement of the measurement object S is completed.

測定装置本体100は、測定点を検出する測距光学系部材110の一例として可動カメラ111を有し、可動カメラ111は定焦点カメラで構成されている。測距光学系部材110の変形例として、特許文献1(US 9,366,531 B2)、特許文献2(WO2014/067942)に記載のレーザビームを用いたユニットであってよく、US 9,366,531 B2、WO2014/067942を援用することにより、これら先行文献に開示の内容をこの明細書に組み込む。測距光学系部材110としてレーザビームを出射するレーザユニットを採用したときには、プローブ200に再帰反射体が設けられ、この再帰反射体によって次に説明するプローブマーカが形成される。 The measuring device main body 100 has a movable camera 111 as an example of a distance measuring optical system member 110 for detecting a measurement point, and the movable camera 111 is composed of a constant focus camera. As a modification of the distance measuring optical system member 110, the unit may be a unit using the laser beam described in Patent Document 1 (US 9,366,531 B2) and Patent Document 2 (WO2014 / 067942), and US 9,366,531 B2 and WO2014 / 067942 By reference, the contents of disclosure in these prior arts are incorporated herein by reference. When a laser unit that emits a laser beam is adopted as the distance measuring optical system member 110, a retroreflector is provided on the probe 200, and the retroreflector forms a probe marker described below.

可動カメラ111はプローブ200に設けられた複数のプローブマーカeq(p)を撮像する。可動カメラ111は、その向きを左右方向及び/又は上下方向に変化させることが可能であり、これにより可動カメラ111の視野を左右方向及び/又は上下方向に拡大することができる。 The movable camera 111 captures a plurality of probe markers eq (p) provided on the probe 200. The direction of the movable camera 111 can be changed in the horizontal direction and / or the vertical direction, whereby the field of view of the movable camera 111 can be expanded in the horizontal direction and / or the vertical direction.

図2は、測定装置本体100の内部構造の概要を説明するための斜視図である。図3は、測定装置本体100の全体概要を説明するための縦断面図である。先ず図2を参照して、測定装置本体100は俯瞰カメラ120を有している。俯瞰カメラ120は定焦点カメラで構成されている。俯瞰カメラ120は大きな撮像視野を有し、広い撮像視野でプローブ200の存在及びその概略的な位置を監視するのに用いられる。例えばプローブ200が移動することにより可動カメラ111の撮像視野からプローブ200が外れても、俯瞰カメラ120が撮像した画像データ(以下、「俯瞰画像データ」と呼ぶ。)に基づいてプローブ200の大まかな位置を特定する。俯瞰カメラ120で特定した位置に基づいて、可動カメラ111の撮像視野内にプローブ200が位置するように、可動カメラ111の向きが調整される。 FIG. 2 is a perspective view for explaining an outline of the internal structure of the measuring device main body 100. FIG. 3 is a vertical cross-sectional view for explaining the overall outline of the measuring device main body 100. First, referring to FIG. 2, the measuring device main body 100 has a bird's-eye view camera 120. The bird's-eye view camera 120 is composed of a constant focus camera. The bird's-eye view camera 120 has a large field of view and is used to monitor the presence of the probe 200 and its approximate position in a wide field of view. For example, even if the probe 200 is removed from the imaging field of view of the movable camera 111 due to the movement of the probe 200, the probe 200 is roughly based on the image data captured by the bird's-eye view camera 120 (hereinafter, referred to as "overhead image data"). Identify the location. Based on the position specified by the bird's-eye view camera 120, the orientation of the movable camera 111 is adjusted so that the probe 200 is located in the imaging field of view of the movable camera 111.

図1に戻って、測定装置本体100はケーブルCAを介して処理装置300に接続される。処理装置300は典型的にはパーソナルコンピュータ(PC)で構成される。処理装置300は、液晶モニタなどの本体表示部310及びキーボード、マウスなど周知の本体操作部320と有線又は無線で接続される。処理装置(PC)300は、可動カメラ111がプローブマーカeq(p)を撮像することにより得られる画像データ(以下、「測定画像データ」と呼ぶ。)を測定装置本体100から受け取る。そして、処理装置(PC)300は、受け取った測定画像データと、後述する基準画像データとに基づいて、接触子201の接触ポイントつまり測定点の座標を求める。処理装置300は、測定対象物Sの一又は複数の測定点の座標に基づいて測定対象物Sの物理量を求めて本体表示部310に表示する。 Returning to FIG. 1, the measuring device main body 100 is connected to the processing device 300 via the cable CA. The processing device 300 typically comprises a personal computer (PC). The processing device 300 is connected to a main body display unit 310 such as a liquid crystal monitor and a well-known main body operation unit 320 such as a keyboard and a mouse by wire or wirelessly. The processing device (PC) 300 receives image data (hereinafter, referred to as “measurement image data”) obtained by the movable camera 111 imaging the probe marker eq (p) from the measuring device main body 100. Then, the processing device (PC) 300 obtains the contact point of the contactor 201, that is, the coordinates of the measurement point, based on the received measurement image data and the reference image data described later. The processing device 300 obtains the physical quantity of the measurement object S based on the coordinates of one or a plurality of measurement points of the measurement object S and displays it on the main body display unit 310.

把持しているプローブ200を使用者Uが移動させると、図1に白抜きの点線矢印で示すように、プローブ200の移動に追従して可動カメラ111の向きが上下及び/又は左右に変化する。すなわち、可動カメラ111の向きは、プローブ200が移動すると、このプローブ200が可動カメラ111の撮像視野内に位置するように変化する。これにより、三次元座標測定装置1は大きな測定可能領域を実現している。 When the user U moves the gripped probe 200, the orientation of the movable camera 111 changes up and down and / or left and right following the movement of the probe 200, as shown by the white dotted arrow in FIG. .. That is, when the probe 200 moves, the orientation of the movable camera 111 changes so that the probe 200 is located within the imaging field of view of the movable camera 111. As a result, the three-dimensional coordinate measuring device 1 realizes a large measurable area.

図2、図3を参照して、測定装置本体100は、ベース部材130と、第1サブ部材140と、第2サブ部材150との3分割構造を有し、その各々が独立したフレームを有している。具体的に説明すると、ベース部材130はベースフレームF(B)を有している。第1サブ部材140は第1サブフレームF(S1)を有している。第2サブ部材150は第2サブフレームF(S2)を有している。これら3つの独立したフレームF(B)、F(S1)、F(S1)は金属製であり、好ましくは熱伝達性に優れた例えばアルミニウム合金で作られている。 With reference to FIGS. 2 and 3, the measuring device main body 100 has a three-divided structure of a base member 130, a first sub-member 140, and a second sub-member 150, each of which has an independent frame. are doing. Specifically, the base member 130 has a base frame F (B). The first sub-member 140 has a first sub-frame F (S1). The second sub-member 150 has a second sub-frame F (S2). These three independent frames F (B), F (S1), and F (S1) are made of metal, preferably made of, for example, an aluminum alloy having excellent heat transfer properties.

ベースフレームF(B)は第1サブフレームF(S1)を縦軸Ax(V)を中心に回転可能に支持している。第1サブフレームF(S1)は第2サブフレームF(S2)を横軸Ax(L)を中心に回転可能に支持している。横軸Ax(L)は、縦軸Ax(V)に対し、非平行に配置されており、好ましくは、横軸Ax(L)は、縦軸Ax(V)に直交する平面内に配置されるものであってもよく、より好ましくは、横軸Ax(L)と縦軸Ax(V)とは直交する。測定装置本体100は、第2サブフレームF(S2)の姿勢を介して可動カメラ111の姿勢を検出する姿勢検出センサ160を有している。実施例では、姿勢検出センサ160として測距光学系部材の一例である基準カメラ161が採用されている。この基準カメラ161は定焦点カメラで構成され、ベースフレームF(B)に固定されている。 The base frame F (B) rotatably supports the first subframe F (S1) about the vertical axis Ax (V). The first subframe F (S1) rotatably supports the second subframe F (S2) about the horizontal axis Ax (L). The horizontal axis Ax (L) is arranged non-parallel to the vertical axis Ax (V), and preferably the horizontal axis Ax (L) is arranged in a plane orthogonal to the vertical axis Ax (V). It may be, and more preferably, the horizontal axis Ax (L) and the vertical axis Ax (V) are orthogonal to each other. The measuring device main body 100 has a posture detection sensor 160 that detects the posture of the movable camera 111 via the posture of the second subframe F (S2). In the embodiment, the reference camera 161 which is an example of the distance measuring optical system member is adopted as the attitude detection sensor 160. The reference camera 161 is composed of a constant focus camera and is fixed to the base frame F (B).

ベースフレームF(B)は、縦軸Ax(V)と同軸に配置された中空支持軸148を有している。中空支持軸148は、ベースフレームF(B)から上方向に真っ直ぐに延びており、この中空支持軸148の中に基準カメラ161が配置され、そして、基準カメラ161はベースフレームF(B)に固定されている。基準カメラ161の撮像視野は上方を差し向けられている。基準カメラ161の光軸は好ましくは中空支持軸148と同軸である。すなわち、基準カメラ161の光軸は縦軸Ax(V)と同軸であるのが好ましい。 The base frame F (B) has a hollow support shaft 148 arranged coaxially with the vertical axis Ax (V). The hollow support shaft 148 extends straight upward from the base frame F (B), the reference camera 161 is arranged in the hollow support shaft 148, and the reference camera 161 is attached to the base frame F (B). It is fixed. The imaging field of view of the reference camera 161 is directed upward. The optical axis of the reference camera 161 is preferably coaxial with the hollow support shaft 148. That is, it is preferable that the optical axis of the reference camera 161 is coaxial with the vertical axis Ax (V).

図4は、測定装置本体100及び処理装置(PC)300の概要を説明するためのブロック図である。図3、図4を参照して、ベースフレームF(B)には、第1サブフレームF(S1)の回転を制御する第1回転駆動制御回路141と、第2サブフレームF(S2)の回転を制御する第2回転駆動制御回路142と、無線通信回路143が実装された各種基板がベースフレームF(B)に対して直接的な熱伝導が可能な状態で設けられている。また、ベースフレームF(B)には、第1サブフレームF(S1)を回転動作させるための第1回転駆動機構145が設けられている(図3)。第1回転駆動機構145は例えばステッピングモータ及びこれに関連した動力伝達部材を含む。 FIG. 4 is a block diagram for explaining an outline of the measuring device main body 100 and the processing device (PC) 300. With reference to FIGS. 3 and 4, the base frame F (B) includes a first rotation drive control circuit 141 for controlling the rotation of the first subframe F (S1) and a second subframe F (S2). A second rotation drive control circuit 142 for controlling rotation and various substrates on which the wireless communication circuit 143 is mounted are provided in a state where direct heat conduction is possible with respect to the base frame F (B). Further, the base frame F (B) is provided with a first rotation drive mechanism 145 for rotating the first subframe F (S1) (FIG. 3). The first rotary drive mechanism 145 includes, for example, a stepping motor and a power transmission member related thereto.

図2、図3を参照して、第1サブ部材140はベース部材130の上に回転可能に配置されている。具体的に説明すると、第1サブフレームF(S1)は、中空支持軸148の上端部分にクロスローラベアリングCB(図3)を介して回転自在に取付けられている。第1サブフレームF(S1)はベースフレームF(B)に対して縦軸Ax(V)を中心に相対回転可能である。この第1サブフレームF(S1)は、上述した第1回転駆動機構145によって回転動作する。第1サブフレームF(S1)は、側面視U字状の形状を有し(図2)、互いに対向して上方に延びる2つの支柱部分146に第2サブフレームF(S2)が設置されている。第2サブフレームF(S2)は横軸Ax(L)を中心に回転可能である。これにより、第2サブフレームF(S2)は第1サブフレームF(S1)に対して横軸Ax(L)を中心に相対回転可能である。第2サブフレームF(S2)には、第2サブフレームF(S2)を回転動作させるための第2回転駆動機構151が取り付けられている。第2回転駆動機構151(図2)は、例えばステッピングモータ及びこれに関連した動力伝達部材を含む。 With reference to FIGS. 2 and 3, the first sub-member 140 is rotatably arranged on the base member 130. Specifically, the first subframe F (S1) is rotatably attached to the upper end portion of the hollow support shaft 148 via a cross roller bearing CB (FIG. 3). The first subframe F (S1) can rotate relative to the base frame F (B) about the vertical axis Ax (V). The first subframe F (S1) rotates by the first rotation drive mechanism 145 described above. The first subframe F (S1) has a U-shaped side view (FIG. 2), and the second subframe F (S2) is installed on two support column portions 146 facing each other and extending upward. There is. The second subframe F (S2) is rotatable about the horizontal axis Ax (L). As a result, the second subframe F (S2) can rotate relative to the first subframe F (S1) about the horizontal axis Ax (L). A second rotation drive mechanism 151 for rotating the second subframe F (S2) is attached to the second subframe F (S2). The second rotary drive mechanism 151 (FIG. 2) includes, for example, a stepping motor and a power transmission member related thereto.

俯瞰カメラ120は、第1サブフレームF(S1)に設置されている(図2)。俯瞰カメラ120を第1サブフレームF(S1)に設けることにより、長期の使用に亘って監視誤差を抑制することができる。換言すれば、俯瞰カメラ120を第2サブフレームF(S2)に設けたときには、この第2サブフレームF(S2)は可動要素であり且つ同じく可動要素である第1サブフレームF(S1)で支持されていることから、第1サブフレームF(S1)の組付誤差が累積した監視誤差となって現れる可能性がある。 The bird's-eye view camera 120 is installed in the first subframe F (S1) (FIG. 2). By providing the bird's-eye view camera 120 in the first subframe F (S1), it is possible to suppress monitoring errors over a long period of use. In other words, when the bird's-eye view camera 120 is provided in the second subframe F (S2), the second subframe F (S2) is a movable element and is also a movable element in the first subframe F (S1). Since it is supported, the assembly error of the first subframe F (S1) may appear as a cumulative monitoring error.

可動カメラ111は第2サブフレームF(S2)に設置されている。可動カメラ111及び俯瞰カメラ120は、共に前方に差し向けられている。第1サブフレームF(S1)が縦軸Ax(V)を中心に回転することにより可動カメラ111及び俯瞰カメラ120の向きが左右に回転する。他方、第2サブフレームF(S2)が横軸Ax(L)を中心に回転することにより可動カメラ111の向きが上下にチルトする。 The movable camera 111 is installed in the second subframe F (S2). Both the movable camera 111 and the bird's-eye view camera 120 are directed forward. The orientation of the movable camera 111 and the bird's-eye view camera 120 is rotated left and right by rotating the first subframe F (S1) around the vertical axis Ax (V). On the other hand, when the second subframe F (S2) rotates about the horizontal axis Ax (L), the direction of the movable camera 111 tilts up and down.

図3を参照して、基準カメラ161の上方に差し向けられた撮像視野には参照部材162が配置される。基準カメラ161は、その光軸が縦軸Ax(V)と平行であるのがよく、好ましくは、基準カメラ161は、その光軸が縦軸Ax(V)と同軸であるのがよい。参照部材162は、第2サブフレームF(S2)に固設されている。つまり参照部材162は第2サブフレームF(S2)に関して不動である。また、参照部材162は、第2サブフレームF(S2)に対して直接的に熱伝導可能な状態で取り付けられている。図5は、参照部材162の構成を説明するための模式図であり、(a)は断面図、(b)は参照部材162を下方から見た底面図であり、参照部材162の下面は平面である。図5の(a)を参照して、参照部材162は複数の参照マーカep(ref)を有し、参照マーカep(ref)は自発光タイプの面マーカで構成されている。具体的に参照部材162の構成を説明すると、参照部材162は、上から下に向けて順に配置された発光基板163、拡散板164、ガラス板165を有し、これらは、その側方の周囲が拡散反射シート166によって包囲されている。 With reference to FIG. 3, the reference member 162 is arranged in the imaging field of view directed above the reference camera 161. The optical axis of the reference camera 161 is preferably parallel to the vertical axis Ax (V), and preferably the optical axis of the reference camera 161 is coaxial with the vertical axis Ax (V). The reference member 162 is fixed to the second subframe F (S2). That is, the reference member 162 is immovable with respect to the second subframe F (S2). Further, the reference member 162 is attached to the second subframe F (S2) in a state where it can directly conduct heat. 5A and 5B are schematic views for explaining the configuration of the reference member 162, FIG. 5A is a cross-sectional view, FIG. 5B is a bottom view of the reference member 162 as viewed from below, and the lower surface of the reference member 162 is a flat surface. Is. With reference to FIG. 5A, the reference member 162 has a plurality of reference markers ep (ref), and the reference marker ep (ref) is composed of a self-luminous type surface marker. Specifically, the configuration of the reference member 162 will be described. The reference member 162 has a light emitting substrate 163, a diffuser plate 164, and a glass plate 165 arranged in order from top to bottom, and these are peripherals on the sides thereof. Is surrounded by a diffuse reflection sheet 166.

発光基板163の下面には、全体に亘って数多くの発光素子Lが整列した状態で実装されている。各発光素子Lは、例えば赤外LED(発光ダイオード)で構成されている。発光素子Lとしては、赤外LEDの代わりに他の波長の光を発するLEDが用いられてもよいし、フィラメント等の他の発光素子が用いられてもよい。発光素子Lは参照マーカ駆動回路152(図4)によって駆動される。この参照マーカ駆動回路152は第2サブフレームF(S2)に搭載されている。 A large number of light emitting elements L are mounted on the lower surface of the light emitting substrate 163 in an aligned state. Each light emitting element L is composed of, for example, an infrared LED (light emitting diode). As the light emitting element L, an LED that emits light of another wavelength may be used instead of the infrared LED, or another light emitting element such as a filament may be used. The light emitting element L is driven by the reference marker drive circuit 152 (FIG. 4). The reference marker drive circuit 152 is mounted on the second subframe F (S2).

拡散板164は、例えば樹脂からなる板部材であり、複数の発光素子Lから発生される光を拡散させつつ下方へ透過する。拡散反射シート166は、例えば樹脂からなる帯状のシート部材であり、複数の発光素子Lから参照部材162の側方(外方)に向かう光を拡散させつつその内方に反射する。以上の構成により、拡散板164から放出される光を面全体に均一化することができる。 The diffuser plate 164 is, for example, a plate member made of resin, and transmits light generated from a plurality of light emitting elements L while diffusing it downward. The diffuse reflection sheet 166 is, for example, a band-shaped sheet member made of resin, and reflects light from a plurality of light emitting elements L toward the side (outward) of the reference member 162 while diffusing it inward. With the above configuration, the light emitted from the diffuser plate 164 can be made uniform over the entire surface.

ガラス板165は板ガラスであり、例えば石英ガラスまたはソーダガラスで構成される。ガラス板165の上下の面のうち少なくとも下面は、高度に平滑化された面で構成され、この下面に複数の円形開口を有する薄膜マスク167が設けられている。薄膜マスク167は、例えばガラス板165の下面にスパッタ法または蒸着法により形成されるクロムマスクである。この薄膜マスク167の各円形開口によって参照マーカep(ref)の円形輪郭が規定される。これにより、どの角度から参照マーカep(ref)を撮像しても、規定の形状を歪みの無い画像を獲得することができる。面発光マーカである参照マーカep(ref)の輪郭形状は任意であり、四角形、星形、楕円などであってもよい。 The glass plate 165 is a plate glass, and is composed of, for example, quartz glass or soda glass. At least the lower surface of the upper and lower surfaces of the glass plate 165 is composed of a highly smoothed surface, and a thin film mask 167 having a plurality of circular openings is provided on the lower surface. The thin film mask 167 is, for example, a chrome mask formed on the lower surface of the glass plate 165 by a sputtering method or a vapor deposition method. Each circular opening of the thin film mask 167 defines the circular contour of the reference marker ep (ref). As a result, no matter from which angle the reference marker ep (ref) is imaged, it is possible to obtain an image having a specified shape without distortion. The contour shape of the reference marker ep (ref), which is a surface emitting marker, is arbitrary, and may be a quadrangle, a star, an ellipse, or the like.

上記の構成により、複数の発光素子Lから発生されて拡散板164および拡散反射シート166により拡散されて面全体に均一に放出される。つまり面全体に均一に光を放出する面光源になる。そして、この面光源から放出された光は、薄膜マスク167の各円形開口を通して参照部材162の下方に放出される。これにより輪郭が明確な面発光の参照マーカep(ref)となる。複数の参照マーカep(ref)は、図5の(b)から分かるように、参照部材162の下面(平面)において、マトリクス状に等間隔に配列されている。複数の参照マーカep(ref)のうち、中心に位置する参照マーカep(ref)を「第1マーカ」と呼び、符号(1)を付記する。第1マーカep(ref)(1)から所定距離離間した一つのマーカep(ref)を「第2マーカ」と呼び、符号(2)を付記する。第1、第2のマーカep(ref)(1)、ep(ref)(2)には、他の参照マーカep(ref)と識別するために識別マークとして例えば第1、第2のマーカep(ref)(1)、ep(ref)(2)の中心に識別マーク点P(図5(b))が付されている。この識別マーク点Pは、薄膜マスク167によって生成される。 With the above configuration, it is generated from a plurality of light emitting elements L, diffused by a diffuser plate 164 and a diffuse reflection sheet 166, and uniformly emitted over the entire surface. That is, it becomes a surface light source that emits light uniformly over the entire surface. Then, the light emitted from this surface light source is emitted below the reference member 162 through each circular opening of the thin film mask 167. As a result, it becomes a reference marker ep (ref) for surface emission with a clear outline. As can be seen from FIG. 5B, the plurality of reference markers ep (ref) are arranged at equal intervals in a matrix on the lower surface (plane) of the reference member 162. Of the plurality of reference markers ep (ref), the reference marker ep (ref) located at the center is referred to as a "first marker", and a reference numeral (1) is added. One marker ep (ref) separated from the first marker ep (ref) (1) by a predetermined distance is called a "second marker", and a reference numeral (2) is added. The first and second markers ep (ref) (1) and ep (ref) (2) have, for example, the first and second markers ep as identification marks in order to distinguish them from other reference markers ep (ref). An identification mark point P (FIG. 5 (b)) is attached to the center of (ref) (1) and ep (ref) (2). The identification mark point P is generated by the thin film mask 167.

参照部材162は、面発光マーカである複数の参照マーカep(ref)が基準カメラ161の撮像視野の範囲内に位置するように位置決めされている。具体的には、第2サブフレームF(S2)が所定の基準姿勢をとったときに、参照部材162が縦軸Ax(V)と直交する横断面上に位置するように、第2サブフレームF(S2)が位置決めされている。好ましくは、参照部材162の下面から光を発する第1マーカep(ref)(1)の中心の位置する識別マーク点Pが縦軸Ax(V)上に位置するように参照部材162が位置決めされる。 The reference member 162 is positioned so that a plurality of reference markers ep (ref), which are surface emission markers, are located within the imaging field of view of the reference camera 161. Specifically, the second subframe so that the reference member 162 is located on the cross section orthogonal to the vertical axis Ax (V) when the second subframe F (S2) takes a predetermined reference posture. F (S2) is positioned. Preferably, the reference member 162 is positioned so that the identification mark point P located at the center of the first marker ep (ref) (1) that emits light from the lower surface of the reference member 162 is located on the vertical axis Ax (V). To.

第1、第2のサブフレームF(S1)、F(S2)が一緒に縦軸Ax(V)を中心に回転し、及び/又は、第2サブフレームF(S2)が横軸Ax(L)を中心に回転すると、基準カメラ161が獲得する複数の参照マーカep(ref)の画像が変化する。 The first and second subframes F (S1) and F (S2) rotate together about the vertical axis Ax (V), and / or the second subframe F (S2) is the horizontal axis Ax (L). ), The images of the plurality of reference markers ep (ref) acquired by the reference camera 161 change.

図6は、基準カメラ161が参照部材162を撮像することにより得られる情報を説明するための図である。なお、基準カメラ161の撮像タイミングは、好ましくは、参照部材162の複数の参照マーカep(ref)が発光するタイミングに同期される。これにより、複数の参照マーカep(ref)を発光させるのに要する電気的エネルギ及び参照部材162が発する熱を必要最小限に止めることができる。 FIG. 6 is a diagram for explaining information obtained by the reference camera 161 imaging the reference member 162. The imaging timing of the reference camera 161 is preferably synchronized with the timing at which the plurality of reference markers ep (ref) of the reference member 162 emit light. As a result, the electrical energy required to cause the plurality of reference markers ep (ref) to emit light and the heat generated by the reference member 162 can be suppressed to the minimum necessary.

可動カメラ111が基準姿勢の状態のとき、つまり第1サブフレームF(S1)及び第2サブフレームF(S2)が共に基準姿勢の状態のときは、図6(a)に示す画像161i(1)が得られる。ここに可動カメラ111の基準姿勢は、第1サブフレームF(S1)が基準となる回転位置にあることを前提として、参照部材162の下面が基準カメラ161の光軸と好ましくは同軸の縦軸Ax(V)と直交する横断面上に位置することで作られる。基準カメラ161の光軸は縦軸Ax(V)と平行に配置されてもよい。図6(a)の画像161i(1)においては、複数の参照マーカep(ref)にそれぞれ対応するマーカ画像iepが複数の参照マーカep(ref)の配列と一致した状態で並んでいる。すなわち、参照部材162の複数の参照マーカep(ref)と、撮像画像161i(1)の複数のマーカ画像iepとは、その配列パターンが同じである。したがって、基準カメラ161の視野中心に対応する画像中央部には、第1マーカep(ref)(1)に対応する第1マーカ画像iep1が位置している。さらに、第1マーカ画像iep1から所定距離離間した位置に第2マーカep(ref)(2)に対応する第2マーカ画像iep2が位置している。第1、第2のマーカ画像iep1、iep2と他のマーカ画像との識別は、第1マーカep(ref)(1)及び第2マーカep(ref)(2)に存在する識別マーク点Pによって行われる。 When the movable camera 111 is in the reference posture, that is, when both the first subframe F (S1) and the second subframe F (S2) are in the reference posture, the image 161i (1) shown in FIG. ) Is obtained. Here, the reference posture of the movable camera 111 is based on the assumption that the first subframe F (S1) is in a reference rotation position, and the lower surface of the reference member 162 is preferably a vertical axis coaxial with the optical axis of the reference camera 161. It is made by being located on the cross section orthogonal to Ax (V). The optical axis of the reference camera 161 may be arranged parallel to the vertical axis Ax (V). In the image 161i (1) of FIG. 6A, the marker image ieps corresponding to the plurality of reference markers ep (ref) are arranged in a state of matching with the arrangement of the plurality of reference markers ep (ref). That is, the plurality of reference markers ep (ref) of the reference member 162 and the plurality of marker image ieps of the captured image 161i (1) have the same arrangement pattern. Therefore, the first marker image iep1 corresponding to the first marker ep (ref) (1) is located at the center of the image corresponding to the center of the field of view of the reference camera 161. Further, the second marker image iep2 corresponding to the second marker ep (ref) (2) is located at a position separated from the first marker image iep1 by a predetermined distance. The first and second marker images iep1 and iep2 are distinguished from other marker images by the identification mark points P existing in the first marker ep (ref) (1) and the second marker ep (ref) (2). Will be done.

図6(b)は、第1サブフレームF(S1)の軸回転に伴って第2サブフレームF(S2)が基準姿勢から縦軸Ax(V)を中心に回転したとき、つまり可動カメラ111の向きが左右に動いたときの基準カメラ161の撮像画像161i(2)を示す。第2サブフレームF(S2)が基準姿勢から縦軸Ax(V)を中心に回転しても、複数の参照マーカep(ref)と基準カメラ161との間の距離は大きく変動しない。縦軸Ax(V)を中心に第2サブフレームF(S2)が回転すれば、同じように複数のマーカ画像iepが画像中央部を中心として回転する。すなわち、参照部材162の複数の参照マーカep(ref)と、撮像画像161i(1)の複数のマーカ画像iepとは、その配列パターンが同じであるが、画像中央部を中心として回転する。この回転角度θは、第1、第2のマーカ画像iep1、iep2の位置関係に基づいて実質的に求めることができる。 FIG. 6B shows a movable camera 111 when the second subframe F (S2) rotates about the vertical axis Ax (V) from the reference posture with the axis rotation of the first subframe F (S1). The captured image 161i (2) of the reference camera 161 when the direction of is moved to the left and right is shown. Even if the second subframe F (S2) rotates about the vertical axis Ax (V) from the reference posture, the distance between the plurality of reference markers ep (ref) and the reference camera 161 does not change significantly. If the second subframe F (S2) is rotated around the vertical axis Ax (V), the plurality of marker image ieps are similarly rotated around the center of the image. That is, the plurality of reference markers ep (ref) of the reference member 162 and the plurality of marker image ieps of the captured image 161i (1) have the same arrangement pattern, but rotate around the center of the image. This rotation angle θ can be substantially obtained based on the positional relationship between the first and second marker images iep1 and iep2.

図6(c)は、第2サブフレームF(S2)が基準姿勢から横軸Ax(L)を中心に回転したとき、つまり可動カメラ111の向きが上下に動いたときの基準カメラ161の撮像画像161i(3)を示す。第2サブフレームF(S2)が横軸Ax(L)を中心に回転すると、複数の参照マーカep(ref)のうち、その一部は基準カメラ161との距離が短くなり、他の部分は基準カメラ161との距離が長くなる。すなわち、参照部材162の複数の参照マーカep(ref)と、撮像画像161i(1)の複数のマーカ画像iepとは、その配列パターンに違いがある。図6(c)から分かるように、複数のマーカ画像iepの配列状態に歪が生じる。この歪みを含む配列パターンに基づいて、横軸Ax(L)を中心とした第2サブフレームF(S2)のチルト角度φを実質的に求めることができる。具体的には、第1、第2のマーカ画像iep1、iep2の位置関係に基づいてチルト角度φを実質的に求めることができる。ここに、第2サブフレームF(S2)が横軸Ax(L)を中心に回転できる角度範囲つまり第2サブフレームF(S2)のチルトは例えば30°程度の限定的な角度範囲で足りる。この程度の角度範囲であれば、第2サブフレームF(S2)が横軸Ax(L)を中心にチルトしても、第1、第2の参照マーカep(ref)(1)、ep(ref)(2)に対応する第1、第2のマーカ画像iep1、iep2の相対的な位置関係つまり離間距離は大きく変化しない。 FIG. 6 (c) shows an image taken by the reference camera 161 when the second subframe F (S2) rotates about the horizontal axis Ax (L) from the reference posture, that is, when the direction of the movable camera 111 moves up and down. Image 161i (3) is shown. When the second subframe F (S2) rotates about the horizontal axis Ax (L), some of the plurality of reference markers ep (ref) become shorter in distance from the reference camera 161 and the other parts become shorter. The distance from the reference camera 161 becomes longer. That is, there is a difference in the arrangement pattern between the plurality of reference markers ep (ref) of the reference member 162 and the plurality of marker image ieps of the captured image 161i (1). As can be seen from FIG. 6C, the arrangement state of the plurality of marker image ieps is distorted. Based on the arrangement pattern including this distortion, the tilt angle φ of the second subframe F (S2) centered on the horizontal axis Ax (L) can be substantially obtained. Specifically, the tilt angle φ can be substantially obtained based on the positional relationship between the first and second marker images iep1 and iep2. Here, the angle range in which the second subframe F (S2) can rotate about the horizontal axis Ax (L), that is, the tilt of the second subframe F (S2) is sufficient in a limited angle range of, for example, about 30 °. Within this angle range, even if the second subframe F (S2) tilts around the horizontal axis Ax (L), the first and second reference markers ep (ref) (1), ep ( ref) The relative positional relationship between the first and second marker images iep1 and iep2 corresponding to (2), that is, the separation distance does not change significantly.

上述したように、第2サブフレームF(S2)には可動カメラ111および参照部材162が固定されている。したがって、基準カメラ161を使って参照部材162の複数の参照マーカep(ref)を撮像することにより得られる画像データ(以下、「基準画像データ」と呼ぶ。)に基づいて、可動カメラ111の向きつまり上下及び/又は左右の変位量(回転角度θ及び/又はチルト角度φ)を実質的に検出することができる。すなわち、基準カメラ161は可動カメラ111の姿勢を第2サブフレームF(S2)の姿勢を介して検出する姿勢検出センサとして機能する。 As described above, the movable camera 111 and the reference member 162 are fixed to the second subframe F (S2). Therefore, the orientation of the movable camera 111 is based on the image data (hereinafter, referred to as “reference image data”) obtained by imaging the plurality of reference markers ep (ref) of the reference member 162 using the reference camera 161. That is, the amount of vertical and / or horizontal displacement (rotation angle θ and / or tilt angle φ) can be substantially detected. That is, the reference camera 161 functions as a posture detection sensor that detects the posture of the movable camera 111 via the posture of the second subframe F (S2).

また、基準カメラ161は可動カメラ111の姿勢を第2サブフレームF(S2)の姿勢を検出することから、第1、第2の回転駆動機構145、147の回転停止の制御を基準カメラ161の基準画像データに基づいて行うようことができる。これによれば、第1、第2の回転駆動機構145、147の回転停止を行うための近接スイッチなどリミットセンサの設置を省くことができる。 Further, since the reference camera 161 detects the posture of the movable camera 111 and the posture of the second subframe F (S2), the control of the rotation stop of the first and second rotation drive mechanisms 145 and 147 is controlled by the reference camera 161. This can be done based on the reference image data. According to this, it is possible to omit the installation of a limit sensor such as a proximity switch for stopping the rotation of the first and second rotation drive mechanisms 145 and 147.

ベースフレームF(B)に配置した姿勢検出センサ160の一例として光学系部材の具体例である基準カメラ161の第1変形例として、基準カメラ161と共に縦軸Ax(V)を中心とした第1サブフレームF(S1)の回転角度を検出するロータリエンコーダをベースフレームF(B)に設けてもよい。また、第2変形例として、縦軸Ax(V)を中心とした第1サブフレームF(S1)の回転角度θを検出するロータリエンコーダをベースフレームF(B)に設置すると共に、このベースフレームF(B)に、横軸Ax(L)を中心とした第2サブフレームF(S2)のチルト角度φを検出するレーザ平行光線方式の非接触角度検出ユニットを設けてもよい。 As an example of the attitude detection sensor 160 arranged on the base frame F (B), as a first modification of the reference camera 161 which is a specific example of the optical system member, the first modification centered on the vertical axis Ax (V) together with the reference camera 161. A rotary encoder that detects the rotation angle of the subframe F (S1) may be provided in the base frame F (B). Further, as a second modification, a rotary encoder that detects the rotation angle θ of the first subframe F (S1) centered on the vertical axis Ax (V) is installed in the base frame F (B), and this base frame is installed. The F (B) may be provided with a laser parallel ray type non-contact angle detection unit that detects the tilt angle φ of the second subframe F (S2) centered on the horizontal axis Ax (L).

図7は、上述したように、測定装置本体100が3つに分割したフレーム構造を明らかにするための分解斜視図である。この図7に図示の3分割のフレーム構造に次に説明する包囲部材170が装着される。包囲部材170を装着した状態を図8に示す。 FIG. 7 is an exploded perspective view for clarifying the frame structure divided into three by the measuring device main body 100 as described above. The surrounding member 170 described below is attached to the three-divided frame structure shown in FIG. 7. FIG. 8 shows a state in which the surrounding member 170 is attached.

図8及び前述した図2、図3を参照して、基準カメラ161の視野を含む撮像空間rsを、その周囲から遮断する包囲部材170が基準カメラ161に関連して配置されている。包囲部材170は、撮像空間rsをその回りの環境から断絶するための部材である。包囲部材170は、撮像空間rsの内部に外から熱、光、空気が入り込むのを防止し且つ撮像空間rs内部で空気の流れが発生するのを防止する。 With reference to FIG. 8 and FIGS. 2 and 3 described above, a surrounding member 170 that blocks the imaging space rs including the field of view of the reference camera 161 from its surroundings is arranged in relation to the reference camera 161. The surrounding member 170 is a member for disconnecting the imaging space rs from the surrounding environment. The surrounding member 170 prevents heat, light, and air from entering the inside of the imaging space rs from the outside, and prevents an air flow from being generated inside the imaging space rs.

包囲部材170は横断面正方形の上下方向に延びる筒状の形状を有し、上端及び下端は開放している。包囲部材170の下端は、その全周が第1サブフレームF(S1)の下端部に密着した状態で固定されている。包囲部材170の上端は、その全周が第2サブフレームF(S2)の下面に密着状態で固定されている。これにより、基準カメラ161の撮像空間rsは、包囲部材170によって、外部の熱、光、空気の流動の影響を受け難い実質的に閉じた空間になる。すなわち、包囲部材170により撮像空間rsの内部雰囲気を安定させることができる。包囲部材170は、また、変形したときに基準カメラ161の撮像視野と干渉することがないように包囲部材170の断面形状の大きさが設計される。 The surrounding member 170 has a tubular shape extending in the vertical direction with a square cross section, and the upper end and the lower end are open. The lower end of the surrounding member 170 is fixed so that the entire circumference thereof is in close contact with the lower end of the first subframe F (S1). The upper end of the surrounding member 170 is fixed to the lower surface of the second subframe F (S2) in close contact with the entire circumference thereof. As a result, the imaging space rs of the reference camera 161 becomes a substantially closed space that is not easily affected by the external heat, light, and air flow by the surrounding member 170. That is, the surrounding member 170 can stabilize the internal atmosphere of the imaging space rs. The surrounding member 170 is also designed to have a cross-sectional shape of the surrounding member 170 so that it does not interfere with the imaging field of view of the reference camera 161 when deformed.

包囲部材170は撮像空間rsの内部で光の乱反射が発生しないように、黒を含む暗色の布などの変形容易な材料で構成するのがよい。また、包囲部材170の変形を容易にするために蛇腹構造を有するのが好ましい。更に好ましくは、バネ無しの蛇腹構造を採用するのがよい。バネ無しの蛇腹構造を採用することにより、第2サブフレームF(S2)の横軸Ax(L)(図2)を中心としたチルト動作に伴って包囲部材170の一部が圧縮変形し、他の一部が伸長変形しても、これらの変形に伴う反力が発生するのを抑えることができる。 The surrounding member 170 is preferably made of a easily deformable material such as a dark cloth containing black so that diffused reflection of light does not occur inside the imaging space rs. Further, it is preferable to have a bellows structure in order to facilitate the deformation of the surrounding member 170. More preferably, it is preferable to adopt a bellows structure without a spring. By adopting the bellows structure without a spring, a part of the surrounding member 170 is compressed and deformed by the tilting operation centered on the horizontal axis Ax (L) (FIG. 2) of the second subframe F (S2). Even if the other part is stretched and deformed, it is possible to suppress the generation of reaction force due to these deformations.

第1サブフレームF(S1)が縦軸Ax(V)(図3)を中心に回転する際には、第2サブフレームF(S2)の回転を伴うことから、包囲部材170も一緒に回転する。つまり、縦軸Ax(V)を中心とした回転では、包囲部材170の変形は発生しない。他方、第2サブフレームF(S2)が横軸Ax(L)を中心に回転すると、これに追従して包囲部材170が変形する。包囲部材170の材料及び/又は構造として、変形に伴う反力が発生しない材料及び構造(例えば上述したバネ無しの蛇腹構造)を採用することにより、第2サブフレームF(S2)の回転が停止した瞬間に発生し易い、包囲部材170からの反力の発生を抑えることができる。これにより、可動カメラ111を上下にチルトさせるときの第2サブフレームF(S2)の位置決め精度を長期に亘って維持できる。 When the first subframe F (S1) rotates around the vertical axis Ax (V) (FIG. 3), the second subframe F (S2) also rotates, so that the surrounding member 170 also rotates. To do. That is, the surrounding member 170 is not deformed by the rotation about the vertical axis Ax (V). On the other hand, when the second subframe F (S2) rotates about the horizontal axis Ax (L), the surrounding member 170 is deformed accordingly. By adopting a material and structure (for example, the above-mentioned springless bellows structure) that does not generate a reaction force due to deformation as the material and / or structure of the surrounding member 170, the rotation of the second subframe F (S2) is stopped. It is possible to suppress the generation of the reaction force from the surrounding member 170, which tends to be generated at the moment of the operation. As a result, the positioning accuracy of the second subframe F (S2) when the movable camera 111 is tilted up and down can be maintained for a long period of time.

基準カメラ161の周囲を包囲部材170で包囲することにより、外から光が撮像空間rs内に侵入するのを防止できる。また、撮像空間rsの周囲に存在する空気の流れ、熱(典型的にはモータ、基板からの熱)を包囲部材170によって遮断することができる。これにより撮像空間rsの内部雰囲気に揺らぎが生じるのを防止できる。このことは、高い精度で複数の参照マーカep(ref)を撮像できることを意味している。これにより、姿勢検出センサ160である基準カメラ161の検出精度を高めることができる。 By surrounding the reference camera 161 with the surrounding member 170, it is possible to prevent light from entering the imaging space rs from the outside. Further, the air flow and heat (typically, heat from the motor and the substrate) existing around the imaging space rs can be blocked by the surrounding member 170. This makes it possible to prevent fluctuations in the internal atmosphere of the imaging space rs. This means that a plurality of reference markers ep (ref) can be imaged with high accuracy. As a result, the detection accuracy of the reference camera 161 which is the posture detection sensor 160 can be improved.

包囲部材170は、少なくともその内面が、光の反射率を低下させる又は光を吸収できる色(黒を含む暗色)または材料で構成するのが好ましい。具体的には、包囲部材170の内面を光を反射しない無反射素材で構成する、或いは、光を反射しない無反射素材のコーティングを施して乱反射するのを防止するのが好ましい。 It is preferable that at least the inner surface of the enclosing member 170 is made of a color (dark color including black) or a material capable of reducing the reflectance of light or absorbing light. Specifically, it is preferable that the inner surface of the surrounding member 170 is made of a non-reflective material that does not reflect light, or a coating of a non-reflective material that does not reflect light is applied to prevent diffuse reflection.

図6の(a)ないし(c)に図示の外枠OFは基準カメラ161の撮像視野の境界を示す。撮像視野OFは限定的であり、参照部材162に含まれる全ての参照マーカep(ref)を取り込むのに過不足無い、必要最小限の寸法に設定されている。これにより、画像から全ての参照マーカep(ref)の相対的な関係を求める精度を高めることができる。この実施例では単一の基準カメラ161を用いているが、基準カメラ161を複数並置してもよい。複数の基準カメラ161を設置するときには、撮像視野OFを複数に分割した分割撮像視野毎に各基準カメラ161で撮像し、これを合成することで、図6に図示の撮像視野OF全体の画像を生成してもよい。これによれば、複数の基準カメラ161の各々が担う撮像視野を更に小さく設定することができるため、合成した撮像視野OFの画像は高い分解能を備えている。これにより、基準カメラ161の画像の読取精度を更に向上することができる。つまり、複数の基準カメラ161の各画像を合成することにより、可動カメラ111の姿勢を検出するセンサとしての検出精度を更に向上することができる。 The outer frame OF shown in FIGS. 6A to 6C indicates the boundary of the imaging field of view of the reference camera 161. The imaging field of view OF is limited, and is set to the minimum necessary dimensions that are sufficient for capturing all the reference markers ep (ref) included in the reference member 162. This makes it possible to improve the accuracy of finding the relative relationships of all the reference markers ep (ref) from the image. Although a single reference camera 161 is used in this embodiment, a plurality of reference cameras 161 may be arranged side by side. When a plurality of reference cameras 161 are installed, the imaging field of view OF is divided into a plurality of divided imaging fields of view, and each reference camera 161 takes an image, and the images are combined to obtain an image of the entire imaging field of view OF shown in FIG. It may be generated. According to this, since the imaging field of view carried by each of the plurality of reference cameras 161 can be set even smaller, the combined image of the imaging field of view OF has high resolution. Thereby, the reading accuracy of the image of the reference camera 161 can be further improved. That is, by synthesizing each image of the plurality of reference cameras 161 it is possible to further improve the detection accuracy as a sensor for detecting the posture of the movable camera 111.

測定装置本体100の筐体180は第1の下方筐体181と第2の上方筐体182で外観が作られている。図9は測定装置本体100の外観を示す斜視図である。図10は上方筐体182を取り外した状態を示す図である。図10から分かるように、上方筐体182は第1、第2のサブ部材140、150を包囲する部材である。図11は下方筐体181を取り外した状態を示す図である。図11から分かるように、下方筐体181はベース部材130を包囲する部材である。 The appearance of the housing 180 of the measuring device main body 100 is made up of a first lower housing 181 and a second upper housing 182. FIG. 9 is a perspective view showing the appearance of the measuring device main body 100. FIG. 10 is a diagram showing a state in which the upper housing 182 is removed. As can be seen from FIG. 10, the upper housing 182 is a member that surrounds the first and second sub-members 140 and 150. FIG. 11 is a diagram showing a state in which the lower housing 181 is removed. As can be seen from FIG. 11, the lower housing 181 is a member surrounding the base member 130.

下方筐体181はベースフレームF(B)に固定される(図3)。下方筐体181は、互いに対向する位置に配置された一対の取っ手183を有し(図9、図10)、この一対の取っ手183を使用者が把持することで重量物である測定装置本体100を持ち運ぶことができる。ちなみに、測定装置本体100の重量は約13Kgである。一対の取っ手183は、測定装置本体100の重心Gの高さレベルに配置されている。これにより使用者は安定して測定装置本体100を持ち運ぶことができる。その結果、測定装置本体100を持ち運びに伴う内装部品、特に光学系部品に与える可能性としての荷重変動や衝撃を抑制することができ、長期に亘る使用に伴う光学系の誤差の発生を抑えることができる。 The lower housing 181 is fixed to the base frame F (B) (FIG. 3). The lower housing 181 has a pair of handles 183 arranged at positions facing each other (FIGS. 9 and 10), and the measuring device main body 100 which is a heavy object when the user grips the pair of handles 183. Can be carried. By the way, the weight of the measuring device main body 100 is about 13 kg. The pair of handles 183 are arranged at the height level of the center of gravity G of the measuring device main body 100. As a result, the user can stably carry the measuring device main body 100. As a result, it is possible to suppress load fluctuations and impacts that may be applied to interior parts, especially optical system parts, due to carrying the measuring device main body 100, and it is possible to suppress the occurrence of optical system errors due to long-term use. Can be done.

図3を参照して、下方筐体181はベース部材130を構成する要素と協働して上端部、下端部、側方周囲を閉じた第1の下方閉空間131を形成している。他方、上方筐体182は、その下端が第1サブフレームF(S1)に固定されており、第1、第2のサブ部材140、150を構成する要素と協働して上端、下端、側方周囲を閉じた第2の上方閉空間153を形成している。 With reference to FIG. 3, the lower housing 181 cooperates with the elements constituting the base member 130 to form a first lower closed space 131 in which the upper end portion, the lower end portion, and the lateral periphery are closed. On the other hand, the lower end of the upper housing 182 is fixed to the first subframe F (S1), and the upper end, the lower end, and the side cooperate with the elements constituting the first and second submembers 140 and 150. It forms a second upper closed space 153 with a closed perimeter.

図12は、図9に図示の測定装置本体100の縦断面図である。図12を参照して、下方筐体181は、側方に向けて開口した下方排気口184を有し、この下方排気口184には電動の下方排気ファン185が設置されている。同様に、第2筐体182は、その上端部に側方に向けて開放した上方排気口186を有し、この上方排気口186には電動の上方排気ファン187が設置されている。この上方排気口186は、好ましくは、可動カメラ111の光軸から離れた位置、例えば可動カメラ111の光軸とは縦軸AX(V)を挟んで反対側に配置される。 FIG. 12 is a vertical cross-sectional view of the measuring device main body 100 shown in FIG. With reference to FIG. 12, the lower housing 181 has a lower exhaust port 184 that opens toward the side, and an electric lower exhaust fan 185 is installed in the lower exhaust port 184. Similarly, the second housing 182 has an upper exhaust port 186 that is open toward the side at the upper end portion thereof, and an electric upper exhaust fan 187 is installed in the upper exhaust port 186. The upper exhaust port 186 is preferably arranged at a position away from the optical axis of the movable camera 111, for example, on the side opposite to the optical axis of the movable camera 111 with a vertical axis AX (V).

下方筐体181などで画成される下方閉空間131には、ベース部材130の一部を構成する各種回路基板144、第1回転駆動機構145(図3)などの熱源が配置されている。この熱は下方排気ファン185によって外部に放出される。この強制排気に伴って下方閉空間131に負圧が発生しないように、下方閉空間131には、下方筐体181とベース部材130との間の隙間など意図的に限定した箇所を通じて、例えば下方筐体181の下端から外気が導入される。 In the lower closed space 131 defined by the lower housing 181 and the like, heat sources such as various circuit boards 144 and a first rotation drive mechanism 145 (FIG. 3) forming a part of the base member 130 are arranged. This heat is released to the outside by the lower exhaust fan 185. In order to prevent negative pressure from being generated in the lower closed space 131 due to this forced exhaust, the lower closed space 131 is, for example, downward through a place intentionally limited such as a gap between the lower housing 181 and the base member 130. Exhaust air is introduced from the lower end of the housing 181.

他方、上方筐体182によって画成される上方閉空間153には、第2回転駆動機構151(図2)などの熱源が配置されている、この熱は上方排気ファン187によって外部に放出される。この強制排気に伴って上方閉空間153に負圧が発生しないように、上方閉空間153には、上方筐体182の下端など意図的に限定した箇所を通じて外気が導入される。 On the other hand, a heat source such as a second rotation drive mechanism 151 (FIG. 2) is arranged in the upper closed space 153 defined by the upper housing 182, and this heat is released to the outside by the upper exhaust fan 187. .. Outside air is introduced into the upper closed space 153 through an intentionally limited place such as the lower end of the upper housing 182 so that a negative pressure is not generated in the upper closed space 153 due to this forced exhaust.

上述したように、互いに隔離された上下の閉空間131、153を独立して強制排気するため、測定装置本体100の内部で温度勾配が発生するのを抑制することができる。特に、下方閉空間131と下方閉空間153との間の温度勾配の発生を抑制することができる。これにより、基準カメラ161や可動カメラ111の検出精度を更に向上することができる。 As described above, since the upper and lower closed spaces 131 and 153 isolated from each other are forcibly exhausted independently, it is possible to suppress the generation of a temperature gradient inside the measuring device main body 100. In particular, it is possible to suppress the generation of a temperature gradient between the lower closed space 131 and the lower closed space 153. As a result, the detection accuracy of the reference camera 161 and the movable camera 111 can be further improved.

図13は、上方筐体182で包囲される第2サブ部材150の一部を示す断面図である。図13を参照して可動カメラ111のレンズ鏡筒111aの周囲の構造を説明する。レンズ鏡筒111aは、その先端部分が周囲壁188で囲まれている。この周囲壁188は、レンズ鏡筒111aの先端に臨むカメラ窓189を有し、このカメラ窓189は空所で構成されている。 FIG. 13 is a cross-sectional view showing a part of the second sub-member 150 surrounded by the upper housing 182. The structure around the lens barrel 111a of the movable camera 111 will be described with reference to FIG. The tip of the lens barrel 111a is surrounded by a peripheral wall 188. The peripheral wall 188 has a camera window 189 facing the tip of the lens barrel 111a, and the camera window 189 is composed of an empty space.

上方排気ファン187が動作すると上方閉空間153の内部や隙間を通じた空気の流動が発生する。この流動がレンズ鏡筒111aの周囲及びカメラ窓189で発生するのは可動カメラ111による検出精度を高める上で障害になりかねない。この可能性としての問題に対して、実施例では、図13から分かるように、カメラ窓189の開口縁141と、レンズ鏡筒111aの先端とを気密状態で当接させる構成が採用されている。カメラ窓189の開口縁189aと、レンズ鏡筒111aの先端との間の空気の流動を阻止することで、レンズ鏡筒111aの周囲及びカメラ窓189の雰囲気を安定に保つことができる。 When the upper exhaust fan 187 operates, air flows inside the upper closed space 153 and through a gap. The fact that this flow occurs around the lens barrel 111a and in the camera window 189 may be an obstacle in improving the detection accuracy by the movable camera 111. In response to this possible problem, in the embodiment, as can be seen from FIG. 13, a configuration is adopted in which the opening edge 141 of the camera window 189 and the tip of the lens barrel 111a are brought into contact with each other in an airtight state. .. By blocking the flow of air between the opening edge 189a of the camera window 189 and the tip of the lens barrel 111a, the surroundings of the lens barrel 111a and the atmosphere of the camera window 189 can be kept stable.

図12に示す参照符号190はハーネス室を示す。ハーネス室190は、上下の筐体181、182の境界部分において、その外周部分にハーネス室190が合成樹脂成型品の部材191で作られている。図14は、図12と同様に測定装置本体100の縦断面図であり、図12との対比で、縦軸Ax(V)を中心に90°回転させた図12とは異なる縦面で断面した図である。図15は、上方筐体182を取り外して、ハーネス室190の一部を斜め上方から見た一部切り欠き斜視図である。図16は、図15と同様に、上方筐体182を取り外して、ハーネス室190を上方から見た斜視図である。 Reference numeral 190 shown in FIG. 12 indicates a harness chamber. In the harness chamber 190, at the boundary portion between the upper and lower housings 181 and 182, the harness chamber 190 is formed of a synthetic resin molded member 191 at the outer peripheral portion thereof. FIG. 14 is a vertical cross-sectional view of the measuring device main body 100 as in FIG. 12, and is a cross section in a vertical plane different from that of FIG. 12 rotated by 90 ° about the vertical axis Ax (V) in comparison with FIG. It is a figure. FIG. 15 is a partially cutaway perspective view of a part of the harness chamber 190 viewed from diagonally above with the upper housing 182 removed. FIG. 16 is a perspective view of the harness chamber 190 as viewed from above with the upper housing 182 removed, as in FIG.

図12、図14、図16を参照して、ハーネス室190は周方向に円弧状に延びるトンネル形状を有している。ベース部材130と第2サブ部材15とを電気的に接続するハーネスの束(図示せず)は、ハーネス室190に収容される。ハーネス室190は、ハーネスの束を安定的に保持することができる限定した断面積を有し、その壁面を構成するハーネス室形成部材191はハーネス室190に向けて突出する突起や凹凸の無い滑らかな内面を有している。第1サブフレームF(S1)に固定された上方筐体182は、縦軸Ax(V)を中心に下方筐体181に対して相対回転する。そして、この相対回転に伴ってハーネスの束はハーネス室190の壁面に擦接する。限定した断面積のハーネス室190は円弧状に延び且つその内面が滑らかな面で構成されているため、ハーネスの束の摺動抵抗を低減することができる。また、摺動抵抗の値及びハーネスの束が擦接する箇所を長期に亘って一定に保つことができる。これにより、上方筐体182の安定した回転動作を長期に亘って保つことができる。 With reference to FIGS. 12, 14, and 16, the harness chamber 190 has a tunnel shape extending in an arc shape in the circumferential direction. A bundle of harnesses (not shown) that electrically connects the base member 130 and the second sub-member 15 is housed in the harness chamber 190. The harness chamber 190 has a limited cross-sectional area capable of stably holding a bundle of harnesses, and the harness chamber forming member 191 constituting the wall surface thereof is smooth without protrusions or irregularities protruding toward the harness chamber 190. Has a nice inner surface. The upper housing 182 fixed to the first subframe F (S1) rotates relative to the lower housing 181 about the vertical axis Ax (V). Then, with this relative rotation, the bundle of harnesses rubs against the wall surface of the harness chamber 190. Since the harness chamber 190 having a limited cross section extends in an arc shape and its inner surface is formed of a smooth surface, the sliding resistance of the bundle of harnesses can be reduced. Further, the value of the sliding resistance and the portion where the bundle of harnesses rub against each other can be kept constant for a long period of time. As a result, the stable rotational operation of the upper housing 182 can be maintained for a long period of time.

図10、図17を参照して、最も上の高さレベルに位置する第2サブ部材150は、単一ブロックからなるカウンタウエイト192を有している。図17は、カウンタウエイト192の存在を明らかにするために上方筐体182の一部を切り欠いた測定装置本体100の側面図である。 With reference to FIGS. 10 and 17, the second sub-member 150 located at the highest height level has a counterweight 192 consisting of a single block. FIG. 17 is a side view of the measuring device main body 100 in which a part of the upper housing 182 is cut out in order to clarify the existence of the counterweight 192.

前述したように、縦軸Ax(V)を中心に第1、第2サブ部材140、150が回転する。また、横軸Ax(L)を中心に第2サブ部材150が回転する。これらの回転に伴って、第1、第2サブ部材140、150の組立体の重心位置が変化する。測定位置本体100の重心位置が変化すると、ベース部材130を固定している台座や三脚12を含む基準スタンド10に作用する荷重が変化し、この結果、基礎部分の姿勢に変化が生じる可能性がある。例えば、基礎部分が1arcsec変化しただけでも可動カメラ111の部分では約14μmの変位となって現れる。第1、第2サブ部材140、150の組立体の重心位置の変化を抑えることで、上記の問題を低減できると共に第1サブ部材140、第2サブ部材150の安定した回転動作を長期に亘って維持することができる。同様に、第1回転駆動機構145(図3)、第2回転駆動機構151(図7)の負担を軽減することができる。 As described above, the first and second sub-members 140 and 150 rotate around the vertical axis Ax (V). Further, the second sub-member 150 rotates about the horizontal axis Ax (L). Along with these rotations, the position of the center of gravity of the assembly of the first and second sub-members 140 and 150 changes. Measurement position When the position of the center of gravity of the main body 100 changes, the load acting on the reference stand 10 including the pedestal and the tripod 12 fixing the base member 130 changes, and as a result, the posture of the base portion may change. is there. For example, even if the basic portion changes by 1 arcsec, the displacement of the movable camera 111 appears as about 14 μm. By suppressing the change in the position of the center of gravity of the assembly of the first and second sub-members 140 and 150, the above problem can be reduced and the stable rotational operation of the first sub-member 140 and the second sub-member 150 can be performed for a long period of time. Can be maintained. Similarly, the load on the first rotary drive mechanism 145 (FIG. 3) and the second rotary drive mechanism 151 (FIG. 7) can be reduced.

単一のカウンタウエイト192の配置位置に関する基本的な設計指針を、図18を参照して説明する。第1に、第2サブ部材150に含まれる第2回転駆動機構151と縦軸Ax(V)を挟んで反対側の位置が選択される(図18(a))。第2に、可動カメラ111と横軸AX(L)を挟んで反対側の位置が選択される(図18(b))。 A basic design guideline for the placement position of a single counterweight 192 will be described with reference to FIG. First, the positions on the opposite sides of the second rotation drive mechanism 151 included in the second sub-member 150 and the vertical axis Ax (V) are selected (FIG. 18 (a)). Secondly, the positions on the opposite sides of the movable camera 111 and the horizontal axis AX (L) are selected (FIG. 18 (b)).

単一のカウンタウエイト192の変形例として、第1に、縦軸Ax(V)を中心とした第1、第2サブ部材140、150の回転に伴う重心位置の変化を抑える第1カウンタウエイトと、第2に、横軸Ax(L)を中心とした第2サブ部材150の回転に伴う重心位置の変化を抑える第2カウンタウエイトと、を別部材として第2サブ部材150に設けてもよい。 As a modification of the single counterweight 192, first, a first counterweight that suppresses a change in the position of the center of gravity due to rotation of the first and second sub-members 140 and 150 centered on the vertical axis Ax (V). Secondly, the second sub-member 150 may be provided with a second counter weight that suppresses a change in the position of the center of gravity due to rotation of the second sub-member 150 about the horizontal axis Ax (L) as a separate member. ..

図19は、可動カメラ111の画角の設定を説明するための図である。定焦点の可動カメラ111の画角が大きいと、比較的遠い位置のプローブ200はその画像上のプローブが小さくなり測定点の検出精度が低下する。可動カメラ111は、複数のプローブマーカeq(p)を撮像するのが目的である。この観点に立脚して、可動カメラ111は、図19から分かるように、ある程度の余裕を持って複数のプローブマーカeq(p)を撮像できる範囲の限定した画角が設定されている。具体的に説明すると、可動カメラ111の画角は、例えば可動カメラ111から1.5m離間した位置で直径15cm程度の領域をカバーできるように設定される。これにより、複数のプローブマーカeq(p)を介して接触子201の位置座標を特定する精度を高めることができる。 FIG. 19 is a diagram for explaining the setting of the angle of view of the movable camera 111. When the angle of view of the fixed focus movable camera 111 is large, the probe 200 at a relatively distant position has a small probe on the image, and the detection accuracy of the measurement point is lowered. The purpose of the movable camera 111 is to capture a plurality of probe markers eq (p). Based on this viewpoint, as can be seen from FIG. 19, the movable camera 111 is set with a limited angle of view within a range in which a plurality of probe markers eq (p) can be imaged with a certain margin. Specifically, the angle of view of the movable camera 111 is set so as to cover an area having a diameter of about 15 cm at a position 1.5 m away from the movable camera 111, for example. As a result, the accuracy of identifying the position coordinates of the contact 201 via the plurality of probe markers eq (p) can be improved.

可動カメラ111は、実施例では単一のカメラで構成されているが、変形例として、複数のカメラで構成してもよい。つまり、測距デバイスとして複数の可動カメラ111を採用し、そして各可動カメラ111の画像を合成することで、図19に図示の撮像視野を形成してもよい。これによれば、接触子201の位置を特定する精度を更に高めることができる。 Although the movable camera 111 is composed of a single camera in the embodiment, it may be composed of a plurality of cameras as a modification. That is, the imaging field of view shown in FIG. 19 may be formed by adopting a plurality of movable cameras 111 as the distance measuring device and synthesizing the images of the movable cameras 111. According to this, the accuracy of specifying the position of the contact 201 can be further improved.

次に、俯瞰カメラ120について説明する。俯瞰カメラ120は、その画角が可動カメラ111の画角に比べて大きい。そのため、俯瞰カメラ120の撮像視野は、可動カメラ111の撮像視野に比べて大きい。俯瞰カメラ120はプローブ200の移動を監視する目的を有している。この目的に合致する俯瞰カメラ120を第1サブ部材140に搭載すればよい。これにより、プローブ200の移動に伴って可動カメラ111の撮像視野からプローブ200が外れた場合でも、俯瞰カメラ120が撮像した画像データ(以下、「俯瞰画像データ」と呼ぶ。)に基づいてプローブ200の大まかな位置を特定することができる。特定された位置に基づいて、可動カメラ111の撮像視野内にプローブ200が位置するように可動カメラ111の向きの上下及び/又は回転変位させる調整が行われる。 Next, the bird's-eye view camera 120 will be described. The angle of view of the bird's-eye view camera 120 is larger than the angle of view of the movable camera 111. Therefore, the imaging field of view of the bird's-eye view camera 120 is larger than the imaging field of view of the movable camera 111. The bird's-eye view camera 120 has a purpose of monitoring the movement of the probe 200. A bird's-eye view camera 120 that meets this purpose may be mounted on the first sub-member 140. As a result, even if the probe 200 deviates from the imaging field of view of the movable camera 111 due to the movement of the probe 200, the probe 200 is based on the image data captured by the bird's-eye view camera 120 (hereinafter, referred to as “overhead image data”). The rough position of the can be specified. Based on the specified position, adjustments are made to vertically and / or rotationally displace the orientation of the movable camera 111 so that the probe 200 is located within the imaging field of view of the movable camera 111.

図20〜図24は、例示として三脚からなる基準スタンド10に対する測定装置本体100の固定構造を説明する。基準スタンド10は三脚に限定されない。基準スタンド10は床面に対して定置した状態で測定装置本体100を支持できる、例えば台座であってもよい。図20は固定構造の概要を説明するための図である。図20を参照して、測定装置本体100は下端に取付部132を有している。この取付部132は、ベースフレームF(B)に固定され、ベースフレームF(B)から下方に突出している。取付部132は、横断面円形の内周面133を有し、下方に開放している。取付部132の内周面133の中心軸は、好ましくは、前述した縦軸Ax(V)と同軸であるのがよい。取付部132は、縦軸Ax(V)と直交する一つの横断面上に位置する底面134を有している。取付部132の内周面133は、その下端部が第1テーパ面133aを有している。第1テーパ面133aは、上方に向かうに従って縮径している。換言すれば、第1テーパ面133aは下方に向けて拡径した形状を有している。 20 to 24 show a fixed structure of the measuring device main body 100 with respect to the reference stand 10 including a tripod as an example. The reference stand 10 is not limited to a tripod. The reference stand 10 may be, for example, a pedestal that can support the measuring device main body 100 in a state of being stationary with respect to the floor surface. FIG. 20 is a diagram for explaining an outline of the fixed structure. With reference to FIG. 20, the measuring device main body 100 has a mounting portion 132 at the lower end. The mounting portion 132 is fixed to the base frame F (B) and projects downward from the base frame F (B). The mounting portion 132 has an inner peripheral surface 133 having a circular cross section and is open downward. The central axis of the inner peripheral surface 133 of the mounting portion 132 is preferably coaxial with the above-mentioned vertical axis Ax (V). The mounting portion 132 has a bottom surface 134 located on one cross section orthogonal to the vertical axis Ax (V). The lower end of the inner peripheral surface 133 of the mounting portion 132 has a first tapered surface 133a. The diameter of the first tapered surface 133a is reduced toward the upper side. In other words, the first tapered surface 133a has a shape whose diameter is enlarged downward.

図20から分かるように、基準スタンド10の上端に位置する固定部11は、測定装置本体100の取付部132の内周面133と相補的な外周面13を有し、取付部132と密に凹凸嵌合する。具体的には、外周面13は横断面円形であり、外周面13の直径は、測定装置本体100の取付部132の内周面133と実質的に同じである。基準スタンド10の固定部11が測定装置本体100の取付部132の中に侵入することにより、測定装置本体100を基準スタンド10に対して位置固定することができる。図21は、測定装置本体100を基準スタンド10に設置した後の状態を示す。 As can be seen from FIG. 20, the fixing portion 11 located at the upper end of the reference stand 10 has an outer peripheral surface 13 complementary to the inner peripheral surface 133 of the mounting portion 132 of the measuring device main body 100, and is closely attached to the mounting portion 132. Concavo-convex fitting. Specifically, the outer peripheral surface 13 has a circular cross section, and the diameter of the outer peripheral surface 13 is substantially the same as the inner peripheral surface 133 of the mounting portion 132 of the measuring device main body 100. When the fixing portion 11 of the reference stand 10 penetrates into the mounting portion 132 of the measuring device main body 100, the measuring device main body 100 can be fixed in position with respect to the reference stand 10. FIG. 21 shows a state after the measuring device main body 100 is installed on the reference stand 10.

上述したように、測定装置本体100の取付部132が第1テーパ面133aを有し、この第1テーパ面133aが下方に向けて拡径する形状を有していることから、測定装置本体100を基準スタンド10に設置する際に、第1テーパ面133aによって基準スタンド10の固定部11の上端を案内することができる。これにより、測定装置本体100の取付部132は基準スタンド10の固定部11を円滑に且つ衝撃が発生しない状態で受け入れることができる。 As described above, since the mounting portion 132 of the measuring device main body 100 has the first tapered surface 133a and the first tapered surface 133a has a shape in which the diameter is expanded downward, the measuring device main body 100 Can be guided to the upper end of the fixed portion 11 of the reference stand 10 by the first tapered surface 133a when the reference stand 10 is installed. As a result, the mounting portion 132 of the measuring device main body 100 can smoothly accept the fixing portion 11 of the reference stand 10 in a state where no impact is generated.

この挿入を更に円滑にするために、好ましくは、基準スタンド10の外周面13は、その上端部に、上方に向けて先細りの第2テーパ面13aを設けてもよい。これにより、測定装置本体100を基準スタンド10に設置する際、その組付容易性を第1、第2のテーパ面133a、13aの協働により更に向上することができる。なお、基準スタンド10側に第2テーパ面13aを設けたときには、測定装置本体100側の第1テーパ面133aを省いてもよい。 In order to further facilitate this insertion, preferably, the outer peripheral surface 13 of the reference stand 10 may be provided with a second tapered surface 13a that is tapered upward at the upper end portion thereof. As a result, when the measuring device main body 100 is installed on the reference stand 10, the ease of assembly can be further improved by the cooperation of the first and second tapered surfaces 133a and 13a. When the second tapered surface 13a is provided on the reference stand 10 side, the first tapered surface 133a on the measuring device main body 100 side may be omitted.

前述したように測定装置本体100は重量物である。測定装置本体100を基準スタンド10に組み付けるときに、その組付性を円滑に且つできるだけ衝撃が加わらないようにすることで、組み付け作業に伴う測定装置本体100の衝撃や傾きを防止することができる。これにより、測定装置本体100を基準スタンド10に組み付ける作業中の衝撃や傾きによる特に光学系の誤差の発生を防止することができる。 As described above, the measuring device main body 100 is a heavy object. When assembling the measuring device main body 100 to the reference stand 10, it is possible to prevent the measuring device main body 100 from being impacted or tilted due to the assembling work by making the assembling property smooth and preventing an impact from being applied as much as possible. .. As a result, it is possible to prevent an error in the optical system from occurring due to an impact or inclination during the work of assembling the measuring device main body 100 to the reference stand 10.

図21〜図24は、基準スタンド10の具体例を示す。この基準スタンド10は操作レバー15を有し(図22、図24)、測定装置本体100を基準スタンド10に組み付けた後に、使用者Uがレバー15を操作することより基準スタンド10に対して測定装置本体100を固定をロックすることができる。図23は、操作レバー15を開放したときの状態を示し、図24は、操作レバー15で測定装置本体100を固定した状態を示す。基準スタンド10は、操作レバー15によって回転動作する係合部材16を有し、操作レバー15を使用者が操作によって、測定装置本体100の取付部内周面133に対して係合部材16を係脱することができる。 21 to 24 show specific examples of the reference stand 10. The reference stand 10 has an operation lever 15 (FIGS. 22 and 24), and after the measuring device main body 100 is assembled to the reference stand 10, the user U operates the lever 15 to measure the reference stand 10. The device body 100 can be locked. FIG. 23 shows a state when the operating lever 15 is opened, and FIG. 24 shows a state in which the measuring device main body 100 is fixed by the operating lever 15. The reference stand 10 has an engaging member 16 that is rotated by an operating lever 15, and the operating lever 15 is operated by the user to engage and disengage the engaging member 16 with respect to the inner peripheral surface 133 of the mounting portion of the measuring device main body 100. can do.

図3、図4を参照して、基準カメラ161、可動カメラ111、参照部材162を発光させるための参照マーカ駆動回路152、第1、第2の回転駆動機構145、151を駆動させるための第1、第2の回転駆動回路141、142、無線通信回路143、処理装置(PC)300、この処理装置300と通信するための通信回路149は、測定装置本体200を統合制御するヘッド制御回路193に接続されている。ヘッド制御回路193は、CPU(中央演算処理装置)およびメモリ、またはマイクロコンピュータを含み、基準カメラ161、可動カメラ111、参照マーカ駆動回路152および第1、第2の回転駆動回路141、142を制御する。 With reference to FIGS. 3 and 4, the reference marker drive circuit 152 for causing the reference camera 161 and the movable camera 111 and the reference member 162 to emit light, and the first and second rotational drive mechanisms 145 and 151 for driving the reference marker drive circuit 152 and the reference member 162. The first and second rotary drive circuits 141 and 142, the wireless communication circuit 143, the processing device (PC) 300, and the communication circuit 149 for communicating with the processing device 300 are head control circuits 193 that integrally control the measuring device main body 200. It is connected to the. The head control circuit 193 includes a CPU (Central Processing Unit) and a memory, or a microcomputer, and controls a reference camera 161 and a movable camera 111, a reference marker drive circuit 152, and first and second rotation drive circuits 141 and 142. To do.

基準カメラ161、可動カメラ111および俯瞰カメラ120の各画素からは、検出量に対応するアナログの電気信号(以下、受光信号と呼ぶ)がヘッド制御回路193に出力される。 An analog electric signal (hereinafter, referred to as a light receiving signal) corresponding to the detected amount is output to the head control circuit 193 from each pixel of the reference camera 161 and the movable camera 111 and the bird's-eye view camera 120.

ヘッド制御回路193には、図示しないA/D変換器(アナログ/デジタル変換器)およびFIFO(First In First Out)メモリが実装されている。基準カメラ161、可動カメラ111および俯瞰カメラ120からそれぞれ出力される受光信号は、ヘッド制御回路193のA/D変換器により一定のサンプリング周期でサンプリングされるとともにデジタル信号に変換される。A/D変換器から出力されるデジタル信号は、FIFOメモリに順次蓄積される。FIFOメモリに蓄積されたデジタル信号は、画素データとして、順次、処理装置(PC)300に転送される。 An A / D converter (analog / digital converter) and a FIFO (First In First Out) memory (not shown) are mounted on the head control circuit 193. The received light signals output from the reference camera 161 and the movable camera 111 and the bird's-eye view camera 120 are sampled at a constant sampling cycle by the A / D converter of the head control circuit 193 and converted into digital signals. The digital signals output from the A / D converter are sequentially stored in the FIFO memory. The digital signals stored in the FIFO memory are sequentially transferred to the processing device (PC) 300 as pixel data.

参照マーカ駆動回路152は、ヘッド制御回路193の制御に基づいて、図5(a)の発光基板163を駆動する。それにより、発光基板163上の複数の発光素子Lが発光し、参照部材162の複数の参照マーカep(ref)から光が放出される。なお、好ましくは、この発光タイミングと基準カメラ161の撮像タイミングとが同期される。 The reference marker drive circuit 152 drives the light emitting substrate 163 of FIG. 5A based on the control of the head control circuit 193. As a result, the plurality of light emitting elements L on the light emitting substrate 163 emit light, and light is emitted from the plurality of reference markers ep (ref) of the reference member 162. It should be noted that preferably, the light emission timing and the imaging timing of the reference camera 161 are synchronized.

第1回転駆動回路141は、ヘッド制御回路193の制御に基づいて図4の第1回転駆動機構145を駆動する。これにより第1サブ部材140と第2サブ部材150は一緒に縦軸Ax(V)を中心に回転して、可動カメラ111はその向きが左右に変位する。また、第2回転駆動回路142は、ヘッド制御回路193の制御に基づいて第2回転駆動機構147を駆動する。これにより、第2サブ部材150が横軸Ax(L)を中心に回転して、可動カメラ111はその向きが上下にチルトする。これらの第1、第2の回転駆動回路141、142による可動カメラ111の撮像視野の向きの上下及び/又は左右の変位は、処理装置(PC)300の追跡処理(後に説明する)に基づいて行われる。 The first rotation drive circuit 141 drives the first rotation drive mechanism 145 of FIG. 4 based on the control of the head control circuit 193. As a result, the first sub-member 140 and the second sub-member 150 rotate together about the vertical axis Ax (V), and the orientation of the movable camera 111 is displaced to the left and right. Further, the second rotation drive circuit 142 drives the second rotation drive mechanism 147 based on the control of the head control circuit 193. As a result, the second sub-member 150 rotates about the horizontal axis Ax (L), and the direction of the movable camera 111 tilts up and down. The vertical and / or horizontal displacement of the direction of the imaging field of view of the movable camera 111 by these first and second rotational drive circuits 141 and 142 is based on the tracking process (described later) of the processing device (PC) 300. Will be done.

ヘッド制御回路193は、無線通信回路143を介してプローブ200との間で無線通信を行う。この無線通信は2系統の通信手段によって行われる。一つは、電磁波として可視光又は不可視光(例えば赤外線)を使った光通信である。他の一つはBluetooth(登録商標)通信のような電波を使った短距離デジタル無線通信である。図9を参照して、測定装置本体100は、俯瞰カメラ120の直ぐ上の位置に光通信用の第1の窓194を有し、また、測定装置本体100の下端部に電波通信用の第2の窓195を有している。 The head control circuit 193 performs wireless communication with the probe 200 via the wireless communication circuit 143. This wireless communication is performed by two communication means. One is optical communication using visible light or invisible light (for example, infrared rays) as electromagnetic waves. The other is short-range digital wireless communication using radio waves such as Bluetooth (registered trademark) communication. With reference to FIG. 9, the measuring device main body 100 has a first window 194 for optical communication at a position immediately above the bird's-eye view camera 120, and a first window for radio wave communication is provided at the lower end of the measuring device main body 100. It has two windows 195.

図25ないし図28はプローブ200に関連した図である。図25は、プローブ200を使用者側から見た斜視図である。図26は、プローブ200の背面側から見た斜視図である。図25、図26を参照して、プローブ200は、一つの方向に延びる細長い形状のプローブ本体202と、長手方向一端から延びるスタイラス203の先端に、前述した接触子201が設けられている。この接触子201は球状である。また、スタイラス203の近傍にプローブカメラ204が設けられている。プローブ本体202はその長手方向中間部分に把持部205を有し、使用者は片手で把持部205を握ってプローブ200を操作することができる。 25 to 28 are views related to the probe 200. FIG. 25 is a perspective view of the probe 200 as viewed from the user side. FIG. 26 is a perspective view seen from the back side of the probe 200. With reference to FIGS. 25 and 26, the probe 200 is provided with the above-mentioned contact 201 at the tip of a probe main body 202 having an elongated shape extending in one direction and a stylus 203 extending from one end in the longitudinal direction. The contact 201 is spherical. Further, a probe camera 204 is provided in the vicinity of the stylus 203. The probe main body 202 has a grip portion 205 in the intermediate portion in the longitudinal direction thereof, and the user can operate the probe 200 by gripping the grip portion 205 with one hand.

プローブ200の背面には、図26を参照して、複数のプローブマーカeq(p)が互いに離間して配置されており、また、通信窓206が設けられている。図27は、通信窓206の部分を拡大した図である。この通信窓206を通じて、測定装置本体100との間で電波通信、光通信が行われる。 On the back surface of the probe 200, with reference to FIG. 26, a plurality of probe markers eq (p) are arranged apart from each other, and a communication window 206 is provided. FIG. 27 is an enlarged view of a portion of the communication window 206. Radio wave communication and optical communication are performed with the measuring device main body 100 through the communication window 206.

図25を参照して、プローブ200は、長手方向他端にタッチパネルディスプレイ210を備え、また、その近傍に操作部211が配置されている。操作部211は複数のプッシュ式ボタンで構成され、測定を開始するための第1ボタン、幾何要素などの選択を決定する第2ボタン、測定を完了させるための第3ボタンを含む。図28は、プローブ200の構成を説明するためのブロック図である。プローブ200は、電気的な構成としてプローブ制御部220、表示灯221、バッテリ222、プローブマーカ駆動回路223、プローブメモリ224、無線通信回路225、モーションセンサ226の他に、上述したプローブカメラ204、プローブ操作部(プッシュ式ボタン)211、タッチパネルディスプレイ210、複数のプローブマーカeq(p)を含む。 With reference to FIG. 25, the probe 200 is provided with a touch panel display 210 at the other end in the longitudinal direction, and an operation unit 211 is arranged in the vicinity thereof. The operation unit 211 is composed of a plurality of push-type buttons, and includes a first button for starting measurement, a second button for determining selection of geometric elements, and a third button for completing measurement. FIG. 28 is a block diagram for explaining the configuration of the probe 200. The probe 200 includes a probe control unit 220, an indicator light 221 and a battery 222, a probe marker drive circuit 223, a probe memory 224, a wireless communication circuit 225, and a motion sensor 226 as electrical configurations, as well as the above-mentioned probe camera 204 and probe. It includes an operation unit (push-type button) 211, a touch panel display 210, and a plurality of probe markers eq (p).

バッテリ222は、プローブ200に設けられた他の構成要素に電力を供給する。プローブ制御部220は、CPUおよびメモリ、またはマイクロコンピュータを含み、表示灯221、プローブマーカ駆動回路223、プローブカメラ204およびタッチパネルディスプレイ210を制御する。また、プローブ制御部220は、操作部を構成するプッシュ式ボタン211およびタッチパネルディスプレイ210に対する使用者Uの操作に応答して、各種処理を行う。 The battery 222 powers other components provided on the probe 200. The probe control unit 220 includes a CPU and a memory, or a microcomputer, and controls an indicator lamp 221, a probe marker drive circuit 223, a probe camera 204, and a touch panel display 210. Further, the probe control unit 220 performs various processes in response to the operation of the user U on the push-type button 211 and the touch panel display 210 constituting the operation unit.

さらに、プローブ制御部220は、複数種類の副画面生成用データ(後に説明する)に基づいて、タッチパネルディスプレイ210に表示されるべき画面を示す画面データを生成する。 Further, the probe control unit 220 generates screen data indicating a screen to be displayed on the touch panel display 210 based on a plurality of types of sub-screen generation data (described later).

タッチパネルディスプレイ210は、プローブ表示部231およびタッチパネル232を含む。プローブ表示部231は、例えば液晶ディスプレイパネルまたは有機ELパネルにより構成される。 The touch panel display 210 includes a probe display unit 231 and a touch panel 232. The probe display unit 231 is composed of, for example, a liquid crystal display panel or an organic EL panel.

表示灯221は、例えば一又は複数のLEDを含み、その発光部が外部に露出するように設けられている。表示灯221は、プローブ制御部220の制御に基づいてプローブ200の状態に応じた発光動作を行う。 The indicator light 221 includes, for example, one or a plurality of LEDs, and is provided so that the light emitting portion thereof is exposed to the outside. The indicator lamp 221 performs a light emitting operation according to the state of the probe 200 based on the control of the probe control unit 220.

複数のプローブマーカeq(p)は、図5(a)を参照して前述した参照部材162と同じ構成を有し、面発光マーカで構成されている。プローブマーカ駆動回路223は、複数のプローブマーカeq(p)に接続され、プローブ制御部220の制御に基づいて複数のプローブマーカeq(p)の発光のオン・オフが制御される。このオン・オフのタイミングは、好ましくは、可動カメラ111の撮像タイミングと同期される。 The plurality of probe markers eq (p) have the same configuration as the reference member 162 described above with reference to FIG. 5A, and are composed of surface emitting markers. The probe marker drive circuit 223 is connected to a plurality of probe markers eq (p), and on / off of light emission of the plurality of probe markers eq (p) is controlled based on the control of the probe control unit 220. The on / off timing is preferably synchronized with the imaging timing of the movable camera 111.

プローブメモリ224は、不揮発性メモリまたはハードディスク等の記録媒体を含む。プローブメモリ224には、タッチパネルディスプレイ210の画面表示に関するプログラムが記憶される。また、プローブメモリ224は、種々のデータの処理および測定装置本体100から与えられる画像データ等の種々のデータを保存するために用いられる。さらに、プローブメモリ224には、使用者Uによる三次元座標測定装置1の操作に応じてタッチパネルディスプレイ210に表示されるべき画面を示す画面データを生成するための複数種類の副画面生成用データが記憶されている。 The probe memory 224 includes a recording medium such as a non-volatile memory or a hard disk. The probe memory 224 stores a program related to the screen display of the touch panel display 210. Further, the probe memory 224 is used for processing various data and storing various data such as image data given from the measuring device main body 100. Further, the probe memory 224 contains a plurality of types of sub-screen generation data for generating screen data indicating a screen to be displayed on the touch panel display 210 in response to an operation of the three-dimensional coordinate measuring device 1 by the user U. It is remembered.

モーションセンサ226は、例えば使用者Uがプローブ200を携行して移動する際に、そのプローブ200の動きを検出する。例えば、モーションセンサ226は、プローブ200の移動時に、その移動方向、加速度および姿勢等を検出する。プローブカメラ204は、例えばCCD(電荷結合素子)カメラである。 The motion sensor 226 detects the movement of the probe 200, for example, when the user U carries the probe 200 and moves. For example, the motion sensor 226 detects the moving direction, acceleration, posture, and the like when the probe 200 moves. The probe camera 204 is, for example, a CCD (charge coupling element) camera.

プローブ制御部220には、上記のCPUおよびメモリ、またはマイクロコンピュータに加えて、図示しないA/D変換器およびFIFOメモリが実装されている。それにより、プローブ制御部220においては、モーションセンサ226により検出されたプローブ200の動きを示す信号がデジタル信号形式のデータ(以下、「動きデータ」と呼ぶ。)に変換される。また、プローブ制御部220においては、プローブカメラ204の各画素から出力される受光信号がデジタル信号形式の複数の画素データに変換される。プローブ制御部220は、デジタル形式の動きデータおよび複数の画素データを、無線通信回路225を通して測定装置本体100に無線通信により送信する。測定装置本体100は、動きデータおよび複数の画素データを処理装置300に転送する。 In addition to the above CPU and memory or microcomputer, the probe control unit 220 is equipped with an A / D converter and a FIFO memory (not shown). As a result, the probe control unit 220 converts the signal indicating the movement of the probe 200 detected by the motion sensor 226 into digital signal format data (hereinafter, referred to as “motion data”). Further, in the probe control unit 220, the received light signal output from each pixel of the probe camera 204 is converted into a plurality of pixel data in the digital signal format. The probe control unit 220 transmits digital format motion data and a plurality of pixel data to the measuring device main body 100 by wireless communication through the wireless communication circuit 225. The measuring device main body 100 transfers motion data and a plurality of pixel data to the processing device 300.

三次元座標測定装置1においては、基準カメラ161に対して予め定められた関係を有する三次元座標系(以下、「装置座標系」と呼ぶ。)が予め定義されている。図4を参照して、処理装置(PC)300の本体メモリ303には、予め参照部材162の参照マーカep(ref)の相対的な位置関係が記憶されている。 In the three-dimensional coordinate measuring device 1, a three-dimensional coordinate system (hereinafter, referred to as “device coordinate system”) having a predetermined relationship with the reference camera 161 is defined in advance. With reference to FIG. 4, the main body memory 303 of the processing device (PC) 300 stores in advance the relative positional relationship of the reference markers ep (ref) of the reference member 162.

前述したように、基準カメラ161は参照部材162の複数の参照マーカep(ref)を撮像する。図4に示すように、処理装置(PC)300は、通信回路301、本体制御回路302および本体メモリ303を含む。通信回路301および本体メモリ303は、本体制御回路302に接続されている。また、本体制御回路302には、本体操作部320および本体表示部310が接続されている。本体制御回路302は、撮像により得られる基準画像データと、本体メモリ303に記憶されている複数の参照マーカep(ref)の位置関係とに基づいて、装置座標系における各参照マーカep(ref)の各座標を算出する。このとき、参照部材162の複数の参照マーカep(ref)の各々は、第1および第2のマーカep1、ep2(図5(b))に基づいて識別される。 As described above, the reference camera 161 images a plurality of reference markers ep (ref) of the reference member 162. As shown in FIG. 4, the processing device (PC) 300 includes a communication circuit 301, a main body control circuit 302, and a main body memory 303. The communication circuit 301 and the main body memory 303 are connected to the main body control circuit 302. Further, the main body operation unit 320 and the main body display unit 310 are connected to the main body control circuit 302. The main body control circuit 302 is based on the reference image data obtained by imaging and the positional relationship of a plurality of reference markers ep (ref) stored in the main body memory 303, and each reference marker ep (ref) in the device coordinate system. Calculate each coordinate of. At this time, each of the plurality of reference markers ep (ref) of the reference member 162 is identified based on the first and second markers ep1 and ep2 (FIG. 5B).

その後、本体制御回路302は、算出された複数の参照マーカep(ref)の座標に基づいて、可動カメラ111の姿勢を装置座標系により示す情報を第1の位置姿勢情報として生成する。 After that, the main body control circuit 302 generates information indicating the posture of the movable camera 111 by the device coordinate system as the first position / posture information based on the calculated coordinates of the plurality of reference markers ep (ref).

三次元座標測定装置1においては、上記の装置座標系に加えて、可動カメラ111に対して予め定められた関係を有する三次元座標系(以下、「可動座標系」と呼ぶ。)が予め定義されている。また、処理装置300の本体メモリ303には、予めプローブ200の複数のプローブマーカeq(p)の相対的な位置関係が記憶されている。 In the three-dimensional coordinate measuring device 1, in addition to the above-mentioned device coordinate system, a three-dimensional coordinate system (hereinafter, referred to as “movable coordinate system”) having a predetermined relationship with the movable camera 111 is defined in advance. Has been done. Further, the main body memory 303 of the processing device 300 stores in advance the relative positional relationship of the plurality of probe markers eq (p) of the probe 200.

可動カメラ111は、複数のプローブマーカeq(p)を撮像する。本体制御回路302は、撮像により得られる測定画像データと、本体メモリ303に記憶されている複数のマーカeqの位置関係とに基づいて、可動座標系における各プローブマーカeq(p)の各座標を算出する。 The movable camera 111 captures a plurality of probe markers eq (p). The main body control circuit 302 sets each coordinate of each probe marker eq (p) in the movable coordinate system based on the measurement image data obtained by imaging and the positional relationship of a plurality of marker eq stored in the main body memory 303. calculate.

その後、本体制御回路302は、算出された複数のプローブマーカeq(p)の座標に基づいて、プローブ200の位置および姿勢を可動座標系により示す情報を第2の位置姿勢情報として生成する。 After that, the main body control circuit 302 generates information indicating the position and orientation of the probe 200 by the movable coordinate system as the second position / orientation information based on the calculated coordinates of the plurality of probe markers eq (p).

可動カメラ111の向きは、撮像視野がプローブ200の移動に追従する。そのため、装置座標系と可動座標系との間の関係は可動カメラ111の向きの変化に伴って変化する。 As for the orientation of the movable camera 111, the imaging field of view follows the movement of the probe 200. Therefore, the relationship between the device coordinate system and the movable coordinate system changes as the orientation of the movable camera 111 changes.

処理装置(PC)300の本体制御回路302は、第1および第2の位置姿勢情報に基づいて、プローブ200の位置および姿勢を装置座標系で表す第3の位置姿勢情報を生成する。すなわち、本体制御回路302は、第1の位置姿勢情報に基づいて装置座標系に対する可動座標系の相対的な関係を算出するとともに、算出された関係に基づいて第2の位置姿勢情報を装置座標系に従う情報に変換する。それにより、第3の位置姿勢情報が生成される。 The main body control circuit 302 of the processing device (PC) 300 generates a third position / orientation information representing the position and orientation of the probe 200 in the device coordinate system based on the first and second position / orientation information. That is, the main body control circuit 302 calculates the relative relationship of the movable coordinate system with respect to the device coordinate system based on the first position / orientation information, and calculates the second position / orientation information based on the calculated relationship. Convert to information that follows the system. As a result, the third position / orientation information is generated.

その後、本体制御回路302は、生成された第3の位置姿勢情報と、プローブ200における複数のマーカeqおよび接触子201の位置関係とに基づいてプローブ200により指示された「測定点」の座標を算出する。また、ヘッド制御回路193は、通信回路149およびケーブルCAを介して処理装置300との間で有線通信を行う。 After that, the main body control circuit 302 sets the coordinates of the "measurement point" indicated by the probe 200 based on the generated third position / orientation information and the positional relationship between the plurality of marker eq and the contactor 201 in the probe 200. calculate. Further, the head control circuit 193 performs wired communication with the processing device 300 via the communication circuit 149 and the cable CA.

本体メモリ303は、ROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)およびハードディスクを含む。本体メモリ303には、システムプログラムとともに、後述する測定対象部分設定プログラム、測定値算出プログラム、追跡処理プログラムおよび画面表示に関するプログラムが記憶される。また、本体メモリ303は、種々のデータの処理および測定装置本体100から与えられる画素データ等の種々のデータを保存するために用いられる。さらに、本体メモリ303には、使用者Uによる三次元座標測定装置1の操作に応じて本体表示部310に表示されるべき画面を示す画面データを生成するための複数種類の主画面生成用データが記憶されている。 The main body memory 303 includes a ROM (read-only memory), a RAM (random access memory), and a hard disk. Along with the system program, the main body memory 303 stores a measurement target partial setting program, a measurement value calculation program, a tracking processing program, and a program related to screen display, which will be described later. Further, the main body memory 303 is used for processing various data and storing various data such as pixel data given from the measuring device main body 100. Further, in the main body memory 303, a plurality of types of main screen generation data for generating screen data indicating a screen to be displayed on the main body display unit 310 in response to an operation of the three-dimensional coordinate measuring device 1 by the user U Is remembered.

本体制御回路302は、CPUを含む。本実施の形態においては、本体制御回路302および本体メモリ303は、パーソナルコンピュータにより実現される。本体制御回路302は、測定装置本体100からケーブルCA(図1)および通信回路301を介して与えられる画素データに基づいて画像データを生成する。画像データは複数の画素データの集合である。 The main body control circuit 302 includes a CPU. In the present embodiment, the main body control circuit 302 and the main body memory 303 are realized by a personal computer. The main body control circuit 302 generates image data based on pixel data given from the measuring device main body 100 via the cable CA (FIG. 1) and the communication circuit 301. Image data is a set of a plurality of pixel data.

測定装置本体100の基準カメラ161、可動カメラ111および俯瞰カメラ120にそれぞれ対応する基準画像データ、測定画像データおよび俯瞰画像データが生成される。また、プローブ200に設けられる後述するプローブカメラ204に対応する画像データが生成される。本体制御回路302は、基準画像データおよび測定画像データに基づいて、プローブ200の接触子201(図1)の位置座標を算出する。 Reference image data, measurement image data, and bird's-eye view image data corresponding to the reference camera 161, the movable camera 111, and the bird's-eye view camera 120 of the measuring device main body 100 are generated. In addition, image data corresponding to the probe camera 204 provided on the probe 200, which will be described later, is generated. The main body control circuit 302 calculates the position coordinates of the contact 201 (FIG. 1) of the probe 200 based on the reference image data and the measured image data.

さらに、本体制御回路302は、本体メモリ303に記憶された複数種類の主画面生成用データに基づいて、本体表示部310に表示されるべき画面を示す画面データを生成する。本体表示部310に表示される画面の詳細は後述する。 Further, the main body control circuit 302 generates screen data indicating a screen to be displayed on the main body display unit 310 based on a plurality of types of main screen generation data stored in the main body memory 303. Details of the screen displayed on the main body display unit 310 will be described later.

本体表示部310は、例えば液晶ディスプレイパネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。本体表示部310には、本体制御回路302による制御に基づいて、測定対象物S上の測定点の座標および測定対象物Sの各部の測定結果等が表示される。また、本体表示部310には、測定に関する種々の設定を行うための設定画面が表示される。 The main body display unit 310 is composed of, for example, a liquid crystal display panel or an organic EL (electroluminescence) panel. The main body display unit 310 displays the coordinates of the measurement point on the measurement target object S, the measurement results of each part of the measurement target object S, and the like based on the control by the main body control circuit 302. In addition, the main body display unit 310 displays a setting screen for making various settings related to measurement.

本体操作部320は、キーボードおよびポインティングデバイスを含む。ポインティングデバイスは、マウスまたはジョイスティック等を含む。本体操作部320は、使用者Uにより操作される。 The main body operation unit 320 includes a keyboard and a pointing device. Pointing devices include a mouse or joystick and the like. The main body operation unit 320 is operated by the user U.

三次元座標測定装置1による測定対象物Sの寸法の基本的な測定例について説明する。図29は、処理装置(PC)300の本体表示部310(図1)に表示される画像の一例を示す図である。図30は、測定対象物Sの一例を示す図である。 A basic measurement example of the dimensions of the object S to be measured by the three-dimensional coordinate measuring device 1 will be described. FIG. 29 is a diagram showing an example of an image displayed on the main body display unit 310 (FIG. 1) of the processing device (PC) 300. FIG. 30 is a diagram showing an example of the measurement object S.

図29を参照して、処理装置(PC)300の本体表示部310には、三次元座標測定装置1により測定対象物Sの寸法測定が可能な領域を仮想的に表す画像(以下、「測定領域仮想画像」と呼ぶ)VIが表示される。画像VIにおいては、平坦かつ水平な仮想上の床面FLに平行でかつ互いに直交するように装置座標系のx軸およびy軸が設定され、床面FLに対して垂直に装置座標系のz軸が設定される。 With reference to FIG. 29, the main body display unit 310 of the processing device (PC) 300 is an image that virtually represents an area in which the dimensions of the measurement object S can be measured by the three-dimensional coordinate measuring device 1 (hereinafter, “measurement”). The VI (called "area virtual image") is displayed. In the image VI, the x-axis and y-axis of the device coordinate system are set so as to be parallel to the flat and horizontal virtual floor FL and orthogonal to each other, and the z of the device coordinate system is perpendicular to the floor FL. The axis is set.

また、可動カメラ111の撮像視野と予め定められた関係にある床面の位置が装置座標系の原点Oに設定される。図29の測定領域仮想画像VIには、装置座標系の原点O、x軸、y軸およびz軸が含まれるとともに、仮想上の床面FLに対応する床面画像FLi(図29の点線部分)が含まれる。 Further, the position of the floor surface having a predetermined relationship with the imaging field of view of the movable camera 111 is set at the origin O of the device coordinate system. The measurement area virtual image VI of FIG. 29 includes the origin O, x-axis, y-axis, and z-axis of the device coordinate system, and the floor image FLi corresponding to the virtual floor FL (dotted line portion of FIG. 29). ) Is included.

図30の測定対象物Sは、直方体形状を有する。本例では、測定対象物Sの一方の側面Saと、その反対側の側面Sbとの間の距離が測定される。測定対象物Sの側面Sa、Sbは、それぞれx軸に対して垂直である。 The measurement object S in FIG. 30 has a rectangular parallelepiped shape. In this example, the distance between one side surface Sa of the object to be measured S and the side surface Sb on the opposite side is measured. The side surfaces Sa and Sb of the measurement object S are perpendicular to the x-axis, respectively.

図31〜図35は、図30に図示した測定対象物Sについての基本的な測定例を説明するための図である。図31(a)および図33(a)は、可動カメラ111、プローブ200および測定対象物Sの位置関係を示す図であり、図31(b)および図33(b)は、プローブ200および測定対象物Sの外観斜視図である。図32、図34および図35には、処理装置(PC)300の本体表示部310に表示される測定領域仮想画像VIの例が示される。 31 to 35 are diagrams for explaining a basic measurement example of the measurement object S illustrated in FIG. 30. 31 (a) and 33 (a) are diagrams showing the positional relationship between the movable camera 111, the probe 200, and the measurement object S, and FIGS. 31 (b) and 33 (b) show the probe 200 and the measurement. It is an external perspective view of the object S. 32, 34, and 35 show an example of the measurement area virtual image VI displayed on the main body display unit 310 of the processing device (PC) 300.

この測定時には、使用者Uは測定対象物Sのうち測定すべき部分(測定対象部分)の位置および形状を特定する必要がある。そこで、使用者Uは、処理装置300の本体操作部(マウスなど)320(図1)またはプローブ200のタッチパネルディスプレイ210(図25)を操作することにより、測定対象物Sのうち測定すべき部分の形状を示す幾何学形状の種類(以下、幾何要素と呼ぶ。)を選択する。幾何要素には、点、直線、平面、円、円筒および球など、工業製品に含まれる幾何要素が含まれる。 At the time of this measurement, the user U needs to specify the position and shape of the portion to be measured (measurement target portion) of the measurement object S. Therefore, the user U operates the main body operation unit (mouse or the like) 320 (FIG. 1) of the processing device 300 or the touch panel display 210 (FIG. 25) of the probe 200 to measure the portion of the object S to be measured. Select the type of geometric shape (hereinafter referred to as geometric element) that indicates the shape of. Geometric elements include geometric elements found in industrial products such as points, straight lines, planes, circles, cylinders and spheres.

例えば、使用者Uは、測定対象物Sの一方の側面Saの形状を示す幾何要素として「平面」を選択する(幾何要素の選択操作)。その後、使用者Uは、当該側面Saを特定するために、測定対象物Sの側面Sa上で3点以上の複数の測定点を指示する(測定点の指示操作)。 For example, the user U selects a "plane" as a geometric element indicating the shape of one side surface Sa of the measurement object S (geometric element selection operation). After that, the user U instructs a plurality of measurement points of three or more points on the side surface Sa of the measurement object S in order to specify the side surface Sa (measurement point instruction operation).

具体的には、使用者Uは、図31(a)および図31(b)に示すように、プローブ200の複数のプローブマーカeq(p)が可動カメラ111に向くように、接触子201を測定対象物Sの側面Saに接触させる。その状態で、使用者Uは、プローブ操作部(プッシュ式ボタン)211(図25)を押下操作することにより、測定対象物Sと接触子201との接触位置を測定点M1aとして指示する。この場合、処理装置300の本体制御回路302(図4)において測定点M1aの座標が算出され、算出結果が本体メモリ303(図4)に記憶される。 Specifically, as shown in FIGS. 31 (a) and 31 (b), the user U sets the contact 201 so that the plurality of probe markers eq (p) of the probe 200 face the movable camera 111. It is brought into contact with the side surface Sa of the measurement object S. In that state, the user U indicates the contact position between the measurement object S and the contact 201a as the measurement point M1a by pressing the probe operation unit (push type button) 211 (FIG. 25). In this case, the coordinates of the measurement point M1a are calculated in the main body control circuit 302 (FIG. 4) of the processing device 300, and the calculation result is stored in the main body memory 303 (FIG. 4).

同様にして、使用者Uは、測定対象物Sの側面Sa上の互いに異なる3つの部分を測定点M2a、M3a、M4aとして指示する。それにより、本体制御回路302において測定点M2a、M3a、M4aの座標が算出される。算出結果は本体メモリ303に記憶される。 Similarly, the user U designates three different parts on the side surface Sa of the measurement object S as measurement points M2a, M3a, and M4a. As a result, the coordinates of the measurement points M2a, M3a, and M4a are calculated in the main body control circuit 302. The calculation result is stored in the main body memory 303.

続いて、使用者Uは、処理装置300の本体操作部(マウスなど)320(図4)またはプローブ200のタッチパネルディスプレイ210(図25)を操作することにより、測定点M1a〜M4aを通る平面(以下、測定平面ML1と呼ぶ。)を、測定対象物Sの側面Saに対応する測定対象部分として設定する(測定対象部分の設定操作)。それにより、装置座標系における測定平面ML1の位置が算出され、算出結果が要素特定情報として本体メモリ303に記憶される。この場合、図32に示すように、測定領域仮想画像VI上に、設定された測定平面ML1を示す画像ML1iが重畳表示される。 Subsequently, the user U operates the main body operation unit (mouse or the like) 320 (FIG. 4) of the processing device 300 or the touch panel display 210 (FIG. 25) of the probe 200 to pass through the planes (FIG. 4) passing through the measurement points M1a to M4a. Hereinafter, the measurement plane ML1) is set as the measurement target portion corresponding to the side surface Sa of the measurement object S (measurement target portion setting operation). As a result, the position of the measurement plane ML1 in the device coordinate system is calculated, and the calculation result is stored in the main body memory 303 as element identification information. In this case, as shown in FIG. 32, the image ML1i showing the set measurement plane ML1 is superimposed and displayed on the measurement area virtual image VI.

ここで、本実施の形態では、要素特定情報は、使用者Uにより選択された幾何要素と使用者Uにより指示された測定点とに基づいて特定された測定対象物S上の測定対象部分を装置座標系で示す情報である。 Here, in the present embodiment, the element identification information is a measurement target portion on the measurement object S specified based on the geometric element selected by the user U and the measurement point instructed by the user U. This is the information shown in the device coordinate system.

続いて、使用者Uは、測定対象物Sの他方の側面Sb(図30、図31)の形状を示す幾何要素として「平面」を選択する(幾何要素の選択操作)。その後、使用者Uは、当該側面Sbを特定するために、測定対象物Sの側面Sb上で3点以上の複数の測定点を指示する(測定点の指示操作)。 Subsequently, the user U selects "plane" as a geometric element indicating the shape of the other side surface Sb (FIGS. 30 and 31) of the measurement object S (geometric element selection operation). After that, the user U instructs a plurality of measurement points of three or more points on the side surface Sb of the measurement object S in order to specify the side surface Sb (measurement point instruction operation).

具体的には、使用者Uは、図33(a)および図33(b)に示すように、プローブ200の複数のプローブマーカeq(p)が可動カメラ111に向くように、接触子201を測定対象物Sの側面Sbに接触させる。その状態で、使用者Uは、プローブ操作部(プッシュ式ボタン)211(図25)を押下操作することにより、測定対象物Sと接触子201との接触位置を測定点M1bとして指示する。この場合、本体制御回路302(図4)において測定点M1bの座標が算出され、算出結果が本体メモリ303に記憶される。 Specifically, as shown in FIGS. 33 (a) and 33 (b), the user U sets the contact 201 so that the plurality of probe markers eq (p) of the probe 200 face the movable camera 111. It is brought into contact with the side surface Sb of the measurement object S. In this state, the user U indicates the contact position between the measurement object S and the contact 201 as the measurement point M1b by pressing the probe operation unit (push type button) 211 (FIG. 25). In this case, the coordinates of the measurement point M1b are calculated in the main body control circuit 302 (FIG. 4), and the calculation result is stored in the main body memory 303.

同様にして、使用者Uは、測定対象物Sの側面Sb上の互いに異なる3つの部分を測定点M2b、M3b、M4bとして指示する。それにより、本体制御回路302において測定点M2b、M3b、M4bの座標が算出される。算出結果は本体メモリ303に記憶される。 Similarly, the user U designates three different parts on the side surface Sb of the measurement object S as measurement points M2b, M3b, and M4b. As a result, the coordinates of the measurement points M2b, M3b, and M4b are calculated in the main body control circuit 302. The calculation result is stored in the main body memory 303.

続いて、使用者Uは、処理装置(PC)300の本体操作部(マウスなど)320またはプローブ200のタッチパネルディスプレイ210(図25)を操作することにより、測定点M1b〜M4bを通る平面(以下、測定平面ML2と呼ぶ。)を、測定対象物Sの側面Sbに対応する測定対象部分として設定する(測定対象部分の設定操作)。それにより、装置座標系における測定平面ML2の位置が算出され、算出結果が要素特定情報として本体メモリ303に記憶される。この場合、図34に示すように、測定領域仮想画像VI上に、測定平面ML1を示す画像ML1iに加えて、測定平面ML2を示す画像ML2iが重畳表示される。 Subsequently, the user U operates a main body operation unit (mouse or the like) 320 of the processing device (PC) 300 or a touch panel display 210 (FIG. 25) of the probe 200 to pass through the measurement points M1b to M4b (hereinafter referred to as a plane). , Called the measurement plane ML2) is set as the measurement target portion corresponding to the side surface Sb of the measurement target S (setting operation of the measurement target portion). As a result, the position of the measurement plane ML2 in the device coordinate system is calculated, and the calculation result is stored in the main body memory 303 as element identification information. In this case, as shown in FIG. 34, the image ML2i showing the measurement plane ML2 is superimposed and displayed on the measurement area virtual image VI in addition to the image ML1i showing the measurement plane ML1.

使用者Uは、上記のように、測定対象物Sの測定対象部分を特定した上で、本体操作部320(マウスなど)(図4)またはタッチパネルディスプレイ210(図25)を操作することにより、どの測定対象部分についての何を測定すべきかを設定する必要がある。そこで、使用者Uは、処理装置(PC)300の本体操作部(マウスなど)320またはプローブ200のタッチパネルディスプレイ210(図25)を操作することにより、測定対象物Sについての測定項目の種類を選択するとともに(測定項目の選択操作)、当該測定項目の値を得るために必要な測定対象部分のいずれかを選択する(測定対象部分の選択操作)。なお、測定項目の種類には、距離の他、角度等の種々の物理量が含まれる。 As described above, the user U identifies the measurement target portion of the measurement target S, and then operates the main body operation unit 320 (mouse or the like) (FIG. 4) or the touch panel display 210 (FIG. 25). It is necessary to set what should be measured for which measurement target part. Therefore, the user U operates the main body operation unit (mouse or the like) 320 of the processing device (PC) 300 or the touch panel display 210 (FIG. 25) of the probe 200 to select the type of measurement item for the measurement object S. At the same time as selecting (selection operation of measurement item), one of the measurement target parts required to obtain the value of the measurement item is selected (selection operation of measurement target part). The types of measurement items include various physical quantities such as angles in addition to distances.

次に、使用者Uは、測定項目の種類として距離を選択する。また、使用者Uは、その距離がどこの距離であるのかを規定するための測定対象部分として2つの測定平面ML1、ML2を選択する。 Next, the user U selects the distance as the type of measurement item. Further, the user U selects two measurement planes ML1 and ML2 as measurement target portions for defining which distance the distance is.

測定項目及び測定対象部分が選択されることにより、本体メモリ303に記憶された要素特定情報を用いた測定項目の演算が行われる。本例では、選択された2つの測定対象部分(測定平面ML1、ML2)の間の距離が算出される。算出結果は測定結果として本体メモリ303(図4)に記憶される。 By selecting the measurement item and the measurement target portion, the measurement item is calculated using the element identification information stored in the main body memory 303. In this example, the distance between the two selected measurement target portions (measurement planes ML1 and ML2) is calculated. The calculation result is stored in the main body memory 303 (FIG. 4) as the measurement result.

このとき、図35に示すように、測定結果が測定領域仮想画像VI上に表示される。なお、測定結果は、測定領域仮想画像VIとは別個に本体表示部310(図4)に表示されてもよい。また、2つの測定平面ML1、ML2間の距離の演算方法等は、使用者Uにより適宜設定可能であってもよい。 At this time, as shown in FIG. 35, the measurement result is displayed on the measurement area virtual image VI. The measurement result may be displayed on the main body display unit 310 (FIG. 4) separately from the measurement area virtual image VI. Further, the method of calculating the distance between the two measurement planes ML1 and ML2 may be appropriately set by the user U.

上記の例では、4つの測定点に基づいて1つの平面が測定対象部分として設定されるが、最少で3つの測定点に基づいて、1つの平面を測定対象部分として設定することができる。一方、1つの平面を設定するために4つ以上の測定点が指示される場合には、測定対象部分として設定される平面の平面度を求めることもできる。 In the above example, one plane is set as the measurement target portion based on four measurement points, but one plane can be set as the measurement target portion based on at least three measurement points. On the other hand, when four or more measurement points are specified to set one plane, the flatness of the plane set as the measurement target portion can be obtained.

また、上記の例では、2つの測定平面ML1、ML2が測定対象部分として設定された後、測定項目の種類として距離が選択されるが、測定項目の種類として距離に代えて角度が選択されてもよい。この場合、測定平面ML1、ML2の間の距離に代えて測定平面ML1、ML2のなす角度が測定される。 Further, in the above example, after the two measurement planes ML1 and ML2 are set as the measurement target portions, the distance is selected as the type of measurement item, but the angle is selected instead of the distance as the type of measurement item. May be good. In this case, the angle formed by the measurement planes ML1 and ML2 is measured instead of the distance between the measurement planes ML1 and ML2.

次に、処理装置300の本体表示部310(図4)およびプローブ200のタッチパネルディスプレイ210の画面表示例を説明する。上記のように、使用者Uは、測定対象物Sの測定時に、幾何要素の選択操作、測定点の指示操作、幾何要素および測定点に基づく測定対象部分の設定操作、測定項目の選択操作、および測定対象部分の選択操作を行う。 Next, a screen display example of the main body display unit 310 (FIG. 4) of the processing device 300 and the touch panel display 210 of the probe 200 will be described. As described above, when measuring the measurement object S, the user U selects a geometric element, indicates a measurement point, sets a geometric element and a measurement target portion based on the measurement point, and selects a measurement item. And select the measurement target part.

また、三次元座標測定装置1によれば、使用者Uは、測定対象物Sの所望の部分について、所望の幾何公差を測定することも可能である。この場合、使用者Uは、複数種類の幾何公差のうち所望の幾何公差を選択する。それにより、使用者により指示された複数の測定点から特定される測定対象部分について、選択された種類の幾何公差が算出される。幾何公差は、測定対象物S上で一又は複数の測定点により特定された測定対象部分の形状が幾何学的に正しい形状からどれだけ狂っているのかを表す。すなわち、幾何公差は、正しい幾何学形状に対する測定対象部分の形状の狂いの程度を表す。このように、使用者Uは、幾何公差の測定を行う際には、幾何公差の選択操作を行う。 Further, according to the three-dimensional coordinate measuring device 1, the user U can also measure a desired geometrical tolerance with respect to a desired portion of the measurement object S. In this case, the user U selects a desired geometric tolerance from a plurality of types of geometric tolerances. Thereby, the geometric tolerance of the selected type is calculated for the measurement target portion specified from the plurality of measurement points instructed by the user. The geometrical tolerance represents how much the shape of the measurement target portion specified by one or more measurement points on the measurement target S deviates from the geometrically correct shape. That is, the geometrical tolerance represents the degree of deviation of the shape of the measurement target portion with respect to the correct geometric shape. In this way, the user U performs a geometrical tolerance selection operation when measuring the geometrical tolerance.

図36は、処理装置(PC)300の本体メモリ303(図4)およびプローブ200のプローブメモリ224(図28)にそれぞれ記憶される主画面生成用データおよび副画面生成用データと使用者Uによる三次元座標測定装置1の操作との関係を示す図である。 FIG. 36 shows the main screen generation data and the sub screen generation data stored in the main body memory 303 (FIG. 4) of the processing device (PC) 300 and the probe memory 224 (FIG. 28) of the probe 200, respectively, and the user U. It is a figure which shows the relationship with the operation of 3D coordinate measuring apparatus 1.

図36に示すように、処理装置(PC)300の本体メモリ303には、複数種類の主画面生成用データとして第1〜第4の主画面生成用データが記憶されている。また、プローブメモリ224には、複数種類の副画面生成用データとして第1〜第4の副画面生成用データが記憶されている。第1〜第4の主画面生成用データおよび第1〜第4の副画面生成用データの各々は、本体表示部310またはプローブ200のタッチパネルディスプレイ210に表示されるべき画面の背景を示す背景画像データ、背景画像上の一部領域に予め定められたアイコンを表示させるためのデータ、背景画像上の一部領域が操作されることにより実行すべき処理を示すデータ、および背景画像上の他の領域に本体制御回路302(図4)において算出された各種測定結果を表示させるためのデータ等を含む。 As shown in FIG. 36, the main body memory 303 of the processing device (PC) 300 stores the first to fourth main screen generation data as a plurality of types of main screen generation data. Further, the probe memory 224 stores the first to fourth sub-screen generation data as a plurality of types of sub-screen generation data. Each of the first to fourth main screen generation data and the first to fourth sub screen generation data is a background image showing a screen background to be displayed on the main body display unit 310 or the touch panel display 210 of the probe 200. Data, data for displaying a predetermined icon in a part of the background image, data indicating the processing to be performed by manipulating a part of the background image, and other data on the background image. The area includes data for displaying various measurement results calculated by the main body control circuit 302 (FIG. 4).

処理装置(PC)300の第1の主画面生成用データおよび第1の副画面生成用データは、幾何要素の選択操作および測定項目の選択操作に対応付けられている。これにより、本体制御回路302(図4)は、幾何要素の選択操作および測定項目の選択操作を受け付けるための待機時に、第1の主画面生成用データに基づいて本体表示部310に表示されるべき画面を示す第1の主画面データを生成する。また、プローブ制御部220(図28)は、本体制御回路302の第1の主画面データの生成に同期して、第1の副画面生成用データに基づいてプローブ200のタッチパネルディスプレイ210に表示されるべき画面を示す第1の副画面データを生成する。以下の説明では、第1の主画面データにより本体表示部310上に表示される画面を「第1の主画面」と呼び、第1の副画面データによりプローブ200のタッチパネルディスプレイ210上に表示される画面を「第1の副画面」と呼ぶ。 The first main screen generation data and the first sub screen generation data of the processing device (PC) 300 are associated with the geometric element selection operation and the measurement item selection operation. As a result, the main body control circuit 302 (FIG. 4) is displayed on the main body display unit 310 based on the first main screen generation data during the standby for accepting the selection operation of the geometric element and the selection operation of the measurement item. Generate the first main screen data indicating the screen to be output. Further, the probe control unit 220 (FIG. 28) is displayed on the touch panel display 210 of the probe 200 based on the first sub-screen generation data in synchronization with the generation of the first main screen data of the main body control circuit 302. Generates first sub-screen data indicating the screen to be screened. In the following description, the screen displayed on the main body display unit 310 by the first main screen data is referred to as "first main screen", and is displayed on the touch panel display 210 of the probe 200 by the first sub screen data. The screen is called the "first sub screen".

プローブ200の第2の主画面生成用データおよび第2の副画面生成用データは、測定点の指示操作および測定対象部分の設定操作に対応付けられている。これにより、本体制御回路302(図4)は、測定点の指示操作および測定対象部分の設定操作を受け付けるための待機時に、第2の主画面生成用データに基づいて本体表示部310に表示されるべき画面を示す第2の主画面データを生成する。また、プローブ制御部220(図28)は、本体制御回路302の第2の主画面データの生成に同期して、第2の副画面生成用データに基づいてタッチパネルディスプレイ210に表示されるべき画面を示す第2の副画面データを生成する。以下の説明では、第2の主画面データにより本体表示部310上に表示される画面を「第2の主画面」と呼び、第2の副画面データによりプローブ200のタッチパネルディスプレイ210上に表示される画面を「第2の副画面」と呼ぶ。 The second main screen generation data and the second sub screen generation data of the probe 200 are associated with a measurement point instruction operation and a measurement target portion setting operation. As a result, the main body control circuit 302 (FIG. 4) is displayed on the main body display unit 310 based on the second main screen generation data during the standby for receiving the measurement point instruction operation and the measurement target portion setting operation. Generate a second main screen data indicating the screen to be. Further, the probe control unit 220 (FIG. 28) synchronizes with the generation of the second main screen data of the main body control circuit 302, and the screen to be displayed on the touch panel display 210 based on the second sub screen generation data. The second sub-screen data indicating is generated. In the following description, the screen displayed on the main body display unit 310 by the second main screen data is referred to as the "second main screen", and is displayed on the touch panel display 210 of the probe 200 by the second sub screen data. The screen is called the "second sub screen".

第3の主画面生成用データおよび第3の副画面生成用データは、測定対象部分の選択操作に対応付けられている。これにより、本体制御回路302(図4)は、測定対象部分の選択操作を受け付けるための待機時に、第3の主画面生成用データに基づいて本体表示部310に表示されるべき画面を示す第3の主画面データを生成する。また、プローブ制御部220(図28)は、本体制御回路302の第3の主画面データの生成に同期して、第3の副画面生成用データに基づいてタッチパネルディスプレイ210に表示されるべき画面を示す第3の副画面データを生成する。以下の説明では、第3の主画面データにより本体表示部310上に表示される画面を「第3の主画面」と呼び、第3の副画面データによりプローブ200のタッチパネルディスプレイ210上に表示される画面を「第3の副画面」と呼ぶ。 The third main screen generation data and the third sub screen generation data are associated with the selection operation of the measurement target portion. As a result, the main body control circuit 302 (FIG. 4) shows a screen to be displayed on the main body display unit 310 based on the third main screen generation data during standby for accepting the selection operation of the measurement target portion. Generate the main screen data of 3. Further, the probe control unit 220 (FIG. 28) synchronizes with the generation of the third main screen data of the main body control circuit 302, and the screen to be displayed on the touch panel display 210 based on the third sub screen generation data. A third sub-screen data indicating the above is generated. In the following description, the screen displayed on the main body display unit 310 by the third main screen data is referred to as a "third main screen", and is displayed on the touch panel display 210 of the probe 200 by the third sub screen data. The screen is called the "third sub screen".

第4の主画面生成用データおよび第4の副画面生成用データは、幾何公差の選択操作に対応付けられている。これにより、本体制御回路302(図4)は、幾何公差の選択操作を受け付けるための待機時に、第4の主画面生成用データに基づいて本体表示部310に表示されるべき画面を示す第4の主画面データを生成する。また、プローブ制御部220(図28)は、本体制御回路302の第4の主画面データの生成に同期して、第4の副画面生成用データに基づいてタッチパネルディスプレイ210(図25、図28)に表示されるべき画面を示す第4の副画面データを生成する。以下の説明では、第4の主画面データにより本体表示部310上に表示される画面を「第4の主画面」と呼び、第4の副画面データによりプローブ200のタッチパネルディスプレイ210上に表示される画面を「第4の副画面」と呼ぶ。 The fourth main screen generation data and the fourth sub screen generation data are associated with the geometric tolerance selection operation. As a result, the main body control circuit 302 (FIG. 4) shows a screen to be displayed on the main body display unit 310 based on the fourth main screen generation data during standby for accepting the geometric tolerance selection operation. Generate the main screen data of. Further, the probe control unit 220 (FIG. 28) synchronizes with the generation of the fourth main screen data of the main body control circuit 302, and the touch panel display 210 (FIGS. 25 and 28) is based on the fourth sub screen generation data. ), A fourth sub-screen data indicating the screen to be displayed is generated. In the following description, the screen displayed on the main body display unit 310 by the fourth main screen data is referred to as the "fourth main screen", and is displayed on the touch panel display 210 of the probe 200 by the fourth sub screen data. The screen is called the "fourth sub screen".

三次元座標測定装置1においては、使用者Uは、処理装置(PC)300の本体操作部(マウスなど)320(図4)またはプローブ200のタッチパネルディスプレイ210(図25)を用いて、幾何要素の選択操作、測定対象部分の設定操作、測定項目の選択操作、測定対象部分の選択操作および幾何公差の選択操作を行う。また、使用者Uは、プローブ200のプローブ操作部(プッシュ式ボタン)211を用いて、測定点の指示操作を行う。 In the three-dimensional coordinate measuring device 1, the user U uses the main body operation unit (mouse or the like) 320 (FIG. 4) of the processing device (PC) 300 or the touch panel display 210 (FIG. 25) of the probe 200 to perform geometric elements. Select operation, set measurement target part, select measurement item, select measurement target part, and select geometric tolerance. In addition, the user U uses the probe operation unit (push type button) 211 of the probe 200 to perform an operation of instructing a measurement point.

図37は、幾何要素および測定項目の選択操作時に本体表示部310(図4)およびプローブ200のタッチパネルディスプレイ210に表示される第1の主画面および第1の副画面の表示例を示す図である。図37を参照して、第1の主画面sc01および後述する第2〜第4の主画面sc02〜sc04(図38〜図40)においては、本体表示部310の表示領域が、測定状態表示領域311、結果表示領域312および操作表示領域313に分割されている。 FIG. 37 is a diagram showing a display example of the first main screen and the first sub screen displayed on the touch panel display 210 of the main body display unit 310 (FIG. 4) and the probe 200 when the geometric element and the measurement item are selected. is there. With reference to FIG. 37, in the first main screen sc01 and the second to fourth main screens sc02 to sc04 (FIGS. 38 to 40) described later, the display area of the main body display unit 310 is the measurement state display area. It is divided into 311, a result display area 312, and an operation display area 313.

測定状態表示領域311は、上記の測定領域仮想画像VIを表示する領域である。測定領域仮想画像VIには、可動カメラ111を用いてプローブ200が撮像されることにより算出されるプローブ200の位置および姿勢が仮想的に重畳表示される。結果表示領域312は、主として測定結果を表示する領域である。そのため、図37(a)の第1の主画面sc01では、結果表示領域312に情報は表示されていない。操作表示領域313は、使用者により操作されるべきアイコン、ボタンおよび入力欄のうち少なくとも1つを表示する領域である。 The measurement state display area 311 is an area for displaying the above-mentioned measurement area virtual image VI. The position and orientation of the probe 200 calculated by imaging the probe 200 using the movable camera 111 are virtually superimposed and displayed on the measurement area virtual image VI. The result display area 312 is mainly an area for displaying the measurement result. Therefore, in the first main screen sc01 of FIG. 37 (a), the information is not displayed in the result display area 312. The operation display area 313 is an area for displaying at least one of an icon, a button, and an input field to be operated by the user.

図37(a)では、第1の主画面sc01の全体の表示例とともに、第1の主画面sc01における操作表示領域313の拡大図が示される。第1の主画面sc01の操作表示領域313には、太い点線の枠内に示されるように、予め定められた複数の測定項目にそれぞれ対応する複数(本例では2個)の項目アイコンi01が表示される。本例の2個の項目アイコンi01は、測定項目「距離」および「角度」にそれぞれ対応する。 In FIG. 37 (a), an enlarged view of the operation display area 313 on the first main screen sc01 is shown together with an overall display example of the first main screen sc01. In the operation display area 313 of the first main screen sc01, as shown in the frame of the thick dotted line, a plurality of (two in this example) item icons i01 corresponding to a plurality of predetermined measurement items are formed. Is displayed. The two item icons i01 in this example correspond to the measurement items "distance" and "angle", respectively.

また、第1の主画面sc01の操作表示領域313には、太い一点鎖線の枠内に示されるように、予め定められた複数の幾何要素にそれぞれ対応する複数の(本例では19個)の要素アイコンi02が表示される。複数の要素アイコンi02には、幾何要素「平面」、「直線」、「円」、「点」、「円筒」、「円錐」および「球」にそれぞれ対応する7個の要素アイコンi02が含まれる。以下の説明では、これらの7個の要素アイコンi02をそれぞれ「基本要素アイコン」と呼ぶ。 Further, in the operation display area 313 of the first main screen sc01, as shown in the frame of the thick alternate long and short dash line, a plurality of (19 in this example) corresponding to a plurality of predetermined geometric elements are formed. The element icon i02 is displayed. The plurality of element icons i02 include seven element icons i02 corresponding to each of the geometric elements "plane", "straight line", "circle", "point", "cylinder", "cone" and "sphere". .. In the following description, each of these seven element icons i02 will be referred to as a "basic element icon".

さらに、複数の要素アイコンi02には、幾何要素「角丸長方形」、「楕円」、「四角形」、「段差円筒」、「トーラス」、「中点」、「交点」、「接線」、「中線」、「交線」、「交円」および「中面」にそれぞれ対応する12個の要素アイコンi02が含まれる。以下の説明では、基本要素アイコンを除く他の全ての要素アイコンi02をそれぞれ「特殊要素アイコン」と呼ぶ。 In addition, the multiple element icons i02 have geometric elements "rounded rectangle", "ellipse", "quadrangle", "step cylinder", "torus", "midpoint", "intersection", "tangent", and "middle". Includes 12 element icons i02 corresponding to "line", "intersection line", "intersection circle" and "midpoint" respectively. In the following description, all the element icons i02 except the basic element icon are referred to as "special element icons".

上記の例に示されるように、特殊要素アイコンには、例えば「交線」、「交円」および「中面」のように複数の幾何要素の位置関係から特定される幾何要素が含まれる。 As shown in the above example, the special element icon includes a geometric element identified from the positional relationship of a plurality of geometric elements such as "intersection line", "intersection circle" and "middle surface".

使用者Uは、幾何要素の選択操作として、処理装置(PC)300の本体操作部320(図4)により複数の要素アイコンi02から所望の要素アイコンi02を選択することができる。また、使用者Uは、測定項目の選択操作として、本体操作部320により複数の項目アイコンi01から所望の項目アイコンi01を選択することができる。 As a geometric element selection operation, the user U can select a desired element icon i02 from a plurality of element icons i02 by the main body operation unit 320 (FIG. 4) of the processing device (PC) 300. Further, the user U can select a desired item icon i01 from a plurality of item icons i01 by the main body operation unit 320 as a measurement item selection operation.

第1の主画面sc01の操作表示領域313には、さらに、幾何公差ボタンb01が表示されている。幾何公差ボタンb01は、幾何公差の選択操作を受け付けるように三次元座標測定装置1の状態を変更するためのボタンである。使用者Uは、本体表示部310に第1の主画面sc01が表示された状態で、幾何公差の選択操作を行いたい場合に、本体操作部320により幾何公差ボタンb01を操作することができる。 The geometric tolerance button b01 is further displayed in the operation display area 313 of the first main screen sc01. The geometrical tolerance button b01 is a button for changing the state of the three-dimensional coordinate measuring device 1 so as to accept the selection operation of the geometrical tolerance. When the user U wants to perform the geometric tolerance selection operation while the first main screen sc01 is displayed on the main body display unit 310, the user U can operate the geometric tolerance button b01 by the main body operation unit 320.

図37(b)に示すように、プローブ200のタッチパネルディスプレイ210の第1の副画面sc11には、図37(b)の太い点線の枠内に示されるように、複数の測定項目にそれぞれ対応する複数(本例では2個)の項目アイコンi11が表示される。本例の2個の項目アイコンi11は、第1の主画面sc01に表示される2個の項目アイコンi01と同様に、測定項目「距離」および「角度」にそれぞれ対応する。 As shown in FIG. 37 (b), the first sub-screen sc11 of the touch panel display 210 of the probe 200 corresponds to a plurality of measurement items, respectively, as shown in the frame of the thick dotted line in FIG. 37 (b). Multiple (two in this example) item icons i11 are displayed. The two item icons i11 in this example correspond to the measurement items "distance" and "angle", respectively, like the two item icons i01 displayed on the first main screen sc01.

また、プローブ200の第1の副画面sc11には、図37(b)の太い一点鎖線の枠内に示されるように、複数の幾何要素にそれぞれ対応する複数の(本例では7個)の要素アイコンi12が表示される。本例の7個の要素アイコンi12は、第1の主画面sc01に表示される7個の基本要素アイコンと同様に、幾何要素「平面」、「直線」、「円」、「点」、「円筒」、「円錐」および「球」にそれぞれ対応する。しかしながら、第1の副画面sc11には、第1の主画面sc01に表示される12個の特殊要素アイコンに対応する要素アイコンが表示されない。 Further, on the first sub-screen sc11 of the probe 200, as shown in the frame of the thick alternate long and short dash line in FIG. 37 (b), a plurality of (7 in this example) corresponding to a plurality of geometric elements are displayed. The element icon i12 is displayed. The seven element icons i12 in this example are geometric elements "plane", "straight line", "circle", "point", and "similar to the seven basic element icons displayed on the first main screen sc01. Corresponds to "cylinder", "cone" and "sphere" respectively. However, the element icons corresponding to the 12 special element icons displayed on the first main screen sc01 are not displayed on the first sub screen sc11.

使用者Uは、幾何要素の選択操作として、プローブ200のタッチパネルディスプレイ210(図25)により複数の要素アイコンi12から所望の要素アイコンi12を選択することができる。また、使用者Uは、測定項目の選択操作として、タッチパネルディスプレイ210により複数の項目アイコンi11から所望の項目アイコンi11を選択することができる。 As a geometric element selection operation, the user U can select a desired element icon i12 from a plurality of element icons i12 by the touch panel display 210 (FIG. 25) of the probe 200. Further, the user U can select a desired item icon i11 from a plurality of item icons i11 on the touch panel display 210 as a measurement item selection operation.

第1の副画面sc11には、さらに、幾何公差ボタンb11が表示されている。処理装置300側の第1の主画面sc01の例と同様に、使用者Uは、タッチパネルディスプレイ210に第1の副画面sc11が表示された状態で、幾何公差の選択操作を行いたい場合に、当該タッチパネルディスプレイ210上で幾何公差ボタンb11を操作することができる。 The geometric tolerance button b11 is further displayed on the first sub screen sc11. Similar to the example of the first main screen sc01 on the processing device 300 side, the user U wants to perform the geometric tolerance selection operation while the first sub screen sc11 is displayed on the touch panel display 210. The geometric tolerance button b11 can be operated on the touch panel display 210.

第1の主画面sc01および第1の副画面sc11に表示される複数の要素アイコンi02、i12のいずれかが選択されると、三次元座標測定装置1は、測定点の指示操作および測定対象部分の設定操作を受け付けるための待機状態となる。それにより、本体表示部310に表示される第1の主画面sc01が第2の主画面に切り替わるとともに、タッチパネルディスプレイ210に表示される第1の副画面sc11が第2の副画面に切り替わる。 When any of the plurality of element icons i02 and i12 displayed on the first main screen sc01 and the first sub screen sc11 is selected, the three-dimensional coordinate measuring device 1 performs the measurement point instruction operation and the measurement target portion. It becomes a standby state for accepting the setting operation of. As a result, the first main screen sc01 displayed on the main body display unit 310 is switched to the second main screen, and the first sub screen sc11 displayed on the touch panel display 210 is switched to the second sub screen.

図38は、測定点の指示操作時および測定対象部分の設定操作時に本体表示部310(図4)およびプローブ200のタッチパネルディスプレイ210(図25)に表示される第2の主画面および第2の副画面の表示例を示す図である。本例では、測定対象部分を設定するための幾何要素として「平面」が選択されているものとする。 FIG. 38 shows a second main screen and a second main screen displayed on the main body display unit 310 (FIG. 4) and the touch panel display 210 (FIG. 25) of the probe 200 when the measurement point is instructed and the measurement target portion is set. It is a figure which shows the display example of a sub screen. In this example, it is assumed that "plane" is selected as the geometric element for setting the measurement target portion.

図38(a)では、処理装置(PC)300の第2の主画面sc02の全体の表示例とともに、第2の主画面sc02における操作表示領域313の拡大図が示される。第2の主画面sc02の操作表示領域313には、設定されるべき測定対象部分の名称を入力するための名称入力欄f01が表示される。第1の主画面sc01から第2の主画面sc02への切り替わり時点で、名称入力欄f01には、予め定められた方法に従って仮に決定された測定対象部分の名称が表示される。ここで、使用者Uは、名称入力欄f01に表示される名称を維持することもできるし、本体操作部320により所望の名称に変更することもできる。本例では、名称入力欄f01に「平面1」が入力されている。 In FIG. 38 (a), an enlarged view of the operation display area 313 on the second main screen sc02 is shown together with an overall display example of the second main screen sc02 of the processing device (PC) 300. In the operation display area 313 of the second main screen sc02, a name input field f01 for inputting the name of the measurement target portion to be set is displayed. At the time of switching from the first main screen sc01 to the second main screen sc02, the name of the measurement target portion tentatively determined according to a predetermined method is displayed in the name input field f01. Here, the user U can maintain the name displayed in the name input field f01, or can change it to a desired name by the main body operation unit 320. In this example, "plane 1" is input in the name input field f01.

また、第2の主画面sc02の操作表示領域313には、撮像ボタンb09が表示される。使用者Uは、撮像ボタンb09を操作することにより、プローブ200に設けられたプローブカメラ204(図26、図28)による撮像を行うことができる。この撮像により生成される画像データは、測定結果とともに本体メモリ303(図4)に記憶される。 Further, the image pickup button b09 is displayed in the operation display area 313 of the second main screen sc02. By operating the imaging button b09, the user U can perform imaging with the probe cameras 204 (FIGS. 26 and 28) provided on the probe 200. The image data generated by this imaging is stored in the main body memory 303 (FIG. 4) together with the measurement result.

また、第2の主画面sc02の操作表示領域313には、測定点座標表示欄f02が表示される。測定点座標表示欄f02は、測定点の指示操作により取得される測定点の座標を順次表示するための表示欄である。本例では、測定対象物S上の特定の平面を測定対象部分として設定するために4つの測定点が指定されている。それにより、4つの測定点の座標が測定点座標表示欄f02に表示されている。 Further, the measurement point coordinate display field f02 is displayed in the operation display area 313 of the second main screen sc02. The measurement point coordinate display column f02 is a display column for sequentially displaying the coordinates of the measurement points acquired by the instruction operation of the measurement points. In this example, four measurement points are designated in order to set a specific plane on the measurement object S as the measurement target portion. As a result, the coordinates of the four measurement points are displayed in the measurement point coordinate display column f02.

また、第2の主画面sc02の操作表示領域313には、指示された複数の測定点の三次元座標とともに、それらの複数の測定点に基づいて得られる情報として、複数の測定点の三次元座標から算出される平面度が表示される。 Further, in the operation display area 313 of the second main screen sc02, the three-dimensional coordinates of the plurality of designated measurement points and the information obtained based on the plurality of measurement points are three-dimensional. The flatness calculated from the coordinates is displayed.

第2の主画面sc02の操作表示領域313には、さらに、戻るボタンb02、OKボタンb03およびキャンセルボタンb04が表示されている。戻るボタンb02は、測定対象部分の設定を行うことなく、幾何要素および測定項目の選択操作を受け付けるように三次元座標測定装置1の状態を戻すためのボタンである。OKボタンb03は、特定対象部分の設定を行うための全ての測定点の指定が完了したことを三次元座標測定装置1に指令するためのボタンである。OKボタンb03が操作されることにより、直前に選択された幾何要素と測定点の指示操作により取得された一又は複数の測定点とに基づいて特定対象部分の設定が行われる。キャンセルボタンb04は、直前の測定点の指示操作により取得された測定点の情報を削除するためのボタンである。 In the operation display area 313 of the second main screen sc02, a back button b02, an OK button b03, and a cancel button b04 are further displayed. The back button b02 is a button for returning the state of the three-dimensional coordinate measuring device 1 so as to accept the selection operation of the geometric element and the measurement item without setting the measurement target portion. The OK button b03 is a button for instructing the three-dimensional coordinate measuring device 1 that the designation of all the measuring points for setting the specific target portion is completed. By operating the OK button b03, the specific target portion is set based on the geometric element selected immediately before and one or a plurality of measurement points acquired by the instruction operation of the measurement points. The cancel button b04 is a button for deleting the information of the measurement point acquired by the instruction operation of the immediately preceding measurement point.

図38(b)に示すように、プローブ200のタッチパネルディスプレイ210の第2の副画面sc12には、第2の主画面sc02に表示される撮像ボタンb09、戻るボタンb02、OKボタンb03およびキャンセルボタンb04にそれぞれ対応する撮像ボタンb19、戻るボタンb12、OKボタンb13およびキャンセルボタンb14が表示される。 As shown in FIG. 38B, the second sub screen sc12 of the touch panel display 210 of the probe 200 has an image pickup button b09, a back button b02, an OK button b03, and a cancel button displayed on the second main screen sc02. The imaging button b19, the back button b12, the OK button b13, and the cancel button b14 corresponding to b04 are displayed.

なお、プローブ200の第2の副画面sc12には、測定対象部分の名称を入力するための名称入力欄f01は表示されない。そのため、プローブ200において測定対象部分の設定が行われる場合には、その設定ごとに、予め定められた方法に従って測定対象部分の名称が決定される。 The name input field f01 for inputting the name of the measurement target portion is not displayed on the second sub screen sc12 of the probe 200. Therefore, when the measurement target portion is set in the probe 200, the name of the measurement target portion is determined according to a predetermined method for each setting.

また、第2の副画面sc12には、上記の各種ボタンに加えて、特定対象部分の設定を行うために、測定点の指示操作が開始されてから現在までに指示された測定点の点数が表示される。本例では、4番目の測定点が指示されたことが示される。さらに、第2の副画面sc12には、指示された複数の測定点の座標とともに、それらの複数の測定点に基づいて得られる情報として、複数の測定点の座標から算出される平面度が表示される。 Further, on the second sub screen sc12, in addition to the various buttons described above, the number of measurement points instructed from the start of the measurement point instruction operation to the present is displayed in order to set the specific target portion. Is displayed. In this example, it is shown that the fourth measurement point has been designated. Further, on the second sub screen sc12, the coordinates of the specified plurality of measurement points and the flatness calculated from the coordinates of the plurality of measurement points are displayed as information obtained based on the plurality of measurement points. Will be done.

第2の主画面sc02および第2の副画面sc12のいずれかにより特定対象部分が設定されると、本体表示部310に表示される第2の主画面sc02が第1の主画面sc01に切り替わるとともに、プローブ200のタッチパネルディスプレイ210に表示される第2の副画面sc12が第1の副画面sc11に切り替わる。 When the specific target portion is set by either the second main screen sc02 or the second sub screen sc12, the second main screen sc02 displayed on the main body display unit 310 is switched to the first main screen sc01. , The second sub screen sc12 displayed on the touch panel display 210 of the probe 200 is switched to the first sub screen sc11.

一又は複数の特定対象部分が設定された後、図37の第1の主画面sc01および第1の副画面sc11に表示される複数の項目アイコンi01、i11のいずれかが選択されると、三次元座標測定装置1は測定対象部分の選択操作を受け付けるための待機状態となる。それにより、本体表示部310に表示される第1の主画面sc01が第3の主画面に切り替わるとともに、タッチパネルディスプレイ210に表示される第1の副画面sc11が第3の副画面に切り替わる。 After one or a plurality of specific target parts are set, when any of the plurality of item icons i01 and i11 displayed on the first main screen sc01 and the first sub screen sc11 in FIG. 37 is selected, the tertiary The original coordinate measuring device 1 is in a standby state for accepting a selection operation of a measurement target portion. As a result, the first main screen sc01 displayed on the main body display unit 310 is switched to the third main screen, and the first sub screen sc11 displayed on the touch panel display 210 is switched to the third sub screen.

図39は、測定対象部分の選択操作時に処理装置(PC)300の本体表示部310(図4)およびプローブ200のタッチパネルディスプレイ210に表示される第3の主画面および第3の副画面の表示例を示す図である。本例では、測定項目として「距離」が選択されているものとする。また、本例では、測定対象部分として予め「平面1」および「平面2」が設定されているものとする。 FIG. 39 is a table of a third main screen and a third sub screen displayed on the main body display unit 310 (FIG. 4) of the processing device (PC) 300 and the touch panel display 210 of the probe 200 during the selection operation of the measurement target portion. It is a figure which shows an example. In this example, it is assumed that "distance" is selected as the measurement item. Further, in this example, it is assumed that "plane 1" and "plane 2" are set in advance as measurement target portions.

図39(a)では、処理装置(PC)300の第3の主画面sc03の全体の表示例とともに、第3の主画面sc03における操作表示領域313の拡大図が示される。また、主測定画面sc03における結果表示領域312の一部拡大図が示される。 In FIG. 39A, an enlarged view of the operation display area 313 on the third main screen sc03 is shown together with an overall display example of the third main screen sc03 of the processing device (PC) 300. In addition, a partially enlarged view of the result display area 312 on the main measurement screen sc03 is shown.

第3の主測定画面sc03の操作表示領域313には、プルダウンメニューm01、m02、設計値入力欄f03、上限値入力欄f04および下限値入力欄f05が表示される。 In the operation display area 313 of the third main measurement screen sc03, pull-down menus m01 and m02, a design value input field f03, an upper limit value input field f04, and a lower limit value input field f05 are displayed.

プルダウンメニューm01、m02は、測定項目として選択された「距離」を得るために必要な測定対象部分を選択するために使用者により操作される。本例では、距離を算出するための2つの測定対象部分として「平面1」および「平面2」が選択されている。 The pull-down menus m01 and m02 are operated by the user to select the measurement target portion required to obtain the "distance" selected as the measurement item. In this example, "plane 1" and "plane 2" are selected as the two measurement target portions for calculating the distance.

ここで、使用者Uは、「平面1」および「平面2」間の距離について、予め定められた設計値を設計値入力欄f03に入力することができる。さらに、使用者Uは、その設計値に対する公差(以下、設計公差と呼ぶ。)の上限値および下限値を上限値入力欄f04および下限値入力欄f05にそれぞれ入力することができる。これにより、設計公差が設定される。 Here, the user U can input a predetermined design value for the distance between the "plane 1" and the "plane 2" in the design value input field f03. Further, the user U can input the upper limit value and the lower limit value of the tolerance (hereinafter, referred to as the design tolerance) with respect to the design value in the upper limit value input field f04 and the lower limit value input field f05, respectively. This sets the design tolerance.

処理装置(PC)300の第3の主画面sc03の操作表示領域313には、さらに、戻るボタンb05および保存ボタンb06が表示されている。戻るボタンb05は、幾何要素および測定項目の選択操作を受け付けるように三次元座標測定装置1の状態を戻すためのボタンである。保存ボタンb06は、測定対象部分が選択されることにより算出される測定項目の値(本例では距離)等を本体メモリ303に記憶させるためのボタンである。 A back button b05 and a save button b06 are further displayed in the operation display area 313 of the third main screen sc03 of the processing device (PC) 300. The back button b05 is a button for returning the state of the three-dimensional coordinate measuring device 1 so as to accept the selection operation of the geometric element and the measurement item. The save button b06 is a button for storing the value (distance in this example) of the measurement item calculated by selecting the measurement target portion in the main body memory 303.

上記のように処理装置(PC)300の、操作表示領域313上で測定対象部分が選択されることにより、第3の主画面sc03の結果表示領域312には、選択された測定項目および測定対象部分に基づいて算出された各種情報が測定結果として表示される。 As described above, the measurement target portion is selected on the operation display area 313 of the processing device (PC) 300, so that the selected measurement item and the measurement target are displayed in the result display area 312 of the third main screen sc03. Various information calculated based on the part is displayed as a measurement result.

図39(a)の処理装置(PC)300の第3の主画面sc03の結果表示領域312には、太い点線の枠内に示すように、プルダウンメニューm01、m02で選択された「平面1」および「平面2」間の距離に対応する測定対象物Sの測定値が表示される。また、図39(a)の太い実線の枠内に示すように、測定値が、操作表示領域313の設計値入力欄f03、上限値入力欄f04および下限値入力欄f05を用いて設定された設計公差の範囲内にあるか否かの判定結果が表示される。さらに、図39(a)の太い一点鎖線の枠内に示すように、測定された距離に関して装置座標系の3方向にそれぞれ対応する成分(長さ)が表示される。 In the result display area 312 of the third main screen sc03 of the processing device (PC) 300 of FIG. 39 (a), the “plane 1” selected by the pull-down menus m01 and m02 is shown in the frame of the thick dotted line. And the measured value of the measurement object S corresponding to the distance between the “plane 2” is displayed. Further, as shown in the thick solid line frame of FIG. 39 (a), the measured values were set using the design value input field f03, the upper limit value input field f04, and the lower limit value input field f05 of the operation display area 313. The judgment result of whether or not it is within the design tolerance is displayed. Further, as shown in the frame of the thick alternate long and short dash line in FIG. 39 (a), the components (lengths) corresponding to the three directions of the device coordinate system with respect to the measured distance are displayed.

また、結果表示領域312には、測定結果に関連する情報として、図39(a)の太い二点鎖線の枠内に示すように、選択された測定対象部分の「平面1」および「平面2」についての平面度が表示される。 Further, in the result display area 312, as information related to the measurement result, as shown in the frame of the thick alternate long and short dash line in FIG. 39 (a), the "plane 1" and the "plane 2" of the selected measurement target portion are displayed. The flatness of "" is displayed.

図39(b)に示すように、プローブ200のタッチパネルディスプレイ210の第3の副画面sc13には、第3の主画面sc03に表示されるプルダウンメニューm01、m02、戻るボタンb05および保存ボタンb06にそれぞれ対応するプルダウンメニューm11、m12、戻るボタンb15および保存ボタンb16が表示される。 As shown in FIG. 39B, the third sub screen sc13 of the touch panel display 210 of the probe 200 has pull-down menus m01, m02, a back button b05, and a save button b06 displayed on the third main screen sc03. The corresponding pull-down menus m11 and m12, back button b15 and save button b16 are displayed respectively.

プローブ200の第3の副画面sc13においては、プルダウンメニューm11、m12による測定対象部分の選択が行われることにより、選択された測定対象部分から算出される測定対象物Sの測定値が表示される。 On the third sub screen sc13 of the probe 200, the measurement value of the measurement target S calculated from the selected measurement target portion is displayed by selecting the measurement target portion by the pull-down menus m11 and m12. ..

処理装置(PC)300の第3の主画面sc03および第3の副画面sc13のいずれかにより測定対象物Sの測定値が本体メモリ303(図4)に記憶されると、本体表示部310に表示される第3の主画面sc03が第1の主画面sc01に切り替わるとともに、タッチパネルディスプレイ210に表示される第3の主画面sc03が第1の副画面sc11に切り替わる。 When the measured value of the measurement object S is stored in the main body memory 303 (FIG. 4) by either the third main screen sc03 or the third sub screen sc13 of the processing device (PC) 300, the main body display unit 310. The displayed third main screen sc03 is switched to the first main screen sc01, and the third main screen sc03 displayed on the touch panel display 210 is switched to the first sub screen sc11.

図37の第1の主画面sc01および第1の副画面sc11に表示される幾何公差ボタンb01、b11のいずれかが操作されると、三次元座標測定装置1は、幾何公差の選択操作を受け付けるための待機状態となる。それにより、本体表示部310に表示される第1の主画面sc01が第4の主画面に切り替わるとともに、タッチパネルディスプレイ210に表示される第1の副画面sc11が第4の副画面に切り替わる。 When any of the geometrical tolerance buttons b01 and b11 displayed on the first main screen sc01 and the first subscreen sc11 of FIG. 37 is operated, the three-dimensional coordinate measuring device 1 accepts the geometric tolerance selection operation. It becomes a standby state for. As a result, the first main screen sc01 displayed on the main body display unit 310 is switched to the fourth main screen, and the first sub screen sc11 displayed on the touch panel display 210 is switched to the fourth sub screen.

図40は、幾何公差の選択操作時に本体表示部310(図4)およびタッチパネルディスプレイ210(図25、図28)に表示される第4の主画面および第4の副画面の表示例を示す図である。 FIG. 40 is a diagram showing a display example of the fourth main screen and the fourth sub screen displayed on the main body display unit 310 (FIG. 4) and the touch panel display 210 (FIGS. 25 and 28) during the geometric tolerance selection operation. Is.

図40(a)では、処理装置(PC)300の第4の主画面sc04の全体の表示例とともに、第4の主画面sc04における操作表示領域313の拡大図が示される。図40(a)に示すように、幾何公差の選択操作時には、第4の主画面sc04の操作表示領域313に、複数の幾何公差にそれぞれ対応する複数(本例では11個)の幾何公差アイコンi03が表示される。本例の11個の幾何公差アイコンi03は、幾何公差「平面度」、「真円度」、「真直度」、「円筒度」、「平行度」、「垂直度」、「傾斜度」、「位置度」、「同心度」、「同軸度」および「対称度」にそれぞれ対応する。使用者Uは、本体操作部320(図4)を操作することにより、複数の幾何公差アイコンi03から所望の幾何公差アイコンi03を選択することができる。 In FIG. 40A, an enlarged view of the operation display area 313 on the fourth main screen sc04 is shown together with an overall display example of the fourth main screen sc04 of the processing device (PC) 300. As shown in FIG. 40 (a), at the time of the geometric tolerance selection operation, a plurality of (11 in this example) geometric tolerance icons corresponding to the plurality of geometric tolerances are displayed in the operation display area 313 of the fourth main screen sc04. i03 is displayed. The 11 geometric tolerance icons i03 in this example have geometric tolerances of "flatness", "roundness", "straightness", "cylindricalness", "parallelism", "verticality", "inclination", Corresponds to "position", "concentricity", "coaxiality" and "symmetry" respectively. The user U can select a desired geometrical tolerance icon i03 from a plurality of geometrical tolerance icons i03 by operating the main body operation unit 320 (FIG. 4).

第4の主画面sc04の操作表示領域313には、さらに、戻るボタンb07が表示されている。戻るボタンb07は、幾何要素および測定項目の選択操作を受け付けるように三次元座標測定装置1の状態を戻すためのボタンである。 The back button b07 is further displayed in the operation display area 313 of the fourth main screen sc04. The back button b07 is a button for returning the state of the three-dimensional coordinate measuring device 1 so as to accept the selection operation of the geometric element and the measurement item.

図40(b)に示すように、プローブ200のタッチパネルディスプレイ210の第4の副画面sc14には、複数の幾何公差にそれぞれ対応する複数(本例では4個)の幾何公差アイコンi13が表示されるとともに、戻るボタンb17が表示される。本例の4個の幾何公差アイコンi13は、第4の主画面sc04に表示される11個の幾何公差アイコンi03のうち4個の幾何公差アイコンi03にそれぞれ対応する。また、本例の戻るボタンb17は、第4の主画面sc04に表示される戻るボタンb07に対応する。 As shown in FIG. 40B, a plurality of (4 in this example) geometrical tolerance icons i13 corresponding to a plurality of geometrical tolerances are displayed on the fourth sub-screen sc14 of the touch panel display 210 of the probe 200. And the back button b17 is displayed. The four geometrical tolerance icons i13 in this example correspond to four geometrical tolerance icons i03 out of the 11 geometrical tolerance icons i03 displayed on the fourth main screen sc04. Further, the back button b17 in this example corresponds to the back button b07 displayed on the fourth main screen sc04.

使用者Uは、プローブ200のタッチパネルディスプレイ210(図25、図28)を操作することにより、複数の幾何公差アイコンi13から所望の幾何公差アイコンi13を選択することができる。 The user U can select a desired geometrical tolerance icon i13 from a plurality of geometrical tolerance icons i13 by operating the touch panel display 210 (FIGS. 25 and 28) of the probe 200.

使用者Uは、幾何公差を選択すると、選択した幾何公差に対応する幾何要素の測定対象部分を設定する必要がある。したがって、第4の主画面sc04および第4の副画面sc14に表示される複数の幾何公差アイコンi03、i13のいずれかが選択されると、三次元座標測定装置1は測定対象部分の選択操作を受け付けるための待機状態となる。 When the user U selects the geometrical tolerance, the user U needs to set the measurement target portion of the geometric element corresponding to the selected geometrical tolerance. Therefore, when any of the plurality of geometrical tolerance icons i03 and i13 displayed on the fourth main screen sc04 and the fourth subscreen sc14 is selected, the three-dimensional coordinate measuring device 1 performs the selection operation of the measurement target portion. It will be in a standby state for acceptance.

それにより、処理装置(PC)300の本体表示部310に表示される画面が第1の主画面sc01から第2の主画面sc02に切り替わるとともに、プローブ200のタッチパネルディスプレイ210に表示される画面が第1の副画面sc11から第2の副画面sc12に切り替わる。この場合、選択された幾何公差に対応する測定対象部分が設定されることにより、設定された測定対象部分についての幾何公差が算出される。算出された幾何公差が、第2の主画面sc02および第2の副画面sc12にそれぞれ表示される。 As a result, the screen displayed on the main body display unit 310 of the processing device (PC) 300 is switched from the first main screen sc01 to the second main screen sc02, and the screen displayed on the touch panel display 210 of the probe 200 is the second. The first sub-screen sc11 is switched to the second sub-screen sc12. In this case, the geometrical tolerance for the set measurement target portion is calculated by setting the measurement target portion corresponding to the selected geometric tolerance. The calculated geometrical tolerances are displayed on the second main screen sc02 and the second sub screen sc12, respectively.

例えば、幾何公差として「平面度」が選択されると、測定対象物Sにおける平面部分が測定対象部分として設定されることにより、設定された測定対象部分についての平面度が算出される。 For example, when "flatness" is selected as the geometrical tolerance, the flatness of the set measurement target portion is calculated by setting the flat portion in the measurement object S as the measurement target portion.

上記のように、処理装置(PC)300の第1の主画面sc01によれば、使用者Uは、三次元座標測定装置1において予め定められた全ての測定項目および幾何要素から所望の測定項目および幾何要素を選択することが可能である。一方、第1の副画面sc11によれば、使用者Uは、処理装置(PC)300および本体表示部310から離間した位置で予め定められた複数の測定項目および幾何要素のうち一部の測定項目および幾何要素から所望の測定項目および幾何要素を選択することが可能である。 As described above, according to the first main screen sc01 of the processing device (PC) 300, the user U has a desired measurement item from all the measurement items and geometric elements predetermined in the three-dimensional coordinate measurement device 1. And it is possible to select geometric elements. On the other hand, according to the first sub-screen sc11, the user U measures a part of a plurality of predetermined measurement items and geometric elements at positions separated from the processing device (PC) 300 and the main body display unit 310. It is possible to select the desired measurement item and geometric element from the items and geometric elements.

また、第2の主画面sc02によれば、使用者Uは、自己が指定する測定点について詳細な情報を確認しつつ測定点の指示操作を行うことができる。一方、第2の副画面sc12によれば、使用者Uは、処理装置300および本体表示部310から離間した位置でプローブ200を用いた測定点の指示操作を行うことができる。ここで、第2の副画面sc12には、使用者Uにより指示される一又は複数の測定点について算出可能な物理量が代表情報として表示されることが好ましい。上記の例では、複数の測定点により算出される平面度が代表情報として表示される。この場合、使用者Uは、第2の副画面sc12に表示される代表情報に基づいて、測定点の指示操作に大きな誤りがないか否かを容易に確認することができる。 Further, according to the second main screen sc02, the user U can perform a measurement point instruction operation while confirming detailed information about the measurement point designated by himself / herself. On the other hand, according to the second sub-screen sc12, the user U can perform a measurement point instruction operation using the probe 200 at a position separated from the processing device 300 and the main body display unit 310. Here, it is preferable that the second sub-screen sc12 displays the physical quantity that can be calculated for one or a plurality of measurement points instructed by the user U as representative information. In the above example, the flatness calculated by a plurality of measurement points is displayed as representative information. In this case, the user U can easily confirm whether or not there is a large error in the instruction operation of the measurement point based on the representative information displayed on the second sub screen sc12.

また、第3の主画面sc03によれば、使用者Uは、測定対象物Sの測定に関して、測定結果とともに当該測定により算出される多数の情報を把握することができる。一方、第3の副画面sc13によれば、使用者Uは、処理装置300(PC)から離間した位置で測定結果を把握することができる。したがって、使用者Uは、測定対象物Sの測定に関して優先的に把握したい情報に応じて測定中に視認すべき表示部(本体表示部310およびタッチパネルディスプレイ210)を使い分けることができる。 Further, according to the third main screen sc03, the user U can grasp a large amount of information calculated by the measurement together with the measurement result regarding the measurement of the measurement object S. On the other hand, according to the third sub-screen sc13, the user U can grasp the measurement result at a position away from the processing device 300 (PC). Therefore, the user U can properly use the display units (main unit display unit 310 and touch panel display 210) to be visually recognized during the measurement according to the information to be preferentially grasped regarding the measurement of the measurement object S.

また、第4の主画面sc04によれば、使用者Uは、三次元座標測定装置1において予め定められた全ての幾何公差から所望の幾何公差を選択することが可能である。一方、第4の副画面sc14によれば、使用者Uは、処理装置300および本体表示部310から離間した位置で予め定められた複数の幾何公差のうち一部の幾何公差から所望の幾何公差を選択することが可能である。 Further, according to the fourth main screen sc04, the user U can select a desired geometrical tolerance from all the geometrical tolerances predetermined in the three-dimensional coordinate measuring device 1. On the other hand, according to the fourth sub-screen sc14, the user U has a desired geometrical tolerance from a part of a plurality of predetermined geometrical tolerances at positions separated from the processing device 300 and the main body display unit 310. It is possible to select.

これらの点を考慮して、使用者Uは、例えば処理装置300から大きく離間した位置に設けられた測定対象物Sの各部の寸法を測定する際に、以下に示すように三次元座標測定装置1を使用することができる。 In consideration of these points, the user U uses, for example, a three-dimensional coordinate measuring device as shown below when measuring the dimensions of each part of the measurement object S provided at a position greatly separated from the processing device 300. 1 can be used.

例えば、使用者Uは、測定対象物Sの近傍位置で、プローブ200のタッチパネルディスプレイ210に表示される第1の副画面sc11上の所望の要素アイコンi02を操作する。また、使用者Uは、第2の副画面sc12を視認しつつ一又は複数の測定点の指示を行う。それにより、測定対象物Sの各部の寸法測定に有用と考えられる複数の測定対象部分を設定する。 For example, the user U operates the desired element icon i02 on the first sub screen sc11 displayed on the touch panel display 210 of the probe 200 at a position near the measurement object S. Further, the user U gives an instruction of one or a plurality of measurement points while visually recognizing the second sub screen sc12. Thereby, a plurality of measurement target parts considered to be useful for measuring the dimensions of each part of the measurement target S are set.

その後、使用者Uは、測定対象物Sの近傍位置から処理装置(PC)300の設置位置まで移動する。その上で、使用者Uは、本体表示部310に表示される第1の主画面sc01上の所望の項目アイコンi01を操作する。また、使用者Uは、第2の主画面sc02を視認しつつ測定対象部分の選択操作および設計公差の設定を行う。それにより、使用者Uは、プローブ200を手放した状態で、設定済みの複数の測定対象部分に基づいて、測定対象物Sの各部の寸法を順次測定することができる。 After that, the user U moves from the position near the measurement object S to the installation position of the processing device (PC) 300. Then, the user U operates the desired item icon i01 on the first main screen sc01 displayed on the main body display unit 310. Further, the user U performs the selection operation of the measurement target portion and the setting of the design tolerance while visually recognizing the second main screen sc02. As a result, the user U can sequentially measure the dimensions of each part of the measurement object S based on the plurality of set measurement target parts in the state where the probe 200 is released.

上記の使用方法によれば、使用者Uは、幾何要素の選択時に所望の幾何要素に対応する要素アイコンi12がプローブ200のタッチパネルディスプレイ210に表示されない場合にのみ、測定対象物Sと処理装置300との間の移動を行うことになる。したがって、使用者Uは、特殊要素アイコンに対応する比較的複雑な寸法測定を行う場合にのみ、本体表示部310に表示される第1の主画面sc01および第2の主画面sc02を視認しつつ本体操作部320を操作すればよい。 According to the above usage, the user U can use the measurement object S and the processing device 300 only when the element icon i12 corresponding to the desired geometric element is not displayed on the touch panel display 210 of the probe 200 when the geometric element is selected. Will move to and from. Therefore, the user U visually recognizes the first main screen sc01 and the second main screen sc02 displayed on the main body display unit 310 only when performing a relatively complicated dimensional measurement corresponding to the special element icon. The main body operation unit 320 may be operated.

次に、測定対象部分設定処理および測定値算出処理を説明する。図41は、処理装置(PC)300の本体制御回路302(図4)による測定対象部分設定処理の流れを示すフローチャートである。測定対象部分設定処理は、本体制御回路302(図4)のCPUが本体メモリ303に記憶された測定対象部分設定プログラムを実行することにより所定周期で繰り返して行われる。また、測定対象部分設定処理の開始時には、本体制御回路302に内蔵されたタイマがリセットされるとともにスタートされる。 Next, the measurement target partial setting process and the measured value calculation process will be described. FIG. 41 is a flowchart showing the flow of the measurement target portion setting process by the main body control circuit 302 (FIG. 4) of the processing device (PC) 300. The measurement target partial setting process is repeated at a predetermined cycle by the CPU of the main body control circuit 302 (FIG. 4) executing the measurement target partial setting program stored in the main body memory 303. Further, at the start of the measurement target portion setting process, the timer built in the main body control circuit 302 is reset and started.

まず、処理装置(PC)300の本体制御回路302は、使用者Uによる本体操作部(マウスなど)320(図4)またはプローブ200のタッチパネルディスプレイ210(図25、図28)の操作の有無に基づいて、幾何要素の選択が行われたか否かを判定する(ステップS11)。 First, the main body control circuit 302 of the processing device (PC) 300 determines whether or not the user U operates the main body operation unit (mouse or the like) 320 (FIG. 4) or the touch panel display 210 (FIG. 25, 28) of the probe 200. Based on this, it is determined whether or not the geometric element has been selected (step S11).

幾何要素の選択が行われた場合、本体制御回路302は、測定点座標算出処理を行う(ステップS12)。測定点座標算出処理の詳細は後述する。この処理により、本体制御回路302は、使用者によるプローブ200の操作に基づいて、選択された幾何要素を特定するための測定点の座標を算出する。 When the geometric element is selected, the main body control circuit 302 performs the measurement point coordinate calculation process (step S12). The details of the measurement point coordinate calculation process will be described later. By this process, the main body control circuit 302 calculates the coordinates of the measurement point for identifying the selected geometric element based on the operation of the probe 200 by the user.

また、本体制御回路302は、ステップS12の測定点座標算出処理により算出される測定点の座標を本体メモリ303に記憶させる(ステップS13)。 Further, the main body control circuit 302 stores the coordinates of the measurement point calculated by the measurement point coordinate calculation process in step S12 in the main body memory 303 (step S13).

次に、本体制御回路302は、測定対象部分の設定を完了すべき指令を受けたか否かを判定する(ステップS14)。この判定は、例えば使用者Uによる本体操作部320またはタッチパネルディスプレイ210の操作の有無に基づいて行われる。上記の例では、図38のOKボタンb03、b13のいずれかが操作された場合に、測定対象部分の設定を完了すべき指令を受けたことが判定される。 Next, the main body control circuit 302 determines whether or not it has received a command to complete the setting of the measurement target portion (step S14). This determination is made based on, for example, whether or not the user U operates the main body operation unit 320 or the touch panel display 210. In the above example, when any of the OK buttons b03 and b13 in FIG. 38 is operated, it is determined that a command to complete the setting of the measurement target portion has been received.

測定対象部分の設定を完了すべき指令を受けない場合、本体制御回路302は、上記のステップS12の処理に戻る。一方、測定対象部分の設定を完了すべき指令を受けると、本体制御回路302は、選択された幾何要素および一又は複数の測定点の座標から測定対象部分を特定し、当該測定対象部分の要素特定情報を生成する(ステップS15)。生成された要素特定情報は本体メモリ303に記憶される。その後、測定対象部分設定処理が終了する。 When not receiving the command to complete the setting of the measurement target portion, the main body control circuit 302 returns to the process of step S12 described above. On the other hand, when receiving a command to complete the setting of the measurement target portion, the main body control circuit 302 identifies the measurement target portion from the selected geometric element and the coordinates of one or more measurement points, and the element of the measurement target portion. Generate specific information (step S15). The generated element identification information is stored in the main body memory 303. After that, the measurement target partial setting process ends.

上記のステップS11において幾何要素の選択が行われない場合、本体制御回路302は、内蔵のタイマによる計測時間に基づいて、当該測定対象部分設定処理が開始された後予め定められた時間が経過したか否かを判定する(ステップS16)。 When the geometric element is not selected in step S11 above, the main body control circuit 302 has elapsed a predetermined time after the measurement target partial setting process is started based on the measurement time by the built-in timer. Whether or not it is determined (step S16).

予め定められた時間が経過していない場合、本体制御回路302は、ステップS11の処理に戻る。一方、予め定められた時間が経過した場合、本体制御回路302は、ステップS12の処理と同様に、後述する測定点座標算出処理を行う(ステップS17)。その後、本体制御回路302は、測定対象部分設定処理を終了する。 If the predetermined time has not elapsed, the main body control circuit 302 returns to the process of step S11. On the other hand, when a predetermined time has elapsed, the main body control circuit 302 performs the measurement point coordinate calculation process described later in the same manner as the process in step S12 (step S17). After that, the main body control circuit 302 ends the measurement target portion setting process.

なお、ステップS17の処理は、例えば後述する追跡処理においてプローブ200が可動カメラ11一又は俯瞰カメラ120の撮像視野内にあるか否かを判定するために行われる。 The process of step S17 is performed to determine whether or not the probe 200 is within the imaging field of view of the movable camera 11 or the bird's-eye view camera 120, for example, in the tracking process described later.

図42は、測定点座標算出処理の流れを示すフローチャートである。まず、本体制御回路302(図4)は、プローブ200のプローブ制御部220に対して複数のプローブマーカeq(p)(図26)の発光を指令するとともに、測定装置本体100のヘッド制御回路193(図4)に対して参照部材162の複数の参照マーカep(ref)(図5(b))の発光を指令する(ステップS101)。 FIG. 42 is a flowchart showing the flow of the measurement point coordinate calculation process. First, the main body control circuit 302 (FIG. 4) commands the probe control unit 220 of the probe 200 to emit light of a plurality of probe markers eq (p) (FIG. 26), and the head control circuit 193 of the measuring device main body 100. (FIG. 4) is instructed to emit light of a plurality of reference markers ep (ref) (FIG. 5 (b)) of the reference member 162 (step S101).

次に、本体制御回路302は、ヘッド制御回路193により基準カメラ161を用いて参照部材162の複数の参照マーカep(ref)を撮像させることにより基準画像データを生成する(ステップS102)。また、本体制御回路302は、生成された基準画像データに基づいて、可動カメラ111の位置および姿勢を装置座標系により示す第1の位置姿勢情報を生成する(ステップS103)。 Next, the main body control circuit 302 generates reference image data by having the head control circuit 193 image a plurality of reference markers ep (ref) of the reference member 162 using the reference camera 161 (step S102). Further, the main body control circuit 302 generates first position / orientation information indicating the position and orientation of the movable camera 111 by the device coordinate system based on the generated reference image data (step S103).

次に、本体制御回路302は、可動カメラ111を用いてプローブ200の複数のプローブマーカeq(p)を撮像することにより測定画像データを生成する(ステップS104)。また、本体制御回路302は、生成された測定画像データに基づいて、プローブ200の位置および姿勢を可動座標系により示す第2の位置姿勢情報を生成する(ステップS105)。 Next, the main body control circuit 302 generates measurement image data by imaging a plurality of probe markers eq (p) of the probe 200 using the movable camera 111 (step S104). Further, the main body control circuit 302 generates a second position / orientation information indicating the position and orientation of the probe 200 by the movable coordinate system based on the generated measurement image data (step S105).

その後、本体制御回路302(図4)は、第1および第2の位置姿勢情報に基づいて、プローブ200の位置および姿勢を装置座標系で表す第3の位置姿勢情報を生成する(ステップS106)。また、本体制御回路302は、生成された第3の位置姿勢情報に基づいてプローブ200により指示された測定点の座標を算出する。 After that, the main body control circuit 302 (FIG. 4) generates a third position / orientation information representing the position and orientation of the probe 200 in the device coordinate system based on the first and second position / attitude information (step S106). .. Further, the main body control circuit 302 calculates the coordinates of the measurement point instructed by the probe 200 based on the generated third position / orientation information.

なお、上記のステップS102、S103の処理とステップS104、S105の処理とは、逆の順に行われてもよい。 The processing of steps S102 and S103 and the processing of steps S104 and S105 may be performed in the reverse order.

図43は、本体制御回路302による測定値算出処理の流れを示すフローチャートである。測定値算出処理は、図4を参照して、本体制御回路302のCPUが本体メモリ303に記憶された測定値算出プログラムを実行することにより所定周期で繰り返して行われる。 FIG. 43 is a flowchart showing the flow of the measured value calculation process by the main body control circuit 302. The measurement value calculation process is repeated at a predetermined cycle by the CPU of the main body control circuit 302 executing the measurement value calculation program stored in the main body memory 303 with reference to FIG.

まず、本体制御回路302は、使用者Uによる本体操作部(マウスなど)320(図4)またはプローブ200のタッチパネルディスプレイ210の操作の有無に基づいて、測定項目の選択が行われたか否かを判定する(ステップS21)。 First, the main body control circuit 302 determines whether or not the measurement item is selected based on whether or not the user U operates the main body operation unit (mouse or the like) 320 (FIG. 4) or the touch panel display 210 of the probe 200. Determine (step S21).

測定項目の選択が行われない場合、本体制御回路302は、ステップS21の処理を繰り返す。一方、測定項目の選択が行われた場合、本体制御回路302は、現時点で設定済みの測定対象部分が本体メモリ303に記憶されているか否かを判定する(ステップS22)。 If the measurement item is not selected, the main body control circuit 302 repeats the process of step S21. On the other hand, when the measurement item is selected, the main body control circuit 302 determines whether or not the measurement target portion set at the present time is stored in the main body memory 303 (step S22).

本体制御回路302(図4)は、設定済みの測定対象部分が本体メモリ303に存在しない場合に、ステップS21の処理に戻る。一方、本体制御回路302は、設定済みの測定対象部分が本体メモリ303に存在する場合に、使用者Uにより設定済みのいずれかの測定対象部分が選択されたか否かを判定する(ステップS23)。 The main body control circuit 302 (FIG. 4) returns to the process of step S21 when the set measurement target portion does not exist in the main body memory 303. On the other hand, the main body control circuit 302 determines whether or not any of the set measurement target parts has been selected by the user U when the set measurement target part exists in the main body memory 303 (step S23). ..

本体制御回路302は、測定対象部分が選択されない場合、ステップS23の処理を繰り返す。一方、本体制御回路302は、測定対象部分が選択された場合、選択された測定項目と選択された測定対象部分の要素特定情報とに基づいて測定値の算出を行い(ステップS24)、測定値算出処理を終了する。 The main body control circuit 302 repeats the process of step S23 when the measurement target portion is not selected. On the other hand, when the measurement target portion is selected, the main body control circuit 302 calculates the measured value based on the selected measurement item and the element identification information of the selected measurement target portion (step S24), and the measured value. End the calculation process.

上記の測定対象部分設定処理および測定値算出処理によれば、使用者Uは、予め定められた複数の幾何要素および予め定められた複数の測定項目から所望の幾何要素および測定項目を選択することにより、測定対象物Sにおける所望の部分の寸法等を容易に測定することができる。 According to the above-mentioned measurement target partial setting process and measurement value calculation process, the user U selects a desired geometric element and measurement item from a plurality of predetermined geometric elements and a plurality of predetermined measurement items. Therefore, the dimensions and the like of a desired portion of the object to be measured S can be easily measured.

次にプローブ200の追跡処理を説明する。図44は、処理装置(PC)300の本体制御回路302(図4)による追跡処理の流れを示すフローチャートである。追跡処理は、本体制御回路302(図4)のCPUが本体メモリ303に記憶された追跡処理プログラムを実行することにより所定周期で繰り返して行われる。 Next, the tracking process of the probe 200 will be described. FIG. 44 is a flowchart showing the flow of tracking processing by the main body control circuit 302 (FIG. 4) of the processing device (PC) 300. The tracking process is repeated at a predetermined cycle by the CPU of the main body control circuit 302 (FIG. 4) executing the tracking processing program stored in the main body memory 303.

まず、処理装置(PC)300の本体制御回路302は、プローブ200が可動カメラ111の撮像視野内にあるか否かを判定する(ステップS31)。この判定は、測定対象部分設定処理におけるステップS12、S17の処理中に生成される測定画像データに、複数のプローブマーカeq(p)(図26)に対応する画像データが含まれているか否かを判定することにより行われる。 First, the main body control circuit 302 of the processing device (PC) 300 determines whether or not the probe 200 is within the imaging field of view of the movable camera 111 (step S31). In this determination, whether or not the measurement image data generated during the processing of steps S12 and S17 in the measurement target partial setting process includes the image data corresponding to the plurality of probe markers eq (p) (FIG. 26). Is performed by determining.

プローブ200が可動カメラ111の撮像視野内にある場合、本体制御回路302は、後述するステップS38の処理に進む。一方、プローブ200が可動カメラ111の撮像視野内にない場合、本体制御回路302は、プローブ200が俯瞰カメラ120の撮像視野内にあるか否かを判定する(ステップS32)。この判定は、上記の測定対象部分設定処理におけるステップS12、S17の処理中に生成される俯瞰画像データに、複数のプローブマーカeq(p)に対応する画像データが含まれているか否かを判定することにより行われる。 When the probe 200 is within the imaging field of view of the movable camera 111, the main body control circuit 302 proceeds to the process of step S38 described later. On the other hand, when the probe 200 is not in the imaging field of view of the movable camera 111, the main body control circuit 302 determines whether or not the probe 200 is in the imaging field of view of the bird's-eye view camera 120 (step S32). This determination determines whether or not the bird's-eye view image data generated during the processes of steps S12 and S17 in the above-mentioned measurement target partial setting process includes image data corresponding to a plurality of probe markers eq (p). It is done by doing.

プローブ200が俯瞰カメラ120の撮像視野内にある場合、本体制御回路302(図4)は、後述するステップS37の処理に進む。一方、プローブ200が可動カメラ111の撮像視野内にない場合、本体制御回路302は、プローブ200から転送される動きデータに基づいてプローブ200の座標推定を行うことが可能か否かを判定する(ステップS33)。この判定は、例えば動きデータが異常な値を示しているか否かまたは動きデータの示す値が「0」であるか否か等に基づいて行われる。動きデータが異常な値を示す場合、または動きデータが「0」である場合、プローブ200の座標推定は不可能である。 When the probe 200 is within the imaging field of view of the bird's-eye view camera 120, the main body control circuit 302 (FIG. 4) proceeds to the process of step S37 described later. On the other hand, when the probe 200 is not within the imaging field of view of the movable camera 111, the main body control circuit 302 determines whether or not it is possible to estimate the coordinates of the probe 200 based on the motion data transferred from the probe 200 ( Step S33). This determination is made based on, for example, whether or not the motion data indicates an abnormal value, or whether or not the value indicated by the motion data is "0". If the motion data shows an abnormal value, or if the motion data is "0", the coordinate estimation of the probe 200 is impossible.

プローブ200の座標推定が可能である場合、本体制御回路302は、動きデータに基づいてプローブ200の位置を推定する。また、本体制御回路302は、プローブ200が可動カメラ111の撮像視野内に位置するように、可動カメラ111の位置および姿勢の調整を指令する(ステップS34)。その後、本体制御回路302は、ステップS31の処理に戻る。 When the coordinates of the probe 200 can be estimated, the main body control circuit 302 estimates the position of the probe 200 based on the motion data. Further, the main body control circuit 302 commands adjustment of the position and orientation of the movable camera 111 so that the probe 200 is located within the imaging field of view of the movable camera 111 (step S34). After that, the main body control circuit 302 returns to the process of step S31.

ここで、使用者Uは、処理装置(PC)300の本体操作部(マウスなど)320(図4)またはプローブ200のタッチパネルディスプレイ210(図25、図28)を操作することにより、本体制御回路302にプローブ200の探索を指令することができる。 Here, the user U operates the main body operation unit (mouse or the like) 320 (FIG. 4) of the processing device (PC) 300 or the touch panel display 210 (FIG. 25, 28) of the probe 200 to control the main body control circuit. The 302 can be instructed to search for the probe 200.

そこで、ステップS33において、プローブ200の座標推定が不可能である場合、本体制御回路302(図4)は、プローブ200の探索指令を受けたか否かを判定する(ステップS35)。プローブ200の探索指令を受けない場合、本体制御回路302は、ステップS31の処理に戻る。一方、プローブ200の探索指令を受けた場合、本体制御回路302は、測定装置本体100の第1サブ部材としての回転支持部材102を回転するように、ヘッド制御回路193に指令する。このようにして、本体制御回路302は、俯瞰カメラ120によるプローブ200の探索を行う(ステップS36)。 Therefore, when the coordinates of the probe 200 cannot be estimated in step S33, the main body control circuit 302 (FIG. 4) determines whether or not the search command for the probe 200 has been received (step S35). If the search command of the probe 200 is not received, the main body control circuit 302 returns to the process of step S31. On the other hand, when the search command of the probe 200 is received, the main body control circuit 302 commands the head control circuit 193 to rotate the rotation support member 102 as the first sub-member of the measuring device main body 100. In this way, the main body control circuit 302 searches for the probe 200 by the bird's-eye view camera 120 (step S36).

その後、処理装置(PC)300の本体制御回路302は、プローブ200が俯瞰カメラ120の撮像視野内に位置することになると、俯瞰画像データに基づいてプローブ200の位置を算出する。また、本体制御回路302は、プローブ200が可動カメラ111の撮像視野内に位置するように可動カメラ111の位置および姿勢の調整をヘッド制御回路193に指令する(ステップS37)。 After that, when the probe 200 is located in the imaging field of view of the bird's-eye view camera 120, the main body control circuit 302 of the processing device (PC) 300 calculates the position of the probe 200 based on the bird's-eye view image data. Further, the main body control circuit 302 instructs the head control circuit 193 to adjust the position and orientation of the movable camera 111 so that the probe 200 is located in the imaging field of view of the movable camera 111 (step S37).

次に、本体制御回路302は、プローブ200が可動カメラ111の撮像視野内に位置することになると、プローブ200の複数のマーカeqの重心が可動カメラ111の撮像視野の中心に位置するように可動カメラ111の位置および姿勢の調整をヘッド制御回路193に指令する(ステップS38)。その後、本体制御回路302は、追跡処理を終了する。 Next, when the probe 200 is located within the imaging field of view of the movable camera 111, the main body control circuit 302 is movable so that the centers of gravity of the plurality of markers eq of the probe 200 are located at the center of the imaging field of view of the movable camera 111. The head control circuit 193 is instructed to adjust the position and orientation of the camera 111 (step S38). After that, the main body control circuit 302 ends the tracking process.

上記の追跡処理によれば、プローブ200が移動する場合でも、可動カメラ111の撮像視野がプローブ200の複数のマーカeqに追従する。それにより、使用者Uは、可動カメラ111の撮像視野を手動で調整する必要がない。したがって、煩雑な調整作業を要することなく広い範囲で測定対象物Sの所望の測定点の座標を測定することが可能になる。 According to the above tracking process, even when the probe 200 moves, the imaging field of view of the movable camera 111 follows the plurality of markers eq of the probe 200. As a result, the user U does not need to manually adjust the imaging field of view of the movable camera 111. Therefore, it is possible to measure the coordinates of a desired measurement point of the measurement object S in a wide range without requiring complicated adjustment work.

次にプローブカメラ204(図26、図28)の使用例を説明する。接触子201が位置するプローブ200の先端面に設けられたプローブカメラ204は、これによって測定対象物Sを撮像することにより、測定対象物Sの画像を本体表示部310(図4)に表示させることができる。以下、プローブカメラ204により得られる画像を撮像画像と呼ぶ。 Next, a usage example of the probe camera 204 (FIGS. 26 and 28) will be described. The probe camera 204 provided on the tip surface of the probe 200 on which the contact 201 is located displays the image of the measurement object S on the main body display unit 310 (FIG. 4) by imaging the measurement object S. be able to. Hereinafter, the image obtained by the probe camera 204 is referred to as an captured image.

プローブ200の複数のプローブマーカeq(p)とプローブ200のプローブカメラ204との位置関係、およびプローブカメラ204の特性(画角およびディストーション等)は、例えば本体メモリ303(図4)に撮像情報として予め記憶される。そのため、複数のプローブマーカeq(p)が可動カメラ111の撮像視野内にある場合、プローブカメラ204により撮像される領域が本体制御回路302(図4)により認識される。すなわち、撮像画像に対応する3次元空間が本体制御回路302により認識される。この場合、本体表示部310に撮像画像を表示させつつ、測定対象物Sの測定時に設定された幾何要素および測定項目を重畳表示させることができる。 The positional relationship between the plurality of probe markers eq (p) of the probe 200 and the probe camera 204 of the probe 200, and the characteristics (angle of view, distortion, etc.) of the probe camera 204 are, for example, as imaging information in the main memory 303 (FIG. 4). It is stored in advance. Therefore, when a plurality of probe markers eq (p) are within the imaging field of view of the movable camera 111, the region imaged by the probe camera 204 is recognized by the main body control circuit 302 (FIG. 4). That is, the three-dimensional space corresponding to the captured image is recognized by the main body control circuit 302. In this case, while displaying the captured image on the main body display unit 310, the geometric elements and the measurement items set at the time of measurement of the measurement object S can be superimposed and displayed.

なお、撮像画像は、プローブ200のタッチパネルディスプレイ210に表示されてもよい。例えば、ある測定対象物Sについて、測定すべき部分をプローブカメラ204で予め撮像することにより得られた撮像画像をタッチパネルディスプレイ210に表示させる。この場合、使用者Uは、当該撮像画像を視認しつつプローブ200を操作することにより、他の測定対象物Sについてもその測定すべき部分を容易に識別することが可能になる。 The captured image may be displayed on the touch panel display 210 of the probe 200. For example, the touch panel display 210 displays an captured image obtained by preliminarily capturing a portion to be measured with a probe camera 204 of a certain measurement object S. In this case, the user U can easily identify the portion to be measured of the other measurement object S by operating the probe 200 while visually recognizing the captured image.

画面表示に関する機能的な構成を図45に図示のブロック図で説明する処理装置(PC)300の本体制御回路302は、本体表示部310(図4)およびプローブ表示部231に表示される画面を制御するための機能的な構成として、主設定画面生成部351、主幾何公差画面生成部352、主測定画面生成部353、座標算出部354、主受付部355、測定部356および同期表示制御部357を含む。本体制御回路302のCPUが、例えば本体メモリ303(図4)に記憶された画面表示に関するプログラムを実行することにより、上記の各機能部の構成が実現される。なお、上記の構成の一部または全てが電子回路等のハードウェアにより実現されてもよい。 The main body control circuit 302 of the processing device (PC) 300 whose functional configuration related to the screen display is described in the block diagram shown in FIG. 45 displays the screens displayed on the main body display unit 310 (FIG. 4) and the probe display unit 231. As a functional configuration for control, the main setting screen generation unit 351, the main geometric tolerance screen generation unit 352, the main measurement screen generation unit 353, the coordinate calculation unit 354, the main reception unit 355, the measurement unit 356, and the synchronous display control unit. Includes 357. When the CPU of the main body control circuit 302 executes, for example, a program related to screen display stored in the main body memory 303 (FIG. 4), the above-mentioned configuration of each functional unit is realized. In addition, a part or all of the above-mentioned configurations may be realized by hardware such as an electronic circuit.

主設定画面生成部351は、第1の主画面生成用データに基づいて予め定められた複数の測定項目および予め定められた複数の幾何要素を含む第1の主画面sc01(図37(a))の画面データを生成し、本体表示部310に第1の主画面sc01を表示させる。また、主設定画面生成部351は、第2の主画面生成用データに基づいて第2の主画面sc02(図38(a))の画面データを生成し、本体表示部310に第2の主画面sc02を表示させる。 The main setting screen generation unit 351 is a first main screen sc01 (FIG. 37 (a)) including a plurality of predetermined measurement items and a plurality of predetermined geometric elements based on the first main screen generation data. ) Is generated, and the first main screen sc01 is displayed on the main body display unit 310. Further, the main setting screen generation unit 351 generates the screen data of the second main screen sc02 (FIG. 38 (a)) based on the second main screen generation data, and the main body display unit 310 displays the second main screen. Display the screen sc02.

主幾何公差画面生成部352は、第4の主画面生成用データに基づいて予め定められた複数の幾何公差を含む第4の主画面sc04(図40)の画面データを生成し、本体表示部310に第4の主画面sc04を表示させる。 The main geometric tolerance screen generation unit 352 generates screen data of the fourth main screen sc04 (FIG. 40) including a plurality of predetermined geometric tolerances based on the fourth main screen generation data, and the main body display unit. Display the fourth main screen sc04 on 310.

座標算出部354は、使用者によるプローブ200の操作に基づいて指示された測定対象物S上の測定点の座標を算出する。この処理は、図41のステップS12、S17の測定点座標算出処理に相当する。 The coordinate calculation unit 354 calculates the coordinates of the measurement point on the measurement object S instructed based on the operation of the probe 200 by the user. This process corresponds to the measurement point coordinate calculation process in steps S12 and S17 of FIG.

処理装置(PC)300の主受付部355は、使用者による本体操作部320の操作に基づいて第1の主画面sc01において選択された幾何要素および測定項目を受け付けるとともに、第2の主画面sc02において選択された測定対象部分を受け付ける。主受付部355は、受け付けた幾何要素、測定項目および測定対象部分を本体メモリ303(図4)に記憶させることにより、幾何要素、測定項目および測定対象部分の設定を行う。 The main reception unit 355 of the processing device (PC) 300 receives the geometric elements and measurement items selected on the first main screen sc01 based on the operation of the main body operation unit 320 by the user, and the second main screen sc02. Accepts the measurement target part selected in. The main reception unit 355 sets the geometric element, the measurement item, and the measurement target portion by storing the received geometric element, the measurement item, and the measurement target portion in the main body memory 303 (FIG. 4).

さらに、主受付部355は、使用者による本体操作部320の操作に基づいて第4の主画面sc04において選択された幾何公差を受け付ける。主受付部355は、受け付けた幾何公差を本体メモリ303に記憶させることにより、幾何公差の設定を行う。 Further, the main reception unit 355 receives the geometric tolerance selected on the fourth main screen sc04 based on the operation of the main body operation unit 320 by the user. The main reception unit 355 sets the geometrical tolerance by storing the received geometrical tolerance in the main body memory 303.

測定部356は、幾何要素および測定項目の選択があった場合に、本体メモリ303(図4)またはプローブ200のプローブメモリ224に設定された幾何要素および測定項目と座標算出部354により算出された一又は複数の測定点の座標とに基づいて、選択された測定項目の値を算出する。より具体的には、測定部356は、選択された幾何要素と測定点の座標とに基づいて一又は複数の測定対象部分の設定を行う。その後、測定部356は、選択された測定項目と選択された設定済みの測定対象部分とに基づいて、選択された測定項目の値を算出する。この処理は、上記の測定値算出処理に相当する。また、測定部356は、幾何公差が選択された場合には、その幾何公差の選択後に座標算出部354により算出された一又は複数の測定点の座標に基づいて当該幾何公差を算出する。 The measurement unit 356 was calculated by the geometric element, measurement item, and coordinate calculation unit 354 set in the main body memory 303 (FIG. 4) or the probe memory 224 of the probe 200 when the geometric element and the measurement item were selected. Calculate the value of the selected measurement item based on the coordinates of one or more measurement points. More specifically, the measuring unit 356 sets one or a plurality of measurement target portions based on the selected geometric element and the coordinates of the measurement point. After that, the measurement unit 356 calculates the value of the selected measurement item based on the selected measurement item and the selected set measurement target portion. This process corresponds to the above-mentioned measurement value calculation process. When a geometrical tolerance is selected, the measuring unit 356 calculates the geometrical tolerance based on the coordinates of one or a plurality of measurement points calculated by the coordinate calculation unit 354 after selecting the geometrical tolerance.

ここで、測定部356は、幾何要素の選択時および測定項目の選択時に予め定められた情報を算出してもよい。例えば、測定部356は、測定項目として「距離」が選択された場合に、測定された距離に関して装置座標系の3方向にそれぞれ対応する成分(長さ)をさらに算出してもよい。また、測定部356は、幾何要素として「平面」が選択された場合に、複数の測定点により特定される測定対象物S上の平面について平面度を算出するとともに、当該平面の法線ベクトル等を算出してもよい。 Here, the measurement unit 356 may calculate predetermined information when selecting a geometric element and when selecting a measurement item. For example, when "distance" is selected as the measurement item, the measurement unit 356 may further calculate a component (length) corresponding to each of the three directions of the device coordinate system with respect to the measured distance. Further, when "plane" is selected as the geometric element, the measurement unit 356 calculates the flatness of the plane on the measurement object S specified by the plurality of measurement points, and also calculates the normality vector of the plane and the like. May be calculated.

主測定画面生成部353は、第3の主画面生成用データに基づいて、測定部356によって算出された測定対象物Sについての測定結果を含む第3の主画面sc03(図39(a))の画面データを生成し、本体表示部310に第3の主画面sc03を表示させる。同期表示制御部357の機能については後述する。 The main measurement screen generation unit 353 has a third main screen sc03 (FIG. 39 (a)) including the measurement result for the measurement object S calculated by the measurement unit 356 based on the third main screen generation data. The screen data of is generated, and the third main screen sc03 is displayed on the main body display unit 310. The function of the synchronous display control unit 357 will be described later.

プローブ200のプローブ制御部220は、本体表示部310およびプローブ表示部231に表示される画面を制御するための機能的な構成として、副設定画面生成部251、副幾何公差画面生成部252、副測定画面生成部253および副受付部254を含む。プローブ制御部220のCPUが、例えばプローブメモリ224に記憶された画面表示に関するプログラムを実行することにより、上記の各機能部の構成が実現される。なお、上記の構成の一部または全てが電子回路等のハードウェアにより実現されてもよい。 The probe control unit 220 of the probe 200 has a sub-setting screen generation unit 251 and a sub-geometric tolerance screen generation unit 252, as a functional configuration for controlling the screen displayed on the main body display unit 310 and the probe display unit 231. The measurement screen generation unit 253 and the sub-reception unit 254 are included. When the CPU of the probe control unit 220 executes, for example, a program related to screen display stored in the probe memory 224, the configuration of each of the above functional units is realized. In addition, a part or all of the above-mentioned configurations may be realized by hardware such as an electronic circuit.

副設定画面生成部251は、第1の副画面生成用データに基づいて第1の主画面sc01に表示される複数の測定項目および複数の幾何要素のうち一部を含む第1の副画面sc11(図37(b))の画面データを生成する。また、副設定画面生成部251は、生成した画面データに基づいてプローブ表示部231に第1の副画面sc11を表示させる。また、副設定画面生成部251は、第2の副画面生成用データに基づいて第2の副画面sc12(図38(b))の画面データを生成し、本体表示部310に第2の副画面sc12を表示させる。 The sub-setting screen generation unit 251 includes a plurality of measurement items and a part of a plurality of geometric elements displayed on the first main screen sc01 based on the data for generating the first sub-screen. The screen data of (FIG. 37 (b)) is generated. Further, the sub-setting screen generation unit 251 causes the probe display unit 231 to display the first sub-screen sc11 based on the generated screen data. Further, the sub-setting screen generation unit 251 generates screen data of the second sub-screen sc12 (FIG. 38 (b)) based on the second sub-screen generation data, and the main body display unit 310 displays the second sub-screen. Display the screen sc12.

副幾何公差画面生成部252は、第4の主画面sc04に表示される複数の幾何公差のうち一部を含む第4の副画面sc14(図40(b))の画面データを生成する。また、副幾何公差画面生成部252は、生成した画面データに基づいてプローブ表示部231に第4の副画面sc14を表示させる。 The sub-geometric tolerance screen generation unit 252 generates screen data of the fourth sub-screen sc14 (FIG. 40 (b)) including a part of the plurality of geometrical tolerances displayed on the fourth main screen sc04. Further, the sub-geometric tolerance screen generation unit 252 causes the probe display unit 231 to display the fourth sub-screen sc14 based on the generated screen data.

副測定画面生成部253は、第3の主画面sc03に表示される一又は複数の測定結果のうち少なくとも一部を含む第3の副画面sc13(図39(b))の画面データを生成する。また、副測定画面生成部253は、生成した画面データに基づいてプローブ表示部231に第3の副画面sc13を表示させる。 The sub-measurement screen generation unit 253 generates screen data of the third sub-screen sc13 (FIG. 39 (b)) including at least a part of one or a plurality of measurement results displayed on the third main screen sc03. .. Further, the sub-measurement screen generation unit 253 causes the probe display unit 231 to display the third sub-screen sc13 based on the generated screen data.

副受付部254は、使用者によるタッチパネル232の操作に基づいて第1の副画面sc11において選択された幾何要素および測定項目を受け付けるとともに、第2の副画面sc12において選択された測定対象部分を受け付ける。副受付部254は、受け付けた幾何要素、測定項目および測定対象部分をプローブメモリ224に記憶させることにより、幾何要素、測定項目および測定対象部分の設定を行う。 The sub-reception unit 254 receives the geometric elements and measurement items selected on the first sub-screen sc11 based on the operation of the touch panel 232 by the user, and also receives the measurement target portion selected on the second sub-screen sc12. .. The sub-reception unit 254 sets the geometric element, the measurement item, and the measurement target portion by storing the received geometric element, the measurement item, and the measurement target portion in the probe memory 224.

さらに、副受付部254は、使用者によるタッチパネル232の操作に基づいて第4の副画面sc14において選択された幾何公差を受け付ける。副受付部254は、受け付けた幾何公差をプローブメモリ224に記憶させることにより、幾何公差の設定を行う。 Further, the sub-reception unit 254 receives the geometric tolerance selected on the fourth sub-screen sc14 based on the operation of the touch panel 232 by the user. The sub-reception unit 254 sets the geometrical tolerance by storing the received geometrical tolerance in the probe memory 224.

ここで、処理装置(PC)300の主受付部355は、プローブ200の副受付部254において幾何要素、測定項目および測定対象部分が受け付けられた場合に、副受付部254において受け付けられた幾何要素、測定項目および測定対象部分を受け付ける。また、副受付部254は、主受付部355において副受付部254により受付可能な幾何要素、測定項目および測定対象部分が受け付けられた場合に、主受付部355において受け付けられた幾何要素、測定項目および測定対象部分を受け付ける。これにより、主受付部355と副受付部254との間で、受け付けられる設定に相違が生じることが低減される。 Here, the main reception unit 355 of the processing device (PC) 300 receives the geometric element, the measurement item, and the measurement target portion at the sub reception unit 254 of the probe 200, and the geometric element received at the sub reception unit 254. , Accepts measurement items and measurement target parts. Further, the sub-reception unit 254 receives geometric elements, measurement items, and measurement items received by the main reception unit 355 when the sub-reception unit 254 accepts the geometric elements, measurement items, and measurement target parts. And accept the measurement target part. As a result, it is possible to reduce the difference in the accepted settings between the main reception unit 355 and the sub reception unit 254.

上記の同期表示制御部357は、本体表示部310に第1の主画面sc01が表示されるとともにプローブ表示部231に第1の副画面sc11が表示されるように、主設定画面生成部351および副設定画面生成部251間で同期制御を行う(図37(a)、(b)参照)。 The synchronous display control unit 357 has the main setting screen generation unit 351 and the main setting screen generation unit 351 so that the first main screen sc01 is displayed on the main body display unit 310 and the first sub screen sc11 is displayed on the probe display unit 231. Synchronous control is performed between the sub-setting screen generation units 251 (see FIGS. 37 (a) and 37 (b)).

また、同期表示制御部357は、本体表示部310に第2の主画面sc02が表示されるとともにプローブ表示部231に第2の副画面sc12が表示されるように、主設定画面生成部351および副設定画面生成部251間で同期制御を行う(図38(a)、(b)参照)。 Further, the synchronous display control unit 357 has the main setting screen generation unit 351 and the main setting screen generation unit 351 so that the second main screen sc02 is displayed on the main body display unit 310 and the second sub screen sc12 is displayed on the probe display unit 231. Synchronous control is performed between the sub-setting screen generation units 251 (see FIGS. 38 (a) and 38 (b)).

また、同期表示制御部357は、本体表示部310に第3の主画面sc03が表示されるとともにプローブ表示部231に第3の副画面sc13が表示されるように、主測定画面生成部353および副測定画面生成部253間で同期制御を行う(図39(a)、(b)参照)。 Further, the synchronous display control unit 357 has the main measurement screen generation unit 353 and the main measurement screen generation unit 357 so that the third main screen sc03 is displayed on the main body display unit 310 and the third sub screen sc13 is displayed on the probe display unit 231. Synchronous control is performed between the sub-measurement screen generation units 253 (see FIGS. 39 (a) and 39 (b)).

さらに、同期表示制御部357は、本体表示部310に第4の主画面sc04が表示されるとともにプローブ表示部231に第4の副画面sc14が表示されるように、主幾何公差画面生成部352および副幾何公差画面生成部252間で同期制御を行う(図40(a)、(b)参照)。 Further, the synchronous display control unit 357 has a main geometric tolerance screen generation unit 352 so that the fourth main screen sc04 is displayed on the main body display unit 310 and the fourth sub screen sc14 is displayed on the probe display unit 231. Synchronous control is performed between the sub-geometric tolerance screen generation unit 252 (see FIGS. 40 (a) and 40 (b)).

この場合、使用者Uは、処理装置(PC)300の本体表示部310に表示される画面およびタッチパネルディスプレイ210に表示される画面のうち一方を視認することにより、測定条件の設定作業および測定作業にそれぞれ応じた情報を適切に把握することができる。 In this case, the user U visually recognizes one of the screen displayed on the main body display unit 310 of the processing device (PC) 300 and the screen displayed on the touch panel display 210 to set measurement conditions and perform measurement work. It is possible to appropriately grasp the information corresponding to each.

三次元座標測定装置1においては、処理装置(PC)300の本体表示部310に第1の主画面sc01が表示される。第1の主画面sc01は、予め定められた複数の測定項目および予め定められた複数の幾何要素をそれぞれ表すアイコン(項目アイコンi01および要素アイコンi02)を含む。第1の主画面sc01において選択されたアイコンに対応する幾何要素および測定項目が主受付部355により受け付けられる。 In the three-dimensional coordinate measuring device 1, the first main screen sc01 is displayed on the main body display unit 310 of the processing device (PC) 300. The first main screen sc01 includes a plurality of predetermined measurement items and icons (item icon i01 and element icon i02) representing a plurality of predetermined geometric elements, respectively. The geometric element and the measurement item corresponding to the icon selected on the first main screen sc01 are accepted by the main reception unit 355.

また、タッチパネルディスプレイ210に第1の副画面sc11が表示される。第1の副画面sc11は、第1の主画面sc01に含まれる複数の測定項目および複数の幾何要素のうち一部をそれぞれ表すアイコン(項目アイコンi11および要素アイコンi12)を含む。第1の副画面sc11において選択されたアイコンに対応する幾何要素および測定項目が副受付部254により受け付けられる。 Further, the first sub screen sc11 is displayed on the touch panel display 210. The first sub screen sc11 includes icons (item icon i11 and element icon i12) representing a part of a plurality of measurement items and a plurality of geometric elements included in the first main screen sc01. The geometric element and the measurement item corresponding to the icon selected on the first sub screen sc11 are accepted by the sub reception unit 254.

主受付部355および副受付部254のうち少なくとも一方において受け付けられた幾何要素および測定項目と、プローブ200により指示されて算出される一又は複数の測定点の座標とに基づいて、選択された幾何要素に関する選択された測定項目の値が算出される。 Geometry selected based on the geometric elements and measurement items received by at least one of the main reception unit 355 and the sub reception unit 254 and the coordinates of one or more measurement points indicated and calculated by the probe 200. The value of the selected measurement item for the element is calculated.

上記の構成によれば、使用者は第1の主画面sc01において予め定められた複数の幾何要素および測定項目から所望の幾何要素および測定項目を選択することができる。 According to the above configuration, the user can select a desired geometric element and measurement item from a plurality of predetermined geometric elements and measurement items on the first main screen sc01.

一方、使用者は第1の副画面sc11において予め定められた複数の幾何要素および測定項目のうちの一部から所望の幾何要素および測定項目を選択することができる。ここで、タッチパネルディスプレイ210は、プローブ200を介して使用者Uにより携行可能に構成されている。それにより、使用者Uは、第1の副画面sc11に表示される幾何要素および測定項目を選択する場合には、プローブ200による測定点の指定作業と幾何要素および測定項目の選択作業とを異なる位置で行う必要がない。したがって、測定に関する設定作業を容易かつ短時間で行うことが可能になる。 On the other hand, the user can select a desired geometric element and measurement item from a part of a plurality of predetermined geometric elements and measurement items on the first sub screen sc11. Here, the touch panel display 210 is configured to be portable by the user U via the probe 200. As a result, when the user U selects the geometric element and the measurement item displayed on the first sub screen sc11, the task of designating the measurement point by the probe 200 and the task of selecting the geometric element and the measurement item are different. No need to do it in position. Therefore, the setting work related to the measurement can be easily performed in a short time.

このように、使用者Uは、設定対象となる測定項目および幾何要素に応じて、測定対象物Sの測定の設定に用いる画面を第1の主画面sc01と第1の副画面sc11との間で使い分けることができる。したがって、測定条件の設定に関して高い利便性を有する三次元座標測定装置1が実現される。 In this way, the user U sets the screen used for setting the measurement of the measurement object S between the first main screen sc01 and the first sub screen sc11 according to the measurement item and the geometric element to be set. Can be used properly with. Therefore, the three-dimensional coordinate measuring device 1 having high convenience in setting the measuring conditions is realized.

以上、本発明の好ましい実施例を説明した。上記の実施例では、測距光学系部材110としてカメラ111が採用されているが、前述したように、特許文献1に開示のレーザビームを出射するユニットで構成してもよい。また、前述したように、特許文献2に開示のレーザトレーサに本発明を適用してもよい。本発明に含まれる他の変形例を以下に説明する。 The preferred embodiment of the present invention has been described above. In the above embodiment, the camera 111 is adopted as the distance measuring optical system member 110, but as described above, it may be composed of a unit that emits a laser beam disclosed in Patent Document 1. Further, as described above, the present invention may be applied to the laser tracer disclosed in Patent Document 2. Other modifications included in the present invention will be described below.

(1)実施例の三次元座標測定装置1においては、第1の主画面sc01に表示される項目アイコンi01の数と第1の副画面sc11に表示される項目アイコンi11の数とが一致しているが、プローブ200側の第1の副画面sc11に表示される項目アイコンi11や要素アイコンi12は、処理装置(PC)300側の第1の主画面sc01に表示される項目アイコンi01や要素アイコンi02の数よりも少なくてもよい。プローブ200における最小限の設定作業に不可欠な項目アイコンi11や要素アイコンi12に限定してもよい。 (1) In the three-dimensional coordinate measuring device 1 of the embodiment, the number of item icons i01 displayed on the first main screen sc01 and the number of item icons i11 displayed on the first sub screen sc11 match. However, the item icon i11 and the element icon i12 displayed on the first sub screen sc11 on the probe 200 side are the item icon i01 and the element displayed on the first main screen sc01 on the processing device (PC) 300 side. It may be less than the number of icons i02. It may be limited to the item icon i11 and the element icon i12, which are indispensable for the minimum setting work in the probe 200.

(2)実施例の三次元座標測定装置1に含まれるプローブ200においては、タッチパネルディスプレイ210がプローブケーシング240に一体的に設けられているが、タッチパネルディスプレイ210をプローブケーシング240から着脱可能であってもよい。 (2) In the probe 200 included in the three-dimensional coordinate measuring device 1 of the embodiment, the touch panel display 210 is integrally provided with the probe casing 240, but the touch panel display 210 can be attached to and detached from the probe casing 240. May be good.

(3)プローブ200のディスプレイとしてタッチパネル232が用いられているが、タッチパネル232に代えて、プローブ表示部231上に表示される画面上で各種操作を行うための他のポインティングデバイス(トラックボールまたはジョイスティック等)を採用してもよい。 (3) Although the touch panel 232 is used as the display of the probe 200, instead of the touch panel 232, another pointing device (trackball or joystick) for performing various operations on the screen displayed on the probe display unit 231 is used. Etc.) may be adopted.

1 三次元座標測定装置
eq(p) プローブマーカ
eq(ref) 参照マーカ
Ax(V) 縦軸(第1の軸)
Ax(L) 横軸(第2の軸)
rs 基準カメラの撮像空間
F(B) ベースフレーム
F(S1) 第1サブフレーム
F(S2) 第2サブフレーム
100 測定装置本体
110 測距光学系部材
111 測距光学系部材を構成する可動カメラ
130 ベース部材
132 測定装置本体の取付部
133 取付部の内周面
133a テーパ面
140 測定装置本体の第1サブ部材
150 測定装置本体の第2サブ部材
160 姿勢検出センサ
161 姿勢検出センサを構成する光学系測距部材の一例としての基準カメラ
162 基準カメラで撮像される参照部材
170 基準カメラの周囲を包囲するための包囲部材
200 プローブ
201 プローブの接触子
300 処理装置(PC)
1 Three-dimensional coordinate measuring device
eq (p) probe marker
eq (ref) reference marker
Ax (V) vertical axis (first axis)
Ax (L) Horizontal axis (second axis)
rs Imaging space of reference camera F (B) Base frame F (S1) First subframe F (S2) Second subframe 100 Measuring device main body 110 Distance measuring optical system member 111 Movable camera 130 constituting the distance measuring optical system member Base member 132 Mounting part of measuring device main body 133 Inner peripheral surface of mounting part 133a Tapered surface 140 First sub-member of measuring device main body 150 Second sub-member of measuring device main body 160 Attitude detection sensor 161 Optical system constituting the attitude detection sensor Reference camera 162 as an example of a distance measuring member Reference member 170 imaged by a reference camera Surrounding member for surrounding the reference camera 200 Probe 201 Probe contactor 300 Processing device (PC)

Claims (8)

ベース部材と、
該ベース部材に対して第1の軸を中心に回転自在に支持される第1サブ部材と、
該第1サブ部材に対して第1の軸と直交する第2の軸周りに回転自在に支持される第2サブ部材と、
該第2サブ部材に設けられ、手持ちプローブを検出するための測距光学系部材と、
前記ベース部材に対する前記第2サブ部材の姿勢を検出する姿勢検出センサと、
前記ベース部材、前記第1、第2のサブ部材を包囲する筐体と、
前記ベース部材から下方に延びて、基礎部分の固定部に密に凹凸嵌合される取付部と、
前記第1サブ部材の姿勢、前記第2サブ部材の姿勢および前記測距光学系部材を介して検出された前記手持ちプローブの情報に基づいて前記手持ちプローブが指し示す測定点の三次元座標を求め、測定対象として予め設定された幾何学形状と前記測定点の三次元座標とに基づいて前記幾何学形状に関する幾何学的特徴を求める座標測定部と、を備え、
前記基礎部分の固定部及び/又は前記取付部の端部には、前記基礎部分の固定部と凹凸嵌合する際に案内するテーパ面が形成されていることを特徴とする三次元座標測定装置。
With the base member
A first sub-member that is rotatably supported about the first axis with respect to the base member,
A second sub-member that is rotatably supported around a second axis that is orthogonal to the first axis with respect to the first sub-member.
A ranging optical system member provided on the second sub-member for detecting a hand-held probe, and
A posture detection sensor that detects the posture of the second sub-member with respect to the base member, and
A housing that surrounds the base member and the first and second sub-members,
A mounting portion that extends downward from the base member and is closely fitted to the fixing portion of the base portion.
Based on the posture of the first sub-member, the posture of the second sub-member, and the information of the hand-held probe detected via the distance measuring optical system member, the three-dimensional coordinates of the measurement point pointed to by the hand-held probe are obtained. It is provided with a coordinate measuring unit for obtaining a geometric feature related to the geometric shape based on a geometric shape preset as a measurement target and three-dimensional coordinates of the measurement point.
A three-dimensional coordinate measuring device characterized in that a tapered surface is formed at the fixed portion and / or the end portion of the mounting portion of the foundation portion to guide the fixed portion of the foundation portion when it is unevenly fitted. ..
前記ベース部材から下方に延びる取付部が前記第1の軸と同軸の横断面円形である、請求項1に記載の三次元座標測定装置。 The three-dimensional coordinate measuring device according to claim 1, wherein the mounting portion extending downward from the base member has a circular cross section coaxial with the first axis. 前記測距光学系部材が可動カメラ又はレーザ測距部材で構成されている、請求項1又は2に記載の三次元座標測定装置。 The three-dimensional coordinate measuring device according to claim 1 or 2, wherein the ranging optical system member is composed of a movable camera or a laser ranging member. 前記姿勢検出センサが前記ベース部材に設けられている、請求項1〜3のいずれか一項に記載の三次元座標測定装置。 The three-dimensional coordinate measuring device according to any one of claims 1 to 3, wherein the posture detection sensor is provided on the base member. 前記姿勢検出センサが、前記ベース部材に設けられた基準カメラを含み、
該基準カメラが前記第2サブ部材に設けられた複数の面発光マーカを撮像する、請求項4に記載の三次元座標測定装置。
The attitude detection sensor includes a reference camera provided on the base member.
The three-dimensional coordinate measuring device according to claim 4, wherein the reference camera images a plurality of surface emission markers provided on the second sub-member.
前記基準カメラの周囲に設けられた包囲部材を更に有し、
該包囲部材によって前記基準カメラの撮像空間が画成されている、請求項5に記載の三次元座標測定装置。
Further having a surrounding member provided around the reference camera,
The three-dimensional coordinate measuring device according to claim 5, wherein the imaging space of the reference camera is defined by the surrounding member.
前記包囲部材がバネ無しの蛇腹構造を有し、
該包囲部材は、その下端が第1サブ部材に固定され、上端が第2サブ部材に固定されている、請求項6に記載の三次元座標測定装置。
The surrounding member has a springless bellows structure.
The three-dimensional coordinate measuring device according to claim 6, wherein the lower end of the surrounding member is fixed to the first sub-member and the upper end is fixed to the second sub-member.
前記姿勢検出センサが、前記第1の軸を中心とした前記第1サブ部材の回転角度を検出するロータリエンコーダを含む、請求項1又は2に記載の三次元座標測定装置。 The three-dimensional coordinate measuring device according to claim 1 or 2, wherein the posture detection sensor includes a rotary encoder that detects a rotation angle of the first sub-member about the first axis.
JP2019044325A 2019-03-11 2019-03-11 Three-dimensional coordinate measuring device Pending JP2020148517A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019044325A JP2020148517A (en) 2019-03-11 2019-03-11 Three-dimensional coordinate measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019044325A JP2020148517A (en) 2019-03-11 2019-03-11 Three-dimensional coordinate measuring device

Publications (1)

Publication Number Publication Date
JP2020148517A true JP2020148517A (en) 2020-09-17

Family

ID=72431901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019044325A Pending JP2020148517A (en) 2019-03-11 2019-03-11 Three-dimensional coordinate measuring device

Country Status (1)

Country Link
JP (1) JP2020148517A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7607525B2 (en) 2021-06-25 2024-12-27 株式会社キーエンス Three-dimensional coordinate measuring device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7607525B2 (en) 2021-06-25 2024-12-27 株式会社キーエンス Three-dimensional coordinate measuring device

Similar Documents

Publication Publication Date Title
CN102315067B (en) Magnifying Observation Apparatus
JP5014706B2 (en) Method for controlling the location of a pointer displayed by a pointing device on a display surface
JP6670161B2 (en) Optical three-dimensional coordinate measuring instrument and its measuring method
US10837757B1 (en) Three-dimensional coordinate measuring device
JP7257113B2 (en) Three-dimensional coordinate measuring device
US20120001070A1 (en) Magnifying Observation Apparatus
US20130088586A1 (en) Magnification Observation Device
JP2006276022A (en) Image measuring device
US12061076B2 (en) Probe for three-dimensional coordinate measuring device, three-dimensional coordinate measuring device, three-dimensional coordinate measuring system, and three-dimensional coordinate measuring method
JP2018004279A (en) Measurement apparatus
US20180088203A1 (en) Apparatus and method for relocating an articulating-arm coordinate measuring machine
JP6800698B2 (en) How to control the magnifying observation device and the magnifying observation device
JP7587460B2 (en) 3D shape measuring device
JP7306803B2 (en) Three-dimensional coordinate measuring device
JP2020148517A (en) Three-dimensional coordinate measuring device
JP2020148515A (en) Three-dimensional coordinate measuring device
JP4649704B2 (en) Shape measuring instruments
JP2006308808A (en) Enlarging observation device
JP2020148516A (en) Three-dimensional coordinate measuring device
JP2022158516A (en) Three-dimensional shape measuring apparatus
JP6797639B2 (en) Image measuring device
JP5079028B2 (en) Carrier shape measuring machine
JP7606392B2 (en) 3D shape measuring device
JP2023004822A (en) Probe for three-dimensional coordinate measurement devices, three-dimensional coordinate measurement device, three-dimensional coordinate measurement system, and three-dimensional coordinate measurement method
CN112964226B (en) Inclination detection device based on HSV typewriter ribbon