[go: up one dir, main page]

JP6029938B2 - Calibration method and three-dimensional processing apparatus - Google Patents

Calibration method and three-dimensional processing apparatus Download PDF

Info

Publication number
JP6029938B2
JP6029938B2 JP2012244055A JP2012244055A JP6029938B2 JP 6029938 B2 JP6029938 B2 JP 6029938B2 JP 2012244055 A JP2012244055 A JP 2012244055A JP 2012244055 A JP2012244055 A JP 2012244055A JP 6029938 B2 JP6029938 B2 JP 6029938B2
Authority
JP
Japan
Prior art keywords
camera
projector
moving means
dimensional shape
checker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012244055A
Other languages
Japanese (ja)
Other versions
JP2014092495A (en
Inventor
拡 市川
拡 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Roland DG Corp
Original Assignee
Roland DG Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Roland DG Corp filed Critical Roland DG Corp
Priority to JP2012244055A priority Critical patent/JP6029938B2/en
Publication of JP2014092495A publication Critical patent/JP2014092495A/en
Application granted granted Critical
Publication of JP6029938B2 publication Critical patent/JP6029938B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、キャリブレーション方法および三次元加工装置に関し、さらに詳細には、光切断法により三次元形状を測定する際のキャリブレーション方法および当該キャリブレーション方法を用いて三次元形状の測定を行う三次元加工装置に関する。   The present invention relates to a calibration method and a three-dimensional processing apparatus. More specifically, the present invention relates to a calibration method for measuring a three-dimensional shape by a light cutting method, and a tertiary method for measuring a three-dimensional shape using the calibration method. The present invention relates to an original processing apparatus.

従来より、被加工物を切削加工して、当該被加工物を所定の形状に成形する三次元加工装置が知られている。   2. Description of the Related Art Conventionally, a three-dimensional processing apparatus is known that cuts a workpiece and shapes the workpiece into a predetermined shape.

こうした三次元加工装置において被加工物に対して切削加工を行うには、切削加工後の被加工物の形状を示す三次元形状データが必要となる。   In order to perform cutting on a workpiece in such a three-dimensional processing apparatus, three-dimensional shape data indicating the shape of the workpiece after cutting is required.

この三次元形状データについては、例えば、加工したい形状と同様の形状の模型を用い、三次元形状測定装置により当該模型の三次元形状を測定して、必要な三次元形状データを作成するようにしていた。
As for the three-dimensional shape data, for example, a model having the same shape as the shape to be processed is used, and the three-dimensional shape of the model is measured by a three-dimensional shape measuring device to generate necessary three-dimensional shape data. It was.

ここで、こうした三次元形状測定装置において模型の三次元形状を測定する技術として、光を用いて測定対象物の三次元形状を非接触で測定する技術が知られている。   Here, as a technique for measuring the three-dimensional shape of a model in such a three-dimensional shape measuring apparatus, a technique for measuring the three-dimensional shape of a measurement object using light without contact is known.

一般に、光を用いて測定対象物の三次元形状を非接触で測定する技術としては、受動的測定法と能動的測定法とがある。   In general, there are a passive measurement method and an active measurement method as a technique for measuring the three-dimensional shape of an object to be measured in a non-contact manner using light.

受動的測定法とは、ステレオ法に代表されるように、測定機器側は投光手段を持たずに、環境光を利用して測定するという手法である。   The passive measurement method is a method in which measurement is performed using ambient light without having a light projecting unit on the measurement device side, as represented by a stereo method.

一方、能動的測定法とは、測定機器側の投光手段から測定対象物に向けて光を照射して、その反射光を測定するという手法である。   On the other hand, the active measurement method is a method of irradiating light from the light projecting means on the measurement device side toward the measurement object and measuring the reflected light.

そして、こうした能動的測定法のなかで、三角測量の原理を用いるものとしては、光切断法や空間コード化法、位相シフト法などが知られている。   Among these active measurement methods, those using the principle of triangulation include the light section method, the spatial coding method, and the phase shift method.

具体的には、例えば、光切断法においては、測定対象物に対してスリット状の光を投光して、当該測定対象物の三次元形状を測定するものである。   Specifically, for example, in the light cutting method, slit-like light is projected onto the measurement object, and the three-dimensional shape of the measurement object is measured.

ここで、光切断法を用いた三次元形状測定装置は、コンピューターによりその全体の動作を制御するように構成されており、測定対象物を撮影するカメラと、このカメラと異なる方向から測定対象物に対してスリット状の光(以下、「スリット光」と称する。)を照射するプロジェクタとを備え、このプロジェクタからスリット光が投光された測定対象物をカメラで撮影する。   Here, the three-dimensional shape measuring apparatus using the light cutting method is configured to control the entire operation by a computer, and a camera for photographing the measurement object and the measurement object from a different direction from the camera. And a projector that irradiates slit-shaped light (hereinafter referred to as “slit light”), and the camera measures the object to which the slit light is projected from the projector.

このとき、測定対象物表面に投光したスリット光の形状は、スリット光が投光された測定対象物の断面の輪郭の形状と考えることができる。   At this time, the shape of the slit light projected on the surface of the measurement object can be considered as the shape of the contour of the cross section of the measurement object on which the slit light is projected.

このため、この光切断法では、測定対象物の三次元形状を測定する際には、測定対象物あるいはカメラおよびプロジェクタのいずれか一方を所定の間隔で移動し、測定対象物表面をスリット光が走査するようにする。このとき、当該所定の間隔毎に、スリット光が照射された測定対象物を撮影し、撮影した映像に基づいて測定対象物の全体の三次元形状を計測するものである。   For this reason, in this light cutting method, when measuring the three-dimensional shape of the measurement object, either the measurement object or the camera and the projector are moved at a predetermined interval, and the surface of the measurement object is subjected to slit light. Try to scan. At this time, the measurement object irradiated with the slit light is photographed at each predetermined interval, and the entire three-dimensional shape of the measurement object is measured based on the photographed image.

ここで、スリット光の測定対象物上の一点を考えると、幾何学的な考察が容易なピンホールモデルでは、その点とカメラの光学中心とを結ぶ直線は、カメラの結像面の一点を通る。つまり、画像中のある一点は、カメラから測定対象物へ延びる直線、換言すると、視線の方程式を決定する。   Here, considering a point on the measurement object of the slit light, in a pinhole model that is easy to consider geometrically, the straight line connecting that point and the optical center of the camera is a point on the image plane of the camera. Pass through. That is, a certain point in the image determines a straight line extending from the camera to the measurement object, in other words, a line-of-sight equation.

また、一本のスリット光は、プロジェクタから測定対象物へ延びる一枚の平面の方程式を決定する。   One slit light determines an equation of one plane extending from the projector to the measurement object.

スリット光が投光されている測定対象物上の一点は、この直線(視線)および平面のいずれの上にも存在することから、それらの方程式より直線と平面との交点を算出すれば測定対象物上の一点の三次元位置を算出することができるようになる。   Since one point on the measurement object on which the slit light is projected exists on both the straight line (line of sight) and the plane, the object to be measured can be calculated by calculating the intersection of the straight line and the plane from these equations. The three-dimensional position of a point on the object can be calculated.

そして、光切断法を用いた三次元形状測定装置においては、スリット光を投光する位置を移動して、こうした処理(つまり、スリット光上の各点の三次元位置の算出である。)を繰り返すことにより、三次元形状を測定するものである。
In the three-dimensional shape measuring apparatus using the light cutting method, the position where the slit light is projected is moved to perform such processing (that is, calculation of the three-dimensional position of each point on the slit light). By repeating, the three-dimensional shape is measured.

ところで、上記したような光切断法を用いた三次元形状測定装置においては、カメラが撮像した測定対象物の画像におけるスリット光の位置と、その位置に対応する実空間における位置との整合を図るためにキャリブレーションを行う必要がある。   By the way, in the three-dimensional shape measuring apparatus using the light cutting method as described above, the position of the slit light in the image of the measurement object imaged by the camera is matched with the position in the real space corresponding to the position. Need to be calibrated.

即ち、上記した光切断法を用いた三次元形状測定装置においては、実際に測定対象物の三次元形状を測定する前に、カメラに対するキャリブレーション(以下、「カメラキャリブレーション」と称する。)を行いカメラの外部パラメータおよび内部パラメータを算出するとともに、プロジェクタに対するキャリブレーション(以下、「プロジェクタキャリブレーション」と称する。)を行いプロジェクタの外部パラメータを算出する。   That is, in the three-dimensional shape measuring apparatus using the above-described light cutting method, calibration for the camera (hereinafter referred to as “camera calibration”) is performed before actually measuring the three-dimensional shape of the measurement object. The external parameters and internal parameters of the camera are calculated, and the projector is calibrated (hereinafter referred to as “projector calibration”) to calculate the external parameters of the projector.

例えば、カメラキャリブレーションにおいては、Zhangの手法を用いることができ、チェッカーシート(図1を参照する。)を利用して、当該チェッカーシートを動かして、それぞれ異なる少なくとも6つの方向(平行移動および同一回転を含まない)からの映像を取得する。   For example, in the camera calibration, the Zhang method can be used, and the checker sheet (refer to FIG. 1) is used to move the checker sheet, so that at least six different directions (parallel movement and the same) Get video from (not including rotation).

このときの一枚目の映像におけるチェッカーシートの左上の交点をワールド座標系の原点とするとともに、短辺をY軸、長編をX軸、X軸からY軸への外積の方向ベクトルをZ軸とする。   At this time, the upper left intersection of the checker sheet in the first image is the origin of the world coordinate system, the short side is the Y axis, the long is the X axis, and the cross product direction vector from the X axis to the Y axis is the Z axis. And

そして、撮影した映像をもとに、正方形の一辺の長さおよび交点の数を特定することで、一枚目の映像に対して、ワールド座標原点と座標軸を設定し、それに対して、カメラ中心がどこにあって、カメラがどの方向に向いているのかを算出するようにしている。   Then, by specifying the length of one side of the square and the number of intersection points based on the captured image, the world coordinate origin and coordinate axes are set for the first image, and the camera center Where and where the camera is facing.

ここで、正方形の一辺の長さとは、チェッカーシートの模様を表す白および黒の正方形の一辺の長さであり、交点の数とは、こうした白と黒との交点の数である。   Here, the length of one side of the square is the length of one side of the white and black squares representing the checker sheet pattern, and the number of intersections is the number of intersections of these white and black.

なお、上記したZhangの手法については、公知の技術のため、その詳細な説明は省略する。   Since the Zhang method described above is a known technique, a detailed description thereof will be omitted.

また、プロジェクタの位置については、カメラキャリブレーションされたカメラで撮影した映像から特定することができる。   Further, the position of the projector can be specified from the video shot by the camera calibrated camera.

例えば、カメラキャリブレーションした後に、単に被写体を載置するテーブルに対してスリット光を投光した際の映像と、当該テーブル上に載置した高さが既知の物体に対して投光したときの映像と、当該物体の高さとから、平面(プロジェクタから被写体にスリット光を投光する際に作成される一枚の平面のことである。)の方程式をワールド座標で表現することができる。   For example, after camera calibration, the image when the slit light is simply projected onto the table on which the subject is placed and the height on the table are projected onto an object with a known height From the image and the height of the object, an equation of a plane (one plane created when slit light is projected from the projector onto the subject) can be expressed in world coordinates.

上記したキャリブレーションの具体的な方法については、各種の公知の技術を用いることができるので、その詳細な説明は省略することとする。
Since various known techniques can be used for the specific method of calibration described above, detailed description thereof will be omitted.

ここで、三次元形状を測定する際には、上記したように、キャリブレーションを行うことにより、任意の場所を原点とした座標系(ワールド座標系)に対して、カメラはどの位置にどの向きで存在しているか(カメラ座標系)、そして、そのカメラの内部で撮像素子はどの方向に向いているか(画像座標系)などを求める。   Here, when measuring a three-dimensional shape, as described above, by performing calibration, the camera is in which position and in what direction with respect to the coordinate system (world coordinate system) with an arbitrary place as the origin. And in which direction the image sensor is oriented (image coordinate system).

そして、上記したようなカメラキャリブレーションにより、任意の原点とはどこか、カメラはどの位置にどの方向に向いて存在しているのか(外部パラメータ)、撮像素子はどの方向に向いているのか(内部パラメータ)を求めるものである。   And by the camera calibration as described above, where is the arbitrary origin, which position the camera is located in which direction (external parameter), and which direction the image sensor is oriented ( (Internal parameter).

なお、上記した光切断法を用いた三次元形状測定装置においては、「測定対象物」あるいは「カメラおよびプロジェクタ」のいずれか一方を所定の間隔で移動するようにしているため、ワールド座標系、カメラ座標系および画像座標系の3座標系の他に、移動のための機械座標系を考慮する必要がある。なお、こうした機械座標系は、ワールド座標系に対して独立して存在するものである。
In the three-dimensional shape measuring apparatus using the above-described light cutting method, either the “measurement object” or the “camera and projector” is moved at a predetermined interval, so that the world coordinate system, In addition to the three coordinate systems of the camera coordinate system and the image coordinate system, it is necessary to consider a machine coordinate system for movement. Such a machine coordinate system exists independently of the world coordinate system.

従来の技術においては、こうした機械座標系を考慮する場合には、例えば、非特許文献1に開示されたオプティカルフローによる移動ベクトルを推定する処理を行っていた。   In the prior art, when such a machine coordinate system is considered, for example, a process for estimating a movement vector by an optical flow disclosed in Non-Patent Document 1 is performed.

即ち、測定対象物が所定の間隔で移動する場合には、測定対象物の移動をオプティカルフローにより認識することとなる。   That is, when the measurement object moves at a predetermined interval, the movement of the measurement object is recognized by the optical flow.

具体的には、移動前後の画像から対応点を求め、その対応点の時間的、空間的な変化から、移動方向や移動速度などをベクトルとして解析するものである。   Specifically, corresponding points are obtained from images before and after movement, and the moving direction and moving speed are analyzed as vectors from temporal and spatial changes of the corresponding points.

そして、取得したオプティカルフローを用いて測定対象物の移動を運動パラメータとして扱い、機械座標系をワールド座標系のなかに取り込んでワールド座標系の動的変化として三次元形状の測定に用いる。
Then, using the acquired optical flow, the movement of the measurement object is treated as a motion parameter, and the machine coordinate system is taken into the world coordinate system and used as a dynamic change of the world coordinate system for measuring a three-dimensional shape.

しかしながら、機械座標系を考慮したカメラキャリブレーションおよびプロジェクタキャリブレーションにおいて、上記したようなオプティカルフローを用いる場合には、移動前の画像と移動後の画像とから対応点を検出するアルゴリズムが非常に複雑となっている。   However, when using the optical flow as described above in camera calibration and projector calibration considering the machine coordinate system, the algorithm for detecting corresponding points from the image before movement and the image after movement is very complicated. It has become.

これにより、機械座標系を考慮したキャリブレーション方法は、対応点を検出するためのアルゴリズムの作成が非常に難しくなるとともに、計算量が多くなってしまうことが問題点として指揮されていた。   As a result, the calibration method considering the machine coordinate system has been commanded as a problem that it is very difficult to create an algorithm for detecting corresponding points, and the amount of calculation is increased.

このため、三次元形状を測定する装置においてオプティカルフローを使用することなしに、キャリブレーションすることが可能なキャリブレーション方法の提案が強く望まれていた。
For this reason, the proposal of the calibration method which can be calibrated without using an optical flow in the apparatus which measures a three-dimensional shape was strongly desired.

また、三次元加工装置においては、例えば、加工対象となる被加工物を所望の形状に加工する際に、当該所望の形状の模型をスキャンするなどして三次元形状データを作成することができるようになれば、三次元加工装置としてより広い用途に使用することができるようになる。   In the three-dimensional processing apparatus, for example, when processing a workpiece to be processed into a desired shape, three-dimensional shape data can be created by scanning a model of the desired shape. Then, it can be used for a wider range of applications as a three-dimensional processing apparatus.

こうした場合には、三次元加工装置において、三次元形状データを作成する前に、上記したようなキャリブレーションを行う必要がある。   In such a case, it is necessary to perform the calibration as described above before creating the three-dimensional shape data in the three-dimensional processing apparatus.

しかしながら、オプティカルフローを使用する場合には、上記した問題点があった。   However, when the optical flow is used, there are the problems described above.

このため、オプティカルフローを使用することなしにキャリブレーションすることが可能であり、模型をスキャンして三次元形状データを作成することが可能な三次元加工装置の提案が強く望まれていた。   For this reason, it is possible to calibrate without using an optical flow, and there has been a strong demand for a three-dimensional processing apparatus capable of creating a three-dimensional shape data by scanning a model.

「ロボットビジョンの基礎」出口光一郎著 2000年コロナ社“Basics of Robot Vision” by Koichiro Deguchi 2000 Corona

本発明は、従来の技術の有する上記したような要望に鑑みてなされたものであり、その目的とするところは、オプティカルフローを使用することなくキャリブレーションすることが可能なキャリブレーション方法を提案しようとするものである。   The present invention has been made in view of the above-described demands of the prior art, and an object of the present invention is to propose a calibration method that can be calibrated without using an optical flow. It is what.

また、本発明の目的とするところは、オプティカルフローを使用することなくキャリブレーションを行うことができ、かつ、模型をスキャンして三次元形状データを作成することが可能な三次元加工装置を提供しようとするものである。   In addition, an object of the present invention is to provide a three-dimensional processing apparatus that can perform calibration without using an optical flow and that can create a three-dimensional shape data by scanning a model. It is something to try.

上記の目的を達成するために、本発明によるキャリブレーション方法は、カメラおよびプロジェクタを固定し、測定対象物を移動して(または、カメラおよびプロジェクタを移動し、測定対象物を固定して)光切断法により三次元形状を測定する際に、測定対象物が移動可能な直線上の少なくとも2点において、カメラキャリブレーションを行って、測定対象物の移動量に応じたカメラおよびプロジェクタの外部パラメータを算出するようにしたものである。   In order to achieve the above object, the calibration method according to the present invention fixes the camera and the projector and moves the measurement object (or moves the camera and the projector and fixes the measurement object). When measuring a three-dimensional shape by the cutting method, camera calibration is performed at at least two points on a straight line to which the measurement object can move, and external parameters of the camera and projector corresponding to the amount of movement of the measurement object are set. It is to be calculated.

なお、カメラの内部パラメータについては、事前に取得するようにしてもよいし、上記した2点のうちのどちらか1点において取得するようにしてもよい。   Note that the internal parameters of the camera may be acquired in advance or may be acquired at one of the two points described above.

また、測定対象物は、テーブルなどの移動手段上に載置され、当該移動手段の移動により移動することとなるため、「測定対象物が移動可能な直線上の少なくとも2点」とは、換言すると、「移動手段が移動可能な直線上の少なくとも2点」となる。同様に、「測定対象物の移動量に応じたカメラおよびプロジェクタの外部パラメータ」とは、換言すると、「移動手段の移動量に応じたカメラおよびプロジェクタの外部パラメータ」となる。
Further, since the measurement object is placed on a moving means such as a table and moved by the movement of the moving means, “at least two points on a straight line on which the measurement object can move” is in other words. Then, “at least two points on a straight line on which the moving means can move”. Similarly, the “external parameters of the camera and projector according to the movement amount of the measurement object” is, in other words, “external parameters of the camera and projector according to the movement amount of the moving means”.

ここで、実際には移動手段が直線上を移動する構成となっているが、移動手段上の所定の点から見るとカメラが移動していると考えることができる(図3(a)(b)を参照する。なお、図3(a)(b)においては、所定の点としてワールド座標原点を示している。)。   Here, the moving means is actually configured to move on a straight line, but when viewed from a predetermined point on the moving means, it can be considered that the camera is moving (FIGS. 3A and 3B). 3 (a) and 3 (b), the world coordinate origin is shown as a predetermined point.

このため、本発明においては、実際にはカメラ(プロジェクタ)が固定されて移動手段が移動しているのだが、移動手段が固定されてカメラ(プロジェクタ)が移動するものと考えるようにしたものである。   Therefore, in the present invention, although the camera (projector) is actually fixed and the moving means is moving, it is considered that the moving means is fixed and the camera (projector) moves. is there.

即ち、移動手段の移動量を相対的なカメラ(プロジェクタ)の移動量とみなすようにしたものである。   That is, the movement amount of the moving means is regarded as the relative movement amount of the camera (projector).

そして、移動手段の移動量に応じたカメラの外部パラメータを算出する場合には、移動手段が移動可能な直線上の少なくとも2点におけるカメラの外部パラメータ(回転行列および並進ベクトルである。)を算出し、算出した少なくとも2点における外部パラメータに基づいて、移動手段の移動ピッチ単位で按分比例し、移動手段の移動ピッチ毎のカメラの外部パラメータを取得するようにしたものである。   When calculating the camera external parameters according to the movement amount of the moving means, the camera external parameters (the rotation matrix and the translation vector) at at least two points on the straight line that the moving means can move are calculated. Then, based on the calculated external parameters at at least two points, the external parameters of the camera for each moving pitch of the moving means are obtained in proportion to the moving pitch of the moving means.

具体的には、移動手段の移動量に応じたカメラの外部パラメータ(以下、「カメラの動的な外部パラメータ」と適宜に称することとする。)を算出する計算式を作成し、作成した計算式からカメラの動的な外部パラメータ(カメラの位置を示す並進ベクトルおよびカメラの向きを示す回転行列)を算出するようにしたものである。   Specifically, a calculation formula for calculating a camera external parameter (hereinafter referred to as “camera dynamic external parameter” as appropriate) according to the moving amount of the moving means is created, and the created calculation is performed. A dynamic external parameter of the camera (a translation vector indicating the camera position and a rotation matrix indicating the camera direction) is calculated from the equation.

さらに、算出したカメラの動的な外部パラメータから、移動手段の移動量に応じたプロジェクタの外部パラメータ(以下、「プロジェクタの動的な外部パラメータ」と適宜に称することとする。)を算出するようにしたものである。
Furthermore, from the calculated dynamic external parameters of the camera, the external parameters of the projector corresponding to the movement amount of the moving means (hereinafter referred to as “dynamic external parameters of the projector” as appropriate) are calculated. It is a thing.

以下、カメラの動的な外部パラメータおよびプロジェクタの動的な外部パラメータの算出方法について説明する。   A method for calculating the dynamic external parameters of the camera and the dynamic external parameters of the projector will be described below.

ここで、以下の説明においては、移動手段が前後方向に移動するものとし、「チェッカーシート(後述する。)がカメラに撮影可能な最も前方側の移動手段の位置」を「前端」と称するとともに、「チェッカーシート(図示せず。)がカメラに撮影可能な最も後方側の移動手段の位置」を「後端」と称する。   Here, in the following description, it is assumed that the moving means moves in the front-rear direction, and “the position of the most forward moving means where the checker seat (described later) can be photographed by the camera” is referred to as “front end”. , “The position of the most rearward moving means where the checker sheet (not shown) can be photographed by the camera” is referred to as “rear end”.

そして、移動手段は前後方向に所定のピッチ幅単位で移動するものとし、移動手段が前端に位置するときのカメラの外部パラメータを並進ベクトル「Tf」、回転行列「Rf」とし、移動手段が後端にあるときのカメラの外部パラメータを並進ベクトル「Tb」、回転行列「Rb」とする。   Then, the moving means moves in a predetermined pitch width unit in the front-rear direction, the external parameters of the camera when the moving means is located at the front end are the translation vector “Tf”, the rotation matrix “Rf”, and the moving means Assume that the external parameters of the camera at the end are a translation vector “Tb” and a rotation matrix “Rb”.

また、移動手段の前端から後端までの総移動量を「S」、移動手段が移動する最小単位たる所定のピッチ幅を「P」とし、移動手段の前端からの移動カウント数を「C」とする。なお、移動手段が移動する際には、移動手段の移動量を前端を基点として所定のピッチ幅単位でカウントするようにしており、移動手段の前端からの移動カウント数とはこのカウント数である。
Further, the total movement amount from the front end to the rear end of the moving means is “S”, the predetermined pitch width which is the minimum unit in which the moving means moves is “P”, and the movement count from the front end of the moving means is “C”. And When the moving means moves, the moving amount of the moving means is counted in a predetermined pitch width unit with the front end as a base point, and the movement count from the front end of the moving means is this count number. .

まず、カメラの動的な外部パラメータの算出方法について説明する。つまり、移動手段の移動量に応じた並進ベクトルおよび回転行列の算出方法について説明する。
First, a method for calculating dynamic external parameters of the camera will be described. That is, a method for calculating a translation vector and a rotation matrix according to the amount of movement of the moving means will be described.

移動手段が前端から後端に移動するときの移動手段の移動量に応じた並進ベクトル「T」は、下記の(1)式により表される。
T=Tf+(Tb−Tf)/S×P×C・・・(1)
A translation vector “T” corresponding to the amount of movement of the moving means when the moving means moves from the front end to the rear end is expressed by the following equation (1).
T = Tf + (Tb−Tf) / S × P × C (1)

また、移動手段が直線的にのみ移動しているとすれば、理想的には回転行列を考慮する必要はないが、現実的には回転行列の変化を検討する必要がある。   Also, if the moving means is moving only in a straight line, it is ideally not necessary to consider the rotation matrix, but in reality it is necessary to consider changes in the rotation matrix.

ここで、並進ベクトルと同様に、移動手段が前端から後端に移動すると、回転行列は、
Rf→Rb
に変化する。この変化は、回転行列の回転である。
Here, as with the translation vector, when the moving means moves from the front end to the rear end, the rotation matrix becomes
Rf → Rb
To change. This change is a rotation of the rotation matrix.

回転行列を回転させる行列を「n」とすると、
Rf×n=Rb
となる。
If the matrix that rotates the rotation matrix is “n”,
Rf × n = Rb
It becomes.

従って、
n=Rf−1×Rb
となる。なお、Rf−1はRfの逆行列である。Rf自体が回転行列であり、正規直交行列なので逆行列は存在する。
Therefore,
n = Rf −1 × Rb
It becomes. Rf −1 is an inverse matrix of Rf. Since Rf itself is a rotation matrix and an orthonormal matrix, an inverse matrix exists.

次に、並進ベクトルと同様に、移動手段の移動量に応じた「n」の変化を考える。   Next, similarly to the translation vector, a change of “n” corresponding to the moving amount of the moving means is considered.

「n」は回転行列であるため、移動手段の移動量に応じた(移動手段の前端からの移動カウント数に応じた)回転量(角度)を直接取得することはできない。   Since “n” is a rotation matrix, the rotation amount (angle) corresponding to the movement amount of the moving means (according to the movement count from the front end of the moving means) cannot be directly acquired.

そこで、「n」を回転軸と回転量(角度)とに分解する必要があり、ロドリゲスの回転公式を使用する。なお、ロドリゲスの回転公式、回転軸および回転量への変換については、公知の技術であるため、その詳細な説明は省略する。   Therefore, it is necessary to decompose “n” into the rotation axis and the rotation amount (angle), and the Rodriguez rotation formula is used. In addition, since it is a well-known technique about the rotation formula of Rodrigues, conversion to a rotating shaft, and rotation amount, the detailed description is abbreviate | omitted.

即ち、「n」はロドリゲスの回転公式により、
n=θj
となる。なお、「θ」は回転量、「j」は回転軸(単位方向ベクトル)とする。
That is, “n” is Rodriguez's rotation formula,
n = θj
It becomes. Note that “θ” is a rotation amount, and “j” is a rotation axis (unit direction vector).

この結果、移動手段の移動量に応じた回転量を「θ’」とすると、
θ’=θ/S×P×C
となる。
As a result, when the rotation amount according to the movement amount of the moving means is “θ ′”,
θ ′ = θ / S × P × C
It becomes.

従って、ロドリゲスの回転公式で表現された移動手段の移動量に応じた回転ベクトルは、「θ’j」となる。   Therefore, the rotation vector corresponding to the movement amount of the moving means expressed by the Rodriguez rotation formula is “θ′j”.

この「θ’j」をロドリゲスの逆変換を行って回転行列に戻すことで、移動手段の移動量に応じた回転行列「n’」を取得することができる。   The rotation matrix “n ′” corresponding to the amount of movement of the moving means can be acquired by performing the inverse transformation of Rodrigues and returning this “θ′j” to the rotation matrix.

これにより、移動手段の移動量に応じた回転行列「Rb’」は、下記の(2)式により表される。
Rb’=Rf×n’・・・(2)
Thereby, the rotation matrix “Rb ′” corresponding to the movement amount of the moving means is expressed by the following equation (2).
Rb ′ = Rf × n ′ (2)

このようにして、移動カウント数に応じて上記した(1)式および(2)式からカメラの動的な外部パラメータ(移動手段の移動量に応じた並進ベクトル「T」および回転行列「Rb’」)を求めることができるようになる。
In this way, the dynamic external parameters of the camera (the translation vector “T” and the rotation matrix “Rb ′” corresponding to the amount of movement of the moving means are derived from the above equations (1) and (2) according to the movement count. )).

次に、プロジェクタの動的な外部パラメータの算出方法について説明する。   Next, a method for calculating dynamic external parameters of the projector will be described.

まず、移動手段が前端に位置するときのプロジェクタから出ている光平面を示す平面の方程式「ax+by+cz+d=0」の係数a、b、c、d(つまり、プロジェクタの外部パラメータである。)を算出する。   First, coefficients a, b, c, d (that is, external parameters of the projector) of a plane equation “ax + by + cz + d = 0” indicating a light plane emerging from the projector when the moving unit is located at the front end are calculated. To do.

なお、プロジェクタの外部パラメータの算出方法については、公知の技術を用いているため、その詳細な説明は省略することとする。   Since a known technique is used for the calculation method of the external parameters of the projector, detailed description thereof will be omitted.

また、算出した平面の方程式により表される光平面は、移動手段が移動してもカメラとの相対的な位置関係は変化しない。つまり、ワールド座標系で当該平面の方程式を表現すると、移動手段の移動により変化するものであるが、カメラ座標系で当該平面の方程式を表現すると、移動手段が移動しても変化することはない。
Further, the relative positional relationship between the optical plane represented by the calculated plane equation and the camera does not change even when the moving means moves. That is, if the equation of the plane is expressed in the world coordinate system, it changes due to the movement of the moving means, but if the equation of the plane is expressed in the camera coordinate system, it does not change even if the moving means moves. .

即ち、プロジェクタの動的な外部パラメータを求めるには、まず、光平面を示す平面の方程式をワールド座標系で表現する。つまり、ax+by+cz+d=0と表す。
That is, in order to obtain a dynamic external parameter of the projector, first, an equation of a plane indicating the light plane is expressed in the world coordinate system. That is, it is expressed as ax + by + cz + d = 0.

次に、「ax+by+cz+d=0」上の任意の3点P0W、P1W、P2W(この任意の3点P0W、P1W、P2Wは勿論、ワールド座標である。)を、
0W(X0W、Y0W、Z0W
1W(X1W、Y1W、Z1W
2W(X2W、Y2W、Z2W
とする。
Next, arbitrary three points P 0W , P 1W , P 2W on “ax + by + cz + d = 0” (the arbitrary three points P 0W , P 1W , P 2W are, of course, world coordinates),
P 0W (X 0W , Y 0W , Z 0W )
P 1W (X 1W , Y 1W , Z 1W )
P 2W (X 2W , Y 2W , Z 2W )
And

そして、点P0W、P1W、P2Wをそれぞれ、移動手段が前端に位置するときのカメラの外部パラメータ(回転行列:Rf、並進ベクトル:Tf)を使用して、カメラ座標系で表す。 Then, the points P 0W , P 1W , and P 2W are respectively expressed in the camera coordinate system using the external parameters (rotation matrix: Rf, translation vector: Tf) of the camera when the moving means is located at the front end.

即ち、カメラ座標系において点P0Wに対応する点を点P0Cとすると、
0C=Rf×P0W+Tf
により算出し、P0C(X0C、Y0C、Z0C)を取得する。
That is, if the point corresponding to the point P 0W in the camera coordinate system is the point P 0C ,
P 0C = Rf × P 0W + Tf
To obtain P 0C (X 0C , Y 0C , Z 0C ).

また、カメラ座標系において点P1Wに対応する点を点P1Cとすると、
1C=Rf×P1W+Tf
により算出し、P1C(X1C、Y1C、Z1C)を取得する。
Further, if a point corresponding to the point P 1W in the camera coordinate system is a point P 1C ,
P 1C = Rf × P 1W + Tf
To obtain P 1C (X 1C , Y 1C , Z 1C ).

さらに、カメラ座標系において点P2Wに対応する点を点P2Cとすると、
2C=Rf×P2W+Tf
により算出し、P2C(X2C、Y2C、Z2C)を取得する。
Furthermore, if a point corresponding to the point P 2W in the camera coordinate system is a point P 2C ,
P 2C = Rf × P 2W + Tf
To obtain P 2C (X 2C , Y 2C , Z 2C ).

その後、点P0C、P1C、P2Cをカメラの動的な外部パラメータを使用して、動的なワールド座標系で表現する。 Thereafter, the points P 0C , P 1C , and P 2C are expressed in a dynamic world coordinate system using dynamic external parameters of the camera.

即ち、点P0Cを動的なワールド座標系で表現した点を点P’0Wとすると、
P’0W=inv(Rb’)×P0C−inv(Rb’)×T
により算出し、P’0W(X’0W、Y’0W、Z’0W)を取得する。
That is, if a point expressing the point P 0C in the dynamic world coordinate system is a point P ′ 0W ,
P ′ 0W = inv (Rb ′) × P 0C −inv (Rb ′) × T
To obtain P ′ 0W (X ′ 0W , Y ′ 0W , Z ′ 0W ).

また、点P1Cを動的なワールド座標系で表現した点を点P’1Wとすると、
P’1W=inv(Rb’)×P1C−inv(Rb’)×T
により算出し、P’1W(X’1W、Y’1W、Z’1W)を取得する。
Further, if a point expressing the point P 1C in the dynamic world coordinate system is a point P ′ 1W ,
P ′ 1W = inv (Rb ′) × P 1C −inv (Rb ′) × T
To obtain P ′ 1W (X ′ 1W , Y ′ 1W , Z ′ 1W ).

さらに、点P2Cを動的なワールド座標系で表現した点を点P’2Wとすると、
P’2W=inv(Rb’)×P2C−inv(Rb’)×T
により算出し、P’2W(X’2W、Y’2W、Z’2W)を取得する。
Furthermore, if a point expressing the point P 2C in the dynamic world coordinate system is a point P ′ 2W ,
P ′ 2W = inv (Rb ′) × P 2C −inv (Rb ′) × T
To obtain P ′ 2W (X ′ 2W , Y ′ 2W , Z ′ 2W ).

なお、inv(Rb’)は、Rb’の逆行列である。   Note that inv (Rb ′) is an inverse matrix of Rb ′.

こうして算出した3点P’0W、P’1W、P’2Wから新たに光平面を示す平面の方程式「a’x+b’y+c’z+d’=0」を求める。 A plane equation “a′x + b′y + c′z + d ′ = 0” is newly obtained from the three points P ′ 0W , P ′ 1W and P ′ 2W calculated in this way.

こうして求められた係数「a’、b’、c’、d’」がプロジェクタの動的な外部パラメータとなる。   The coefficients “a ′, b ′, c ′, d ′” thus determined are dynamic external parameters of the projector.

従って、プロジェクタの動的な外部パラメータは、移動カウント数に応じて変化するカメラの動的な外部パラメータに応じて変化することとなる。
Therefore, the dynamic external parameter of the projector changes according to the dynamic external parameter of the camera that changes according to the movement count number.

なお、幾何学的には、「ax+by+cz+d=0」(ワールド座標系表現)を直接カメラの動的な外部パラメータ「T」、「Rb’」により「a’x+b’y+c’z+d’=0」変換することもできる。
Geometrically, “ax + by + cz + d = 0” (world coordinate system representation) is directly converted into “a′x + b′y + c′z + d ′ = 0” by dynamic external parameters “T” and “Rb ′” of the camera. You can also

ここで、上記においては、測定対象物が移動可能な直線上の2点(前端および後端)においてカメラキャリブレーションを行う場合について説明したが、測定対象物が移動可能な直線上の3点以上の点においてキャリブレーションを行う場合には、隣り合う2点間において、上記した測定対象物が移動可能な直線上の2点(前端および後端)においてキャリブレーションを行う場合と同様の処理を行って、カメラおよびプロジェクタの動的な外部パラメータを算出するようにすればよい。
Here, in the above description, the case where the camera calibration is performed at two points (front end and rear end) on the straight line to which the measurement object can move has been described. However, at least three points on the straight line to which the measurement object can move. When performing calibration at this point, the same processing as that when performing calibration at the two points (front end and rear end) on the straight line where the measurement object can move between two adjacent points is performed. Thus, the dynamic external parameters of the camera and projector may be calculated.

上記にようにしてカメラの内部パラメータおよび動的な外部パラメータとプロジェクタの動的な外部パラメータとを算出した後、算出したカメラの内部パラメータおよび動的な外部パラメータとプロジェクタの動的な外部パラメータとを利用して三次元形状の測定を行う。   After calculating the camera internal parameters and dynamic external parameters and the projector dynamic external parameters as described above, the calculated camera internal parameters and dynamic external parameters and projector dynamic external parameters Measure 3D shape using.

即ち、カメラにより撮影された映像の移動量(つまり、移動カウント数)に応じたカメラの動的な外部パラメータおよびプロジェクタの動的な外部パラメータに基づいて、当該映像におけるスリット光により形成された測定対象物の三次元形状を測定し、こうした処理を繰り返すことにより、測定対象物の全体の三次元形状を測定する。   That is, based on the dynamic external parameters of the camera and the dynamic external parameters of the projector according to the movement amount (that is, the movement count number) of the video imaged by the camera, the measurement formed by the slit light in the video image By measuring the three-dimensional shape of the object and repeating these processes, the entire three-dimensional shape of the measurement object is measured.

このように、本発明によるキャリブレーション方法においては、複雑なアルゴリズムを使用することなく、容易に、測定対象物(テーブル上に載置された測定対象物である。)の移動量に応じたカメラおよびプロジェクタの外部パラメータを取得することができるようになり、簡単にキャリブレーションすることができるようになる。
As described above, in the calibration method according to the present invention, a camera corresponding to the amount of movement of the measurement object (the measurement object placed on the table) can be easily obtained without using a complicated algorithm. Further, external parameters of the projector can be acquired, and calibration can be easily performed.

また、本発明による三次元加工装置は、上記したキャリブレーション方法を利用して、キャリブレーションを行い、その後、所望の形状の模型をスキャンして当該模型の三次元形状の測定を行って、この測定結果から専用のソフトなどを利用して所望の形状の三次元形状データを作成するようにしたものである。   In addition, the three-dimensional processing apparatus according to the present invention performs calibration using the calibration method described above, and then scans a model having a desired shape to measure the three-dimensional shape of the model. From the measurement results, three-dimensional shape data of a desired shape is created using dedicated software or the like.

これにより、本発明による三次元加工装置においては、容易に三次元形状データを作成することができるようになり、被加工物を所望の形状に加工することが可能となる。
Thereby, in the three-dimensional processing apparatus according to the present invention, three-dimensional shape data can be easily created, and the workpiece can be processed into a desired shape.

即ち、本発明によるキャリブレーション方法は、光切断法により測定対象物の三次元形状の測定を行うとともに、スリット光を投光するプロジェクタと、上記プロジェクタより投光されたスリット光を撮影するカメラとが固定的に配設され、移動手段により上記測定対象物を移動するようにした三次元形状測定装置におけるキャリブレーション方法において、カメラによる撮影が可能であり、かつ、移動手段の移動可能な少なくとも2箇所において上記カメラの外部パラメータを算出し、算出した上記カメラの外部パラメータから上記移動手段の最小移動単位で按分比例して、上記移動手段の移動量に基づく上記カメラの外部パラメータを取得し、取得した移動量に基づく上記カメラの外部パラメータからプロジェクタの外部パラメータを取得するようにしたものである。   That is, the calibration method according to the present invention includes a projector that measures the three-dimensional shape of an object to be measured by a light cutting method and projects slit light, and a camera that photographs slit light projected from the projector. Is fixedly arranged, and in the calibration method in the three-dimensional shape measuring apparatus in which the measuring object is moved by the moving means, at least two images can be taken by the camera and the moving means can be moved. The external parameter of the camera is calculated at the location, and the external parameter of the camera based on the moving amount of the moving means is obtained in proportion to the minimum moving unit of the moving means from the calculated external parameter of the camera. The projector external parameters are extracted from the camera external parameters based on the amount of movement. It is obtained by way.

また、本発明によるキャリブレーション方法は、上記した発明において、上記移動手段の移動可能な少なくとも2箇所は、上記カメラにより上記移動手段に載置されたチェッカーシートを撮影可能な最も前方側たる前端部と、上記カメラにより上記移動手段に載置された上記チェッカーシートを撮影可能な最も後方側たる後端部とであり、上記カメラを上記前端部に位置させて上記チェッカーシートを撮影し、上記カメラを上記後端部に位置させて上記チェッカーシートをそれぞれ異なる少なくとも6つの方向から撮影し、上記カメラを再度上記前端部に位置させて上記チェッカーシートを、未だ撮影していない方向であり、かつ、それぞれ異なる少なくとも5つの方向から撮影することによって、上記前端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像を取得するとともに、上記後端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像を取得し、上記前端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像に基づいて、上記前端部におけるカメラの外部パラメータを求めるとともに、上記後端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像に基づいて、上記後端部におけるカメラの外部パラメータを求めるようにしたものである。   Further, in the calibration method according to the present invention, in the above-described invention, at least two positions where the moving means can move are front end portions which are the frontmost side capable of photographing the checker sheet placed on the moving means by the camera. And a rear end that is the rearmost side that can photograph the checker sheet placed on the moving means by the camera, and the camera is photographed by positioning the camera at the front end. Is positioned in the rear end portion, and the checker sheet is photographed from at least six different directions, the camera is again positioned in the front end portion, and the checker sheet is in a direction not yet photographed, and By shooting from at least 5 different directions, at least 6 Acquired images of checker sheets taken from different directions, acquired images of checker sheets taken from at least six different directions at the rear end, and taken from at least six different directions at the front end. Based on the image of the checker sheet, external parameters of the camera at the front end are obtained, and at the rear end, based on the images of the checker sheet taken from at least six different directions, The parameters are obtained.

また、本発明による三次元加工装置は、三次元形状データに基づいて、被加工物に対して三次元加工を行う三次元加工装置において、上記被加工物や所望の形状に形成された測定対象物を載置するとともに、傾斜角度をそれぞれ異なる少なくとも6つの方向に変更することが可能な移動手段と、上記移動手段上にスリット光を投光するプロジェクタと、上記プロジェクタより投光されたスリット光を撮影するカメラと、上記移動手段の移動および傾斜角度を制御するとともに、上記プロジェクタのスリット光の投光のタイミングおよび上記カメラの撮影のタイミングを制御する制御手段と、上記した本発明によるキャリブレーション方法によりキャリブレーションを行うとともに、光切断法により上記測定対象物の三次元形状を測定して、上記測定対象物の三次元形状データを作成する三次元形状測定手段とを有するようにしたものである。   Further, the three-dimensional processing apparatus according to the present invention is a three-dimensional processing apparatus that performs three-dimensional processing on a workpiece based on three-dimensional shape data, and a measurement object formed in the workpiece or a desired shape. A moving means capable of placing an object and changing an inclination angle in at least six different directions, a projector that projects slit light on the moving means, and slit light projected from the projector A camera that controls the movement and tilt angle of the moving means, a control means that controls the timing of slit light projection of the projector and the timing of shooting of the camera, and the calibration according to the present invention described above. In addition to performing calibration by the method, the three-dimensional shape of the measurement object is measured by the light cutting method. It is obtained so as to have a three-dimensional shape measuring means for creating a three-dimensional shape data of the measuring object.

また、本発明による三次元加工装置は、上記した発明において、上記カメラおよび上記プロジェクタは、キャリブレーションおよび上記測定対象物の三次元形状データを作成する際に取り付けられ、上記被加工物に対して三次元加工を行う際には取り外されるようにしたものである。   In the three-dimensional processing apparatus according to the present invention, in the above-described invention, the camera and the projector are attached when the calibration and the three-dimensional shape data of the measurement object are created, It is removed when performing three-dimensional processing.

本発明は、以上説明したように構成されているので、オプティカルフローを使用することなしにキャリブレーションすることができるという優れた効果を奏するものである。   Since the present invention is configured as described above, it has an excellent effect that calibration can be performed without using an optical flow.

また、本発明は、以上説明したように構成されているので、簡単なキャリブレーションを行うことができ、かつ、模型をスキャンして三次元形状データを作成することができるという優れた効果を奏するものである。   Further, since the present invention is configured as described above, it has an excellent effect that simple calibration can be performed and a model can be scanned to create three-dimensional shape data. Is.

図1は、Zhangの手法に用いるチェッカーシートを示す説明図である。FIG. 1 is an explanatory diagram showing a checker sheet used in the Zhang method. 図2は、本発明による三次元加工装置の要部を示す概略構成斜視説明図である。FIG. 2 is a schematic perspective view illustrating the main part of the three-dimensional processing apparatus according to the present invention. 図3(a)は、カメラおよびプロジェクタを固定した状態でテーブルを移動した際の説明図であり、また、図3(b)は、テーブルを固定した状態でカメラおよびプロジェクタを移動した際の説明図である。FIG. 3A is an explanatory diagram when the table is moved while the camera and the projector are fixed, and FIG. 3B is an explanatory diagram when the camera and the projector are moved while the table is fixed. FIG. 図4は、カメラキャリブレーション処理の詳細な処理内容を示すフローチャートである。FIG. 4 is a flowchart showing the detailed processing contents of the camera calibration processing.

以下、添付の図面を参照しながら、本発明によるキャリブレーション方法および三次元加工装置の実施の形態の一例を詳細に説明するものとする。
Hereinafter, an example of an embodiment of a calibration method and a three-dimensional processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings.

ここで、図2には、本発明による三次元加工装置の要部を示す概略構成説明が示されている。   Here, FIG. 2 shows a schematic configuration explanation showing the main part of the three-dimensional processing apparatus according to the present invention.

図2に示す三次元加工装置10は、三次元形状の測定を行って三次元形状データを作成することが可能な三次元加工装置であって、図2においてはその要部のみが示され、図2において示された要部を囲うように筐体などの構成が設けられる。   A three-dimensional processing apparatus 10 shown in FIG. 2 is a three-dimensional processing apparatus capable of measuring a three-dimensional shape and creating three-dimensional shape data. In FIG. 2, only the main part is shown. A structure such as a housing is provided so as to surround the main part shown in FIG.

また、三次元加工装置10は、三次元形状データを作成する際には、後述するテーブル14上に模型を載置し、このテーブル14を移動する、つまり、測定対象物たる模型を移動することにより測定対象物の三次元形状を取得するものである。
Further, when creating the three-dimensional shape data, the three-dimensional processing apparatus 10 places a model on a table 14 to be described later, and moves the table 14, that is, moves the model that is a measurement object. By this, the three-dimensional shape of the measurement object is acquired.

この三次元加工装置10は、加工の対象となる被加工物100や三次元形状データを作成する際の模型となる測定対象物200が載置されるとともに、XYZ直交座標系におけるX軸方向に移動するテーブル14が基台部材12の上面12aに配設されている。   The three-dimensional processing apparatus 10 is mounted with a workpiece 100 to be processed and a measurement target 200 to be a model for creating three-dimensional shape data, and in the X-axis direction in the XYZ orthogonal coordinate system. A moving table 14 is disposed on the upper surface 12 a of the base member 12.

また、基台部材12においては、その上面12aの左方側端部において、立設部材16が立設されており、上面12aの右方側端部において、立設部材16と対向するようにして立設部材18が立設されている。   Further, in the base member 12, a standing member 16 is erected at the left side end portion of the upper surface 12a, and is opposed to the standing member 16 at the right side end portion of the upper surface 12a. A standing member 18 is erected.

この立設部材16、18においては、立設部材16、18を連結するようにY軸方向にガイドレール20が延設されており、ガイドレール20には、被加工物100を加工するための加工工具22を支持するヘッド部24が摺動自在に配設されている。   In the standing members 16 and 18, a guide rail 20 extends in the Y-axis direction so as to connect the standing members 16 and 18, and the guide rail 20 is used for processing the workpiece 100. A head portion 24 that supports the processing tool 22 is slidably disposed.

さらに、立設部材16、18においては、立設部材16の上端部16aと立設部材18の上端部18aとを連結するように板状部材26が設けられている。   Further, in the standing members 16 and 18, a plate-like member 26 is provided so as to connect the upper end portion 16 a of the standing member 16 and the upper end portion 18 a of the standing member 18.

そして、この板状部材26の上面26aには、テーブル14に載置された測定対象物200に対してスリット光を投光するプロジェクタ28が配設されるとともに、テーブル14に載置された測定対象物200を撮影するカメラ30が配設される。このとき、カメラ30は、測定対象物200を撮影する角度が、プロジェクタ28が測定対象物200に対してスリット光を投光する際の角度と異なるように配設される。   On the upper surface 26 a of the plate-like member 26, a projector 28 that projects slit light onto the measurement object 200 placed on the table 14 is disposed, and the measurement placed on the table 14. A camera 30 for photographing the object 200 is provided. At this time, the camera 30 is disposed such that the angle at which the measurement object 200 is photographed is different from the angle at which the projector 28 projects slit light onto the measurement object 200.

なお、三次元加工装置10は、全体の動作をマイクロコンピューター(図示せず。)により制御されている。
Note that the entire operation of the three-dimensional processing apparatus 10 is controlled by a microcomputer (not shown).

より詳細には、基台部材12の上面12aには、X軸方向にガイド溝32a、32bが延設されていて、テーブル14は、このガイド溝32a、32bに沿って図示しない移動機構によってX軸方向に移動するものである。   More specifically, guide grooves 32a and 32b extend in the X-axis direction on the upper surface 12a of the base member 12, and the table 14 is moved along the guide grooves 32a and 32b by a moving mechanism (not shown). It moves in the axial direction.

また、テーブル14は、図示しない移動機構によって、例えば、それぞれ異なる6方向に傾斜するものである。なお、それぞれ異なる6方向は、被加工物100を載置して加工する際の水平状態を含み、平行移動および同一回転を含まないものとする。   The table 14 is inclined in, for example, six different directions by a moving mechanism (not shown). Each of the six different directions includes a horizontal state when the workpiece 100 is placed and processed, and does not include parallel movement and the same rotation.

さらに、この移動機構は、所定のピッチ幅で移動するものであり、テーブル14が移動する際に、テーブル14の前端部(後述する。)を基点として、何回所定のピッチ幅で移動したのかをカウントしているものであり、カウントした値は、マイクロコンピューター(図示せず。)に出力され、記憶される。   Further, this moving mechanism moves at a predetermined pitch width. When the table 14 moves, how many times the table 14 moves at a predetermined pitch width from the front end portion (described later) of the table 14 as a base point. The counted value is output to a microcomputer (not shown) and stored.

なお、こうしたテーブル14における移動機構(図示せず。)については、従来より公知の技術を使用するため、その詳細な説明は省略することとする。
In addition, about the movement mechanism (not shown) in such a table 14, since a conventionally well-known technique is used, the detailed description shall be abbreviate | omitted.

立設部材16には、図示しないマイクロコンピューターの制御に基づいて駆動する駆動部材34が設けられており、この駆動部材34の駆動によりヘッド部24がガイドレール20に沿ってY軸方向に移動する。
The standing member 16 is provided with a drive member 34 that is driven based on control of a microcomputer (not shown), and the head member 24 moves in the Y-axis direction along the guide rail 20 by the drive of the drive member 34. .

ヘッド部24は、ガイドレール20に摺動自在に配設された移動部材24aと、移動部材24aの前面に設けられるとともにZ軸方向に移動可能な移動部材24bと、移動部材24bに配設されるとともに加工工具22を支持する主軸ユニット24cとにより構成されている。   The head portion 24 is disposed on the moving member 24a slidably disposed on the guide rail 20, the moving member 24b provided on the front surface of the moving member 24a and movable in the Z-axis direction, and the moving member 24b. And a spindle unit 24c that supports the machining tool 22.

これにより、移動部材24aは、立設部材16に設けられた駆動部材34の駆動によってY軸方向に移動することが可能である。   As a result, the moving member 24 a can move in the Y-axis direction by driving the driving member 34 provided on the standing member 16.

また、移動部材24bは、移動部材24bの前方側において、Z軸方向に延設された一対のガイドレール24baに摺動自在に配設されており、駆動手段(図示せず。)によりZ軸方向に移動することが可能である。   The moving member 24b is slidably disposed on a pair of guide rails 24ba extending in the Z-axis direction on the front side of the moving member 24b, and is driven by a driving means (not shown). It is possible to move in the direction.

さらに、主軸ユニット24cは、加工工具22が支持されており、駆動手段(図示せず。)により加工工具22を回転することが可能である。
Further, the spindle unit 24c supports the machining tool 22, and can rotate the machining tool 22 by a driving means (not shown).

また、プロジェクタ28は、発光ダイオード(図示せず。)と、所定のサイズのスリットが形成されたフィルター(図示せず。)とを備えている。   The projector 28 includes a light emitting diode (not shown) and a filter (not shown) in which slits of a predetermined size are formed.

そして、プロジェクタ28は、発光ダイオード(図示せず。)からの光をフィルター(図示せず。)を介することによりスリット光とし、このスリット光をテーブル14上に載置される測定対象物200に投光するようになされている。   Then, the projector 28 converts the light from the light emitting diode (not shown) into slit light through a filter (not shown), and this slit light is applied to the measurement object 200 placed on the table 14. It is designed to flood.

なお、このプロジェクタ28は、マイクロコンピューター(図示せず。)により投光のタイミングなどのすべての動作の制御がなされるものである。
The projector 28 is configured to control all operations such as the timing of light projection by a microcomputer (not shown).

カメラ30は、プロジェクタ28の投光方向とは異なる方向から、テーブル14上に載置された測定対象物200の表面を撮影することができるように配置されている。   The camera 30 is arranged so that the surface of the measuring object 200 placed on the table 14 can be photographed from a direction different from the light projecting direction of the projector 28.

そして、カメラ30で撮影された映像は、デジタル化されてマイクロコンピューター(図示せず。)に取り込まれるようになされている。
And the image | video image | photographed with the camera 30 is digitized and it is made to take in into a microcomputer (not shown).

以上の構成において、三次元加工装置10において、被加工物100を所望の三次元形状に加工する場合には、被加工物100を加工する際に必要な三次元形状データを作成し、作成した三次元形状データを利用して被加工物100を加工するようにする。   In the above configuration, when processing the workpiece 100 into a desired three-dimensional shape in the three-dimensional processing apparatus 10, the three-dimensional shape data necessary for processing the workpiece 100 is created and created. The workpiece 100 is processed using the three-dimensional shape data.

まず、被加工物100を加工する際に必要となる三次元形状データの作成について説明する。   First, creation of three-dimensional shape data necessary when processing the workpiece 100 will be described.

こうした三次元形状データを作成するために、カメラ30とプロジェクタ28とのキャリブレーションを行う。   In order to create such three-dimensional shape data, the camera 30 and the projector 28 are calibrated.

カメラ30およびプロジェクタ28のキャリブレーションを行うには、まず、テーブル14上に市松模様が描画されたチェッカーシート110(図3を参照する。)を固定する。なお、チェッカーシート110は、例えば、テープなどによりテーブル14上に着脱可能な構成となっており、テーブル14上に載置された際には、テーブル14上で容易に移動することがないようになされている。   To calibrate the camera 30 and the projector 28, first, a checker sheet 110 (see FIG. 3) on which a checkered pattern is drawn is fixed on the table 14. The checker sheet 110 is configured to be detachable from the table 14 with, for example, a tape so that the checker sheet 110 does not easily move on the table 14 when placed on the table 14. Has been made.

その後、チェッカーシート110が載置されたテーブル14を移動して、チェッカーシート110がカメラ30で撮影可能な範囲における少なくとも2箇所においてカメラキャリブレーションを行う。   Thereafter, the table 14 on which the checker sheet 110 is placed is moved, and camera calibration is performed in at least two places in the range in which the checker sheet 110 can be photographed by the camera 30.

以下、図4を参照しながら、カメラキャリブレーション処理について説明することとする。図4には、カメラキャリブレーション処理の処理手順を示すフローチャートが示されている。
Hereinafter, the camera calibration process will be described with reference to FIG. FIG. 4 shows a flowchart showing the processing procedure of the camera calibration process.

まず、チェッカーシート110をカメラ30により撮影可能な最も前方側にテーブル14を移動する(ステップS402)。このとき、テーブル14は水平状態である。   First, the table 14 is moved to the foremost side where the checker seat 110 can be photographed by the camera 30 (step S402). At this time, the table 14 is in a horizontal state.

即ち、ステップS402の処理では、作業者が図示しない操作子を操作することにより、マイクロコンピューター(図示せず。)を介してテーブル14を移動して、チェッカーシート110をカメラ30により撮影可能な最も前方側に位置させるようにする。   That is, in the process of step S402, when the operator operates an operator (not shown) to move the table 14 via a microcomputer (not shown), the checker sheet 110 can be photographed most by the camera 30. Try to locate it on the front side.

このとき、マイクロコンピューター(図示せず。)においては、このチェッカーシート110をカメラ30により撮影可能な最も前方側の位置を記憶する。   At this time, the microcomputer (not shown) stores the most forward position where the checker seat 110 can be photographed by the camera 30.

なお、以下の説明において、「チェッカーシート110がカメラ30により撮影可能な最も前方側に位置する際のテーブル14の位置」を「前端部」と称することとする。   In the following description, “the position of the table 14 when the checker seat 110 is located on the most front side that can be photographed by the camera 30” is referred to as “front end”.

また、以下の説明において、チェッカーシート110がカメラ30に撮影可能であるとは、チェッカーシート110の全体がすべてカメラ30により撮影できる状態のことを示す。なお、こうしたカメラ30によりチェッカーシート110の全体がすべて撮影できる状態であるか否かの判断は、例えば、カメラ30で撮影された映像をマイクロコンピューター(図示せず。)を介して、外部の表示装置などに表示し、それを作業者が目視により判断する。
Further, in the following description, the fact that the checker sheet 110 can be photographed by the camera 30 means that the entire checker sheet 110 can be photographed by the camera 30. The determination as to whether or not the entire checker sheet 110 can be photographed by the camera 30 is performed by, for example, displaying an image photographed by the camera 30 via an external display via a microcomputer (not shown). The information is displayed on a device or the like, and the operator judges it visually.

そして、テーブル14が前端部に位置する状態で、カメラ30によりチェッカーシート110の撮影を行う(ステップS404)。なお、こうして撮影された映像は、マイクロコンピューター(図示せず。)に記憶される。
Then, with the table 14 positioned at the front end, the checker sheet 110 is photographed by the camera 30 (step S404). In addition, the image | video image | photographed in this way is memorize | stored in a microcomputer (not shown).

次に、チェッカーシート110をカメラ30により撮影可能な最も後方側にテーブル14を移動する(ステップS406)。このとき、テーブル14は水平状態である。   Next, the table 14 is moved to the rearmost side where the checker sheet 110 can be photographed by the camera 30 (step S406). At this time, the table 14 is in a horizontal state.

なお、以下の説明において、「チェッカーシート110がカメラ30により撮影可能な最も後方側に位置する際のテーブル14の位置」を「後端部」と称することとする。   In the following description, “the position of the table 14 when the checker sheet 110 is located at the rearmost side where the camera 30 can shoot” is referred to as a “rear end”.

即ち、ステップS406の処理では、作業者が図示しない操作子を操作することにより、マイクロコンピューター(図示せず。)を介してテーブル14を後端部に移動する。
That is, in the process of step S406, when the operator operates an operator (not shown), the table 14 is moved to the rear end via a microcomputer (not shown).

そして、テーブル14が後端部に位置する状態で、カメラ30によりチェッカーシート110の撮影を行う(ステップS408)。なお、こうして撮影された映像は、マイクロコンピューター(図示せず。)に記憶される。   Then, with the table 14 positioned at the rear end, the checker sheet 110 is photographed by the camera 30 (step S408). In addition, the image | video image | photographed in this way is memorize | stored in a microcomputer (not shown).

即ち、ステップS408の処理では、水平状態のチェッカーシートの撮影を行うものである。
That is, in the process of step S408, the horizontal checker sheet is photographed.

その後、テーブル14が後端部に位置した状態で、テーブル14をそれぞれ傾斜角度が異なる5つの状態とし、当該5つの状態においてそれぞれチェッカーシート110の撮影を行う(ステップS410)。なお、こうして撮影された映像は、ステップS408の処理において撮影された映像と関連づけてマイクロコンピューター(図示せず。)に記憶される。   Thereafter, with the table 14 positioned at the rear end, the table 14 is set to five states having different inclination angles, and the checker sheet 110 is photographed in each of the five states (step S410). The video shot in this way is stored in a microcomputer (not shown) in association with the video shot in the process of step S408.

即ち、このステップS410の処理では、テーブル14が後端部に位置した状態で、平行移動や同一回転した状態とならないように、テーブル14をそれぞれ傾斜角度が異なる5つの状態とし、各状態において、それぞれチェッカーシート110の撮影を行うものである。   That is, in the process of step S410, the table 14 is set to five states having different inclination angles so that the table 14 is not in the parallel movement or the same rotation state with the table 14 positioned at the rear end portion. Each checker sheet 110 is photographed.

具体的には、ステップS410の処理では、テーブル14を水平状態から傾斜させて第1の状態とし、第1の状態でチェッカーシート110の撮影を行う。また、テーブル14を第1の状態から傾斜させて第2の状態とし、第2の状態でチェッカーシート110の撮影を行う。また、テーブル14を第2の状態から傾斜させて第3の状態とし、第3の状態でチェッカーシート110の撮影を行う。また、テーブル14を第3の状態から傾斜させて第4の状態とし、第4の状態でチェッカーシート110の撮影を行う。また、テーブル14を第4の状態から傾斜させて第5の状態とし、第5の状態でチェッカーシート110の撮影を行う。   Specifically, in the process of step S410, the table 14 is inclined from the horizontal state to the first state, and the checker sheet 110 is photographed in the first state. Further, the table 14 is inclined from the first state to the second state, and the checker sheet 110 is photographed in the second state. Further, the table 14 is inclined from the second state to the third state, and the checker sheet 110 is photographed in the third state. Further, the table 14 is inclined from the third state to the fourth state, and the checker sheet 110 is photographed in the fourth state. Further, the table 14 is inclined from the fourth state to the fifth state, and the checker sheet 110 is photographed in the fifth state.

なお、このとき、テーブル14は後端部に位置した状態であり、第1〜5の状態は、いずれも水平状態でなく、かつ、互いに同じ方向への傾斜角度にない状態である。また、こうした第1〜5の状態とするためのテーブル14の傾斜角度は、作業者が任意に決定するようにしてもよいし、予めマイクロコンピューター(図示せず。)に記憶しておくようにしてもよい。   At this time, the table 14 is located at the rear end, and the first to fifth states are not in a horizontal state and are not at an inclination angle in the same direction. Further, the inclination angle of the table 14 for achieving the first to fifth states may be arbitrarily determined by the operator, or stored in advance in a microcomputer (not shown). May be.

このステップS410の処理およびステップS408の処理により、テーブル14が後端部に位置するときの、それぞれ撮影方向の異なる6つのチェッカーシート110の映像を取得することとなる。
By the processing in step S410 and the processing in step S408, images of six checker sheets 110 having different shooting directions when the table 14 is located at the rear end are acquired.

次に、テーブル14をステップS402で移動した前端部に移動する(ステップS412)。   Next, the table 14 is moved to the front end portion moved in step S402 (step S412).

即ち、ステップS412の処理では、マイクロコンピューター(図示せず。)の制御により、当該マイクロコンピューターに記憶された前端部にテーブル14を移動する。
That is, in the process of step S412, the table 14 is moved to the front end portion stored in the microcomputer under the control of the microcomputer (not shown).

そして、テーブル14が前端部に位置した状態で、テーブル14をそれぞれ傾斜角度が異なる5つの状態とし、当該5つの状態においてそれぞれチェッカーシート110の撮影を行う(ステップS414)。なお、こうして撮影された映像は、ステップS404の処理において撮影された映像と関連づけてマイクロコンピューター(図示せず。)に記憶される。   Then, with the table 14 positioned at the front end, the table 14 is set to five states having different inclination angles, and the checker sheet 110 is photographed in each of the five states (step S414). The video shot in this way is stored in a microcomputer (not shown) in association with the video shot in the process of step S404.

即ち、このステップS414の処理では、テーブル14が前端部に位置した状態で、平行移動や同一回転した状態とならないように、テーブル14をそれぞれ傾斜角度が異なる5つの状態とし、各状態において、それぞれチェッカーシート110の撮影を行うものである。   That is, in the process of step S414, the table 14 is set to five states having different inclination angles so that the table 14 is not moved in parallel or rotated in the state where the table 14 is located at the front end portion. The checker sheet 110 is photographed.

具体的には、ステップS414の処理では、テーブル14を水平状態から傾斜させて第6の状態とし、第6の状態でチェッカーシート110の撮影を行う。また、テーブル14を第6の状態から傾斜させて第7の状態とし、第7の状態でチェッカーシート110の撮影を行う。また、テーブル14を第7の状態から傾斜させて第8の状態とし、第8の状態でチェッカーシート110の撮影を行う。また、テーブル14を第8の状態から傾斜させて第9の状態とし、第9の状態でチェッカーシート110の撮影を行う。また、テーブル14を第9の状態から傾斜させて第10の状態とし、第10の状態でチェッカーシート110の撮影を行う。   Specifically, in the process of step S414, the table 14 is inclined from the horizontal state to the sixth state, and the checker sheet 110 is photographed in the sixth state. Further, the table 14 is inclined from the sixth state to the seventh state, and the checker sheet 110 is photographed in the seventh state. Further, the table 14 is inclined from the seventh state to the eighth state, and the checker sheet 110 is photographed in the eighth state. Further, the table 14 is tilted from the eighth state to the ninth state, and the checker sheet 110 is photographed in the ninth state. Further, the table 14 is inclined from the ninth state to the tenth state, and the checker sheet 110 is photographed in the tenth state.

なお、このとき、テーブル14は前端部に位置した状態であり、第6〜10の状態は、いずれも水平状態ではなく、かつ、互いに同じ方向への傾斜角度にない状態である。また、こうした第6〜10の状態は、作業者が任意に決定するようにしてもよいし、予めマイクロコンピューター(図示せず。)に記憶しておくようにしてもよい。作業者が任意に決定する場合には、ステップS410の処理において第1〜5の状態をマイクロコンピューター(図示せず。)に記憶するようにして、第1〜5の状態と第6〜10の状態とをそれぞれ同様の傾斜とするようにしてもよい。   At this time, the table 14 is located at the front end, and the sixth to tenth states are not in a horizontal state and are not at an inclination angle in the same direction. The sixth to tenth states may be arbitrarily determined by the operator, or may be stored in advance in a microcomputer (not shown). When the operator arbitrarily determines, the first to fifth states and the sixth to tenth states are stored in the microcomputer (not shown) in the process of step S410. The state may be set to the same inclination.

このステップS414の処理およびステップS404の処理により、テーブル14が前端部に位置するときの、それぞれ撮影方向が異なる6つのチェッカーシート110の映像を取得することとなる。
Through the processing in step S414 and the processing in step S404, images of six checker sheets 110 having different shooting directions when the table 14 is positioned at the front end are acquired.

その後、マイクロコンピューター(図示せず。)において、ステップS404の処理で撮影された映像およびステップS414の処理で撮影された映像から、テーブル14が前端部に位置するときのカメラキャリブレーションを行う(ステップS416)。   Thereafter, in a microcomputer (not shown), camera calibration is performed when the table 14 is located at the front end from the video imaged in step S404 and the video imaged in step S414 (step 414). S416).

即ち、マイクロコンピューター(図示せず。)に記憶された6つの映像を利用して、テーブル14が前端部に位置するときのカメラの外部パラメータと内部パラメータとを取得する。   That is, the external parameters and internal parameters of the camera when the table 14 is located at the front end are acquired using six images stored in a microcomputer (not shown).

なお、カメラの外部パラメータおよび内部パラメータを取得する方法については、公知の技術のため、その詳細な説明は省略する。
In addition, since it is a well-known technique about the method to acquire the external parameter and internal parameter of a camera, the detailed description is abbreviate | omitted.

テーブル14が前端部に位置するときのカメラキャリブレーションが終了すると、次に、マイクロコンピューター(図示せず。)において、ステップS408の処理で撮影された映像およびステップS410の処理で撮影された映像から、テーブル14が後端部に位置するときのカメラキャリブレーションを行う(ステップS418)。   When the camera calibration when the table 14 is located at the front end is completed, the microcomputer (not shown) then uses the video imaged in step S408 and the video imaged in step S410. Then, camera calibration is performed when the table 14 is positioned at the rear end (step S418).

即ち、マイクロコンピューター(図示せず。)に記憶された6つの映像を利用して、テーブル14が前端部に位置するときのカメラの外部パラメータを取得する。
That is, the external parameters of the camera when the table 14 is located at the front end are acquired using six images stored in a microcomputer (not shown).

次に、ステップS416で取得したカメラの外部パラメータおよびステップS418で取得したカメラの外部パラメータを利用して、カメラの動的な外部パラメータを算出する計算式を取得し(ステップS420)、移動カウント数毎にカメラの動的な外部パラメータを取得する(ステップS422)。   Next, using the camera external parameters acquired in step S416 and the camera external parameters acquired in step S418, a calculation formula for calculating dynamic camera external parameters is acquired (step S420), and the movement count number is acquired. Each time a dynamic external parameter of the camera is acquired (step S422).

即ち、ステップS420の処理においては、上記したようにして(1)式および(2)式を取得する。   That is, in the process of step S420, the expressions (1) and (2) are acquired as described above.

このステップS422の処理が終了すると、カメラキャリブレーション処理を終了する。
When the process of step S422 ends, the camera calibration process ends.

カメラキャリブレーション処理が終了すると、取得したカメラの動的な外部パラメータに基づいて、プロジェクタの動的な外部パラメータを取得する。   When the camera calibration process ends, the dynamic external parameters of the projector are acquired based on the acquired dynamic external parameters of the camera.

なお、プロジェクタの動的な外部パラメータを取得する手法については、上記において既に説明しているため、その詳細は省略する。
Since the method for acquiring the dynamic external parameters of the projector has already been described above, the details thereof will be omitted.

カメラ30とプロジェクタ28とのキャリブレーションが終了すると、次に、三次元形状データの作成を行う。   When calibration between the camera 30 and the projector 28 is completed, next, three-dimensional shape data is created.

この三次元形状データの作成では、まず、作成したい三次元形状の模型たる測定対象物200を用意し、この測定対象物200を、チェッカーシート110を取り外したテーブル14上に載置する。   In the creation of the three-dimensional shape data, first, a measurement object 200 as a three-dimensional shape model to be created is prepared, and the measurement object 200 is placed on the table 14 from which the checker sheet 110 is removed.

そして、テーブル14を所定の位置に移動し、テーブル14を当該所定の位置から所定のピッチ幅で後端部まで移動する。このとき、テーブル14が所定のピッチ幅で動く毎に、測定対象物200が載置され、プロジェクタ28によりスリット光が投光されたテーブル14をカメラ30により撮影する。
Then, the table 14 is moved to a predetermined position, and the table 14 is moved from the predetermined position to the rear end portion with a predetermined pitch width. At this time, every time the table 14 moves with a predetermined pitch width, the measurement object 200 is placed, and the table 14 on which the slit light is projected by the projector 28 is photographed by the camera 30.

こうして、テーブル14を移動しながら所定のピッチ幅毎に撮影した映像から測定対象物200の三次元形状の一次データを取得する。   In this way, the primary data of the three-dimensional shape of the measuring object 200 is acquired from the video captured at every predetermined pitch width while moving the table 14.

取得した三次元形状の一次データは、例えば、マイクロコンピューター(図示せず。)に接続されたパーソナルコンピューター(図示せず。)に出力され、当該パーソナルコンピューターにおいて、三次元形状の二次データを作成するための専用のソフトなどを利用して、当該一次データから三次元形状の二次データを作成する。   The acquired primary data of the three-dimensional shape is output to, for example, a personal computer (not shown) connected to a microcomputer (not shown), and the secondary data of the three-dimensional shape is created on the personal computer. The secondary data of the three-dimensional shape is created from the primary data by using dedicated software or the like.

そして、パーソナルコンピューター(図示せず。)で作成された二次データは、マイクロコンピューター(図示せず。)に出力され、当該マイクロコンピューターにおいて三次元形状データとして保存されることとなる。
The secondary data created by a personal computer (not shown) is output to a microcomputer (not shown) and stored as three-dimensional shape data in the microcomputer.

そして、パーソナルコンピューター(図示せず。)で作成された三次元形状データの二次データは切削データに変換される。その後、この切削データは、マイクロコンピューター(図示せず。)に出力され、当該マイクロコンピューターにおいて切削データとして保存されることとなる。   Then, secondary data of the three-dimensional shape data created by a personal computer (not shown) is converted into cutting data. Thereafter, the cutting data is output to a microcomputer (not shown) and stored as cutting data in the microcomputer.

なお、三次元形状データから切削データに変換する処理については、各種の公知の技術を使用するため、その詳細な説明は省略する。
In addition, about the process which converts 3D shape data into cutting data, since various well-known techniques are used, the detailed description is abbreviate | omitted.

三次元データから切削データを作成すると、作業者は、テーブル14上に被加工物100を載置するとともに、ヘッド部24の主軸24cに加工工具22を支持させる。   When the cutting data is created from the three-dimensional data, the operator places the workpiece 100 on the table 14 and supports the machining tool 22 on the spindle 24 c of the head portion 24.

その後、作業者により図示しない操作子などを介して加工開始の指示がなされると、マイクロコンピューター(図示せず。)の制御により、作成した切削データに基づいて、テーブル14をX軸方向に移動させ、ヘッド部24をY軸方向に移動させ、さらに、移動部材24bをZ軸方向に移動させて、被加工物100に対して加工工具22によって三次元加工が施される。
Thereafter, when the operator gives an instruction to start machining via an operator (not shown), the table 14 is moved in the X-axis direction based on the created cutting data under the control of a microcomputer (not shown). Then, the head portion 24 is moved in the Y-axis direction, and the moving member 24b is further moved in the Z-axis direction, and the workpiece 100 is subjected to three-dimensional machining by the machining tool 22.

以上において説明したように、本発明によるキャリブレーション方法においては、三次元加工装置10において、実際にはカメラ30およびプロジェクタ28が固定され測定対象物200が移動するものを、測定対象物200が固定されカメラ30およびプロジェクタ28が移動ものと考え、測定対象物200が載置される移動手段たるテーブル14が移動可能な少なくとも2箇所においてカメラキャリブレーションを行うようにした。   As described above, in the calibration method according to the present invention, in the three-dimensional processing apparatus 10, the measurement target 200 is fixed when the camera 30 and the projector 28 are actually fixed and the measurement target 200 moves. The camera 30 and the projector 28 are considered to move, and the camera calibration is performed at least at two places where the table 14 as the moving means on which the measurement object 200 is placed can move.

このとき、カメラキャリブレーションを行う箇所は、カメラ30によりチェッカーシート110が撮影可能な箇所である。   At this time, the location where the camera calibration is performed is a location where the checker sheet 110 can be photographed by the camera 30.

そして、カメラキャリブレーションを行うテーブル14の前端部および後端部では、まず前端部においてチェッカーシート110が水平状態のときの撮影を行い、次に、後端部においてチェッカーシートが水平状態のときを含む6つの状態(それぞれ傾斜角度が異なる状態である。)の撮影を行い、その後、前端部においてチェッカーシート110の5つの状態(それぞれ傾斜角度が異なる状態である。)の撮影を行うようにした。   Then, at the front end portion and the rear end portion of the table 14 for performing camera calibration, first, photographing is performed when the checker sheet 110 is in the horizontal state at the front end portion, and then, when the checker sheet is in the horizontal state at the rear end portion. 6 states (each having a different inclination angle) were photographed, and thereafter, five states of the checker sheet 110 (each having a different inclination angle) were photographed at the front end. .

こうして算出したカメラの外部パラメータから、テーブル14の最小移動単位である所定のピッチ毎に按分比例し、カメラの動的な外部パラメータを算出するようにしたものである。   From the camera external parameters thus calculated, the camera's dynamic external parameters are calculated in proportion to each predetermined pitch, which is the minimum movement unit of the table 14.

これにより本発明によるキャリブレーション方法においては、簡単にキャリブレーションを行うことができるようになる。   As a result, in the calibration method according to the present invention, the calibration can be easily performed.

また、本発明による三次元加工装置10においては、簡単に三次元形状データを作成することができるようになり、様々な形状の三次元加工を行うことができるようになる。
In the three-dimensional processing apparatus 10 according to the present invention, three-dimensional shape data can be easily created, and three-dimensional processing of various shapes can be performed.

なお、上記した実施の形態は、以下の(1)乃至(8)に示すように変形するようにしてもよい。   The embodiment described above may be modified as shown in the following (1) to (8).

(1)上記した実施の形態においては、プロジェクタ28を、発光ダイオードとスリットが形成されたフィルターとを有して構成されるようにしたが、これに限られるものではないことは勿論であり、例えば、ラインレーザーを用いるようにしてもよく、プロジェクタ28としては、スリット光を投光できる各種公知の技術を用いるようにしてもよい。   (1) In the above-described embodiment, the projector 28 is configured to include a light emitting diode and a filter in which a slit is formed. However, the present invention is not limited to this, For example, a line laser may be used, and as the projector 28, various known techniques that can project slit light may be used.

(2)上記した実施の形態においては、ヘッド部24の上方側にカメラ30およびプロジェクタ28を設けるようにしたが、例えば、ヘッド部24とカメラ30およびプロジェクタ28とを別体とするようにしてもよい。   (2) In the above-described embodiment, the camera 30 and the projector 28 are provided above the head unit 24. For example, the head unit 24, the camera 30, and the projector 28 are separated. Also good.

具体的には、カメラ30およびプロジェクタ28が設けられた板状部材26を取り外し可能な構成とし、三次元形状データを作成する際のみ、立設部材16、18の上端部16a、18aに配設されるような構成としてもよい。   Specifically, the plate member 26 provided with the camera 30 and the projector 28 is configured to be removable, and is disposed on the upper end portions 16a and 18a of the standing members 16 and 18 only when three-dimensional shape data is created. It is good also as such a structure.

あるいは、ヘッド部材24が配設された立設部材16、18を後方側に傾倒することが可能な構成とし、三次元形状データを作成する際には、立設部材16、18を傾倒して後方側に倒し、テーブル14の上方側にスペースを作成する。その後、基台部材12の固定可能な脚部を備えるとともに、カメラ30およびプロジェクタ28が設けられた固定部材を基台部材12上に固定し、固定部材に設けられたカメラ30およびプロジェクタ28により、キャリブレーションおよび三次元形状データの作成を行うようにしてもよい。   Alternatively, the standing members 16 and 18 provided with the head member 24 can be tilted backward, and when the three-dimensional shape data is created, the standing members 16 and 18 are tilted. Tilt backwards to create a space above the table 14. Thereafter, the base member 12 is provided with a leg portion that can be fixed, the fixing member provided with the camera 30 and the projector 28 is fixed on the base member 12, and the camera 30 and the projector 28 provided on the fixing member are used. Calibration and creation of three-dimensional shape data may be performed.

(3)上記した実施の形態においては、カメラキャリブレーションを行う箇所として、移動手段が移動可能な直線上の少なくとも2点をテーブル14の前端部および後端部としたが、これに限られるものではないことは勿論であり、カメラキャリブレーションを行う箇所としては、カメラ30による撮影が可能であって、テーブル14が移動可能な直線上であれば、任意の2点以上を選択すればよい。   (3) In the above-described embodiment, at least two points on the straight line to which the moving means can be moved are the front end portion and the rear end portion of the table 14 as the locations where the camera calibration is performed. Of course, any two or more points may be selected as camera calibration locations as long as the camera 30 can be photographed and the table 14 is movable.

(4)上記した実施の形態においては、ステップS416の処理においてカメラの内部パラメータを取得するようにしたが、カメラの内部パラメータは、ステップS418の処理において取得するようにしてもよい。   (4) In the above-described embodiment, the camera internal parameters are acquired in the process of step S416. However, the camera internal parameters may be acquired in the process of step S418.

(5)上記した実施の形態においては、チェッカーシート110をそれぞれ異なる6つの方向から撮影するようにしたが、これに限られるものではないことは勿論であり、7つ以上のそれぞれ異なる方向からチェッカーシート110を撮影するようにしてもよい。   (5) In the above-described embodiment, the checker sheet 110 is photographed from six different directions. However, the present invention is not limited to this. Of course, the checker sheet 110 is photographed from seven or more different directions. The sheet 110 may be photographed.

(6)上記した実施の形態においては、カメラキャリブレーション処理において、撮影された映像データなどをマイクロコンピューター(図示せず。)に記憶し、当該マイクロコンピューターにおいてカメラの外部パラメータ、内部パラメータ、動的な外部パラメータおよびプロジェクタの外部パラメータ、動的な外部パラメータなどを取得するようにしたが、これに限られるものではないことは勿論である。   (6) In the above-described embodiment, in the camera calibration process, captured video data and the like are stored in a microcomputer (not shown), and the external parameters, internal parameters, and dynamics of the camera are stored in the microcomputer. Although external parameters, projector external parameters, dynamic external parameters, and the like are acquired, the present invention is not limited to this.

即ち、三次元加工装置10にパーソナルコンピューターを接続し、撮影された映像データなどを当該パーソナルコンピューターに記憶するとともに、当該パーソナルコンピューターにおいてカメラの外部パラメータ、内部パラメータ、動的な外部パラメータおよびプロジェクタの外部パラメータ、動的な外部パラメータなどを取得するようにしてもよい。   That is, a personal computer is connected to the three-dimensional processing apparatus 10 and the captured video data and the like are stored in the personal computer. In the personal computer, the camera external parameters, internal parameters, dynamic external parameters, and projector externals are stored. You may make it acquire a parameter, a dynamic external parameter, etc.

(7)上記した実施の形態においては、ステップS402の処理およびステップS406の処理においてテーブル14を水平状態としたが、これに限られるものではないことは勿論であり、テーブル14は水平状態でなく、任意の方向に傾斜した傾斜状態としてもよい。   (7) In the above-described embodiment, the table 14 is set in the horizontal state in the processing in step S402 and the processing in step S406. However, the present invention is not limited to this, and the table 14 is not in the horizontal state. A tilted state tilted in an arbitrary direction may be used.

この場合、ステップS410の処理において、第1〜5の状態は、いずれもステップS402における傾斜状態ではなく、かつ、互いに同じ方向への傾斜角度にない状態となる。   In this case, in the process of step S410, none of the first to fifth states is the tilted state in step S402, and is not in the tilt angle in the same direction.

また、ステップS414の処理において、第6〜10の状態は、いずれもステップS406の処理における傾斜状態ではなく、かつ、互いに同じ方向への傾斜角度にない状態となる。   Further, in the process of step S414, the sixth to tenth states are not in the inclined state in the process of step S406, and are not in an inclination angle in the same direction.

(8)上記した実施の形態ならびに上記した(1)乃至(7)に示す変形例は、適宜に組み合わせるようにしてもよい。   (8) You may make it combine suitably the embodiment shown above and the modification shown in said (1) thru | or (7).

本発明は、被加工物を三次元形状に加工する際のキャリブレーション方法として用いて好適である。   The present invention is suitable for use as a calibration method for processing a workpiece into a three-dimensional shape.

10 三次元加工装置、12 基台部材、14 テーブル、16、18 立設部材、20 ガイドレール、22 加工工具、24 ヘッド部、26 板状部材、28 プロジェクタ、30 カメラ、100 被加工物、110 チェッカーシート、200 測定対象物   DESCRIPTION OF SYMBOLS 10 Three-dimensional processing apparatus, 12 Base member, 14 Table, 16, 18 Standing member, 20 Guide rail, 22 Processing tool, 24 Head part, 26 Plate-shaped member, 28 Projector, 30 Camera, 100 Workpiece, 110 Checker sheet, 200 object to be measured

Claims (4)

光切断法により測定対象物の三次元形状の測定を行うとともに、スリット光を投光するプロジェクタと、前記プロジェクタより投光されたスリット光を撮影するカメラとが固定的に配設され、移動手段により前記測定対象物を移動するようにした三次元形状測定装置におけるキャリブレーション方法において、
カメラによる撮影が可能であり、かつ、移動手段の移動可能な少なくとも2箇所において前記カメラの外部パラメータを算出し、
算出した前記カメラの外部パラメータから前記移動手段の最小移動単位で按分比例して、前記移動手段の移動量に基づく前記カメラの外部パラメータを取得し、
取得した移動量に基づく前記カメラの外部パラメータからプロジェクタの外部パラメータを取得する
ことを特徴とするキャリブレーション方法。
A projector that measures the three-dimensional shape of an object to be measured by a light cutting method, and that projects slit light, and a camera that photographs slit light projected from the projector are fixedly disposed, and moving means In the calibration method in the three-dimensional shape measuring apparatus adapted to move the measurement object by
The external parameters of the camera are calculated in at least two places where the photographing by the camera is possible and the moving means is movable,
From the calculated external parameter of the camera, in proportion to the minimum movement unit of the moving means, to acquire the external parameter of the camera based on the moving amount of the moving means,
A calibration method, wherein external parameters of the projector are acquired from external parameters of the camera based on the acquired movement amount.
請求項1に記載のキャリブレーション方法において、
前記移動手段の移動可能な少なくとも2箇所は、前記カメラにより前記移動手段に載置されたチェッカーシートを撮影可能な最も前方側たる前端部と、前記カメラにより前記移動手段に載置された前記チェッカーシートを撮影可能な最も後方側たる後端部とであり、
前記カメラを前記前端部に位置させて前記チェッカーシートを撮影し、前記カメラを前記後端部に位置させて前記チェッカーシートをそれぞれ異なる少なくとも6つの方向から撮影し、前記カメラを再度前記前端部に位置させて前記チェッカーシートを、未だ撮影していない方向であり、かつ、それぞれ異なる少なくとも5つの方向から撮影することによって、前記前端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像を取得するとともに、前記後端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像を取得し、
前記前端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像に基づいて、前記前端部におけるカメラの外部パラメータを求めるとともに、前記後端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像に基づいて、前記後端部におけるカメラの外部パラメータを求める
ことを特徴とするキャリブレーション方法。
The calibration method according to claim 1,
At least two places where the moving means can move are a front end portion which is the foremost side capable of photographing a checker sheet placed on the moving means by the camera, and the checker placed on the moving means by the camera. And the rear end, which is the rearmost side capable of photographing the seat,
The camera is positioned at the front end to capture the checker sheet, the camera is positioned at the rear end to capture the checker sheet from at least six different directions, and the camera is again positioned at the front end. By capturing the checker sheet in a direction that has not yet been photographed and photographed from at least five different directions, images of the checker sheet photographed from at least six different directions at the front end are obtained. And acquiring images of checker sheets taken from at least six different directions at the rear end,
Based on images of checker sheets taken from at least six different directions at the front end, external parameters of the camera at the front end are obtained, and checker sheets taken from at least six different directions at the rear end. A calibration method characterized in that an external parameter of the camera at the rear end portion is obtained based on an image.
三次元形状データに基づいて、被加工物に対して三次元加工を行う三次元加工装置において、
前記被加工物や所望の形状に形成された測定対象物を載置するとともに、傾斜角度をそれぞれ異なる少なくとも6つの方向に変更することが可能な移動手段と、
前記移動手段上にスリット光を投光するプロジェクタと、
前記プロジェクタより投光されたスリット光を撮影するカメラと、
前記移動手段の移動および傾斜角度を制御するとともに、前記プロジェクタのスリット光の投光のタイミングおよび前記カメラの撮影のタイミングを制御する制御手段と、
請求項1および請求項2のいずれか1項に記載のキャリブレーション方法によりキャリブレーションを行うとともに、光切断法により前記測定対象物の三次元形状を測定して、前記測定対象物の三次元形状データを作成する三次元形状測定手段と
を有することを特徴とする三次元加工装置。
In the three-dimensional processing device that performs three-dimensional processing on the workpiece based on the three-dimensional shape data,
A moving means for placing the workpiece and the measurement object formed in a desired shape and capable of changing the inclination angle in at least six different directions,
A projector that projects slit light on the moving means;
A camera for photographing the slit light projected from the projector;
Control means for controlling the movement and tilt angle of the moving means, and the timing for projecting the slit light of the projector and the timing for photographing the camera;
A calibration is performed by the calibration method according to any one of claims 1 and 2, and a three-dimensional shape of the measurement object is measured by a light cutting method to measure the three-dimensional shape of the measurement object. A three-dimensional processing apparatus comprising: three-dimensional shape measuring means for creating data.
請求項3に記載の三次元加工装置において、
前記カメラおよび前記プロジェクタは、キャリブレーションおよび前記測定対象物の三次元形状データを作成する際に取り付けられ、前記被加工物に対して三次元加工を行う際には取り外される
ことを特徴とする三次元加工装置。
In the three-dimensional processing apparatus according to claim 3,
The camera and the projector are attached when calibration and three-dimensional shape data of the measurement object are created, and are removed when performing three-dimensional machining on the workpiece. Original processing equipment.
JP2012244055A 2012-11-06 2012-11-06 Calibration method and three-dimensional processing apparatus Expired - Fee Related JP6029938B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012244055A JP6029938B2 (en) 2012-11-06 2012-11-06 Calibration method and three-dimensional processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012244055A JP6029938B2 (en) 2012-11-06 2012-11-06 Calibration method and three-dimensional processing apparatus

Publications (2)

Publication Number Publication Date
JP2014092495A JP2014092495A (en) 2014-05-19
JP6029938B2 true JP6029938B2 (en) 2016-11-24

Family

ID=50936651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244055A Expired - Fee Related JP6029938B2 (en) 2012-11-06 2012-11-06 Calibration method and three-dimensional processing apparatus

Country Status (1)

Country Link
JP (1) JP6029938B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106152947B (en) * 2015-03-31 2019-11-29 北京京东尚科信息技术有限公司 Measure equipment, the method and apparatus of dimension of object
CN110360954B (en) * 2019-08-14 2021-05-04 山东师范大学 A Surface Measurement Method and System Based on Spatial Coordinate Calculation
JP7444396B2 (en) 2020-10-06 2024-03-06 学校法人福岡工業大学 3D image measurement system, 3D image measurement method, 3D image measurement program, and recording medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3685772B2 (en) * 2002-05-14 2005-08-24 三洋電機株式会社 Camera parameter calibration method for three-dimensional shape measuring apparatus
US7307654B2 (en) * 2002-10-31 2007-12-11 Hewlett-Packard Development Company, L.P. Image capture and viewing system and method for generating a synthesized image
JP4111166B2 (en) * 2004-05-07 2008-07-02 コニカミノルタセンシング株式会社 3D shape input device
US8310539B2 (en) * 2009-05-29 2012-11-13 Mori Seiki Co., Ltd Calibration method and calibration device
JP2011091527A (en) * 2009-10-21 2011-05-06 Panasonic Corp Video conversion device and imaging apparatus
JP5410328B2 (en) * 2010-02-19 2014-02-05 日本電信電話株式会社 Optical projection stabilization device, optical projection stabilization method, and program
JP2012202694A (en) * 2011-03-23 2012-10-22 Canon Inc Camera calibration method

Also Published As

Publication number Publication date
JP2014092495A (en) 2014-05-19

Similar Documents

Publication Publication Date Title
JP6222898B2 (en) Three-dimensional measuring device and robot device
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
JP4492654B2 (en) 3D measuring method and 3D measuring apparatus
JP6092530B2 (en) Image processing apparatus and image processing method
JP2874710B2 (en) 3D position measuring device
US20140218366A1 (en) Method and device for displaying an object
JP5948729B2 (en) Shape measuring device
JP2012218120A (en) Manipulator operation previous notice device, robot system and method for previously noticing manipulator operation
JP5001330B2 (en) Curved member measurement system and method
JP2007233516A (en) Image measuring system, image measuring method, and image measuring program
TW202234184A (en) A simulation device using 3D position information obtained from the output of a vision sensor
JP2016148649A (en) Information processing apparatus, information processing apparatus control method, and program
JP6029938B2 (en) Calibration method and three-dimensional processing apparatus
JP2013130508A (en) Three-dimension measurement method, three-dimension measurement program, and robot device
JP6180158B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP2014228527A (en) Image measurement device
CN109773589B (en) Method, device and equipment for online measurement and machining guidance of workpiece surface
JP4077755B2 (en) POSITION DETECTION METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND CALIBRATION INFORMATION GENERATION METHOD
JP2012177596A (en) Holder for calibration and method for calibrating photo cutting type shape measuring instrument
JP2022115133A (en) inspection equipment
JP2004077262A (en) Three-dimensional imaging apparatus and method
KR20200066659A (en) Job support system and job support method
JP4956960B2 (en) 3D shape measuring apparatus and 3D shape measuring method
JP7204580B2 (en) CALIBRATION DETECTION APPARATUS, METHOD AND PROGRAM
JP2007033087A (en) Calibration device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161019

R150 Certificate of patent or registration of utility model

Ref document number: 6029938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees