JP6029938B2 - Calibration method and three-dimensional processing apparatus - Google Patents
Calibration method and three-dimensional processing apparatus Download PDFInfo
- Publication number
- JP6029938B2 JP6029938B2 JP2012244055A JP2012244055A JP6029938B2 JP 6029938 B2 JP6029938 B2 JP 6029938B2 JP 2012244055 A JP2012244055 A JP 2012244055A JP 2012244055 A JP2012244055 A JP 2012244055A JP 6029938 B2 JP6029938 B2 JP 6029938B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- projector
- moving means
- dimensional shape
- checker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 91
- 238000012545 processing Methods 0.000 title claims description 55
- 238000005259 measurement Methods 0.000 claims description 63
- 238000003754 machining Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 description 26
- 239000011159 matrix material Substances 0.000 description 22
- 239000013598 vector Substances 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 12
- 238000013519 translation Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000000691 measurement method Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、キャリブレーション方法および三次元加工装置に関し、さらに詳細には、光切断法により三次元形状を測定する際のキャリブレーション方法および当該キャリブレーション方法を用いて三次元形状の測定を行う三次元加工装置に関する。 The present invention relates to a calibration method and a three-dimensional processing apparatus. More specifically, the present invention relates to a calibration method for measuring a three-dimensional shape by a light cutting method, and a tertiary method for measuring a three-dimensional shape using the calibration method. The present invention relates to an original processing apparatus.
従来より、被加工物を切削加工して、当該被加工物を所定の形状に成形する三次元加工装置が知られている。 2. Description of the Related Art Conventionally, a three-dimensional processing apparatus is known that cuts a workpiece and shapes the workpiece into a predetermined shape.
こうした三次元加工装置において被加工物に対して切削加工を行うには、切削加工後の被加工物の形状を示す三次元形状データが必要となる。 In order to perform cutting on a workpiece in such a three-dimensional processing apparatus, three-dimensional shape data indicating the shape of the workpiece after cutting is required.
この三次元形状データについては、例えば、加工したい形状と同様の形状の模型を用い、三次元形状測定装置により当該模型の三次元形状を測定して、必要な三次元形状データを作成するようにしていた。
As for the three-dimensional shape data, for example, a model having the same shape as the shape to be processed is used, and the three-dimensional shape of the model is measured by a three-dimensional shape measuring device to generate necessary three-dimensional shape data. It was.
ここで、こうした三次元形状測定装置において模型の三次元形状を測定する技術として、光を用いて測定対象物の三次元形状を非接触で測定する技術が知られている。 Here, as a technique for measuring the three-dimensional shape of a model in such a three-dimensional shape measuring apparatus, a technique for measuring the three-dimensional shape of a measurement object using light without contact is known.
一般に、光を用いて測定対象物の三次元形状を非接触で測定する技術としては、受動的測定法と能動的測定法とがある。 In general, there are a passive measurement method and an active measurement method as a technique for measuring the three-dimensional shape of an object to be measured in a non-contact manner using light.
受動的測定法とは、ステレオ法に代表されるように、測定機器側は投光手段を持たずに、環境光を利用して測定するという手法である。 The passive measurement method is a method in which measurement is performed using ambient light without having a light projecting unit on the measurement device side, as represented by a stereo method.
一方、能動的測定法とは、測定機器側の投光手段から測定対象物に向けて光を照射して、その反射光を測定するという手法である。 On the other hand, the active measurement method is a method of irradiating light from the light projecting means on the measurement device side toward the measurement object and measuring the reflected light.
そして、こうした能動的測定法のなかで、三角測量の原理を用いるものとしては、光切断法や空間コード化法、位相シフト法などが知られている。 Among these active measurement methods, those using the principle of triangulation include the light section method, the spatial coding method, and the phase shift method.
具体的には、例えば、光切断法においては、測定対象物に対してスリット状の光を投光して、当該測定対象物の三次元形状を測定するものである。 Specifically, for example, in the light cutting method, slit-like light is projected onto the measurement object, and the three-dimensional shape of the measurement object is measured.
ここで、光切断法を用いた三次元形状測定装置は、コンピューターによりその全体の動作を制御するように構成されており、測定対象物を撮影するカメラと、このカメラと異なる方向から測定対象物に対してスリット状の光(以下、「スリット光」と称する。)を照射するプロジェクタとを備え、このプロジェクタからスリット光が投光された測定対象物をカメラで撮影する。 Here, the three-dimensional shape measuring apparatus using the light cutting method is configured to control the entire operation by a computer, and a camera for photographing the measurement object and the measurement object from a different direction from the camera. And a projector that irradiates slit-shaped light (hereinafter referred to as “slit light”), and the camera measures the object to which the slit light is projected from the projector.
このとき、測定対象物表面に投光したスリット光の形状は、スリット光が投光された測定対象物の断面の輪郭の形状と考えることができる。 At this time, the shape of the slit light projected on the surface of the measurement object can be considered as the shape of the contour of the cross section of the measurement object on which the slit light is projected.
このため、この光切断法では、測定対象物の三次元形状を測定する際には、測定対象物あるいはカメラおよびプロジェクタのいずれか一方を所定の間隔で移動し、測定対象物表面をスリット光が走査するようにする。このとき、当該所定の間隔毎に、スリット光が照射された測定対象物を撮影し、撮影した映像に基づいて測定対象物の全体の三次元形状を計測するものである。 For this reason, in this light cutting method, when measuring the three-dimensional shape of the measurement object, either the measurement object or the camera and the projector are moved at a predetermined interval, and the surface of the measurement object is subjected to slit light. Try to scan. At this time, the measurement object irradiated with the slit light is photographed at each predetermined interval, and the entire three-dimensional shape of the measurement object is measured based on the photographed image.
ここで、スリット光の測定対象物上の一点を考えると、幾何学的な考察が容易なピンホールモデルでは、その点とカメラの光学中心とを結ぶ直線は、カメラの結像面の一点を通る。つまり、画像中のある一点は、カメラから測定対象物へ延びる直線、換言すると、視線の方程式を決定する。 Here, considering a point on the measurement object of the slit light, in a pinhole model that is easy to consider geometrically, the straight line connecting that point and the optical center of the camera is a point on the image plane of the camera. Pass through. That is, a certain point in the image determines a straight line extending from the camera to the measurement object, in other words, a line-of-sight equation.
また、一本のスリット光は、プロジェクタから測定対象物へ延びる一枚の平面の方程式を決定する。 One slit light determines an equation of one plane extending from the projector to the measurement object.
スリット光が投光されている測定対象物上の一点は、この直線(視線)および平面のいずれの上にも存在することから、それらの方程式より直線と平面との交点を算出すれば測定対象物上の一点の三次元位置を算出することができるようになる。 Since one point on the measurement object on which the slit light is projected exists on both the straight line (line of sight) and the plane, the object to be measured can be calculated by calculating the intersection of the straight line and the plane from these equations. The three-dimensional position of a point on the object can be calculated.
そして、光切断法を用いた三次元形状測定装置においては、スリット光を投光する位置を移動して、こうした処理(つまり、スリット光上の各点の三次元位置の算出である。)を繰り返すことにより、三次元形状を測定するものである。
In the three-dimensional shape measuring apparatus using the light cutting method, the position where the slit light is projected is moved to perform such processing (that is, calculation of the three-dimensional position of each point on the slit light). By repeating, the three-dimensional shape is measured.
ところで、上記したような光切断法を用いた三次元形状測定装置においては、カメラが撮像した測定対象物の画像におけるスリット光の位置と、その位置に対応する実空間における位置との整合を図るためにキャリブレーションを行う必要がある。 By the way, in the three-dimensional shape measuring apparatus using the light cutting method as described above, the position of the slit light in the image of the measurement object imaged by the camera is matched with the position in the real space corresponding to the position. Need to be calibrated.
即ち、上記した光切断法を用いた三次元形状測定装置においては、実際に測定対象物の三次元形状を測定する前に、カメラに対するキャリブレーション(以下、「カメラキャリブレーション」と称する。)を行いカメラの外部パラメータおよび内部パラメータを算出するとともに、プロジェクタに対するキャリブレーション(以下、「プロジェクタキャリブレーション」と称する。)を行いプロジェクタの外部パラメータを算出する。 That is, in the three-dimensional shape measuring apparatus using the above-described light cutting method, calibration for the camera (hereinafter referred to as “camera calibration”) is performed before actually measuring the three-dimensional shape of the measurement object. The external parameters and internal parameters of the camera are calculated, and the projector is calibrated (hereinafter referred to as “projector calibration”) to calculate the external parameters of the projector.
例えば、カメラキャリブレーションにおいては、Zhangの手法を用いることができ、チェッカーシート(図1を参照する。)を利用して、当該チェッカーシートを動かして、それぞれ異なる少なくとも6つの方向(平行移動および同一回転を含まない)からの映像を取得する。 For example, in the camera calibration, the Zhang method can be used, and the checker sheet (refer to FIG. 1) is used to move the checker sheet, so that at least six different directions (parallel movement and the same) Get video from (not including rotation).
このときの一枚目の映像におけるチェッカーシートの左上の交点をワールド座標系の原点とするとともに、短辺をY軸、長編をX軸、X軸からY軸への外積の方向ベクトルをZ軸とする。 At this time, the upper left intersection of the checker sheet in the first image is the origin of the world coordinate system, the short side is the Y axis, the long is the X axis, and the cross product direction vector from the X axis to the Y axis is the Z axis. And
そして、撮影した映像をもとに、正方形の一辺の長さおよび交点の数を特定することで、一枚目の映像に対して、ワールド座標原点と座標軸を設定し、それに対して、カメラ中心がどこにあって、カメラがどの方向に向いているのかを算出するようにしている。 Then, by specifying the length of one side of the square and the number of intersection points based on the captured image, the world coordinate origin and coordinate axes are set for the first image, and the camera center Where and where the camera is facing.
ここで、正方形の一辺の長さとは、チェッカーシートの模様を表す白および黒の正方形の一辺の長さであり、交点の数とは、こうした白と黒との交点の数である。 Here, the length of one side of the square is the length of one side of the white and black squares representing the checker sheet pattern, and the number of intersections is the number of intersections of these white and black.
なお、上記したZhangの手法については、公知の技術のため、その詳細な説明は省略する。 Since the Zhang method described above is a known technique, a detailed description thereof will be omitted.
また、プロジェクタの位置については、カメラキャリブレーションされたカメラで撮影した映像から特定することができる。 Further, the position of the projector can be specified from the video shot by the camera calibrated camera.
例えば、カメラキャリブレーションした後に、単に被写体を載置するテーブルに対してスリット光を投光した際の映像と、当該テーブル上に載置した高さが既知の物体に対して投光したときの映像と、当該物体の高さとから、平面(プロジェクタから被写体にスリット光を投光する際に作成される一枚の平面のことである。)の方程式をワールド座標で表現することができる。 For example, after camera calibration, the image when the slit light is simply projected onto the table on which the subject is placed and the height on the table are projected onto an object with a known height From the image and the height of the object, an equation of a plane (one plane created when slit light is projected from the projector onto the subject) can be expressed in world coordinates.
上記したキャリブレーションの具体的な方法については、各種の公知の技術を用いることができるので、その詳細な説明は省略することとする。
Since various known techniques can be used for the specific method of calibration described above, detailed description thereof will be omitted.
ここで、三次元形状を測定する際には、上記したように、キャリブレーションを行うことにより、任意の場所を原点とした座標系(ワールド座標系)に対して、カメラはどの位置にどの向きで存在しているか(カメラ座標系)、そして、そのカメラの内部で撮像素子はどの方向に向いているか(画像座標系)などを求める。 Here, when measuring a three-dimensional shape, as described above, by performing calibration, the camera is in which position and in what direction with respect to the coordinate system (world coordinate system) with an arbitrary place as the origin. And in which direction the image sensor is oriented (image coordinate system).
そして、上記したようなカメラキャリブレーションにより、任意の原点とはどこか、カメラはどの位置にどの方向に向いて存在しているのか(外部パラメータ)、撮像素子はどの方向に向いているのか(内部パラメータ)を求めるものである。 And by the camera calibration as described above, where is the arbitrary origin, which position the camera is located in which direction (external parameter), and which direction the image sensor is oriented ( (Internal parameter).
なお、上記した光切断法を用いた三次元形状測定装置においては、「測定対象物」あるいは「カメラおよびプロジェクタ」のいずれか一方を所定の間隔で移動するようにしているため、ワールド座標系、カメラ座標系および画像座標系の3座標系の他に、移動のための機械座標系を考慮する必要がある。なお、こうした機械座標系は、ワールド座標系に対して独立して存在するものである。
In the three-dimensional shape measuring apparatus using the above-described light cutting method, either the “measurement object” or the “camera and projector” is moved at a predetermined interval, so that the world coordinate system, In addition to the three coordinate systems of the camera coordinate system and the image coordinate system, it is necessary to consider a machine coordinate system for movement. Such a machine coordinate system exists independently of the world coordinate system.
従来の技術においては、こうした機械座標系を考慮する場合には、例えば、非特許文献1に開示されたオプティカルフローによる移動ベクトルを推定する処理を行っていた。 In the prior art, when such a machine coordinate system is considered, for example, a process for estimating a movement vector by an optical flow disclosed in Non-Patent Document 1 is performed.
即ち、測定対象物が所定の間隔で移動する場合には、測定対象物の移動をオプティカルフローにより認識することとなる。 That is, when the measurement object moves at a predetermined interval, the movement of the measurement object is recognized by the optical flow.
具体的には、移動前後の画像から対応点を求め、その対応点の時間的、空間的な変化から、移動方向や移動速度などをベクトルとして解析するものである。 Specifically, corresponding points are obtained from images before and after movement, and the moving direction and moving speed are analyzed as vectors from temporal and spatial changes of the corresponding points.
そして、取得したオプティカルフローを用いて測定対象物の移動を運動パラメータとして扱い、機械座標系をワールド座標系のなかに取り込んでワールド座標系の動的変化として三次元形状の測定に用いる。
Then, using the acquired optical flow, the movement of the measurement object is treated as a motion parameter, and the machine coordinate system is taken into the world coordinate system and used as a dynamic change of the world coordinate system for measuring a three-dimensional shape.
しかしながら、機械座標系を考慮したカメラキャリブレーションおよびプロジェクタキャリブレーションにおいて、上記したようなオプティカルフローを用いる場合には、移動前の画像と移動後の画像とから対応点を検出するアルゴリズムが非常に複雑となっている。 However, when using the optical flow as described above in camera calibration and projector calibration considering the machine coordinate system, the algorithm for detecting corresponding points from the image before movement and the image after movement is very complicated. It has become.
これにより、機械座標系を考慮したキャリブレーション方法は、対応点を検出するためのアルゴリズムの作成が非常に難しくなるとともに、計算量が多くなってしまうことが問題点として指揮されていた。 As a result, the calibration method considering the machine coordinate system has been commanded as a problem that it is very difficult to create an algorithm for detecting corresponding points, and the amount of calculation is increased.
このため、三次元形状を測定する装置においてオプティカルフローを使用することなしに、キャリブレーションすることが可能なキャリブレーション方法の提案が強く望まれていた。
For this reason, the proposal of the calibration method which can be calibrated without using an optical flow in the apparatus which measures a three-dimensional shape was strongly desired.
また、三次元加工装置においては、例えば、加工対象となる被加工物を所望の形状に加工する際に、当該所望の形状の模型をスキャンするなどして三次元形状データを作成することができるようになれば、三次元加工装置としてより広い用途に使用することができるようになる。 In the three-dimensional processing apparatus, for example, when processing a workpiece to be processed into a desired shape, three-dimensional shape data can be created by scanning a model of the desired shape. Then, it can be used for a wider range of applications as a three-dimensional processing apparatus.
こうした場合には、三次元加工装置において、三次元形状データを作成する前に、上記したようなキャリブレーションを行う必要がある。 In such a case, it is necessary to perform the calibration as described above before creating the three-dimensional shape data in the three-dimensional processing apparatus.
しかしながら、オプティカルフローを使用する場合には、上記した問題点があった。 However, when the optical flow is used, there are the problems described above.
このため、オプティカルフローを使用することなしにキャリブレーションすることが可能であり、模型をスキャンして三次元形状データを作成することが可能な三次元加工装置の提案が強く望まれていた。 For this reason, it is possible to calibrate without using an optical flow, and there has been a strong demand for a three-dimensional processing apparatus capable of creating a three-dimensional shape data by scanning a model.
本発明は、従来の技術の有する上記したような要望に鑑みてなされたものであり、その目的とするところは、オプティカルフローを使用することなくキャリブレーションすることが可能なキャリブレーション方法を提案しようとするものである。 The present invention has been made in view of the above-described demands of the prior art, and an object of the present invention is to propose a calibration method that can be calibrated without using an optical flow. It is what.
また、本発明の目的とするところは、オプティカルフローを使用することなくキャリブレーションを行うことができ、かつ、模型をスキャンして三次元形状データを作成することが可能な三次元加工装置を提供しようとするものである。 In addition, an object of the present invention is to provide a three-dimensional processing apparatus that can perform calibration without using an optical flow and that can create a three-dimensional shape data by scanning a model. It is something to try.
上記の目的を達成するために、本発明によるキャリブレーション方法は、カメラおよびプロジェクタを固定し、測定対象物を移動して(または、カメラおよびプロジェクタを移動し、測定対象物を固定して)光切断法により三次元形状を測定する際に、測定対象物が移動可能な直線上の少なくとも2点において、カメラキャリブレーションを行って、測定対象物の移動量に応じたカメラおよびプロジェクタの外部パラメータを算出するようにしたものである。 In order to achieve the above object, the calibration method according to the present invention fixes the camera and the projector and moves the measurement object (or moves the camera and the projector and fixes the measurement object). When measuring a three-dimensional shape by the cutting method, camera calibration is performed at at least two points on a straight line to which the measurement object can move, and external parameters of the camera and projector corresponding to the amount of movement of the measurement object are set. It is to be calculated.
なお、カメラの内部パラメータについては、事前に取得するようにしてもよいし、上記した2点のうちのどちらか1点において取得するようにしてもよい。 Note that the internal parameters of the camera may be acquired in advance or may be acquired at one of the two points described above.
また、測定対象物は、テーブルなどの移動手段上に載置され、当該移動手段の移動により移動することとなるため、「測定対象物が移動可能な直線上の少なくとも2点」とは、換言すると、「移動手段が移動可能な直線上の少なくとも2点」となる。同様に、「測定対象物の移動量に応じたカメラおよびプロジェクタの外部パラメータ」とは、換言すると、「移動手段の移動量に応じたカメラおよびプロジェクタの外部パラメータ」となる。
Further, since the measurement object is placed on a moving means such as a table and moved by the movement of the moving means, “at least two points on a straight line on which the measurement object can move” is in other words. Then, “at least two points on a straight line on which the moving means can move”. Similarly, the “external parameters of the camera and projector according to the movement amount of the measurement object” is, in other words, “external parameters of the camera and projector according to the movement amount of the moving means”.
ここで、実際には移動手段が直線上を移動する構成となっているが、移動手段上の所定の点から見るとカメラが移動していると考えることができる(図3(a)(b)を参照する。なお、図3(a)(b)においては、所定の点としてワールド座標原点を示している。)。 Here, the moving means is actually configured to move on a straight line, but when viewed from a predetermined point on the moving means, it can be considered that the camera is moving (FIGS. 3A and 3B). 3 (a) and 3 (b), the world coordinate origin is shown as a predetermined point.
このため、本発明においては、実際にはカメラ(プロジェクタ)が固定されて移動手段が移動しているのだが、移動手段が固定されてカメラ(プロジェクタ)が移動するものと考えるようにしたものである。 Therefore, in the present invention, although the camera (projector) is actually fixed and the moving means is moving, it is considered that the moving means is fixed and the camera (projector) moves. is there.
即ち、移動手段の移動量を相対的なカメラ(プロジェクタ)の移動量とみなすようにしたものである。 That is, the movement amount of the moving means is regarded as the relative movement amount of the camera (projector).
そして、移動手段の移動量に応じたカメラの外部パラメータを算出する場合には、移動手段が移動可能な直線上の少なくとも2点におけるカメラの外部パラメータ(回転行列および並進ベクトルである。)を算出し、算出した少なくとも2点における外部パラメータに基づいて、移動手段の移動ピッチ単位で按分比例し、移動手段の移動ピッチ毎のカメラの外部パラメータを取得するようにしたものである。 When calculating the camera external parameters according to the movement amount of the moving means, the camera external parameters (the rotation matrix and the translation vector) at at least two points on the straight line that the moving means can move are calculated. Then, based on the calculated external parameters at at least two points, the external parameters of the camera for each moving pitch of the moving means are obtained in proportion to the moving pitch of the moving means.
具体的には、移動手段の移動量に応じたカメラの外部パラメータ(以下、「カメラの動的な外部パラメータ」と適宜に称することとする。)を算出する計算式を作成し、作成した計算式からカメラの動的な外部パラメータ(カメラの位置を示す並進ベクトルおよびカメラの向きを示す回転行列)を算出するようにしたものである。 Specifically, a calculation formula for calculating a camera external parameter (hereinafter referred to as “camera dynamic external parameter” as appropriate) according to the moving amount of the moving means is created, and the created calculation is performed. A dynamic external parameter of the camera (a translation vector indicating the camera position and a rotation matrix indicating the camera direction) is calculated from the equation.
さらに、算出したカメラの動的な外部パラメータから、移動手段の移動量に応じたプロジェクタの外部パラメータ(以下、「プロジェクタの動的な外部パラメータ」と適宜に称することとする。)を算出するようにしたものである。
Furthermore, from the calculated dynamic external parameters of the camera, the external parameters of the projector corresponding to the movement amount of the moving means (hereinafter referred to as “dynamic external parameters of the projector” as appropriate) are calculated. It is a thing.
以下、カメラの動的な外部パラメータおよびプロジェクタの動的な外部パラメータの算出方法について説明する。 A method for calculating the dynamic external parameters of the camera and the dynamic external parameters of the projector will be described below.
ここで、以下の説明においては、移動手段が前後方向に移動するものとし、「チェッカーシート(後述する。)がカメラに撮影可能な最も前方側の移動手段の位置」を「前端」と称するとともに、「チェッカーシート(図示せず。)がカメラに撮影可能な最も後方側の移動手段の位置」を「後端」と称する。 Here, in the following description, it is assumed that the moving means moves in the front-rear direction, and “the position of the most forward moving means where the checker seat (described later) can be photographed by the camera” is referred to as “front end”. , “The position of the most rearward moving means where the checker sheet (not shown) can be photographed by the camera” is referred to as “rear end”.
そして、移動手段は前後方向に所定のピッチ幅単位で移動するものとし、移動手段が前端に位置するときのカメラの外部パラメータを並進ベクトル「Tf」、回転行列「Rf」とし、移動手段が後端にあるときのカメラの外部パラメータを並進ベクトル「Tb」、回転行列「Rb」とする。 Then, the moving means moves in a predetermined pitch width unit in the front-rear direction, the external parameters of the camera when the moving means is located at the front end are the translation vector “Tf”, the rotation matrix “Rf”, and the moving means Assume that the external parameters of the camera at the end are a translation vector “Tb” and a rotation matrix “Rb”.
また、移動手段の前端から後端までの総移動量を「S」、移動手段が移動する最小単位たる所定のピッチ幅を「P」とし、移動手段の前端からの移動カウント数を「C」とする。なお、移動手段が移動する際には、移動手段の移動量を前端を基点として所定のピッチ幅単位でカウントするようにしており、移動手段の前端からの移動カウント数とはこのカウント数である。
Further, the total movement amount from the front end to the rear end of the moving means is “S”, the predetermined pitch width which is the minimum unit in which the moving means moves is “P”, and the movement count from the front end of the moving means is “C”. And When the moving means moves, the moving amount of the moving means is counted in a predetermined pitch width unit with the front end as a base point, and the movement count from the front end of the moving means is this count number. .
まず、カメラの動的な外部パラメータの算出方法について説明する。つまり、移動手段の移動量に応じた並進ベクトルおよび回転行列の算出方法について説明する。
First, a method for calculating dynamic external parameters of the camera will be described. That is, a method for calculating a translation vector and a rotation matrix according to the amount of movement of the moving means will be described.
移動手段が前端から後端に移動するときの移動手段の移動量に応じた並進ベクトル「T」は、下記の(1)式により表される。
T=Tf+(Tb−Tf)/S×P×C・・・(1)
A translation vector “T” corresponding to the amount of movement of the moving means when the moving means moves from the front end to the rear end is expressed by the following equation (1).
T = Tf + (Tb−Tf) / S × P × C (1)
また、移動手段が直線的にのみ移動しているとすれば、理想的には回転行列を考慮する必要はないが、現実的には回転行列の変化を検討する必要がある。 Also, if the moving means is moving only in a straight line, it is ideally not necessary to consider the rotation matrix, but in reality it is necessary to consider changes in the rotation matrix.
ここで、並進ベクトルと同様に、移動手段が前端から後端に移動すると、回転行列は、
Rf→Rb
に変化する。この変化は、回転行列の回転である。
Here, as with the translation vector, when the moving means moves from the front end to the rear end, the rotation matrix becomes
Rf → Rb
To change. This change is a rotation of the rotation matrix.
回転行列を回転させる行列を「n」とすると、
Rf×n=Rb
となる。
If the matrix that rotates the rotation matrix is “n”,
Rf × n = Rb
It becomes.
従って、
n=Rf−1×Rb
となる。なお、Rf−1はRfの逆行列である。Rf自体が回転行列であり、正規直交行列なので逆行列は存在する。
Therefore,
n = Rf −1 × Rb
It becomes. Rf −1 is an inverse matrix of Rf. Since Rf itself is a rotation matrix and an orthonormal matrix, an inverse matrix exists.
次に、並進ベクトルと同様に、移動手段の移動量に応じた「n」の変化を考える。 Next, similarly to the translation vector, a change of “n” corresponding to the moving amount of the moving means is considered.
「n」は回転行列であるため、移動手段の移動量に応じた(移動手段の前端からの移動カウント数に応じた)回転量(角度)を直接取得することはできない。 Since “n” is a rotation matrix, the rotation amount (angle) corresponding to the movement amount of the moving means (according to the movement count from the front end of the moving means) cannot be directly acquired.
そこで、「n」を回転軸と回転量(角度)とに分解する必要があり、ロドリゲスの回転公式を使用する。なお、ロドリゲスの回転公式、回転軸および回転量への変換については、公知の技術であるため、その詳細な説明は省略する。 Therefore, it is necessary to decompose “n” into the rotation axis and the rotation amount (angle), and the Rodriguez rotation formula is used. In addition, since it is a well-known technique about the rotation formula of Rodrigues, conversion to a rotating shaft, and rotation amount, the detailed description is abbreviate | omitted.
即ち、「n」はロドリゲスの回転公式により、
n=θj
となる。なお、「θ」は回転量、「j」は回転軸(単位方向ベクトル)とする。
That is, “n” is Rodriguez's rotation formula,
n = θj
It becomes. Note that “θ” is a rotation amount, and “j” is a rotation axis (unit direction vector).
この結果、移動手段の移動量に応じた回転量を「θ’」とすると、
θ’=θ/S×P×C
となる。
As a result, when the rotation amount according to the movement amount of the moving means is “θ ′”,
θ ′ = θ / S × P × C
It becomes.
従って、ロドリゲスの回転公式で表現された移動手段の移動量に応じた回転ベクトルは、「θ’j」となる。 Therefore, the rotation vector corresponding to the movement amount of the moving means expressed by the Rodriguez rotation formula is “θ′j”.
この「θ’j」をロドリゲスの逆変換を行って回転行列に戻すことで、移動手段の移動量に応じた回転行列「n’」を取得することができる。 The rotation matrix “n ′” corresponding to the amount of movement of the moving means can be acquired by performing the inverse transformation of Rodrigues and returning this “θ′j” to the rotation matrix.
これにより、移動手段の移動量に応じた回転行列「Rb’」は、下記の(2)式により表される。
Rb’=Rf×n’・・・(2)
Thereby, the rotation matrix “Rb ′” corresponding to the movement amount of the moving means is expressed by the following equation (2).
Rb ′ = Rf × n ′ (2)
このようにして、移動カウント数に応じて上記した(1)式および(2)式からカメラの動的な外部パラメータ(移動手段の移動量に応じた並進ベクトル「T」および回転行列「Rb’」)を求めることができるようになる。
In this way, the dynamic external parameters of the camera (the translation vector “T” and the rotation matrix “Rb ′” corresponding to the amount of movement of the moving means are derived from the above equations (1) and (2) according to the movement count. )).
次に、プロジェクタの動的な外部パラメータの算出方法について説明する。 Next, a method for calculating dynamic external parameters of the projector will be described.
まず、移動手段が前端に位置するときのプロジェクタから出ている光平面を示す平面の方程式「ax+by+cz+d=0」の係数a、b、c、d(つまり、プロジェクタの外部パラメータである。)を算出する。 First, coefficients a, b, c, d (that is, external parameters of the projector) of a plane equation “ax + by + cz + d = 0” indicating a light plane emerging from the projector when the moving unit is located at the front end are calculated. To do.
なお、プロジェクタの外部パラメータの算出方法については、公知の技術を用いているため、その詳細な説明は省略することとする。 Since a known technique is used for the calculation method of the external parameters of the projector, detailed description thereof will be omitted.
また、算出した平面の方程式により表される光平面は、移動手段が移動してもカメラとの相対的な位置関係は変化しない。つまり、ワールド座標系で当該平面の方程式を表現すると、移動手段の移動により変化するものであるが、カメラ座標系で当該平面の方程式を表現すると、移動手段が移動しても変化することはない。
Further, the relative positional relationship between the optical plane represented by the calculated plane equation and the camera does not change even when the moving means moves. That is, if the equation of the plane is expressed in the world coordinate system, it changes due to the movement of the moving means, but if the equation of the plane is expressed in the camera coordinate system, it does not change even if the moving means moves. .
即ち、プロジェクタの動的な外部パラメータを求めるには、まず、光平面を示す平面の方程式をワールド座標系で表現する。つまり、ax+by+cz+d=0と表す。
That is, in order to obtain a dynamic external parameter of the projector, first, an equation of a plane indicating the light plane is expressed in the world coordinate system. That is, it is expressed as ax + by + cz + d = 0.
次に、「ax+by+cz+d=0」上の任意の3点P0W、P1W、P2W(この任意の3点P0W、P1W、P2Wは勿論、ワールド座標である。)を、
P0W(X0W、Y0W、Z0W)
P1W(X1W、Y1W、Z1W)
P2W(X2W、Y2W、Z2W)
とする。
Next, arbitrary three points P 0W , P 1W , P 2W on “ax + by + cz + d = 0” (the arbitrary three points P 0W , P 1W , P 2W are, of course, world coordinates),
P 0W (X 0W , Y 0W , Z 0W )
P 1W (X 1W , Y 1W , Z 1W )
P 2W (X 2W , Y 2W , Z 2W )
And
そして、点P0W、P1W、P2Wをそれぞれ、移動手段が前端に位置するときのカメラの外部パラメータ(回転行列:Rf、並進ベクトル:Tf)を使用して、カメラ座標系で表す。 Then, the points P 0W , P 1W , and P 2W are respectively expressed in the camera coordinate system using the external parameters (rotation matrix: Rf, translation vector: Tf) of the camera when the moving means is located at the front end.
即ち、カメラ座標系において点P0Wに対応する点を点P0Cとすると、
P0C=Rf×P0W+Tf
により算出し、P0C(X0C、Y0C、Z0C)を取得する。
That is, if the point corresponding to the point P 0W in the camera coordinate system is the point P 0C ,
P 0C = Rf × P 0W + Tf
To obtain P 0C (X 0C , Y 0C , Z 0C ).
また、カメラ座標系において点P1Wに対応する点を点P1Cとすると、
P1C=Rf×P1W+Tf
により算出し、P1C(X1C、Y1C、Z1C)を取得する。
Further, if a point corresponding to the point P 1W in the camera coordinate system is a point P 1C ,
P 1C = Rf × P 1W + Tf
To obtain P 1C (X 1C , Y 1C , Z 1C ).
さらに、カメラ座標系において点P2Wに対応する点を点P2Cとすると、
P2C=Rf×P2W+Tf
により算出し、P2C(X2C、Y2C、Z2C)を取得する。
Furthermore, if a point corresponding to the point P 2W in the camera coordinate system is a point P 2C ,
P 2C = Rf × P 2W + Tf
To obtain P 2C (X 2C , Y 2C , Z 2C ).
その後、点P0C、P1C、P2Cをカメラの動的な外部パラメータを使用して、動的なワールド座標系で表現する。 Thereafter, the points P 0C , P 1C , and P 2C are expressed in a dynamic world coordinate system using dynamic external parameters of the camera.
即ち、点P0Cを動的なワールド座標系で表現した点を点P’0Wとすると、
P’0W=inv(Rb’)×P0C−inv(Rb’)×T
により算出し、P’0W(X’0W、Y’0W、Z’0W)を取得する。
That is, if a point expressing the point P 0C in the dynamic world coordinate system is a point P ′ 0W ,
P ′ 0W = inv (Rb ′) × P 0C −inv (Rb ′) × T
To obtain P ′ 0W (X ′ 0W , Y ′ 0W , Z ′ 0W ).
また、点P1Cを動的なワールド座標系で表現した点を点P’1Wとすると、
P’1W=inv(Rb’)×P1C−inv(Rb’)×T
により算出し、P’1W(X’1W、Y’1W、Z’1W)を取得する。
Further, if a point expressing the point P 1C in the dynamic world coordinate system is a point P ′ 1W ,
P ′ 1W = inv (Rb ′) × P 1C −inv (Rb ′) × T
To obtain P ′ 1W (X ′ 1W , Y ′ 1W , Z ′ 1W ).
さらに、点P2Cを動的なワールド座標系で表現した点を点P’2Wとすると、
P’2W=inv(Rb’)×P2C−inv(Rb’)×T
により算出し、P’2W(X’2W、Y’2W、Z’2W)を取得する。
Furthermore, if a point expressing the point P 2C in the dynamic world coordinate system is a point P ′ 2W ,
P ′ 2W = inv (Rb ′) × P 2C −inv (Rb ′) × T
To obtain P ′ 2W (X ′ 2W , Y ′ 2W , Z ′ 2W ).
なお、inv(Rb’)は、Rb’の逆行列である。 Note that inv (Rb ′) is an inverse matrix of Rb ′.
こうして算出した3点P’0W、P’1W、P’2Wから新たに光平面を示す平面の方程式「a’x+b’y+c’z+d’=0」を求める。 A plane equation “a′x + b′y + c′z + d ′ = 0” is newly obtained from the three points P ′ 0W , P ′ 1W and P ′ 2W calculated in this way.
こうして求められた係数「a’、b’、c’、d’」がプロジェクタの動的な外部パラメータとなる。 The coefficients “a ′, b ′, c ′, d ′” thus determined are dynamic external parameters of the projector.
従って、プロジェクタの動的な外部パラメータは、移動カウント数に応じて変化するカメラの動的な外部パラメータに応じて変化することとなる。
Therefore, the dynamic external parameter of the projector changes according to the dynamic external parameter of the camera that changes according to the movement count number.
なお、幾何学的には、「ax+by+cz+d=0」(ワールド座標系表現)を直接カメラの動的な外部パラメータ「T」、「Rb’」により「a’x+b’y+c’z+d’=0」変換することもできる。
Geometrically, “ax + by + cz + d = 0” (world coordinate system representation) is directly converted into “a′x + b′y + c′z + d ′ = 0” by dynamic external parameters “T” and “Rb ′” of the camera. You can also
ここで、上記においては、測定対象物が移動可能な直線上の2点(前端および後端)においてカメラキャリブレーションを行う場合について説明したが、測定対象物が移動可能な直線上の3点以上の点においてキャリブレーションを行う場合には、隣り合う2点間において、上記した測定対象物が移動可能な直線上の2点(前端および後端)においてキャリブレーションを行う場合と同様の処理を行って、カメラおよびプロジェクタの動的な外部パラメータを算出するようにすればよい。
Here, in the above description, the case where the camera calibration is performed at two points (front end and rear end) on the straight line to which the measurement object can move has been described. However, at least three points on the straight line to which the measurement object can move. When performing calibration at this point, the same processing as that when performing calibration at the two points (front end and rear end) on the straight line where the measurement object can move between two adjacent points is performed. Thus, the dynamic external parameters of the camera and projector may be calculated.
上記にようにしてカメラの内部パラメータおよび動的な外部パラメータとプロジェクタの動的な外部パラメータとを算出した後、算出したカメラの内部パラメータおよび動的な外部パラメータとプロジェクタの動的な外部パラメータとを利用して三次元形状の測定を行う。 After calculating the camera internal parameters and dynamic external parameters and the projector dynamic external parameters as described above, the calculated camera internal parameters and dynamic external parameters and projector dynamic external parameters Measure 3D shape using.
即ち、カメラにより撮影された映像の移動量(つまり、移動カウント数)に応じたカメラの動的な外部パラメータおよびプロジェクタの動的な外部パラメータに基づいて、当該映像におけるスリット光により形成された測定対象物の三次元形状を測定し、こうした処理を繰り返すことにより、測定対象物の全体の三次元形状を測定する。 That is, based on the dynamic external parameters of the camera and the dynamic external parameters of the projector according to the movement amount (that is, the movement count number) of the video imaged by the camera, the measurement formed by the slit light in the video image By measuring the three-dimensional shape of the object and repeating these processes, the entire three-dimensional shape of the measurement object is measured.
このように、本発明によるキャリブレーション方法においては、複雑なアルゴリズムを使用することなく、容易に、測定対象物(テーブル上に載置された測定対象物である。)の移動量に応じたカメラおよびプロジェクタの外部パラメータを取得することができるようになり、簡単にキャリブレーションすることができるようになる。
As described above, in the calibration method according to the present invention, a camera corresponding to the amount of movement of the measurement object (the measurement object placed on the table) can be easily obtained without using a complicated algorithm. Further, external parameters of the projector can be acquired, and calibration can be easily performed.
また、本発明による三次元加工装置は、上記したキャリブレーション方法を利用して、キャリブレーションを行い、その後、所望の形状の模型をスキャンして当該模型の三次元形状の測定を行って、この測定結果から専用のソフトなどを利用して所望の形状の三次元形状データを作成するようにしたものである。 In addition, the three-dimensional processing apparatus according to the present invention performs calibration using the calibration method described above, and then scans a model having a desired shape to measure the three-dimensional shape of the model. From the measurement results, three-dimensional shape data of a desired shape is created using dedicated software or the like.
これにより、本発明による三次元加工装置においては、容易に三次元形状データを作成することができるようになり、被加工物を所望の形状に加工することが可能となる。
Thereby, in the three-dimensional processing apparatus according to the present invention, three-dimensional shape data can be easily created, and the workpiece can be processed into a desired shape.
即ち、本発明によるキャリブレーション方法は、光切断法により測定対象物の三次元形状の測定を行うとともに、スリット光を投光するプロジェクタと、上記プロジェクタより投光されたスリット光を撮影するカメラとが固定的に配設され、移動手段により上記測定対象物を移動するようにした三次元形状測定装置におけるキャリブレーション方法において、カメラによる撮影が可能であり、かつ、移動手段の移動可能な少なくとも2箇所において上記カメラの外部パラメータを算出し、算出した上記カメラの外部パラメータから上記移動手段の最小移動単位で按分比例して、上記移動手段の移動量に基づく上記カメラの外部パラメータを取得し、取得した移動量に基づく上記カメラの外部パラメータからプロジェクタの外部パラメータを取得するようにしたものである。 That is, the calibration method according to the present invention includes a projector that measures the three-dimensional shape of an object to be measured by a light cutting method and projects slit light, and a camera that photographs slit light projected from the projector. Is fixedly arranged, and in the calibration method in the three-dimensional shape measuring apparatus in which the measuring object is moved by the moving means, at least two images can be taken by the camera and the moving means can be moved. The external parameter of the camera is calculated at the location, and the external parameter of the camera based on the moving amount of the moving means is obtained in proportion to the minimum moving unit of the moving means from the calculated external parameter of the camera. The projector external parameters are extracted from the camera external parameters based on the amount of movement. It is obtained by way.
また、本発明によるキャリブレーション方法は、上記した発明において、上記移動手段の移動可能な少なくとも2箇所は、上記カメラにより上記移動手段に載置されたチェッカーシートを撮影可能な最も前方側たる前端部と、上記カメラにより上記移動手段に載置された上記チェッカーシートを撮影可能な最も後方側たる後端部とであり、上記カメラを上記前端部に位置させて上記チェッカーシートを撮影し、上記カメラを上記後端部に位置させて上記チェッカーシートをそれぞれ異なる少なくとも6つの方向から撮影し、上記カメラを再度上記前端部に位置させて上記チェッカーシートを、未だ撮影していない方向であり、かつ、それぞれ異なる少なくとも5つの方向から撮影することによって、上記前端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像を取得するとともに、上記後端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像を取得し、上記前端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像に基づいて、上記前端部におけるカメラの外部パラメータを求めるとともに、上記後端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像に基づいて、上記後端部におけるカメラの外部パラメータを求めるようにしたものである。 Further, in the calibration method according to the present invention, in the above-described invention, at least two positions where the moving means can move are front end portions which are the frontmost side capable of photographing the checker sheet placed on the moving means by the camera. And a rear end that is the rearmost side that can photograph the checker sheet placed on the moving means by the camera, and the camera is photographed by positioning the camera at the front end. Is positioned in the rear end portion, and the checker sheet is photographed from at least six different directions, the camera is again positioned in the front end portion, and the checker sheet is in a direction not yet photographed, and By shooting from at least 5 different directions, at least 6 Acquired images of checker sheets taken from different directions, acquired images of checker sheets taken from at least six different directions at the rear end, and taken from at least six different directions at the front end. Based on the image of the checker sheet, external parameters of the camera at the front end are obtained, and at the rear end, based on the images of the checker sheet taken from at least six different directions, The parameters are obtained.
また、本発明による三次元加工装置は、三次元形状データに基づいて、被加工物に対して三次元加工を行う三次元加工装置において、上記被加工物や所望の形状に形成された測定対象物を載置するとともに、傾斜角度をそれぞれ異なる少なくとも6つの方向に変更することが可能な移動手段と、上記移動手段上にスリット光を投光するプロジェクタと、上記プロジェクタより投光されたスリット光を撮影するカメラと、上記移動手段の移動および傾斜角度を制御するとともに、上記プロジェクタのスリット光の投光のタイミングおよび上記カメラの撮影のタイミングを制御する制御手段と、上記した本発明によるキャリブレーション方法によりキャリブレーションを行うとともに、光切断法により上記測定対象物の三次元形状を測定して、上記測定対象物の三次元形状データを作成する三次元形状測定手段とを有するようにしたものである。 Further, the three-dimensional processing apparatus according to the present invention is a three-dimensional processing apparatus that performs three-dimensional processing on a workpiece based on three-dimensional shape data, and a measurement object formed in the workpiece or a desired shape. A moving means capable of placing an object and changing an inclination angle in at least six different directions, a projector that projects slit light on the moving means, and slit light projected from the projector A camera that controls the movement and tilt angle of the moving means, a control means that controls the timing of slit light projection of the projector and the timing of shooting of the camera, and the calibration according to the present invention described above. In addition to performing calibration by the method, the three-dimensional shape of the measurement object is measured by the light cutting method. It is obtained so as to have a three-dimensional shape measuring means for creating a three-dimensional shape data of the measuring object.
また、本発明による三次元加工装置は、上記した発明において、上記カメラおよび上記プロジェクタは、キャリブレーションおよび上記測定対象物の三次元形状データを作成する際に取り付けられ、上記被加工物に対して三次元加工を行う際には取り外されるようにしたものである。 In the three-dimensional processing apparatus according to the present invention, in the above-described invention, the camera and the projector are attached when the calibration and the three-dimensional shape data of the measurement object are created, It is removed when performing three-dimensional processing.
本発明は、以上説明したように構成されているので、オプティカルフローを使用することなしにキャリブレーションすることができるという優れた効果を奏するものである。 Since the present invention is configured as described above, it has an excellent effect that calibration can be performed without using an optical flow.
また、本発明は、以上説明したように構成されているので、簡単なキャリブレーションを行うことができ、かつ、模型をスキャンして三次元形状データを作成することができるという優れた効果を奏するものである。 Further, since the present invention is configured as described above, it has an excellent effect that simple calibration can be performed and a model can be scanned to create three-dimensional shape data. Is.
以下、添付の図面を参照しながら、本発明によるキャリブレーション方法および三次元加工装置の実施の形態の一例を詳細に説明するものとする。
Hereinafter, an example of an embodiment of a calibration method and a three-dimensional processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings.
ここで、図2には、本発明による三次元加工装置の要部を示す概略構成説明が示されている。 Here, FIG. 2 shows a schematic configuration explanation showing the main part of the three-dimensional processing apparatus according to the present invention.
図2に示す三次元加工装置10は、三次元形状の測定を行って三次元形状データを作成することが可能な三次元加工装置であって、図2においてはその要部のみが示され、図2において示された要部を囲うように筐体などの構成が設けられる。
A three-
また、三次元加工装置10は、三次元形状データを作成する際には、後述するテーブル14上に模型を載置し、このテーブル14を移動する、つまり、測定対象物たる模型を移動することにより測定対象物の三次元形状を取得するものである。
Further, when creating the three-dimensional shape data, the three-
この三次元加工装置10は、加工の対象となる被加工物100や三次元形状データを作成する際の模型となる測定対象物200が載置されるとともに、XYZ直交座標系におけるX軸方向に移動するテーブル14が基台部材12の上面12aに配設されている。
The three-
また、基台部材12においては、その上面12aの左方側端部において、立設部材16が立設されており、上面12aの右方側端部において、立設部材16と対向するようにして立設部材18が立設されている。
Further, in the
この立設部材16、18においては、立設部材16、18を連結するようにY軸方向にガイドレール20が延設されており、ガイドレール20には、被加工物100を加工するための加工工具22を支持するヘッド部24が摺動自在に配設されている。
In the standing
さらに、立設部材16、18においては、立設部材16の上端部16aと立設部材18の上端部18aとを連結するように板状部材26が設けられている。
Further, in the standing
そして、この板状部材26の上面26aには、テーブル14に載置された測定対象物200に対してスリット光を投光するプロジェクタ28が配設されるとともに、テーブル14に載置された測定対象物200を撮影するカメラ30が配設される。このとき、カメラ30は、測定対象物200を撮影する角度が、プロジェクタ28が測定対象物200に対してスリット光を投光する際の角度と異なるように配設される。
On the
なお、三次元加工装置10は、全体の動作をマイクロコンピューター(図示せず。)により制御されている。
Note that the entire operation of the three-
より詳細には、基台部材12の上面12aには、X軸方向にガイド溝32a、32bが延設されていて、テーブル14は、このガイド溝32a、32bに沿って図示しない移動機構によってX軸方向に移動するものである。
More specifically, guide
また、テーブル14は、図示しない移動機構によって、例えば、それぞれ異なる6方向に傾斜するものである。なお、それぞれ異なる6方向は、被加工物100を載置して加工する際の水平状態を含み、平行移動および同一回転を含まないものとする。 The table 14 is inclined in, for example, six different directions by a moving mechanism (not shown). Each of the six different directions includes a horizontal state when the workpiece 100 is placed and processed, and does not include parallel movement and the same rotation.
さらに、この移動機構は、所定のピッチ幅で移動するものであり、テーブル14が移動する際に、テーブル14の前端部(後述する。)を基点として、何回所定のピッチ幅で移動したのかをカウントしているものであり、カウントした値は、マイクロコンピューター(図示せず。)に出力され、記憶される。 Further, this moving mechanism moves at a predetermined pitch width. When the table 14 moves, how many times the table 14 moves at a predetermined pitch width from the front end portion (described later) of the table 14 as a base point. The counted value is output to a microcomputer (not shown) and stored.
なお、こうしたテーブル14における移動機構(図示せず。)については、従来より公知の技術を使用するため、その詳細な説明は省略することとする。
In addition, about the movement mechanism (not shown) in such a table 14, since a conventionally well-known technique is used, the detailed description shall be abbreviate | omitted.
立設部材16には、図示しないマイクロコンピューターの制御に基づいて駆動する駆動部材34が設けられており、この駆動部材34の駆動によりヘッド部24がガイドレール20に沿ってY軸方向に移動する。
The standing
ヘッド部24は、ガイドレール20に摺動自在に配設された移動部材24aと、移動部材24aの前面に設けられるとともにZ軸方向に移動可能な移動部材24bと、移動部材24bに配設されるとともに加工工具22を支持する主軸ユニット24cとにより構成されている。
The
これにより、移動部材24aは、立設部材16に設けられた駆動部材34の駆動によってY軸方向に移動することが可能である。
As a result, the moving
また、移動部材24bは、移動部材24bの前方側において、Z軸方向に延設された一対のガイドレール24baに摺動自在に配設されており、駆動手段(図示せず。)によりZ軸方向に移動することが可能である。
The moving
さらに、主軸ユニット24cは、加工工具22が支持されており、駆動手段(図示せず。)により加工工具22を回転することが可能である。
Further, the
また、プロジェクタ28は、発光ダイオード(図示せず。)と、所定のサイズのスリットが形成されたフィルター(図示せず。)とを備えている。
The
そして、プロジェクタ28は、発光ダイオード(図示せず。)からの光をフィルター(図示せず。)を介することによりスリット光とし、このスリット光をテーブル14上に載置される測定対象物200に投光するようになされている。
Then, the
なお、このプロジェクタ28は、マイクロコンピューター(図示せず。)により投光のタイミングなどのすべての動作の制御がなされるものである。
The
カメラ30は、プロジェクタ28の投光方向とは異なる方向から、テーブル14上に載置された測定対象物200の表面を撮影することができるように配置されている。
The
そして、カメラ30で撮影された映像は、デジタル化されてマイクロコンピューター(図示せず。)に取り込まれるようになされている。
And the image | video image | photographed with the
以上の構成において、三次元加工装置10において、被加工物100を所望の三次元形状に加工する場合には、被加工物100を加工する際に必要な三次元形状データを作成し、作成した三次元形状データを利用して被加工物100を加工するようにする。
In the above configuration, when processing the workpiece 100 into a desired three-dimensional shape in the three-
まず、被加工物100を加工する際に必要となる三次元形状データの作成について説明する。 First, creation of three-dimensional shape data necessary when processing the workpiece 100 will be described.
こうした三次元形状データを作成するために、カメラ30とプロジェクタ28とのキャリブレーションを行う。
In order to create such three-dimensional shape data, the
カメラ30およびプロジェクタ28のキャリブレーションを行うには、まず、テーブル14上に市松模様が描画されたチェッカーシート110(図3を参照する。)を固定する。なお、チェッカーシート110は、例えば、テープなどによりテーブル14上に着脱可能な構成となっており、テーブル14上に載置された際には、テーブル14上で容易に移動することがないようになされている。
To calibrate the
その後、チェッカーシート110が載置されたテーブル14を移動して、チェッカーシート110がカメラ30で撮影可能な範囲における少なくとも2箇所においてカメラキャリブレーションを行う。
Thereafter, the table 14 on which the checker sheet 110 is placed is moved, and camera calibration is performed in at least two places in the range in which the checker sheet 110 can be photographed by the
以下、図4を参照しながら、カメラキャリブレーション処理について説明することとする。図4には、カメラキャリブレーション処理の処理手順を示すフローチャートが示されている。
Hereinafter, the camera calibration process will be described with reference to FIG. FIG. 4 shows a flowchart showing the processing procedure of the camera calibration process.
まず、チェッカーシート110をカメラ30により撮影可能な最も前方側にテーブル14を移動する(ステップS402)。このとき、テーブル14は水平状態である。 First, the table 14 is moved to the foremost side where the checker seat 110 can be photographed by the camera 30 (step S402). At this time, the table 14 is in a horizontal state.
即ち、ステップS402の処理では、作業者が図示しない操作子を操作することにより、マイクロコンピューター(図示せず。)を介してテーブル14を移動して、チェッカーシート110をカメラ30により撮影可能な最も前方側に位置させるようにする。
That is, in the process of step S402, when the operator operates an operator (not shown) to move the table 14 via a microcomputer (not shown), the checker sheet 110 can be photographed most by the
このとき、マイクロコンピューター(図示せず。)においては、このチェッカーシート110をカメラ30により撮影可能な最も前方側の位置を記憶する。
At this time, the microcomputer (not shown) stores the most forward position where the checker seat 110 can be photographed by the
なお、以下の説明において、「チェッカーシート110がカメラ30により撮影可能な最も前方側に位置する際のテーブル14の位置」を「前端部」と称することとする。
In the following description, “the position of the table 14 when the checker seat 110 is located on the most front side that can be photographed by the
また、以下の説明において、チェッカーシート110がカメラ30に撮影可能であるとは、チェッカーシート110の全体がすべてカメラ30により撮影できる状態のことを示す。なお、こうしたカメラ30によりチェッカーシート110の全体がすべて撮影できる状態であるか否かの判断は、例えば、カメラ30で撮影された映像をマイクロコンピューター(図示せず。)を介して、外部の表示装置などに表示し、それを作業者が目視により判断する。
Further, in the following description, the fact that the checker sheet 110 can be photographed by the
そして、テーブル14が前端部に位置する状態で、カメラ30によりチェッカーシート110の撮影を行う(ステップS404)。なお、こうして撮影された映像は、マイクロコンピューター(図示せず。)に記憶される。
Then, with the table 14 positioned at the front end, the checker sheet 110 is photographed by the camera 30 (step S404). In addition, the image | video image | photographed in this way is memorize | stored in a microcomputer (not shown).
次に、チェッカーシート110をカメラ30により撮影可能な最も後方側にテーブル14を移動する(ステップS406)。このとき、テーブル14は水平状態である。 Next, the table 14 is moved to the rearmost side where the checker sheet 110 can be photographed by the camera 30 (step S406). At this time, the table 14 is in a horizontal state.
なお、以下の説明において、「チェッカーシート110がカメラ30により撮影可能な最も後方側に位置する際のテーブル14の位置」を「後端部」と称することとする。
In the following description, “the position of the table 14 when the checker sheet 110 is located at the rearmost side where the
即ち、ステップS406の処理では、作業者が図示しない操作子を操作することにより、マイクロコンピューター(図示せず。)を介してテーブル14を後端部に移動する。
That is, in the process of step S406, when the operator operates an operator (not shown), the table 14 is moved to the rear end via a microcomputer (not shown).
そして、テーブル14が後端部に位置する状態で、カメラ30によりチェッカーシート110の撮影を行う(ステップS408)。なお、こうして撮影された映像は、マイクロコンピューター(図示せず。)に記憶される。 Then, with the table 14 positioned at the rear end, the checker sheet 110 is photographed by the camera 30 (step S408). In addition, the image | video image | photographed in this way is memorize | stored in a microcomputer (not shown).
即ち、ステップS408の処理では、水平状態のチェッカーシートの撮影を行うものである。
That is, in the process of step S408, the horizontal checker sheet is photographed.
その後、テーブル14が後端部に位置した状態で、テーブル14をそれぞれ傾斜角度が異なる5つの状態とし、当該5つの状態においてそれぞれチェッカーシート110の撮影を行う(ステップS410)。なお、こうして撮影された映像は、ステップS408の処理において撮影された映像と関連づけてマイクロコンピューター(図示せず。)に記憶される。 Thereafter, with the table 14 positioned at the rear end, the table 14 is set to five states having different inclination angles, and the checker sheet 110 is photographed in each of the five states (step S410). The video shot in this way is stored in a microcomputer (not shown) in association with the video shot in the process of step S408.
即ち、このステップS410の処理では、テーブル14が後端部に位置した状態で、平行移動や同一回転した状態とならないように、テーブル14をそれぞれ傾斜角度が異なる5つの状態とし、各状態において、それぞれチェッカーシート110の撮影を行うものである。 That is, in the process of step S410, the table 14 is set to five states having different inclination angles so that the table 14 is not in the parallel movement or the same rotation state with the table 14 positioned at the rear end portion. Each checker sheet 110 is photographed.
具体的には、ステップS410の処理では、テーブル14を水平状態から傾斜させて第1の状態とし、第1の状態でチェッカーシート110の撮影を行う。また、テーブル14を第1の状態から傾斜させて第2の状態とし、第2の状態でチェッカーシート110の撮影を行う。また、テーブル14を第2の状態から傾斜させて第3の状態とし、第3の状態でチェッカーシート110の撮影を行う。また、テーブル14を第3の状態から傾斜させて第4の状態とし、第4の状態でチェッカーシート110の撮影を行う。また、テーブル14を第4の状態から傾斜させて第5の状態とし、第5の状態でチェッカーシート110の撮影を行う。 Specifically, in the process of step S410, the table 14 is inclined from the horizontal state to the first state, and the checker sheet 110 is photographed in the first state. Further, the table 14 is inclined from the first state to the second state, and the checker sheet 110 is photographed in the second state. Further, the table 14 is inclined from the second state to the third state, and the checker sheet 110 is photographed in the third state. Further, the table 14 is inclined from the third state to the fourth state, and the checker sheet 110 is photographed in the fourth state. Further, the table 14 is inclined from the fourth state to the fifth state, and the checker sheet 110 is photographed in the fifth state.
なお、このとき、テーブル14は後端部に位置した状態であり、第1〜5の状態は、いずれも水平状態でなく、かつ、互いに同じ方向への傾斜角度にない状態である。また、こうした第1〜5の状態とするためのテーブル14の傾斜角度は、作業者が任意に決定するようにしてもよいし、予めマイクロコンピューター(図示せず。)に記憶しておくようにしてもよい。 At this time, the table 14 is located at the rear end, and the first to fifth states are not in a horizontal state and are not at an inclination angle in the same direction. Further, the inclination angle of the table 14 for achieving the first to fifth states may be arbitrarily determined by the operator, or stored in advance in a microcomputer (not shown). May be.
このステップS410の処理およびステップS408の処理により、テーブル14が後端部に位置するときの、それぞれ撮影方向の異なる6つのチェッカーシート110の映像を取得することとなる。
By the processing in step S410 and the processing in step S408, images of six checker sheets 110 having different shooting directions when the table 14 is located at the rear end are acquired.
次に、テーブル14をステップS402で移動した前端部に移動する(ステップS412)。 Next, the table 14 is moved to the front end portion moved in step S402 (step S412).
即ち、ステップS412の処理では、マイクロコンピューター(図示せず。)の制御により、当該マイクロコンピューターに記憶された前端部にテーブル14を移動する。
That is, in the process of step S412, the table 14 is moved to the front end portion stored in the microcomputer under the control of the microcomputer (not shown).
そして、テーブル14が前端部に位置した状態で、テーブル14をそれぞれ傾斜角度が異なる5つの状態とし、当該5つの状態においてそれぞれチェッカーシート110の撮影を行う(ステップS414)。なお、こうして撮影された映像は、ステップS404の処理において撮影された映像と関連づけてマイクロコンピューター(図示せず。)に記憶される。 Then, with the table 14 positioned at the front end, the table 14 is set to five states having different inclination angles, and the checker sheet 110 is photographed in each of the five states (step S414). The video shot in this way is stored in a microcomputer (not shown) in association with the video shot in the process of step S404.
即ち、このステップS414の処理では、テーブル14が前端部に位置した状態で、平行移動や同一回転した状態とならないように、テーブル14をそれぞれ傾斜角度が異なる5つの状態とし、各状態において、それぞれチェッカーシート110の撮影を行うものである。 That is, in the process of step S414, the table 14 is set to five states having different inclination angles so that the table 14 is not moved in parallel or rotated in the state where the table 14 is located at the front end portion. The checker sheet 110 is photographed.
具体的には、ステップS414の処理では、テーブル14を水平状態から傾斜させて第6の状態とし、第6の状態でチェッカーシート110の撮影を行う。また、テーブル14を第6の状態から傾斜させて第7の状態とし、第7の状態でチェッカーシート110の撮影を行う。また、テーブル14を第7の状態から傾斜させて第8の状態とし、第8の状態でチェッカーシート110の撮影を行う。また、テーブル14を第8の状態から傾斜させて第9の状態とし、第9の状態でチェッカーシート110の撮影を行う。また、テーブル14を第9の状態から傾斜させて第10の状態とし、第10の状態でチェッカーシート110の撮影を行う。 Specifically, in the process of step S414, the table 14 is inclined from the horizontal state to the sixth state, and the checker sheet 110 is photographed in the sixth state. Further, the table 14 is inclined from the sixth state to the seventh state, and the checker sheet 110 is photographed in the seventh state. Further, the table 14 is inclined from the seventh state to the eighth state, and the checker sheet 110 is photographed in the eighth state. Further, the table 14 is tilted from the eighth state to the ninth state, and the checker sheet 110 is photographed in the ninth state. Further, the table 14 is inclined from the ninth state to the tenth state, and the checker sheet 110 is photographed in the tenth state.
なお、このとき、テーブル14は前端部に位置した状態であり、第6〜10の状態は、いずれも水平状態ではなく、かつ、互いに同じ方向への傾斜角度にない状態である。また、こうした第6〜10の状態は、作業者が任意に決定するようにしてもよいし、予めマイクロコンピューター(図示せず。)に記憶しておくようにしてもよい。作業者が任意に決定する場合には、ステップS410の処理において第1〜5の状態をマイクロコンピューター(図示せず。)に記憶するようにして、第1〜5の状態と第6〜10の状態とをそれぞれ同様の傾斜とするようにしてもよい。 At this time, the table 14 is located at the front end, and the sixth to tenth states are not in a horizontal state and are not at an inclination angle in the same direction. The sixth to tenth states may be arbitrarily determined by the operator, or may be stored in advance in a microcomputer (not shown). When the operator arbitrarily determines, the first to fifth states and the sixth to tenth states are stored in the microcomputer (not shown) in the process of step S410. The state may be set to the same inclination.
このステップS414の処理およびステップS404の処理により、テーブル14が前端部に位置するときの、それぞれ撮影方向が異なる6つのチェッカーシート110の映像を取得することとなる。
Through the processing in step S414 and the processing in step S404, images of six checker sheets 110 having different shooting directions when the table 14 is positioned at the front end are acquired.
その後、マイクロコンピューター(図示せず。)において、ステップS404の処理で撮影された映像およびステップS414の処理で撮影された映像から、テーブル14が前端部に位置するときのカメラキャリブレーションを行う(ステップS416)。 Thereafter, in a microcomputer (not shown), camera calibration is performed when the table 14 is located at the front end from the video imaged in step S404 and the video imaged in step S414 (step 414). S416).
即ち、マイクロコンピューター(図示せず。)に記憶された6つの映像を利用して、テーブル14が前端部に位置するときのカメラの外部パラメータと内部パラメータとを取得する。 That is, the external parameters and internal parameters of the camera when the table 14 is located at the front end are acquired using six images stored in a microcomputer (not shown).
なお、カメラの外部パラメータおよび内部パラメータを取得する方法については、公知の技術のため、その詳細な説明は省略する。
In addition, since it is a well-known technique about the method to acquire the external parameter and internal parameter of a camera, the detailed description is abbreviate | omitted.
テーブル14が前端部に位置するときのカメラキャリブレーションが終了すると、次に、マイクロコンピューター(図示せず。)において、ステップS408の処理で撮影された映像およびステップS410の処理で撮影された映像から、テーブル14が後端部に位置するときのカメラキャリブレーションを行う(ステップS418)。 When the camera calibration when the table 14 is located at the front end is completed, the microcomputer (not shown) then uses the video imaged in step S408 and the video imaged in step S410. Then, camera calibration is performed when the table 14 is positioned at the rear end (step S418).
即ち、マイクロコンピューター(図示せず。)に記憶された6つの映像を利用して、テーブル14が前端部に位置するときのカメラの外部パラメータを取得する。
That is, the external parameters of the camera when the table 14 is located at the front end are acquired using six images stored in a microcomputer (not shown).
次に、ステップS416で取得したカメラの外部パラメータおよびステップS418で取得したカメラの外部パラメータを利用して、カメラの動的な外部パラメータを算出する計算式を取得し(ステップS420)、移動カウント数毎にカメラの動的な外部パラメータを取得する(ステップS422)。 Next, using the camera external parameters acquired in step S416 and the camera external parameters acquired in step S418, a calculation formula for calculating dynamic camera external parameters is acquired (step S420), and the movement count number is acquired. Each time a dynamic external parameter of the camera is acquired (step S422).
即ち、ステップS420の処理においては、上記したようにして(1)式および(2)式を取得する。 That is, in the process of step S420, the expressions (1) and (2) are acquired as described above.
このステップS422の処理が終了すると、カメラキャリブレーション処理を終了する。
When the process of step S422 ends, the camera calibration process ends.
カメラキャリブレーション処理が終了すると、取得したカメラの動的な外部パラメータに基づいて、プロジェクタの動的な外部パラメータを取得する。 When the camera calibration process ends, the dynamic external parameters of the projector are acquired based on the acquired dynamic external parameters of the camera.
なお、プロジェクタの動的な外部パラメータを取得する手法については、上記において既に説明しているため、その詳細は省略する。
Since the method for acquiring the dynamic external parameters of the projector has already been described above, the details thereof will be omitted.
カメラ30とプロジェクタ28とのキャリブレーションが終了すると、次に、三次元形状データの作成を行う。
When calibration between the
この三次元形状データの作成では、まず、作成したい三次元形状の模型たる測定対象物200を用意し、この測定対象物200を、チェッカーシート110を取り外したテーブル14上に載置する。 In the creation of the three-dimensional shape data, first, a measurement object 200 as a three-dimensional shape model to be created is prepared, and the measurement object 200 is placed on the table 14 from which the checker sheet 110 is removed.
そして、テーブル14を所定の位置に移動し、テーブル14を当該所定の位置から所定のピッチ幅で後端部まで移動する。このとき、テーブル14が所定のピッチ幅で動く毎に、測定対象物200が載置され、プロジェクタ28によりスリット光が投光されたテーブル14をカメラ30により撮影する。
Then, the table 14 is moved to a predetermined position, and the table 14 is moved from the predetermined position to the rear end portion with a predetermined pitch width. At this time, every time the table 14 moves with a predetermined pitch width, the measurement object 200 is placed, and the table 14 on which the slit light is projected by the
こうして、テーブル14を移動しながら所定のピッチ幅毎に撮影した映像から測定対象物200の三次元形状の一次データを取得する。 In this way, the primary data of the three-dimensional shape of the measuring object 200 is acquired from the video captured at every predetermined pitch width while moving the table 14.
取得した三次元形状の一次データは、例えば、マイクロコンピューター(図示せず。)に接続されたパーソナルコンピューター(図示せず。)に出力され、当該パーソナルコンピューターにおいて、三次元形状の二次データを作成するための専用のソフトなどを利用して、当該一次データから三次元形状の二次データを作成する。 The acquired primary data of the three-dimensional shape is output to, for example, a personal computer (not shown) connected to a microcomputer (not shown), and the secondary data of the three-dimensional shape is created on the personal computer. The secondary data of the three-dimensional shape is created from the primary data by using dedicated software or the like.
そして、パーソナルコンピューター(図示せず。)で作成された二次データは、マイクロコンピューター(図示せず。)に出力され、当該マイクロコンピューターにおいて三次元形状データとして保存されることとなる。
The secondary data created by a personal computer (not shown) is output to a microcomputer (not shown) and stored as three-dimensional shape data in the microcomputer.
そして、パーソナルコンピューター(図示せず。)で作成された三次元形状データの二次データは切削データに変換される。その後、この切削データは、マイクロコンピューター(図示せず。)に出力され、当該マイクロコンピューターにおいて切削データとして保存されることとなる。 Then, secondary data of the three-dimensional shape data created by a personal computer (not shown) is converted into cutting data. Thereafter, the cutting data is output to a microcomputer (not shown) and stored as cutting data in the microcomputer.
なお、三次元形状データから切削データに変換する処理については、各種の公知の技術を使用するため、その詳細な説明は省略する。
In addition, about the process which converts 3D shape data into cutting data, since various well-known techniques are used, the detailed description is abbreviate | omitted.
三次元データから切削データを作成すると、作業者は、テーブル14上に被加工物100を載置するとともに、ヘッド部24の主軸24cに加工工具22を支持させる。
When the cutting data is created from the three-dimensional data, the operator places the workpiece 100 on the table 14 and supports the
その後、作業者により図示しない操作子などを介して加工開始の指示がなされると、マイクロコンピューター(図示せず。)の制御により、作成した切削データに基づいて、テーブル14をX軸方向に移動させ、ヘッド部24をY軸方向に移動させ、さらに、移動部材24bをZ軸方向に移動させて、被加工物100に対して加工工具22によって三次元加工が施される。
Thereafter, when the operator gives an instruction to start machining via an operator (not shown), the table 14 is moved in the X-axis direction based on the created cutting data under the control of a microcomputer (not shown). Then, the
以上において説明したように、本発明によるキャリブレーション方法においては、三次元加工装置10において、実際にはカメラ30およびプロジェクタ28が固定され測定対象物200が移動するものを、測定対象物200が固定されカメラ30およびプロジェクタ28が移動ものと考え、測定対象物200が載置される移動手段たるテーブル14が移動可能な少なくとも2箇所においてカメラキャリブレーションを行うようにした。
As described above, in the calibration method according to the present invention, in the three-
このとき、カメラキャリブレーションを行う箇所は、カメラ30によりチェッカーシート110が撮影可能な箇所である。
At this time, the location where the camera calibration is performed is a location where the checker sheet 110 can be photographed by the
そして、カメラキャリブレーションを行うテーブル14の前端部および後端部では、まず前端部においてチェッカーシート110が水平状態のときの撮影を行い、次に、後端部においてチェッカーシートが水平状態のときを含む6つの状態(それぞれ傾斜角度が異なる状態である。)の撮影を行い、その後、前端部においてチェッカーシート110の5つの状態(それぞれ傾斜角度が異なる状態である。)の撮影を行うようにした。 Then, at the front end portion and the rear end portion of the table 14 for performing camera calibration, first, photographing is performed when the checker sheet 110 is in the horizontal state at the front end portion, and then, when the checker sheet is in the horizontal state at the rear end portion. 6 states (each having a different inclination angle) were photographed, and thereafter, five states of the checker sheet 110 (each having a different inclination angle) were photographed at the front end. .
こうして算出したカメラの外部パラメータから、テーブル14の最小移動単位である所定のピッチ毎に按分比例し、カメラの動的な外部パラメータを算出するようにしたものである。 From the camera external parameters thus calculated, the camera's dynamic external parameters are calculated in proportion to each predetermined pitch, which is the minimum movement unit of the table 14.
これにより本発明によるキャリブレーション方法においては、簡単にキャリブレーションを行うことができるようになる。 As a result, in the calibration method according to the present invention, the calibration can be easily performed.
また、本発明による三次元加工装置10においては、簡単に三次元形状データを作成することができるようになり、様々な形状の三次元加工を行うことができるようになる。
In the three-
なお、上記した実施の形態は、以下の(1)乃至(8)に示すように変形するようにしてもよい。 The embodiment described above may be modified as shown in the following (1) to (8).
(1)上記した実施の形態においては、プロジェクタ28を、発光ダイオードとスリットが形成されたフィルターとを有して構成されるようにしたが、これに限られるものではないことは勿論であり、例えば、ラインレーザーを用いるようにしてもよく、プロジェクタ28としては、スリット光を投光できる各種公知の技術を用いるようにしてもよい。
(1) In the above-described embodiment, the
(2)上記した実施の形態においては、ヘッド部24の上方側にカメラ30およびプロジェクタ28を設けるようにしたが、例えば、ヘッド部24とカメラ30およびプロジェクタ28とを別体とするようにしてもよい。
(2) In the above-described embodiment, the
具体的には、カメラ30およびプロジェクタ28が設けられた板状部材26を取り外し可能な構成とし、三次元形状データを作成する際のみ、立設部材16、18の上端部16a、18aに配設されるような構成としてもよい。
Specifically, the plate member 26 provided with the
あるいは、ヘッド部材24が配設された立設部材16、18を後方側に傾倒することが可能な構成とし、三次元形状データを作成する際には、立設部材16、18を傾倒して後方側に倒し、テーブル14の上方側にスペースを作成する。その後、基台部材12の固定可能な脚部を備えるとともに、カメラ30およびプロジェクタ28が設けられた固定部材を基台部材12上に固定し、固定部材に設けられたカメラ30およびプロジェクタ28により、キャリブレーションおよび三次元形状データの作成を行うようにしてもよい。
Alternatively, the standing
(3)上記した実施の形態においては、カメラキャリブレーションを行う箇所として、移動手段が移動可能な直線上の少なくとも2点をテーブル14の前端部および後端部としたが、これに限られるものではないことは勿論であり、カメラキャリブレーションを行う箇所としては、カメラ30による撮影が可能であって、テーブル14が移動可能な直線上であれば、任意の2点以上を選択すればよい。
(3) In the above-described embodiment, at least two points on the straight line to which the moving means can be moved are the front end portion and the rear end portion of the table 14 as the locations where the camera calibration is performed. Of course, any two or more points may be selected as camera calibration locations as long as the
(4)上記した実施の形態においては、ステップS416の処理においてカメラの内部パラメータを取得するようにしたが、カメラの内部パラメータは、ステップS418の処理において取得するようにしてもよい。 (4) In the above-described embodiment, the camera internal parameters are acquired in the process of step S416. However, the camera internal parameters may be acquired in the process of step S418.
(5)上記した実施の形態においては、チェッカーシート110をそれぞれ異なる6つの方向から撮影するようにしたが、これに限られるものではないことは勿論であり、7つ以上のそれぞれ異なる方向からチェッカーシート110を撮影するようにしてもよい。 (5) In the above-described embodiment, the checker sheet 110 is photographed from six different directions. However, the present invention is not limited to this. Of course, the checker sheet 110 is photographed from seven or more different directions. The sheet 110 may be photographed.
(6)上記した実施の形態においては、カメラキャリブレーション処理において、撮影された映像データなどをマイクロコンピューター(図示せず。)に記憶し、当該マイクロコンピューターにおいてカメラの外部パラメータ、内部パラメータ、動的な外部パラメータおよびプロジェクタの外部パラメータ、動的な外部パラメータなどを取得するようにしたが、これに限られるものではないことは勿論である。 (6) In the above-described embodiment, in the camera calibration process, captured video data and the like are stored in a microcomputer (not shown), and the external parameters, internal parameters, and dynamics of the camera are stored in the microcomputer. Although external parameters, projector external parameters, dynamic external parameters, and the like are acquired, the present invention is not limited to this.
即ち、三次元加工装置10にパーソナルコンピューターを接続し、撮影された映像データなどを当該パーソナルコンピューターに記憶するとともに、当該パーソナルコンピューターにおいてカメラの外部パラメータ、内部パラメータ、動的な外部パラメータおよびプロジェクタの外部パラメータ、動的な外部パラメータなどを取得するようにしてもよい。
That is, a personal computer is connected to the three-
(7)上記した実施の形態においては、ステップS402の処理およびステップS406の処理においてテーブル14を水平状態としたが、これに限られるものではないことは勿論であり、テーブル14は水平状態でなく、任意の方向に傾斜した傾斜状態としてもよい。 (7) In the above-described embodiment, the table 14 is set in the horizontal state in the processing in step S402 and the processing in step S406. However, the present invention is not limited to this, and the table 14 is not in the horizontal state. A tilted state tilted in an arbitrary direction may be used.
この場合、ステップS410の処理において、第1〜5の状態は、いずれもステップS402における傾斜状態ではなく、かつ、互いに同じ方向への傾斜角度にない状態となる。 In this case, in the process of step S410, none of the first to fifth states is the tilted state in step S402, and is not in the tilt angle in the same direction.
また、ステップS414の処理において、第6〜10の状態は、いずれもステップS406の処理における傾斜状態ではなく、かつ、互いに同じ方向への傾斜角度にない状態となる。 Further, in the process of step S414, the sixth to tenth states are not in the inclined state in the process of step S406, and are not in an inclination angle in the same direction.
(8)上記した実施の形態ならびに上記した(1)乃至(7)に示す変形例は、適宜に組み合わせるようにしてもよい。 (8) You may make it combine suitably the embodiment shown above and the modification shown in said (1) thru | or (7).
本発明は、被加工物を三次元形状に加工する際のキャリブレーション方法として用いて好適である。 The present invention is suitable for use as a calibration method for processing a workpiece into a three-dimensional shape.
10 三次元加工装置、12 基台部材、14 テーブル、16、18 立設部材、20 ガイドレール、22 加工工具、24 ヘッド部、26 板状部材、28 プロジェクタ、30 カメラ、100 被加工物、110 チェッカーシート、200 測定対象物
DESCRIPTION OF
Claims (4)
カメラによる撮影が可能であり、かつ、移動手段の移動可能な少なくとも2箇所において前記カメラの外部パラメータを算出し、
算出した前記カメラの外部パラメータから前記移動手段の最小移動単位で按分比例して、前記移動手段の移動量に基づく前記カメラの外部パラメータを取得し、
取得した移動量に基づく前記カメラの外部パラメータからプロジェクタの外部パラメータを取得する
ことを特徴とするキャリブレーション方法。 A projector that measures the three-dimensional shape of an object to be measured by a light cutting method, and that projects slit light, and a camera that photographs slit light projected from the projector are fixedly disposed, and moving means In the calibration method in the three-dimensional shape measuring apparatus adapted to move the measurement object by
The external parameters of the camera are calculated in at least two places where the photographing by the camera is possible and the moving means is movable,
From the calculated external parameter of the camera, in proportion to the minimum movement unit of the moving means, to acquire the external parameter of the camera based on the moving amount of the moving means,
A calibration method, wherein external parameters of the projector are acquired from external parameters of the camera based on the acquired movement amount.
前記移動手段の移動可能な少なくとも2箇所は、前記カメラにより前記移動手段に載置されたチェッカーシートを撮影可能な最も前方側たる前端部と、前記カメラにより前記移動手段に載置された前記チェッカーシートを撮影可能な最も後方側たる後端部とであり、
前記カメラを前記前端部に位置させて前記チェッカーシートを撮影し、前記カメラを前記後端部に位置させて前記チェッカーシートをそれぞれ異なる少なくとも6つの方向から撮影し、前記カメラを再度前記前端部に位置させて前記チェッカーシートを、未だ撮影していない方向であり、かつ、それぞれ異なる少なくとも5つの方向から撮影することによって、前記前端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像を取得するとともに、前記後端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像を取得し、
前記前端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像に基づいて、前記前端部におけるカメラの外部パラメータを求めるとともに、前記後端部において少なくとも6つのそれぞれ異なる方向から撮影したチェッカーシートの映像に基づいて、前記後端部におけるカメラの外部パラメータを求める
ことを特徴とするキャリブレーション方法。 The calibration method according to claim 1,
At least two places where the moving means can move are a front end portion which is the foremost side capable of photographing a checker sheet placed on the moving means by the camera, and the checker placed on the moving means by the camera. And the rear end, which is the rearmost side capable of photographing the seat,
The camera is positioned at the front end to capture the checker sheet, the camera is positioned at the rear end to capture the checker sheet from at least six different directions, and the camera is again positioned at the front end. By capturing the checker sheet in a direction that has not yet been photographed and photographed from at least five different directions, images of the checker sheet photographed from at least six different directions at the front end are obtained. And acquiring images of checker sheets taken from at least six different directions at the rear end,
Based on images of checker sheets taken from at least six different directions at the front end, external parameters of the camera at the front end are obtained, and checker sheets taken from at least six different directions at the rear end. A calibration method characterized in that an external parameter of the camera at the rear end portion is obtained based on an image.
前記被加工物や所望の形状に形成された測定対象物を載置するとともに、傾斜角度をそれぞれ異なる少なくとも6つの方向に変更することが可能な移動手段と、
前記移動手段上にスリット光を投光するプロジェクタと、
前記プロジェクタより投光されたスリット光を撮影するカメラと、
前記移動手段の移動および傾斜角度を制御するとともに、前記プロジェクタのスリット光の投光のタイミングおよび前記カメラの撮影のタイミングを制御する制御手段と、
請求項1および請求項2のいずれか1項に記載のキャリブレーション方法によりキャリブレーションを行うとともに、光切断法により前記測定対象物の三次元形状を測定して、前記測定対象物の三次元形状データを作成する三次元形状測定手段と
を有することを特徴とする三次元加工装置。 In the three-dimensional processing device that performs three-dimensional processing on the workpiece based on the three-dimensional shape data,
A moving means for placing the workpiece and the measurement object formed in a desired shape and capable of changing the inclination angle in at least six different directions,
A projector that projects slit light on the moving means;
A camera for photographing the slit light projected from the projector;
Control means for controlling the movement and tilt angle of the moving means, and the timing for projecting the slit light of the projector and the timing for photographing the camera;
A calibration is performed by the calibration method according to any one of claims 1 and 2, and a three-dimensional shape of the measurement object is measured by a light cutting method to measure the three-dimensional shape of the measurement object. A three-dimensional processing apparatus comprising: three-dimensional shape measuring means for creating data.
前記カメラおよび前記プロジェクタは、キャリブレーションおよび前記測定対象物の三次元形状データを作成する際に取り付けられ、前記被加工物に対して三次元加工を行う際には取り外される
ことを特徴とする三次元加工装置。 In the three-dimensional processing apparatus according to claim 3,
The camera and the projector are attached when calibration and three-dimensional shape data of the measurement object are created, and are removed when performing three-dimensional machining on the workpiece. Original processing equipment.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012244055A JP6029938B2 (en) | 2012-11-06 | 2012-11-06 | Calibration method and three-dimensional processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012244055A JP6029938B2 (en) | 2012-11-06 | 2012-11-06 | Calibration method and three-dimensional processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014092495A JP2014092495A (en) | 2014-05-19 |
JP6029938B2 true JP6029938B2 (en) | 2016-11-24 |
Family
ID=50936651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012244055A Expired - Fee Related JP6029938B2 (en) | 2012-11-06 | 2012-11-06 | Calibration method and three-dimensional processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6029938B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106152947B (en) * | 2015-03-31 | 2019-11-29 | 北京京东尚科信息技术有限公司 | Measure equipment, the method and apparatus of dimension of object |
CN110360954B (en) * | 2019-08-14 | 2021-05-04 | 山东师范大学 | A Surface Measurement Method and System Based on Spatial Coordinate Calculation |
JP7444396B2 (en) | 2020-10-06 | 2024-03-06 | 学校法人福岡工業大学 | 3D image measurement system, 3D image measurement method, 3D image measurement program, and recording medium |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3685772B2 (en) * | 2002-05-14 | 2005-08-24 | 三洋電機株式会社 | Camera parameter calibration method for three-dimensional shape measuring apparatus |
US7307654B2 (en) * | 2002-10-31 | 2007-12-11 | Hewlett-Packard Development Company, L.P. | Image capture and viewing system and method for generating a synthesized image |
JP4111166B2 (en) * | 2004-05-07 | 2008-07-02 | コニカミノルタセンシング株式会社 | 3D shape input device |
US8310539B2 (en) * | 2009-05-29 | 2012-11-13 | Mori Seiki Co., Ltd | Calibration method and calibration device |
JP2011091527A (en) * | 2009-10-21 | 2011-05-06 | Panasonic Corp | Video conversion device and imaging apparatus |
JP5410328B2 (en) * | 2010-02-19 | 2014-02-05 | 日本電信電話株式会社 | Optical projection stabilization device, optical projection stabilization method, and program |
JP2012202694A (en) * | 2011-03-23 | 2012-10-22 | Canon Inc | Camera calibration method |
-
2012
- 2012-11-06 JP JP2012244055A patent/JP6029938B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014092495A (en) | 2014-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6222898B2 (en) | Three-dimensional measuring device and robot device | |
JP6465789B2 (en) | Program, apparatus and method for calculating internal parameters of depth camera | |
JP4492654B2 (en) | 3D measuring method and 3D measuring apparatus | |
JP6092530B2 (en) | Image processing apparatus and image processing method | |
JP2874710B2 (en) | 3D position measuring device | |
US20140218366A1 (en) | Method and device for displaying an object | |
JP5948729B2 (en) | Shape measuring device | |
JP2012218120A (en) | Manipulator operation previous notice device, robot system and method for previously noticing manipulator operation | |
JP5001330B2 (en) | Curved member measurement system and method | |
JP2007233516A (en) | Image measuring system, image measuring method, and image measuring program | |
TW202234184A (en) | A simulation device using 3D position information obtained from the output of a vision sensor | |
JP2016148649A (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP6029938B2 (en) | Calibration method and three-dimensional processing apparatus | |
JP2013130508A (en) | Three-dimension measurement method, three-dimension measurement program, and robot device | |
JP6180158B2 (en) | Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus | |
JP2014228527A (en) | Image measurement device | |
CN109773589B (en) | Method, device and equipment for online measurement and machining guidance of workpiece surface | |
JP4077755B2 (en) | POSITION DETECTION METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND CALIBRATION INFORMATION GENERATION METHOD | |
JP2012177596A (en) | Holder for calibration and method for calibrating photo cutting type shape measuring instrument | |
JP2022115133A (en) | inspection equipment | |
JP2004077262A (en) | Three-dimensional imaging apparatus and method | |
KR20200066659A (en) | Job support system and job support method | |
JP4956960B2 (en) | 3D shape measuring apparatus and 3D shape measuring method | |
JP7204580B2 (en) | CALIBRATION DETECTION APPARATUS, METHOD AND PROGRAM | |
JP2007033087A (en) | Calibration device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151023 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161011 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6029938 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |