JP5580164B2 - Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program - Google Patents
Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program Download PDFInfo
- Publication number
- JP5580164B2 JP5580164B2 JP2010233764A JP2010233764A JP5580164B2 JP 5580164 B2 JP5580164 B2 JP 5580164B2 JP 2010233764 A JP2010233764 A JP 2010233764A JP 2010233764 A JP2010233764 A JP 2010233764A JP 5580164 B2 JP5580164 B2 JP 5580164B2
- Authority
- JP
- Japan
- Prior art keywords
- position data
- dimensional
- image
- dimensional point
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims description 75
- 230000010365 information processing Effects 0.000 title claims description 52
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000005259 measurement Methods 0.000 claims description 150
- 238000004364 calculation method Methods 0.000 claims description 96
- 238000003702 image correction Methods 0.000 claims description 19
- 238000003384 imaging method Methods 0.000 claims description 19
- 230000010354 integration Effects 0.000 claims description 2
- 238000000034 method Methods 0.000 description 102
- 238000012545 processing Methods 0.000 description 52
- 238000002372 labelling Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 21
- 239000013598 vector Substances 0.000 description 19
- 230000006870 function Effects 0.000 description 17
- 230000014509 gene expression Effects 0.000 description 13
- 238000012937 correction Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 108010033272 Nitrilase Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000001444 catalytic combustion detection Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- QIQXTHQIDYTFRH-UHFFFAOYSA-N octadecanoic acid Chemical compound CCCCCCCCCCCCCCCCCC(O)=O QIQXTHQIDYTFRH-UHFFFAOYSA-N 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/03—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Manufacturing & Machinery (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、三次元点群位置データを利用した技術に係り、三次元点群位置データの精度を高める処理を効率よく行う技術に関する。 The present invention relates to a technique using three-dimensional point cloud position data, and more particularly to a technique for efficiently performing processing for improving the accuracy of three-dimensional point cloud position data.
測定対象物の三次元点群位置データから三次元形状を生成する技術が知られている。三次元点群位置データでは、二次元画像と三次元座標とが結び付けられている。すなわち、三次元点群位置データでは、測定対象物の二次元画像のデータと、この二次元画像に対応付けされた複数の測定点(点群)と、この複数の測定点の三次元空間中の位置(三次元座標)とが関連付けされている。三次元点群位置データによれば、点の集合により測定対象物の外形を再現した三次元モデルを得ることができる。また、各点の三次元座標が判るので、各点の三次元空間中における相対位置関係が把握でき、画面表示した三次元モデルの画像を回転させたり、異なる視点から見た画像に切り替えたりする処理が可能となる。 A technique for generating a three-dimensional shape from three-dimensional point cloud position data of a measurement object is known. In the three-dimensional point cloud position data, a two-dimensional image and a three-dimensional coordinate are linked. That is, in the three-dimensional point cloud position data, the data of the two-dimensional image of the measurement object, a plurality of measurement points (point cloud) associated with the two-dimensional image, and the three-dimensional space of the plurality of measurement points in the three-dimensional space. Are associated with each other (three-dimensional coordinates). According to the three-dimensional point cloud position data, it is possible to obtain a three-dimensional model that reproduces the outer shape of the measurement object using a set of points. In addition, since the three-dimensional coordinates of each point are known, the relative positional relationship of each point in the three-dimensional space can be grasped, and the image of the three-dimensional model displayed on the screen can be rotated or switched to an image viewed from a different viewpoint. Processing is possible.
一つの視点からの三次元点群位置データの取得を考えた場合、測定対象物の形状や障害物に起因して、その視点から見て影となる部分の三次元点群位置データは取得できない。この現象をオクルージョンといい、またこの影となる部分をオクルージョン部やオクルージョン部分という。上述したように点群位置データの取得の目的の一つは、三次元モデルの取得にあり、三次元モデルは三次元CADのように希望する視点から見た状態となるように回転させることができる点に特徴がある。したがって、上記のオクルージョンがあると、その取得した三次元モデルを回転させた際に、オクルージョン部分の欠落した三次元モデルが表示されることになる。あるいは、これら点群データや三次元モデルから図面化を行いたいこと等があるが、オクルージョン部があるとその部分が図面化できない、といった問題も生じる。 When considering the acquisition of 3D point cloud position data from a single viewpoint, it is not possible to acquire 3D point cloud position data that is a shadow when viewed from that viewpoint due to the shape of the measurement object or an obstacle. . This phenomenon is called occlusion, and the shadowed part is called the occlusion part or the occlusion part. As described above, one of the purposes of acquiring the point cloud position data is to acquire a three-dimensional model, and the three-dimensional model is rotated so as to be in a state viewed from a desired viewpoint like a three-dimensional CAD. There is a feature in what can be done. Therefore, if there is the above-mentioned occlusion, when the acquired three-dimensional model is rotated, the three-dimensional model lacking the occlusion portion is displayed. Alternatively, there are cases where it is desired to make a drawing from the point cloud data or the three-dimensional model. However, if there is an occlusion part, there is a problem that the part cannot be made a drawing.
このオクルージョンの問題を解決するには、第1の視点でオクルージョンとなる部分の三次元点群位置データを取得可能な第2の視点から改めて三次元点群位置データを取得し、2つの視点からの三次元点群位置データに基づく三次元モデルを作成すればよい。しかしながら、三次元点群位置データの取得には時間がかかるので、この方法は、効率的でない。 In order to solve this occlusion problem, three-dimensional point cloud position data is obtained again from the second viewpoint that can obtain the three-dimensional point cloud position data of the portion that becomes occlusion from the first viewpoint. A three-dimensional model based on the three-dimensional point cloud position data may be created. However, since it takes time to acquire the three-dimensional point cloud position data, this method is not efficient.
この問題を解決するためのアプローチとして、特許文献1には、オクルージョン部分の三次元点群位置データを補完的に取得するために、基礎となる三次元点群位置データの取得とは別に、オクルージョン部分を撮影できる別視点からの撮影を行い、この撮影画像と上記基礎となる三次元点群位置データとの関連を求めることで、オクルージョン部分の三次元点群位置データを補完する手法が記載されている。
As an approach for solving this problem,
特許文献1に記載の方法は、基本となる三次元点群位置データの取得の他に、補完データを撮影によって得るので、効率がよい。ところで、撮影画像に基づき三次元点群位置データを取得する場合、ステレオペア画像を用いたステレオ法を原理とする方法が利用される。ステレオ法は、三角測量の原理で撮影対象物の三次元情報を取得するので、撮影装置(カメラ)の焦点距離、歪曲収差、主点位置といった内部パラメータ(これらのパラメータを内部標定要素という)を考慮に入れた補正を行わないと、得られる三次元点群位置データの誤差(各測定点の座標の誤差)が大きくなる。
The method described in
この補正に必要なパラメータを得る処理をキャリブレーションという。一般に、撮影装置のキャリブレーションは、製品として出荷する際に行われている。しかしながら、この事前のキャリブレーションは、ある特定の条件(工場内での設定条件)におけるもので、正確な補正を行うには、測定対象物までの距離が固定あるいは制限される。このため、一般に三次元点群位置データを取得するための撮影は、条件が限定され、使い勝手は良くない。また、実際に撮影を行う状況で撮影装置のキャリブレーションを行うことも可能であるが、ターゲットの設定や各種の条件の設定等の煩雑な作業が必要であり、効率的ではない。 The process of obtaining parameters necessary for this correction is called calibration. In general, calibration of an imaging apparatus is performed when shipping as a product. However, this pre-calibration is performed under certain specific conditions (setting conditions in the factory), and the distance to the measurement object is fixed or limited in order to perform accurate correction. For this reason, in general, the shooting for acquiring the three-dimensional point cloud position data is limited in terms of conditions and is not convenient. Moreover, although it is possible to calibrate the photographing apparatus in a situation where photographing is actually performed, complicated operations such as setting of targets and setting of various conditions are required, which is not efficient.
このような背景において、本発明は、レーザースキャナを用いて得た三次元点群位置データを補完する三次元点群位置データを撮影画像から得る技術において、当該撮影を行う条件における撮影手段のキャリブレーションを効率よく簡便に行うことができる技術の提供を目的とする。 Against this background, the present invention provides a technique for obtaining three-dimensional point cloud position data that complements three-dimensional point cloud position data obtained using a laser scanner from a photographed image. The purpose is to provide a technology that enables efficient and simple operation.
請求項1に記載の発明は、第1の視点において得られるレーザー光の反射光に基づく測定対象物に係る第1の三次元点群位置データを受け付ける三次元点群位置データ受付部と、第2の視点において撮影した前記測定対象物のステレオ画像に基づく前記測定対象物に係る第2の三次元点群位置データを算出する座標算出部と、前記第1の三次元点群位置データと前記第2の三次元点群位置データとの対応関係を特定する対応関係特定部と、前記第1の三次元点群位置データと前記対応関係特定部で特定された前記対応関係とに基づき、前記ステレオ画像の撮影を行った撮影装置の内部標定要素を算出する内部標定要素算出部と、前記内部標定要素算出部で算出した前記内部標定要素に基づき、前記ステレオ画像を修正する画像修正部と、前記第1の三次元点群位置データと前記画像修正部で修正された前記ステレオ画像に基づく前記測定対象物に係る第3の三次元点群位置データとを統合し、該統合された三次元点群位置データに基づいて前記測定対象物の三次元モデルを作成する三次元モデル作成部とを備えることを特徴とする光学情報処理装置である。
The invention of
本発明の原理を簡単に説明する。まず、第1の視点からレーザー光を利用して測定対象物の三次元点群位置データを取得する。次に、第1の視点と異なる第2の視点から画像撮影部(例えばデジタルカメラ)による撮影を行う。この第2の視点の選択は、第1の視点からはオクルージョンとなる部分が見える視点を選択する場合や、第1の視点において得た点群位置データの精度の悪い部分等を補完する画像を得るのに適した視点を選択する場合が挙げられる。 The principle of the present invention will be briefly described. First, to obtain the three-dimensional point group location data of the measurement object by using a laser over light from the first viewpoint. Next, photographing is performed by an image photographing unit (for example, a digital camera) from a second viewpoint different from the first viewpoint. This second viewpoint is selected when selecting a viewpoint where an occlusion part can be seen from the first viewpoint, or by complementing an inaccurate part of the point cloud position data obtained at the first viewpoint. There are cases where a viewpoint suitable for obtaining is selected.
そして、第1の視点において得た三次元点群位置データと第2の視点において得た撮影画像との間で標定を行い、両者の対応関係を求める。三次元点群位置データは、各測定点の三次元座標のデータを持っているので、上記対応関係が求まることで、第2の視点で得た撮影画像中の特徴点の三次元座標が特定可能となる。そして、この第2の視点で得た撮影画像中の特徴点を基準(ターゲット)として、上記第2の視点からの撮影に用いた画像撮影部(例えば、デジタルカメラ)のキャリブレーションが行われる。これにより、第2の視点における当該画像撮影部の内部標定要素が取得される。ここで、画像撮影部の内部標定要素というのは、レンズディストーション、焦点距離、レンズの主点位置といった画像撮影部の内部パラメータである。内部標定要素には、レンズ系の歪み等の情報が含まれている。内部標定要素を得ることで、画像の歪みを解消あるいは軽減するための補正係数や関数が得られる。 Then, orientation is performed between the three-dimensional point cloud position data obtained at the first viewpoint and the captured image obtained at the second viewpoint, and the correspondence between the two is obtained. Since the 3D point cloud position data has 3D coordinate data of each measurement point, the 3D coordinates of the feature points in the captured image obtained from the second viewpoint can be specified by obtaining the above correspondence. It becomes possible. Then, using the feature point in the captured image obtained from the second viewpoint as a reference (target), calibration of the image capturing unit (for example, a digital camera) used for capturing from the second viewpoint is performed. Thereby, the internal orientation element of the image photographing unit at the second viewpoint is acquired. Here, the internal orientation elements of the image capturing unit are internal parameters of the image capturing unit such as lens distortion, focal length, and lens principal point position. The internal orientation element includes information such as lens system distortion. By obtaining an internal orientation element, a correction coefficient or function for eliminating or reducing image distortion can be obtained.
この技術によれば、既に得られている三次元点群位置データに基づいて、実際に撮影を行う状況における画像撮影部のキャリブレーションが行われる。この際、作業としては、単に撮影をするだけでよく、キャリブレーション専用のターゲットを配置し、更にその座標を特定する等の煩雑な作業は必要とされない。そして上記のキャリブレーションによって得られる画像撮影部の内部標定要素に基づき、第2の視点において画像撮影部が撮影した画像を修正し、その歪みを除去する。こうすることで、第2の視点からの撮影によって得た画像に基づく測定対象物の三次元点群位置データの精度が向上する。 According to this technique, the image capturing unit is calibrated in a situation where actual capturing is performed based on already obtained three-dimensional point cloud position data. At this time, it is only necessary to take an image as a work, and a complicated work such as placing a calibration-specific target and specifying its coordinates is not required. Then, based on the internal orientation element of the image capturing unit obtained by the above calibration, the image captured by the image capturing unit at the second viewpoint is corrected and the distortion is removed. By doing so, the accuracy of the three-dimensional point cloud position data of the measurement object based on the image obtained by photographing from the second viewpoint is improved.
そして、この補正された第2の視点からの撮影画像に基づいて三次元点群位置データ得、それを第1の視点から得た三次元点群位置データを補完する三次元点群位置データとして利用する。これにより、(1)オクルージョンの解消、(2)第1の視点で得た三次元点群位置データの精度が悪い部分の補完、(3)通行車両等の影響による第1の視点で得た三次元点群位置データの部分的な欠落の補完、(4)その他何らかの要因による第1の視点で得た三次元点群位置データの精度不良や欠落の補完等、を行うことができる。 Then, 3D point cloud position data is obtained based on the corrected photographed image from the second viewpoint, and is used as 3D point cloud position data that complements the 3D point cloud position data obtained from the first viewpoint. Use. As a result, (1) elimination of occlusion, (2) complementation of the inaccurate portion of the 3D point cloud position data obtained from the first viewpoint, (3) obtained from the first viewpoint due to the influence of the passing vehicle, etc. Completion of partial missing of 3D point cloud position data, (4) Compensation of poor accuracy and missing of 3D point cloud position data obtained from the first viewpoint due to some other factor, and the like can be performed.
請求項2に記載の発明は、請求項1に記載の発明において、前記対応関係特定部は、前記測定対象物の形状に基づき、前記対応関係の算出を行うことを特徴とする。
The invention of
請求項3に記載の発明は、請求項1または2に記載の発明において、前記対応関係特定部は、前記前記レーザー光の反射光の強度、色、色相、彩度から選ばれた一または複数と、前記測定対象物の画像とに基づいて前記対応関係の特定を行うことを特徴とする。
The invention according to
請求項4に記載の発明は、請求項1または2に記載の発明において、前記対応関係特定部は、前記レーザー光の照射が行われた領域を撮影した画像と、前記画像撮影部が撮影した画像との比較に基づいて前記対応関係の特定を行うことを特徴とする。 According to a fourth aspect of the present invention, in the first or second aspect of the invention, the correspondence specifying unit captures an image obtained by photographing the region irradiated with the laser light, and the image photographing unit captures the image. The correspondence relationship is specified based on a comparison with an image.
請求項5に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、前記座標算出部は、前記画像修正部で修正された前記ステレオ画像に基づき、再度の三次元点群位置データの算出を行うことで、前記第3の三次元点群位置データの算出を行い、前記対応関係特定部は、前記第1の三次元点群位置データと前記第3の三次元点群位置データとの対応関係の特定を行い、前記第1の三次元点群位置データと前記第3の三次元点群位置データとの前記対応関係に基づいて、前記第1の三次元点群位置データと前記第3の三次元点群位置データの統合が行われることを特徴とする。
The invention according to
請求項6に記載の発明は、請求項1〜4のいずれか一項に記載の発明において、前記ステレオ画像がデジタルカメラにより得られることを特徴とする。 According to a sixth aspect of the present invention, in the invention according to any one of the first to fourth aspects, the stereo image is obtained by a digital camera .
請求項7に記載の発明は、請求項1〜6のいずれか一項に記載の発明において、前記画像修正部は、予め求めておいた前記画像撮影部の焦点距離情報またはそれに加えて前記内部標定要素算出部で算出された内部標定要素に基づき、前記画像撮影部が撮影した画像を修正するように構成されていることを特徴とする。ここで、焦点距離情報には、予め求めておいた焦点距離と内部標定要素の関係が含まれている。この焦点距離情報は誤差を含むが、内部標定要素算出部で算出される内部標定要素の大体の値の目安とすることができる。このため、画像の修正に必要な処理における誤差の低減、処理時間の短縮、処理にエラーが発生し演算が遅延したり中止したりする確率の低減といった効果を得ることができる。
The invention according to
焦点距離情報を利用する形態としては、以下の2つの形態が上げられる。その一つは、内部標定要素の算出に必要な画像撮影部が撮影した画像の歪みの修正に、焦点距離情報を利用する場合である。この場合、内部標定要素の算出に利用される画像撮影部が撮影した画像の歪みが低減されるので、内部標定の算出精度が高くなる。 The following two forms can be mentioned as forms using the focal length information. One of them is a case where focal length information is used to correct distortion of an image captured by an image capturing unit necessary for calculating an internal orientation element. In this case, since the distortion of the image captured by the image capturing unit used for calculating the internal orientation element is reduced, the internal orientation calculation accuracy is increased.
焦点距離情報を利用する形態の他の一つは、内部標定要素算出部における演算に焦点距離情報を利用する場合である。この場合、算出する内部標定要素の大体の値の目安が提供されるので、算出精度の向上、演算時間の短縮、演算エラーが発生する確率の低減といった効果が得られる。 Another mode in which the focal length information is used is a case where the focal length information is used for calculation in the internal orientation element calculation unit. In this case, since a rough guide for the approximate value of the internal orientation element to be calculated is provided, effects such as improvement in calculation accuracy, reduction in calculation time, and reduction in the probability of occurrence of calculation errors can be obtained.
請求項8に記載の発明は、第1の視点において得られるレーザー光の反射光に基づく測定対象物に係る第1の三次元点群位置データを受け付ける三次元点群位置データ受付手段と、第2の視点において撮影した前記測定対象物のステレオ画像に基づく前記測定対象物に係る第2の三次元点群位置データを算出する座標算出手段と、前記第1の三次元点群位置データと前記第2の三次元点群位置データとの対応関係を特定する対応関係特定手段と、前記第1の三次元点群位置データと前記対応関係特定手段で特定された前記対応関係とに基づき、前記ステレオ画像の撮影を行った撮影装置の内部標定要素を算出する内部標定要素算出手段と、前記内部標定要素算出手段で算出した前記内部標定要素に基づき、前記ステレオ画像を修正する画像修正手段と、前記第1の三次元点群位置データと前記画像修正手段で修正された前記ステレオ画像に基づく前記測定対象物に係る第3の三次元点群位置データとを統合し、該統合された三次元点群位置データに基づいて前記測定対象物の三次元モデルを作成する三次元モデル作成手段とを備えることを特徴とする光学情報処理システムである。 The invention of claim 8 includes a first three-dimensional point cloud position data receiving means for receiving three-dimensional point group location data according to the measurement object that is based on reflected light resulting laser beam in the first aspect, Coordinate calculation means for calculating second 3D point cloud position data relating to the measurement object based on a stereo image of the measurement object photographed at the second viewpoint, and the first 3D point cloud position data; Based on the correspondence relationship specifying means for specifying the correspondence relationship with the second 3D point group position data , the correspondence relationship specified by the first 3D point group position data and the correspondence relationship specifying means , and internal orientation parameters calculating means for calculating the internal orientation parameters of the imaging apparatus that has performed the shooting of the stereo image, based on the internal orientation parameters calculated in the internal orientation element calculation means, image Osamu modifying the stereo images Integrating means, and a third three-dimensional point group location data relating to the said object of measurement based on the stereo images have been fixed in the first three-dimensional point cloud position data said image correction means, is the integrated An optical information processing system comprising: a three-dimensional model creating means for creating a three-dimensional model of the measurement object based on the three-dimensional point cloud position data .
請求項9に記載の発明は、第1の視点において得られるレーザー光の反射光に基づく測定対象物に係る第1の三次元点群位置データを受け付ける三次元点群位置データ受付ステップと、第2の視点において撮影した前記測定対象物のステレオ画像に基づく前記測定対象物に係る第2の三次元点群位置データを算出する座標算出ステップと、前記第1の三次元点群位置データと前記第2の三次元点群位置データとの対応関係を特定する対応関係特定ステップと、前記第1の三次元点群位置データと前記対応関係特定ステップで特定された前記対応関係とに基づき、前記ステレオ画像の撮影を行った撮影装置の内部標定要素を算出する内部標定要素算出ステップと、前記内部標定要素算出ステップで算出した前記内部標定要素に基づき、前記ステレオ画像を修正する画像修正ステップと、前記第1の三次元点群位置データと前記画像修正ステップで修正された前記ステレオ画像に基づく前記測定対象物に係る第3の三次元点群位置データとを統合し、該統合された三次元点群位置データに基づいて前記測定対象物の三次元モデルを作成する三次元モデル作成ステップとを備えることを特徴とする光学情報処理方法である。 The invention of claim 9 includes a first three-dimensional point group location data reception step of receiving three-dimensional point group location data according to the measurement object that is based on reflected light resulting laser beam in the first aspect, A coordinate calculation step of calculating second 3D point cloud position data relating to the measurement object based on a stereo image of the measurement object photographed at the second viewpoint; and the first 3D point cloud position data; Based on the correspondence relationship identifying step for identifying the correspondence relationship with the second 3D point cloud position data, and the correspondence relationship identified in the first 3D point cloud position data and the correspondence relationship identifying step , and internal orientation parameters calculation step of calculating an internal orientation parameters of the imaging apparatus that has performed the shooting of the stereo image, based on the internal orientation parameters calculated in the internal orientation element calculation step, the stearate An image correction step of correcting the O image, a third three-dimensional point group location data relating to the said object of measurement based on the stereo images have been fixed in the first of the image correction step and the three-dimensional point group location data integrated, an optical information processing method characterized by comprising a three-dimensional model creation step of creating a three-dimensional model of the object to be measured based on the integrated three-dimensional point group location data.
請求項10に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータを第1の視点において得られるレーザー光の反射光に基づく測定対象物に係る第1の三次元点群位置データを受け付ける三次元点群位置データ受付手段と、第2の視点において撮影した前記測定対象物のステレオ画像に基づく前記測定対象物に係る第2の三次元点群位置データを算出する座標算出手段と、前記第1の三次元点群位置データと前記第2の三次元点群位置データとの対応関係を特定する対応関係特定手段と、前記第1の三次元点群位置データと前記対応関係特定手段で特定された前記対応関係とに基づき、前記ステレオ画像の撮影を行った撮影装置の内部標定要素を算出する内部標定要素算出手段と、前記内部標定要素算出手段で算出した前記内部標定要素に基づき、前記ステレオ画像を修正する画像修正手段と、前記第1の三次元点群位置データと前記画像修正手段で修正された前記ステレオ画像に基づく前記測定対象物に係る第3の三次元点群位置データとを統合し、該統合された三次元点群位置データに基づいて前記測定対象物の三次元モデルを作成する三次元モデル作成手段として機能させることを特徴とする光学情報処理用プログラムである。 The invention of claim 10 is a program to be executed is read by the computer, the first three-dimensional point group according to the measurement object that is based on the reflected light of the laser light obtained in the first aspect of the computer 3D point cloud position data receiving means for receiving position data, and coordinate calculation for calculating second 3D point cloud position data relating to the measurement object based on a stereo image of the measurement object taken at the second viewpoint Means, correspondence specifying means for specifying the correspondence between the first three-dimensional point cloud position data and the second three-dimensional point cloud position data , the first three-dimensional point cloud position data and the correspondence based on the above correspondence relationship identified in relationship specifying unit, and an internal orientation parameters calculating means for calculating the internal orientation parameters of the imaging apparatus that has performed the shooting of the stereo images, the internal orientation element calculation Based on the internal orientation parameters calculated in step, the image correction means for correcting the stereo image, the measurement object based on the first three-dimensional point cloud position data said stereo images corrected by the image correction means a third three-dimensional point group location data integrated according to, to function as a three-dimensional model creation means for creating a three-dimensional model of the object to be measured based on the integrated three-dimensional point group location data was This is an optical information processing program.
本発明によれば、レーザースキャナが得た三次元点群位置データが持つ三次元座標データを利用して、撮影を行う条件における撮影手段のキャリブレーションが行われる。このため、レーザースキャナを用いて得た三次元点群位置データを補完する三次元点群位置データを撮影画像から得る技術において、当該撮影を行う条件における撮影手段のキャリブレーションを効率よく簡便に行うことができる。 According to the present invention, using the 3D coordinate data of the 3D point cloud position data obtained by the laser scanner, the imaging unit is calibrated under conditions for imaging. For this reason, in the technique for obtaining 3D point cloud position data that complements the 3D point cloud position data obtained by using a laser scanner from a photographed image, the photographing means is calibrated efficiently and simply under the conditions for photographing. be able to.
1.第1の実施形態
以下、発明を利用した光学情報処理装置の一例について、図面を参照して説明する。なお以下の説明において、三次元点群位置データは、測定対象物の各測定点における三次元座標データを含んでいる。三次元座標を表示する座標系は、直交座標系または極座標系が採用される。画像データは、CCD等による撮影により得られた画像のデータのことをいう。
1. First Embodiment Hereinafter, an example of an optical information processing apparatus using the invention will be described with reference to the drawings. In the following description, the three-dimensional point cloud position data includes three-dimensional coordinate data at each measurement point of the measurement object. An orthogonal coordinate system or a polar coordinate system is adopted as a coordinate system for displaying three-dimensional coordinates. Image data refers to image data obtained by photographing with a CCD or the like.
図1には、光学情報処理装置100が示されている。光学情報処理装置100は、パーソナルコンピュータ上においてソフトウェア的に構成されている。光学情報処理装置100をパーソナルコンピュータ上で構成するプログラムは、パーソナルコンピュータ中にインストールされている。なお、このプログラムは、サーバや適当な記録媒体に記録しておき、そこから提供される形態であってもよい。 An optical information processing apparatus 100 is shown in FIG. The optical information processing apparatus 100 is configured as software on a personal computer. A program that configures the optical information processing apparatus 100 on a personal computer is installed in the personal computer. This program may be recorded on a server or an appropriate recording medium and provided from there.
利用されるパーソナルコンピュータは、キーボートやタッチパネルディスプレイ等の入力部、液晶ディスプレイ等の画像表示装置、入力部と表示部を統合したユーザインターフェースであるGUI(グラフィカル・ユーザ・インターフェース)機能部、CPUおよびその他専用の演算デバイス、半導体メモリ、ハードディスク記憶部、光ディスク等の記憶媒体との間で情報のやり取りを行えるディスク記憶装置駆動部、USBメモリ等の携帯型記憶媒体との間で情報のやり取りを行えるインターフェース部、無線通信や有線通信を行う通信インターフェース部を必要に応じて備えている。なお、パーソナルコンピュータとしては、ノート型、携帯型、卓上型等の形態が挙げられるが、その形態は限定されない。また、汎用のパーソナルコンピュータを利用する以外に、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などのPLD(Programmable Logic Device)等を用いて構成した専用のハードウェアによって光学情報処理装置100を構成することも可能である。 The personal computer used is an input unit such as a keyboard or a touch panel display, an image display device such as a liquid crystal display, a GUI (graphical user interface) function unit that is a user interface integrating the input unit and the display unit, a CPU, and the like. Dedicated arithmetic device, semiconductor memory, hard disk storage unit, disk storage device drive unit capable of exchanging information with storage media such as optical disc, and interface capable of exchanging information with portable storage media such as USB memory And a communication interface unit for performing wireless communication and wired communication as necessary. The personal computer may be a notebook type, a portable type, a desktop type, or the like, but the form is not limited. In addition to using a general-purpose personal computer, optical information processing is performed by dedicated hardware configured using an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device) such as an FPGA (Field Programmable Gate Array), or the like. It is also possible to configure the device 100.
光学情報処理装置100には、測定対象物の三次元点群位置データの取得に利用されるレーザースキャナ121と、測定対象物を撮影し、その画像を得るためのデジタルカメラ122が適当な規格の通信回線を用いて接続されている。レーザースキャナ121は、測定対象物にレーザー光を照射し、その反射光を受光することで、レーザースキャナ121の設置位置から測定点までの距離、方位、仰角または俯角の情報を取得し、これらの情報に基づき、測定点の三次元位置座標に係る情報を算出する。また、レーザースキャナ121は、測定点からの反射光の強度、色、色相、彩度等に関する情報を取得する。レーザースキャナ121はこれらの情報に基づき各測定点の三次元座標値を含む点群位置データを算出し、それを光学情報処理装置100に出力する。レーザースキャナ121の詳細な構成の一例は後述する。また、レーザースキャナ121は、レーザー光の光軸と同じ方向の光軸を有する撮影装置(CCD撮像装置)を備えており、三次元点群位置データの取得対象となる測定対象物の画像データを取得することが可能な構造を有している。 In the optical information processing apparatus 100, a laser scanner 121 used for acquiring three-dimensional point cloud position data of a measurement object and a digital camera 122 for photographing the measurement object and obtaining an image thereof are of appropriate standards. Connected using a communication line. The laser scanner 121 irradiates the measurement object with laser light and receives the reflected light, thereby acquiring information on the distance, azimuth, elevation angle or depression angle from the installation position of the laser scanner 121 to the measurement point. Based on the information, information related to the three-dimensional position coordinates of the measurement point is calculated. Further, the laser scanner 121 acquires information on the intensity, color, hue, saturation, and the like of reflected light from the measurement point. Based on this information, the laser scanner 121 calculates point cloud position data including the three-dimensional coordinate values of each measurement point, and outputs the data to the optical information processing apparatus 100. An example of a detailed configuration of the laser scanner 121 will be described later. Further, the laser scanner 121 includes an imaging device (CCD imaging device) having an optical axis in the same direction as the optical axis of the laser beam, and the image data of the measurement target that is the acquisition target of the three-dimensional point cloud position data. It has a structure that can be acquired.
デジタルカメラ122は、画像撮影部の一例であり、左右の異なる視点から測定対象物の重複した部分を撮影し、ステレオペア画像を取得する。このステレオペア画像の画像データ(左右で1組の画像データ)は、光学情報処理装置100に出力される。デジタルカメラ122は、2台のデジタルカメラを専用の基台にセットし、ステレオペア画像を撮影する形態、1台のデジタルカメラを利用し、ステレオペア画像を得るための2つの視点のそれぞれからの撮影を行うことで、左右1組の画像データを得る形態が採用可能である。 The digital camera 122 is an example of an image capturing unit, and captures an overlapping portion of the measurement object from different viewpoints on the left and right to acquire a stereo pair image. The stereo pair image data (one set of left and right image data) is output to the optical information processing apparatus 100. The digital camera 122 sets two digital cameras on a dedicated base and shoots a stereo pair image, and uses one digital camera to obtain a stereo pair image from each of two viewpoints. It is possible to adopt a form in which one set of left and right image data is obtained by taking a picture.
光学情報処理装置100は、三次元点群位置データ受付け部101、画像受付け部102を備えている。三次元点群位置データ受付け部101は、レーザースキャナ121から出力される三次元点群位置データを受付け、光学情報処理装置100内に取り込む。画像受付け部102は、デジタルカメラ122が撮影したステレオペア画像の画像データを受付け、それを光学情報処理装置100内に取り込む。 The optical information processing apparatus 100 includes a three-dimensional point cloud position data receiving unit 101 and an image receiving unit 102. The three-dimensional point group position data receiving unit 101 receives the three-dimensional point group position data output from the laser scanner 121 and takes it into the optical information processing apparatus 100. The image receiving unit 102 receives image data of a stereo pair image taken by the digital camera 122 and takes it into the optical information processing apparatus 100.
光学情報処理装置100は、位置特定部103、座標算出部104、対応関係特定部105、内部標定要素算出部106、画像修正部107、三次元点群位置データ処理部108を備えている。以下、これら各機能部について説明する。
The optical information processing apparatus 100 includes a position specifying unit 103, a coordinate calculating unit 104, a correspondence specifying unit 105, an internal orientation element calculating unit 106, an
(位置特定部103)
位置特定部103は、レーザースキャナ121が取得した三次元点群位置データに基づき、測定対象物の三次元位置(測定対象物の外観を特徴付ける特徴点の三次元座標)を特定する。測定対象物の三次元位置を把握する方法としては、取得した三次元点群位置データをそのまま利用する方法、後述する三次元点群位置データ処理部108で算出されるラベルのデータを利用する方法、三次元点群位置データ処理部で算出される三次元モデル(測定対象物の三次元輪郭線モデル)を利用する方法等が挙げられる。ラベルのデータや三次元のモデルのデータは、基となる三次元点群位置データに比較してデータ量が少ないので、ソフトウェア処理に際してのCPUやメモリへの負担が小さく、演算速度を速くできる。
(Position specifying unit 103)
The position specifying unit 103 specifies the three-dimensional position of the measurement object (three-dimensional coordinates of the characteristic points that characterize the appearance of the measurement object) based on the three-dimensional point cloud position data acquired by the laser scanner 121. As a method of grasping the three-dimensional position of the measurement object, a method of using the acquired three-dimensional point cloud position data as it is, or a method of using label data calculated by the three-dimensional point cloud position data processing unit 108 to be described later And a method using a three-dimensional model (three-dimensional contour model of a measurement object) calculated by a three-dimensional point cloud position data processing unit. Since the label data and the three-dimensional model data have a smaller amount of data than the basic three-dimensional point cloud position data, the burden on the CPU and memory during software processing is small, and the calculation speed can be increased.
(座標算出部)
座標算出部104は、デジタルカメラ122から得たステレオペア画像に基づき測定対象物(撮影対象物)の三次元位置(測定対象物の外観を特徴付ける特徴点の三次元座標)を、ステレオ法を利用して算出する。この三次元位置のデータは、レーザースキャナ121で得る三次元点群位置データと同様な点群位置データとなる。
(Coordinate calculation unit)
The coordinate calculation unit 104 uses the stereo method to calculate the three-dimensional position of the measurement object (photographing object) (the three-dimensional coordinates of the feature points that characterize the appearance of the measurement object) based on the stereo pair image obtained from the digital camera 122. To calculate. This three-dimensional position data is point group position data similar to the three-dimensional point group position data obtained by the laser scanner 121.
座標算出部104で行われる演算の内容について説明する。まず、ステレオペア画像に基づき測定対象物の三次元位置を算出する原理を説明する。以下、この方法をステレオ法と称する。図3はステレオ法の原理を説明する説明図である。図3に示すように、2台のカメラが、光軸が平行で、カメラレンズ1、2の主点から撮影面としてのCCD面までの距離aが等しく、CCDは光軸に直角に置かれているものとする。また、各カメラのカメラレンズ1、2の間隔と等しい、2つの光軸間距離(基長線)をlとする。なお、カメラは、1台のカメラにカメラレンズ1、2を備えたステレオ撮影用のカメラであっても原理は同じである。このとき、物体上の点P(x、y、z)と、画像1上の点P1(x1、y1)、画像2上の点P2(x2、y2)の座標の間には、以下のような関係がある。
The contents of the calculation performed by the coordinate calculation unit 104 will be described. First, the principle of calculating the three-dimensional position of the measurement object based on the stereo pair image will be described. Hereinafter, this method is referred to as a stereo method. FIG. 3 is an explanatory diagram for explaining the principle of the stereo method. As shown in FIG. 3, the two cameras have parallel optical axes, the distances a from the principal points of the
但し、全体の座標系の原点をカメラレンズ1の主点にとるものとする。数3式よりzを求め、これを用いて数1式、数2式よりx、yが求められる。以上により、左右画像の対応点を求めれば、その位置の3次元座標を算出することができる。
However, the origin of the entire coordinate system is assumed to be the principal point of the
次にステレオ画像作成についての原理を説明する。ステレオ画像作成の原理は、ステレオ法が成立するように画像を修正すればよい。ステレオ画像とは、対象物に対して2枚の画像が平行であり、かつ、縦視差が除去されているものである。図4は、ステレオ画像を説明する説明図である。例えば、図4(A)に示されている画像では、左右の画像間でいくらオーバーラップしている領域があっても、左右画像の縮尺が異なり、さらに回転や縦視差があるために、3次元計測することができない。しかしながら、図4(B)のように左右画像の倍率を合わせ、回転を補正し縦視差を除去すれば、ステレオ法を成り立たせることができる。 Next, the principle of creating a stereo image will be described. The principle of creating a stereo image is to correct the image so that the stereo method is established. A stereo image is one in which two images are parallel to an object and vertical parallax is removed. FIG. 4 is an explanatory diagram for explaining a stereo image. For example, in the image shown in FIG. 4A, the scales of the left and right images are different, and there is rotation and vertical parallax, regardless of how much the left and right images overlap. Dimension measurement is not possible. However, if the left and right image magnifications are adjusted as shown in FIG. 4B, the rotation is corrected, and the vertical parallax is removed, the stereo method can be realized.
ステレオ画像(ステレオモデル)は、左右画像中に6点以上の同一の対応点を求めることにより作成することができる。左右画像中の同一の対応点をパスポイントという。図5はパスポイントを説明する説明図である。図5に示すように、左右の画像上で6点対応する点の画像座標があれば、2つのカメラの相対的な位置と傾きを求めることができるので、それにより左右画像の縮尺、回転、縦視差を補正し、ステレオ画像を作成することができる。 A stereo image (stereo model) can be created by obtaining six or more identical corresponding points in the left and right images. The same corresponding point in the left and right images is called a pass point. FIG. 5 is an explanatory diagram for explaining pass points. As shown in FIG. 5, if there are image coordinates of points corresponding to 6 points on the left and right images, the relative position and inclination of the two cameras can be obtained. It is possible to correct the vertical parallax and create a stereo image.
上記のステレオ画像の作成には、相互標定が用いられる。相互標定は、画像中の6点以上の対応点によりカメラの相対的な位置と傾きを求める原理である。図6は相互標定を説明する説明図である。相互標定では、以下の共面条件式により各パラメータを求める。 Mutual orientation is used to create the stereo image. The relative orientation is a principle for obtaining the relative position and inclination of the camera from six or more corresponding points in the image. FIG. 6 is an explanatory diagram for explaining relative orientation. In relative orientation, each parameter is obtained by the following coplanar conditional expression.
図6に示すように、モデル座標系の原点を左側の投影中心O1にとり、右側の投影中心O2を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ1、Y軸の回転角φ1、右側のカメラのZ軸の回転角κ2、Y軸の回転角φ2、X軸の回転角ω2の5つの回転角となる。この場合、左側のカメラのX軸の回転角ω1は0なので、考慮する必要はない。このような条件にすると、数4の共面条件式は数5式のようになり、この式を解けば各パラメータが求まる。
As shown in FIG. 6, the origin of the model coordinate system left nitrilase projection center O 1, to take a line connecting the right projection center O 2 on the X axis. For the scale, the base line length is taken as the unit length. The parameters to be obtained at this time are the rotation angle κ 1 of the left camera, the rotation angle φ 1 of the Y axis, the rotation angle κ 2 of the right camera, the rotation angle φ 2 of the Y axis, and the rotation of the X axis. the five of the rotation angle of the corner ω 2. In this case, since the rotation angle ω 1 of the X axis of the left camera is 0, there is no need to consider it. Under such conditions, the coplanar conditional expression of
ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式が成り立つ。 Here, the following relational expression for coordinate transformation is established between the model coordinate system XYZ and the camera coordinate system xyz.
これらの式を用いて、次の手順により、未知パラメータを求める。
(1)初期近似値は通常0とする。
(2)数5の共面条件式を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を数6、数7式により求め、観測方程式をたてる。
(3)最小二乗法をあてはめ、近似値に対する補正量を求める。
(4)近似値を補正する。
(5)補正された近似値を用いて、(2)〜(5)までの操作を収束するまで繰り返す。
Using these equations, unknown parameters are obtained by the following procedure.
(1) The initial approximate value is normally 0.
(2) The coplanar conditional expression of
(3) A least square method is applied to obtain a correction amount for the approximate value.
(4) The approximate value is corrected.
(5) Using the corrected approximate value, the operations (2) to (5) are repeated until convergence.
以上により、カメラの相対的な3次元位置ならびに3軸の傾きが求まり、ステレオ画像(ステレオモデル)が作成できる。また、ステレオ撮影したカメラ間の距離(基線長)を入力してやれば、実寸のステレオモデルとすることができる。さらに、6点のうち3点のXYZ座標を与えてやることができれば、実際の座標系に変換し、実座標における三次元計測が可能となる。また、基線長を仮に1とすれば、モデル座標系での三次元座標算出が可能になる。 As described above, the relative three-dimensional position of the camera and the inclination of the three axes are obtained, and a stereo image (stereo model) can be created. Moreover, if a distance (baseline length) between cameras that have taken a stereo image is input, an actual stereo model can be obtained. Furthermore, if three XYZ coordinates can be given out of the six points, the coordinates can be converted into an actual coordinate system, and three-dimensional measurement in actual coordinates can be performed. Further, if the base line length is set to 1, three-dimensional coordinate calculation in the model coordinate system is possible.
以上説明した原理に基づく演算が座標算出部104において行われ、デジタルカメラ122が撮影したステレオペア画像に基づく撮影対象物の三次元座標が算出される。この演算は、測定対象物を写した撮影画面を格子状に区切った各格子点において行われる。これにより、点群状に測定対象物表面の三次元座標分布が算出される。この点群状の測定対象物表面の座標データが、デジタルカメラ122が撮影したステレオペア画像に基づき算出された測定対象物の三次元点群位置データとなる。 The calculation based on the principle described above is performed in the coordinate calculation unit 104, and the three-dimensional coordinates of the object to be imaged based on the stereo pair image captured by the digital camera 122 are calculated. This calculation is performed at each grid point obtained by dividing the imaging screen showing the measurement object into a grid. Thereby, the three-dimensional coordinate distribution on the surface of the measurement object is calculated in a point cloud shape. The coordinate data of the surface of the measurement object in the form of a point group becomes the three-dimensional point group position data of the measurement object calculated based on the stereo pair image captured by the digital camera 122.
(対応関係特定部105)
対応関係特定部105は、レーザースキャナ121の出力に基づいて、位置特定部103が特定した測定対象物の三次元位置に係るデータと座標算出部104が算出した測定対象物の三次元位置に係るデータ間の対応関係を特定する。以下、対応関係特定部105における2つの三次元位置に係るデータ間の対応関係を特定する方法の一例を説明する。まず、レーザースキャナ121を配置した視点およびデジタルカメラ122を配置した視点からの測定対象物の視野(データ取得位置からの測定対象部の見える部分)が重なる部分において、対応点を指定する。次いで、この対応点に基づいて各種の標定を行い、2つの視点から得た三次元点群位置データのそれぞれを記述する座標系(直交座標系または極座標系)間の対応関係を算出する。これにより、第1の三次元点群位置データと第2の三次元点群データとの対応関係が特定される。以下、2つの三次元点群位置データ間の対応関係を算出する際に用いる標定について説明する。
(Corresponding relationship specifying unit 105)
Based on the output of the laser scanner 121, the correspondence specifying unit 105 relates to the data related to the three-dimensional position of the measurement object specified by the position specifying unit 103 and the three-dimensional position of the measurement object calculated by the coordinate calculation unit 104. Identify correspondence between data. Hereinafter, an example of a method for specifying the correspondence between two pieces of three-dimensional data in the correspondence specifying unit 105 will be described. First, corresponding points are designated in a portion where the visual field of the measurement object from the viewpoint where the laser scanner 121 is arranged and the viewpoint where the digital camera 122 is arranged (the portion where the measurement target portion is visible from the data acquisition position) overlaps. Next, various orientations are performed based on the corresponding points, and a correspondence relationship between coordinate systems (orthogonal coordinate system or polar coordinate system) describing each of the three-dimensional point group position data obtained from the two viewpoints is calculated. Thereby, the correspondence between the first three-dimensional point group position data and the second three-dimensional point group data is specified. Hereinafter, the orientation used when calculating the correspondence between the two three-dimensional point cloud position data will be described.
(相互標定)
相互標定については前述している。この場合、左右のカメラの視点を第1の視点、第2の視点とし、第1の視点から得た三次元点群位置データの座標系(第1の座標系)を(X1、Y1、Z1)とし、第2の視点から得た三次元点群位置データの座標系(第2の座標系)を(X2、Y2、Z2)として、第1の座標系と第2の座標系との対応関係を求める演算を行う。
(Mutual orientation)
The relative orientation is described above. In this case, the viewpoints of the left and right cameras are the first viewpoint and the second viewpoint, and the coordinate system (first coordinate system) of the three-dimensional point group position data obtained from the first viewpoint is (X 1 , Y 1 , Z 1 ), and the coordinate system (second coordinate system) of the three-dimensional point cloud position data obtained from the second viewpoint as (X 2 , Y 2 , Z 2 ), the first coordinate system and the second coordinate system An operation for obtaining a correspondence relationship with the coordinate system is performed.
(単写真標定)
単写真標定とは、1枚の写真の中に写された基準点に成り立つ共線条件を用いて、写真を撮影したカメラの位置(X0、Y0、Z0)およびカメラの傾き(ω,φ,κ)を求め、写真座標x、y、zと地上座標X、Y、Zの間の関係を求める技術である。共線条件とは、投影中心、写真像および地上の対象物が一直線上にあるという条件である。また、カメラの位置(X0、Y0、Z0)とカメラの傾き(ω、φ、κ)は外部標定要素と呼ばれる。
(Single photo orientation)
Single photo orientation refers to the camera position (X0, Y0, Z0) and camera tilt (ω, φ, This is a technique for obtaining a relationship between photographic coordinates x, y, z and ground coordinates X, Y, Z. The collinear condition is a condition that the projection center, the photographic image, and the ground object are in a straight line. The camera position (X0, Y0, Z0) and the camera tilt (ω, φ, κ) are called external orientation elements.
ここでは、単写真標定の原理を用いて、第1の視点から測定対象物を見た場合の第1の座標系と、第2の視点から測定対象物を見た場合の第2の座標系との関係を求める方法を説明する。この場合、第1の視点においてレーザースキャナ121による測定対象物の三次元点群位置データが取得されている状態で、第2の視点からデジタルカメラ122によって当該測定対象物の写真撮影が行われ、更にこの写真画像に基づいて座標算出部104の機能により、当該測定対象物の三次元点群位置データが取得されている状態で、以下の演算が対応関係特定部105において行われる。 Here, using the principle of single photo orientation, the first coordinate system when the measurement object is viewed from the first viewpoint, and the second coordinate system when the measurement object is viewed from the second viewpoint. A method for obtaining the relationship with the will be described. In this case, in the state where the three-dimensional point cloud position data of the measurement object is acquired by the laser scanner 121 at the first viewpoint, the digital camera 122 takes a picture of the measurement object from the second viewpoint, Furthermore, the following calculation is performed in the correspondence specifying unit 105 in a state where the three-dimensional point cloud position data of the measurement object is acquired by the function of the coordinate calculation unit 104 based on this photographic image.
まず、第1の座標系を基準点座標(X、Y、Z)、第2の座標系を写真座標(x、y、z)とし、2つの三次元点群位置データの中から共通する4点を対応点として指定する。この4点は、2つの座標系の対応関係を求める足掛かりとなる共通座標点であり、測定対象物の中から特徴点となる部分(例えば、エッジ等の見た目で周囲から区別し易い点)が選択される。この4点の選択を行う方法は、マニュアル操作によって行う方法や、対象物のエッジや角部分等の特徴点として把握し易い部分をソフトウェア的に自動抽出する方法、あるいはこの自動抽出された中から更にユーザがマニュアルで選択する方法が利用される。なお、単写真標定を用いた場合の対応点の指定は、5点以上であってもよいが、最低4点を指定することで、2つの座標系の対応関係を求めることができる。 First, the first coordinate system is a reference point coordinate (X, Y, Z), and the second coordinate system is a photographic coordinate (x, y, z). Specify a point as a corresponding point. These four points are common coordinate points that serve as a basis for determining the correspondence between the two coordinate systems, and a portion that is a feature point from the measurement object (for example, a point that can be easily distinguished from the surroundings by the appearance of an edge or the like). Selected. The four points can be selected by a manual operation, a method for automatically extracting a part that can be easily grasped as a feature point such as an edge or a corner of an object, or a method for automatically selecting the four points. Further, a method in which the user manually selects is used. Note that the designation of corresponding points when single photo orientation is used may be five or more, but the correspondence between the two coordinate systems can be obtained by designating at least four points.
そして、4点の画面座標値と対応する基準点の3次元座標を下記の数8に示す2次の射影変換式に代入し、観測方程式を立ててパラメ−タb1〜b8を求める。ここで、4点の画面座標値は、デジタルカメラ122が撮影した撮影画像の中から指定された4点の対応点の画面中における座標の位置である。対応する基準点の3次元座標というのは、レーザースキャナ121が取得した三次元点群位置データから得られる上記指定された4つの対応点の三次元座標の値である。
Then, the four screen coordinate values and the corresponding three-dimensional coordinates of the reference point are substituted into the quadratic projective transformation equation shown in the
数8のパラメータb1〜b8を用いて、下記の数9から外部標定要素(X0、Y0、Z0)を求める。
The external orientation elements (X0, Y0, Z0) are obtained from the
次に、単写真標定の原理より、(X,Y,Z)に対応する、傾いたデジタルカメラ122の座標系(xp、yp、zp)を以下の数10から求める。数10では、数9で求まったデジタルカメラ122の傾き(ω、φ、κ)を代入し、回転行列の計算をして、パラメータa11〜a33を求める。
Next, the coordinate system (xp, yp, zp) of the tilted digital camera 122 corresponding to (X, Y, Z) is obtained from the following
求まったパラメータa11〜a33と数9で求まった位置(X0、Y0、Z0)、および(X,Y,Z)を、投影中心、写真像および対象物が一直線上にあるという以下の数11の共線条件式に代入し、座標(x、y)を求める。ここで、cは画面距離(焦点距離)、a11〜a33は、3×3回転行列の要素として現されるデジタルカメラ122の傾きであり、Δx、Δyは、内部標定要素算出部106が算出したデジタルカメラ内部の内部標定要素に基づく補正項である。
The obtained parameters a11 to a33 and the position (X0, Y0, Z0) and (X, Y, Z) obtained in
こうして、第1の視点から測定対象物を見た場合の座標系(第1の座標系)(X、Y、Z)と、第2の視点から測定対象物を見た場合の座標系(第2の座標系)(x、y、z)との対応関係が算出される。なお、上記の算出方法では、zとZの関係を求めていないが、第1の視点と第2の視点とが水平面内における位置の違いである場合、z=Zであるので、上記の方法で問題は生じない。 Thus, a coordinate system (first coordinate system) (X, Y, Z) when the measurement object is viewed from the first viewpoint and a coordinate system (first coordinate system) when the measurement object is viewed from the second viewpoint. 2) (x, y, z) is calculated. In the above calculation method, the relationship between z and Z is not obtained. However, when the first viewpoint and the second viewpoint have a difference in position in the horizontal plane, z = Z. No problem arises.
(絶対標定)
絶対標定は、モデル座標系を地上座標系(絶対座標系)に変換する方法である。絶対標定を用いた場合、第1の座標系を地上座標系に関連付け、他方で第2の座標系を地上座標系に関連付け、地上座標系を介して第1の座標系と第2の座標系の対応関係が取得される。まず、モデル座標系(XM、YM、ZM)を地上座標系(X、Y、Z)に変換する。ここで、縮尺をs、3軸回りの回転をω、φ、κ、平行移動量を(X0、Y0、Z0)とすると、数12の関係式が得られる。
(Absolute orientation)
Absolute orientation is a method of converting a model coordinate system into a ground coordinate system (absolute coordinate system). When absolute orientation is used, the first coordinate system is associated with the ground coordinate system, while the second coordinate system is associated with the ground coordinate system, and the first coordinate system and the second coordinate system are connected via the ground coordinate system. Is obtained. First, the model coordinate system (XM, YM, ZM) is converted to the ground coordinate system (X, Y, Z). Here, when the scale is s, the rotation about three axes is ω, φ, κ, and the parallel movement amount is (X0, Y0, Z0), the relational expression of
次に、ω、φが小さいとして、未知変量(s、ω、φ、κ、X0、Y0、Z0)を求める。まず、ヘルマート変換により平面座標の調整を行う。平面座標に限定すると、下記数10が成り立つ。なお、下記数13において、cosκ=(a/s)、sinκ=(−b/s)である。
Next, assuming that ω and φ are small, unknown variables (s, ω, φ, κ, X0, Y0, Z0) are obtained. First, the plane coordinates are adjusted by Helmat transform. When limited to plane coordinates, the following
上記数13において、最小二乗法により、係数a、b、X0、Y0を決定する。次に、縮尺の統一を行う。この場合、下記数14が成り立つ。
In
次に、高さの調整を行う。この場合、下記数15が成り立つ。 Next, the height is adjusted. In this case, the following formula 15 holds.
数15において、最小二乗法により、ω、φ、Z0を求める。そして求めた未知変量を用いて、モデル座標を下記数16により修正する。 In Equation 15, ω, φ, and Z0 are obtained by the method of least squares. Then, using the obtained unknown variable, the model coordinates are corrected by the following equation (16).
以上の処理を未知変量が収束するまで繰り返し、モデル座標系(XM、YM、ZM)と地上座標系(X、Y,Z)との対応関係を求める。そして、モデル座標系として第1の視点からの第1の座標系と第2の視点からの第2の座標系を選択することで、地上座標系を介した第1の座標系と第2の座標系との対応関係が明らかになる。あるいは、2つ視点からの画像や2つの視点からの三次元点群位置データを共通の座標である地上座標系で取り扱うことができる。絶対標定を用いる場合、理論的には、3点の対応点を指定することで、標定が行われるが、例えば同じ高さ位置で異なる2つ視点からの座標系を問題とする場合のように、座標系を変えても一つの軸上の位置が同じであるので、標定に必要な対応点は2点であればよい。 The above processing is repeated until the unknown variable converges, and the correspondence relationship between the model coordinate system (XM, YM, ZM) and the ground coordinate system (X, Y, Z) is obtained. Then, by selecting the first coordinate system from the first viewpoint and the second coordinate system from the second viewpoint as the model coordinate system, the first coordinate system and the second coordinate system via the ground coordinate system are selected. The correspondence with the coordinate system becomes clear. Or the image from two viewpoints and the three-dimensional point cloud position data from two viewpoints can be handled by the ground coordinate system which is a common coordinate. When absolute orientation is used, theoretically, orientation is performed by specifying three corresponding points. For example, as in the case where a coordinate system from two different viewpoints at the same height position is used as a problem. Since the position on one axis is the same even if the coordinate system is changed, the number of corresponding points required for orientation may be two.
(対応点を指定する方法)
上述した標定においては、座標系間の対応関係を算出する足掛かりとなる対応点を指定する必要がある。対応点を指定する方法には、マニュアルにより指定する方法、演算により求める方法、両者を組み合わせた方法がある。ここで、両者を組み合わせた方法というのは、演算により複数の候補を算出し、その中からオペレータが指定する方法である。あるいは、対応点の候補となる特徴点が複数含まれていると判断される領域をオペレータが指定し、その指定した領域において演算により対応点を算出する方法である。あるいは、オペレータが指定せずとも、全撮影領域を演算により求める方法で算出してもよい。以下、演算により対応点を検出する方法について説明する。
(How to specify corresponding points)
In the above-described orientation, it is necessary to designate corresponding points that serve as a basis for calculating the correspondence between coordinate systems. As a method for designating corresponding points, there are a manual designation method, a calculation method, and a combination of the two. Here, the method of combining both is a method in which a plurality of candidates are calculated by calculation, and the operator designates them from among them. Alternatively, this is a method in which an operator designates an area that is determined to include a plurality of feature points that are candidates for corresponding points, and the corresponding points are calculated by calculation in the designated area. Alternatively, the calculation may be performed by a method in which the entire imaging area is obtained without calculation by the operator. Hereinafter, a method for detecting corresponding points by calculation will be described.
(対応点の検出方法1)
まず、ステレオマッチングにより、対応点の自動検出を行う例を説明する。この場合、レーザースキャナ121から得た測定対象物の画像データとデジタルカメラ122から得た測定対象物の画像データとを比較して、両者で一致する特徴の部分が対応点として算出される。ここで、レーザースキャナ121から得た測定対象物の画像データというのは、レーザースキャナ121が取得した三次元点群位置データの反射光の情報(RGB強度等)を画素情報とした画像のことである。三次元点群位置データは、反射光の強度に係る情報を持っているので、それを画素情報として画像を構成することで、反射光の強度を濃淡情報とした測定対象物の画像を得ることができる。
(Corresponding point detection method 1)
First, an example in which corresponding points are automatically detected by stereo matching will be described. In this case, the image data of the measurement object obtained from the laser scanner 121 and the image data of the measurement object obtained from the digital camera 122 are compared, and the feature portions that coincide with each other are calculated as corresponding points. Here, the image data of the measurement object obtained from the laser scanner 121 is an image using pixel information as reflected light information (RGB intensity, etc.) of the three-dimensional point cloud position data acquired by the laser scanner 121. is there. Since the 3D point cloud position data has information related to the intensity of the reflected light, an image of the measurement object having the intensity of the reflected light as the grayscale information can be obtained by constructing an image using the information as pixel information. Can do.
以下、ステレオマッチングについて詳細に説明する。ステレオマッチングは、2つの座標系における画像の座標データを相互に比較し、両者の相関関係により、2つの画像の対応関係を求める方法である。ステレオマッチングでは、2つの視点それぞれから見た画像の特徴点の対応関係が求まり、対応点の自動抽出が可能となる。図7は、ステレオマッチングの原理を説明する説明図である。この方法では、図示するように、N1×N1画素のテンプレート画像を、それよりも大きいM1×M1画素の入力画像内の探索範囲(M1−N1+1)2上で動かし、下記数17で示される相互相関関数C(a,b)が最大となるような(つまり相関の程度が最大となるような)テンプレート画像の左上位置を求める。 Hereinafter, stereo matching will be described in detail. Stereo matching is a method in which the coordinate data of images in two coordinate systems are compared with each other, and the correspondence between the two images is obtained by the correlation between the two. In stereo matching, the correspondence between the feature points of the image viewed from each of the two viewpoints is obtained, and the corresponding points can be automatically extracted. FIG. 7 is an explanatory diagram for explaining the principle of stereo matching. In this method, as shown in the drawing, a template image of N 1 × N 1 pixel is moved on a search range (M 1 −N 1 +1) 2 in an input image of M 1 × M 1 pixel larger than that, The upper left position of the template image is calculated so that the cross-correlation function C (a, b) expressed by the following equation 17 is maximized (that is, the degree of correlation is maximized).
上記の処理は、一方の画像の倍率を変えながら、また回転させながら行われる。そして、相関関係が最大となった条件で、両画像の一致する領域が求まり、更にこの領域における特徴点を抽出することで、対応点の検出が行われる。 The above processing is performed while changing the magnification of one image and rotating it. And the area | region where both images correspond is calculated | required on the conditions from which the correlation became the maximum, Furthermore, the corresponding point is detected by extracting the feature point in this area | region.
ステレオマッチングを用いることで、比較する2つの画像の一致する部分が特定でき、2つの座標系の対応関係を知ることができる。この方法では、2つ画像の相関関係が最大となるように両者の相対的な位置関係が定められる。2つの画像の相関関係は、両画像の特徴点によって決まる。 By using stereo matching, a matching part of two images to be compared can be specified, and the correspondence between the two coordinate systems can be known. In this method, the relative positional relationship between the two images is determined so as to maximize the correlation between the two images. The correlation between the two images is determined by the feature points of both images.
レーザースキャナ121が取得した三次元点群位置データに基づく画像データから対応点を検出する場合、検出対象となる特徴点は、照射したレーザー光の反射光の強度(例えばRGB強度)、色、色相、彩度、あるいはこれらの組み合わせによって特徴付けられる。すなわち、RGB各色の反射光強度の違いよって特徴点が特徴付けられる場合、特定の色の反射光強度によって特徴点が特徴付けられる場合、反射光の色の違い(色相)によって特徴点を特徴付ける場合、反射光の色の鮮やかさの違いによって特徴点を特徴付ける場合、あるいはこれらの組み合わせによって特徴点を特徴付ける場合が挙げられる。そして、このレーザースキャナ121側で得た特徴点のパラメータ(例えば、RGB強度)と、デジタルカメラ122で撮影された画像の対応するパラメータ(例えば、RGB強度)とが上記のステレオマッチングによって比較され、対応点の検出が行われる。 When the corresponding point is detected from the image data based on the three-dimensional point cloud position data acquired by the laser scanner 121, the feature point to be detected is the intensity of reflected light (for example, RGB intensity), color, and hue of the irradiated laser light. , Saturation, or a combination of these. That is, when a feature point is characterized by the difference in reflected light intensity of each RGB color, when a feature point is characterized by a reflected light intensity of a specific color, or when characterizing a feature point by a difference in color (hue) of reflected light In some cases, a feature point is characterized by a difference in vividness of the color of reflected light, or a feature point is characterized by a combination thereof. Then, the feature point parameters (for example, RGB intensity) obtained on the laser scanner 121 side and the corresponding parameters (for example, RGB intensity) of the image captured by the digital camera 122 are compared by the above stereo matching, Corresponding points are detected.
また、撮影した画像同士を比較してのステレオマッチングを行う場合は、撮影画像中の周囲から特徴部分として識別し易い部分(例えば、構造物のエッジ部分等)が特徴点として取り扱われ、対応点の検出が行われる。 In addition, when performing stereo matching by comparing captured images, a part that is easily identified as a characteristic part (for example, an edge part of a structure) from the periphery in the captured image is treated as a characteristic point, and the corresponding point Is detected.
ここでは、比較の対象として、レーザースキャナ121が取得した三次元点群位置データに基づく画像データを利用する場合を説明したが、レーザースキャナ121は、三次元点群位置データの取得対象となる測定対象物の撮影を行う撮影手段を有しているので、この撮影手段による撮影によって得られる画像データを利用してもよい。この場合、レーザースキャナ121が備えた撮影手段が得た測定対象物の画像データと、デジタルカメラ122が得た測定対象物の画像データとに基づき、上述した処理が行われる。 Here, the case where image data based on the three-dimensional point cloud position data acquired by the laser scanner 121 is used as a comparison target has been described. However, the laser scanner 121 is a measurement target for acquiring the three-dimensional point cloud position data. Since it has a photographing means for photographing the object, image data obtained by photographing by this photographing means may be used. In this case, the above-described processing is performed based on the image data of the measurement object obtained by the imaging unit included in the laser scanner 121 and the image data of the measurement object obtained by the digital camera 122.
(対応点の検出方法2)
対応点を検出する方法として、測定対象物の三次元形状に係るパラメータを比較し、そのマッチングに基づき、対応点を検出する方法が挙げられる。以下、この方法の一例を説明する。後述するように、三次元点群位置データ処理部108は、三次元点群位置データに基づき、測定対象物の外観を複数の面の集合として取り扱うことができるようにする処理を行う。ここで各面は、他と区別できるラベルとして扱われる。ラベルは、面の位置および面の向きのデータを持っている。ラベルの位置は、例えばその面の重心の三次元座標によって特定される。
(Corresponding point detection method 2)
As a method for detecting the corresponding points, a method for comparing the parameters related to the three-dimensional shape of the measurement object and detecting the corresponding points based on the matching is given. Hereinafter, an example of this method will be described. As will be described later, the three-dimensional point cloud position data processing unit 108 performs processing that allows the appearance of the measurement object to be handled as a set of a plurality of surfaces based on the three-dimensional point cloud position data. Here, each surface is treated as a label that can be distinguished from the other. The label has surface position and surface orientation data. The position of the label is specified by, for example, the three-dimensional coordinates of the center of gravity of the surface.
このラベルの分布状態を上述したステレオマッチングと同様の手法で比較し、その相関関係が最大となる位置関係を求めることで、複数のラベルにより構成された測定対象物の2つの画像の一致する部分(重複部分)が検出される。そしてこの重複部分に着目し、その中から特徴点となる三次元点群位置データを抽出することで、2つの画像の対応点を特定することができる。三次元点群位置データから特徴点を抽出するには、後述する非面性が部分的に顕著である部分を後述する(1)局所曲率、(2)局所平面へのフィッティング精度、(3)共平面性に基づいて抽出すればよい。 This label distribution state is compared by the same method as the stereo matching described above, and the positional relationship that maximizes the correlation is obtained, so that the two images of the measurement object configured by a plurality of labels coincide with each other. (Overlapping part) is detected. Then, by paying attention to this overlapping portion and extracting three-dimensional point cloud position data as feature points from the overlapped portion, the corresponding points of the two images can be specified. In order to extract feature points from the three-dimensional point cloud position data, a part where the non-planarity described later is partially remarkable will be described later (1) local curvature, (2) fitting accuracy to a local plane, (3) What is necessary is just to extract based on coplanarity.
以下、このラベルを用いた2つの画像データのマッチングを行う方法の一例を説明する。図8は、ラベルを用いたマッチングの手法を説明する概念図である。図8(A)には、測定対象物に対して第1の視点から三次元点群位置データの取得を行い、更に第2の視点から三次元点群位置データの取得を行う様子が概念的に単純化されたモデルとして記載されている。ここでは、第1の視点がレーザースキャナ121による三次元点群位置データの取得位置であり、第2の視点がデジタルカメラ122を用いた撮影による画像データの取得位置であるとする。 Hereinafter, an example of a method for matching two pieces of image data using the label will be described. FIG. 8 is a conceptual diagram illustrating a matching method using labels. FIG. 8A conceptually shows that the 3D point cloud position data is acquired from the first viewpoint for the measurement object, and further the 3D point cloud position data is acquired from the second viewpoint. Is described as a simplified model. Here, it is assumed that the first viewpoint is the acquisition position of the three-dimensional point cloud position data by the laser scanner 121, and the second viewpoint is the acquisition position of the image data obtained by photographing using the digital camera 122.
ここで、測定対象物は、ラベル1が付与された第1の面、ラベル2が付与された第2の面、ラベル3が付与された第3の面、ラベル4が付与された第4の面、ラベル1が付与された第4の面、ラベル5が付与された第5の面、ラベル6が付与された第6の面から構成されている。
Here, the measurement object is the first surface to which the
ここで、第1の視点からは、ラベル5およびラベル6がオクルージョンとなり、その部分の三次元点群位置データは取得されていない(当然ラベル5およびラベル6のデータは、第1の視点からは得られていない)状態が示されている。そして図8(B)には、第1の視点から得られたラベリングされた測定対象物のモデル(ラベルによって構成された測定対象物のモデル)が示されている。なお、本来は、ラベリングされた測定対象物のモデルは、三次元的なモデルであるが、ここでは、2次元的な単純化されたモデルが示されている。
Here, from the first viewpoint, the
また、第2の視点からは、ラベル1およびラベル2がオクルージョンとなり、その部分の三次元点群位置データは取得されていない(当然ラベル1およびラベル2のデータは、第2の視点からは得られていない)状態が示されている。そして図8(C)には、第2の視点から得られたラベリングされた測定対象物のモデルが示されている。
Further, from the second viewpoint, the
2つの視点から得られた三次元点群位置データ同士の位置合わせ(つまり対応関係の特定)が行われる前の段階では、図8(B)のラベリングモデルと図8(C)のラベリングモデルの対応関係は明らかでない。ここでは、2つのラベリングモデルにおける隣接するラベル間の相関関係を比較し、その類似性から2つのラベリングモデルの位置合わせを行う手法により、図8(B)のラベリングモデルと図8(C)のラベリングモデルの対応関係は明らかにする手法を説明する。 Before the alignment (that is, the identification of the correspondence) between the three-dimensional point cloud position data obtained from the two viewpoints, the labeling model of FIG. 8B and the labeling model of FIG. The correspondence is not clear. Here, by comparing the correlation between adjacent labels in the two labeling models and aligning the two labeling models based on the similarity, the labeling model in FIG. 8B and the labeling model in FIG. A method to clarify the correspondence of the labeling model is explained.
ラベルは、ラベリングされた面の向きやその重心位置の情報で特徴付けられている。したがって、図8の場合でいうと、ラベル1とラベル2の相関関係、ラベル2とラベル3の相関関係、ラベル3とラベル4の相関関係は、隣接するラベルの相対位置と向きの関係を特定する。したがって、この隣接するラベルの相関関係によって図8(B)に示すラベリングモデルの形状が特定される。つまり、三次元形状を有する測定対象物のラベリングモデルの三次元構造は、当該ラベリングモデルを構成するラベルにおける隣接するラベル間の相関関係により特定することができる。
The label is characterized by information on the direction of the labeled surface and the position of its center of gravity. Therefore, in the case of FIG. 8, the correlation between
これを利用して、図8(B)と図8(C)に示す2つのラベリングモデルの位置合わせを行う。この例でいうと、ラベル3とラベル4の組み合わせ(面の向きと面の重心位置の組み合わせ)は、図8(B)と図8(C)において共通している。よって、図8(B)のラベリングモデルと図8(C)のラベリングモデルの一方または両方を動かし、更に必要であれば、倍率を可変し、共通する相関関係を有するラベル3とラベル4の部分を重ねることで、2つのラベリングモデルの位置合わせが可能となる。この状態が図8(D)に示されている。
Using this, the two labeling models shown in FIGS. 8B and 8C are aligned. In this example, the combination of the
なお、この段階では、デジタルカメラ122のキャリブレーションが行われていないので、第2の視点からのデジタルカメラ122による撮影に基づく画像には、歪みが含まれており、当該画像から得られる三次元点群位置データの精度は誤差を含んでいる。したがって、図8(C)のラベリングモデルも図8(B)のラベリングモデルに比較して誤差が大きく、図8(D)に示す一致は誤差を含む(なお、レンズ系の歪みは画面の周辺で顕在化するので、この誤差は位置合わせが行われる画面中の位置に依存する)。したがって、予め誤差の閾値を決めておき、それに基づいて図8(D)に示す一致性が判定される。あるいは、後述(「0144」、「0146」段落参照)する異なる複数の焦点距離における内部標定要素を予め求めておき、それに基づく近似曲線から任意の焦点距離における内部標定要素を算出する手法を用いれば、ここでのレンズ歪誤差は予め小さくすることができる。 At this stage, since the digital camera 122 is not calibrated, the image based on the image captured by the digital camera 122 from the second viewpoint includes distortion, and the three-dimensional image obtained from the image is obtained. The accuracy of the point cloud position data includes an error. Therefore, the labeling model in FIG. 8C also has a larger error than the labeling model in FIG. 8B, and the matching shown in FIG. 8D includes an error (note that distortion in the lens system is the periphery of the screen). This error depends on the position in the screen where the alignment is performed). Therefore, an error threshold is determined in advance, and the consistency shown in FIG. 8D is determined based on the threshold. Alternatively, a method of calculating in advance an internal orientation element at a plurality of different focal lengths and calculating an internal orientation element at an arbitrary focal length from an approximate curve based on the internal orientation elements, which will be described later (see paragraphs “0144” and “0146”), is used. The lens distortion error here can be reduced in advance.
上記のように、図8(C)に示すラベリングモデルは誤差を含むが、形状的な一致を判定することは充分に可能となる。つまり第1の視点から把握した測定対象物の形状と第2の視点から把握した測定対象物の形状の一致する部分の検出は、図8に示す手法で充分に可能となる。これは三次元的な形状の比較においても同じである。 As described above, the labeling model shown in FIG. 8C includes an error, but it is sufficiently possible to determine a shape match. That is, the method shown in FIG. 8 can sufficiently detect a portion where the shape of the measurement object grasped from the first viewpoint matches the shape of the measurement object grasped from the second viewpoint. The same applies to the comparison of three-dimensional shapes.
図8(D)に示す位置合わせが行われることで、第1の視点から得た三次元点群位置データと第2の視点から得た三次元点群位置データとが重複する部分(この場合は、ラベル3とラベル4の部分)が特定される。そして、レーザースキャナ121が得た三次元点群位置データにおける上記重複する部分から特徴点が検出され、その部分が対応点とされる。特徴点の検出は、後述する(1)局所曲率、(2)局所平面へのフィッティング精度、(3)共平面性に基づいて行われる。
By performing the alignment shown in FIG. 8D, a portion where the 3D point cloud position data obtained from the first viewpoint and the 3D point cloud position data obtained from the second viewpoint overlap (in this case) Indicates the portion of
なお、比較するラベルの組み合わせは、上記の例のように隣接する2つに限定されず、複数であれば同じ原理が適用できる。また、選択される複数のラベルは離れており、間に他のラベルが存在していてもよい(例えば、図8の場合でいうと、ラベル1とラベル3の選択も可能である)。
The combination of labels to be compared is not limited to two adjacent ones as in the above example, and the same principle can be applied as long as there are a plurality of combinations. Further, the plurality of labels to be selected are separated from each other, and other labels may exist between them (for example, in the case of FIG. 8, selection of
ここでは、ラベルを利用した2つの三次元点群位置データ間の対応点を検出する例を説明したが、三次元点群位置データに基づいて作成される三次元モデル同士を比較し、一致する部分を求める手法も可能である。すなわち、第1の視点から得た三次元点群位置データに基づく第1の三次元モデルと、第2の視点から得た三次元点群位置データに基づく第2の三次元モデルとを比較し、一致する三次元形状の部分を求めることで、第1の視点から得た三次元点群位置データと第2の視点から得た三次元点群位置データとの重複部分を求めることができる。 Here, an example of detecting corresponding points between two 3D point cloud position data using labels has been described, but 3D models created based on 3D point cloud position data are compared and matched. A technique for obtaining the part is also possible. That is, the first 3D model based on the 3D point cloud position data obtained from the first viewpoint is compared with the second 3D model based on the 3D point cloud position data obtained from the second viewpoint. Thus, by obtaining the matching three-dimensional shape portion, it is possible to obtain an overlapping portion between the three-dimensional point group position data obtained from the first viewpoint and the three-dimensional point group position data obtained from the second viewpoint.
三次元点群位置データ処理部108に関して後述するように、ラベルに係る情報は、三次元点群位置データに比較してデータ量が圧倒的に少なくできる。このため、図8に示す原理に基づく演算は、三次元点群位置データをそのまま利用してのマッチングを行う場合に比較して、演算速度を飛躍的に高めることができる。ラベルの情報は、測定対象物の三次元形状に係る情報を反映している。したがって、このラベルを利用しての対応関係の特定は、測定対象物の三次元的な形状に係る情報の比較により、2つの画像の対応関係を特定する方法の一つといえる。この方法は、三次元的な形状に係る情報の比較に基づくものなので、三次元的な位置精度が高くできる。また、上述したようにラベルのデータは、三次元点群位置データに比較して、データが飛躍的に小さいので、演算時間の短縮、演算素子やメモリへの負担を軽減できる優位性がある。 As will be described later with respect to the three-dimensional point cloud position data processing unit 108, the amount of data related to the label can be significantly reduced compared to the three-dimensional point cloud position data. Therefore, the calculation based on the principle shown in FIG. 8 can dramatically increase the calculation speed as compared with the case of performing matching using the three-dimensional point cloud position data as it is. The label information reflects information related to the three-dimensional shape of the measurement object. Therefore, it can be said that the identification of the correspondence relationship using the label is one of the methods for identifying the correspondence relationship between the two images by comparing information related to the three-dimensional shape of the measurement object. Since this method is based on comparison of information relating to a three-dimensional shape, the three-dimensional positional accuracy can be increased. Further, as described above, since the label data is significantly smaller than the three-dimensional point cloud position data, there is an advantage that the calculation time can be shortened and the burden on the arithmetic elements and the memory can be reduced.
(内部標定要素算出部106)
内部標定要素算出部106は、デジタルカメラ122の内部標定要素を算出する。ここでは、対応関係特定部105が特定した対応関係、すなわちレーザースキャナ121を用いて得た三次元点群位置データとデジタルカメラ122を用いて得た三次元点群位置データとの対応関係に基づき、デジタルカメラ122の内部標定要素を算出する。この内部標定要素を求める作業をキャリブレーションという。
(Internal orientation element calculation unit 106)
The internal orientation element calculation unit 106 calculates an internal orientation element of the digital camera 122. Here, based on the correspondence specified by the correspondence specifying unit 105, that is, the correspondence between the three-dimensional point cloud position data obtained using the laser scanner 121 and the three-dimensional point cloud position data obtained using the digital camera 122. The internal orientation element of the digital camera 122 is calculated. The operation for obtaining the internal orientation element is called calibration.
通常のキャリブレーションでは、既知の三次元フィールド(位置が明確な複数の三次元位置に配置されたターゲット)の撮影画像に基づいて、カメラの内部標定要素を算出する。本実施形態では、上記の三次元フィールドの代わりにレーザースキャナ121が取得した測定対象物の三次元点群位置データを利用する。まず、レーザースキャナ121が得た三次元点群位置データは、各測定点の三次元座標を持っている。他方で、レーザースキャナ121が得た三次元点群位置データとデジタルカメラ122の撮影画像に基づく三次元点群位置データとの対応関係が、対応関係特定部105によって特定される。これにより、デジタルカメラ122の撮影画像中の特定の点の三次元座標が特定できる。これを利用し、この特定の点を既知のターゲットとしてキャリブレーションを行うことで、デジタルカメラ122の内部標定要素を算出する。 In normal calibration, an internal orientation element of a camera is calculated based on a photographed image of a known three-dimensional field (a target arranged at a plurality of three-dimensional positions whose positions are clear). In the present embodiment, three-dimensional point cloud position data of the measurement object acquired by the laser scanner 121 is used instead of the above three-dimensional field. First, the three-dimensional point group position data obtained by the laser scanner 121 has the three-dimensional coordinates of each measurement point. On the other hand, a correspondence relationship between the three-dimensional point group position data obtained by the laser scanner 121 and the three-dimensional point group position data based on the captured image of the digital camera 122 is identified by the correspondence relationship identifying unit 105. Thereby, the three-dimensional coordinate of the specific point in the picked-up image of the digital camera 122 can be specified. Using this, calibration is performed using this specific point as a known target, thereby calculating the internal orientation element of the digital camera 122.
つまり、デジタルカメラ122が撮影した画像中のある点(通常は画像的に特徴となる特徴点)の三次元座標が上記の対応関係から、レーザースキャナ121が取得した三次元点群位置データに基づいて明らかになる。ここで、デジタルカメラ122が撮影した画像中における三次元座標が明らかになった点をターゲット(基準点)として内部標定要素を求める処理(キャリブレーション)を行い、画像を補正するための関数や補正係数を算出する。この関数や補正係数は、画面を格子状に区切った各格子点において求められる。 That is, based on the three-dimensional point cloud position data acquired by the laser scanner 121, the three-dimensional coordinates of a certain point (usually a characteristic point that is characteristic in terms of image) in the image captured by the digital camera 122 are based on the above-described correspondence. It becomes clear. Here, a function or correction for correcting an image by performing processing (calibration) for obtaining an internal orientation element using a point (reference point) where the three-dimensional coordinates in the image captured by the digital camera 122 become clear as a target (reference point). Calculate the coefficient. This function and the correction coefficient are obtained at each grid point obtained by dividing the screen into a grid.
以下、内部標定要素算出部106で行われる内部標定要素の算出方法の一例について説明する。まず、写真画像中のある点の写真座標(x、y)を考える。ここで、この写真座標(x、y)は、光学系の歪み等に起因する誤差を含んでおり、それを補正する補正項がΔx、Δyであるとする。ここで、レンズの放射方向と接線方向の歪曲収差を考慮した補正モデルを適用すると、ΔxおよびΔyは、下記の数18の多項式によって表される。ここで、K1〜K2、P1〜P2が内部標定要素を反映したパラメータとなる。 Hereinafter, an example of an internal orientation element calculation method performed by the internal orientation element calculation unit 106 will be described. First, consider the photographic coordinates (x, y) of a certain point in a photographic image. Here, it is assumed that the photographic coordinates (x, y) include an error caused by distortion of the optical system and the like, and correction terms for correcting them are Δx and Δy. Here, when a correction model in consideration of distortion in the radial direction and the tangential direction of the lens is applied, Δx and Δy are expressed by the following equation (18). Here, K 1 to K 2 and P 1 to P 2 are parameters reflecting the internal orientation elements.
ここで、撮影写真中のターゲットの三次元座標が判っているので、数多くのターゲットに着目した場合の上記多項式に基づき、未知のパラメータK1〜K2、P1〜P2が求まる。これにより、デジタルカメラ122が撮影した画像の修正が可能となる。 Here, since the three-dimensional coordinates of the target in the photographed photograph are known, unknown parameters K 1 to K 2 and P 1 to P 2 are obtained based on the above polynomial when attention is paid to a large number of targets. As a result, the image captured by the digital camera 122 can be corrected.
(画像修正部107)
画像修正部107は、内部標定要素算出部106が算出した内部標定要素に基づき、デジタルカメラ122が撮影した画像の補正を行う。この補正は、対象となる画像を格子状に区切った格子点において行われ、デジタルカメラ122の光学系に起因して生じた撮影画像の歪みが解消(あるいは低減)される。具体的には、座標算出部104が算出した座標値に対して、デジタルカメラ122内部の内部標定要素に基づき、その値を補正する処理を行う。これにより、例えばレンズ系の歪みに起因する撮影対象物の三次元座標データのズレが補正され、ステレオ法に基づいて算出した測定対象物の三次元点群位置データの精度を高めることができる。
(Image correction unit 107)
The
(三次元点群位置データ処理部108)
三次元点群位置データ処理部108は、非面領域の算出、非面領域の除去、ラベリング処理、輪郭線等の特徴部分の算出、輪郭線により構成される三次元モデルの作成、およびこれらに関連した演算を行う。三次元モデルというのは、測定対象物の輪郭線を線図として表現した測定対象物の三次元構造を視覚化した画像である。輪郭線というのは、測定対象物の外観を視覚的に把握するために必要な、当該測定対象物の外形を形作っている線(outline)のことである。具体的には、折れ曲がった部分や急激に曲率が小さくなっている部分が輪郭線となる。輪郭線は、外側の輪郭の部分のみが対象となるとは限らず、凸状に飛び出している部分を特徴付ける縁の部分や、凹状に引っ込んでいる部分(例えば、溝構造の部分)を特徴づける縁の部分も対象となる。輪郭線により所謂線図が得られ、対象物の外観が把握し易い画像表示を行うことができる。なお、三次元モデルには、上述した線の情報だけではなく、測定対象物の外観を視覚的に把握する際の特徴部分となる点の情報も含まれる。
(3D point cloud position data processing unit 108)
The three-dimensional point cloud position data processing unit 108 calculates non-surface regions, removes non-surface regions, labeling processing, calculates feature parts such as contour lines, creates a three-dimensional model composed of contour lines, and Perform related operations. The three-dimensional model is an image obtained by visualizing the three-dimensional structure of the measurement object in which the outline of the measurement object is expressed as a diagram. The outline is an outline that forms the outline of the measurement object, which is necessary for visually grasping the appearance of the measurement object. Specifically, a bent portion or a portion where the curvature is rapidly reduced becomes a contour line. The contour line is not limited to the outer contour part, but the edge part that characterizes the protruding part of the convex part, or the edge that characterizes the concave part (for example, the part of the groove structure). The part of is also the target. A so-called diagram can be obtained from the contour line, and an image can be displayed so that the appearance of the object can be easily grasped. Note that the three-dimensional model includes not only the above-described line information but also information on points that are characteristic portions when the appearance of the measurement object is visually grasped.
以下、図1の三次元点群位置データ処理部108の詳細について説明する。図2には、三次元点群位置データ処理部108のブロック図が示されている。三次元点群位置データ処理部108は、非面領域算出部201、非面領域除去部202、面ラベリング部203、輪郭線算出部204を備えている。以下、これら各機能部について説明する。非面領域算出部201は、局所領域を取得する局所領域取得部201a、局所領域の法線ベクトルを算出する法線ベクトル算出部201b、局所領域の局所曲率を算出する局所曲率算出部201c、局所領域にフィッティングする局所平面を算出する局所平面算出部201dを備えている。
Details of the three-dimensional point cloud position data processing unit 108 in FIG. 1 will be described below. FIG. 2 shows a block diagram of the three-dimensional point cloud position data processing unit 108. The three-dimensional point cloud position data processing unit 108 includes a non-surface
局所領域取得部201aは、三次元点群位置データに基づき、注目点を中心とした一辺が3〜7画素程度の正方領域(格子状の領域)を局所領域として取得する。法線ベクトル算出部201bは、局所領域取得部201aが取得した上記の局所領域における各点の法線ベクトルの算出を行う。この法線ベクトルを算出する処理では、局所領域における三次元点群位置データに着目し、各点の法線ベクトルを算出する。この処理は、全ての三次元点群位置データを対象として行われる。すなわち、三次元点群位置データが無数の局所領域に区分けされ、各局所領域において各点の法線ベクトルの算出が行われる。
The local area acquisition unit 201a acquires, as a local area, a square area (grid-like area) having about 3 to 7 pixels on a side centered on the point of interest based on the three-dimensional point cloud position data. The normal
局所曲率算出部201cは、上述した局所領域内の法線ベクトルのバラツキ(局所曲率)を算出する。ここでは、着目している局所領域において、各法線ベクトルの3軸成分の強度値(NVx, NVy, NVz)の平均(mNVx,mNVy,mNVz)を求め、さらに標準偏差(StdNVx,StdNVy,StdNVz)を求める。次に、標準偏差の二乗和の平方根を局所曲率(Local Curveture:crv)として算出する(数19)。
The local
局所平面算出部201dは、局所領域にフィッティング(近似)する局所平面を求める。この処理では、着目している局所領域の各点の三次元座標から局所平面の方程式を求める。局所平面は、着目している局所領域にフィッティングさせた平面である。ここでは、最小二乗法を用いて、当該局所領域にフィッティングする局所平面の面の方程式を算出する。具体的には、複数の異なる平面方程式を求め、更にそれらを比較し、当該局所領域にフィッティングする局所平面の面の方程式を算出する。仮に、着目している局所領域が平面であれば、局所平面と局所領域とは一致する。以上の処理を、局所領域を順次ずらしながら、全ての三次元点群位置データが対象となるように繰り返し行い、各局所領域における法線ベクトル、局所平面、局所曲率を得る。
The local
非面領域除去部202は、上で求めた各局所領域における法線ベクトル、局所平面、局所曲率に基づいて、非面領域の点を除去する処理を行う。すなわち、面(平面および曲面)を抽出するために、予め面でないと判断できる部分(非面領域)を除去する。なお、非面領域とは、平面でも曲面でもない領域であるが、下記の(1)〜(3)の閾値によっては曲率の高い曲面を含む場合がある。 The non-surface area removing unit 202 performs a process of removing points in the non-surface area based on the normal vector, local plane, and local curvature in each local area obtained above. That is, in order to extract a surface (a plane and a curved surface), a portion (non-surface region) that can be determined not to be a surface in advance is removed. The non-surface region is a region that is neither a plane nor a curved surface, but may include a curved surface with a high curvature depending on the following threshold values (1) to (3).
非面領域除去部202は、三次元点群位置データ取得部101が取得した三次元点群位置データの中から、算出した非面領域の三次元点群位置データを除去する。非面領域除去の処理は、以下に示す3つの方法のうち、少なくとも一つを用いて行うことができる。ここでは、下記の(1)〜(3)の方法による判定を上述した局所領域の全てに対して行い、1以上の方法において非面領域と判定された局所領域を、非面領域を構成する局所領域として抽出する。そして、抽出された非面領域を構成する点に係る三次元点群位置データを除去する。 The non-surface area removal unit 202 removes the calculated non-surface area 3D point group position data from the 3D point group position data acquired by the 3D point group position data acquisition unit 101. The non-surface area removal process can be performed using at least one of the following three methods. Here, the determination by the following methods (1) to (3) is performed for all the local regions described above, and the local region determined as the non-surface region by one or more methods is configured as the non-surface region. Extract as a local region. Then, the 3D point cloud position data relating to the points constituting the extracted non-surface area is removed.
(1)局所曲率の高い部分:上述した局所曲率を予め設定しておいた閾値と比較し、閾値を超える局所曲率の局所領域を非面領域と判定する。局所曲率は、注目点とその周辺点における法線ベクトルのバラツキを表しているので、面(平面および曲率の小さい曲面)ではその値が小さく、面以外(非面)ではその値は大きくなる。したがって、予め決めた閾値よりも局所曲率が大きければ、当該局所領域を非面領域と判定する。 (1) A portion having a high local curvature: The above-described local curvature is compared with a preset threshold value, and a local region having a local curvature exceeding the threshold value is determined as a non-surface region. Since the local curvature represents the variation of the normal vector at the point of interest and its peripheral points, the value is small for a surface (a flat surface and a curved surface with a small curvature), and the value is large for a surface other than a surface (non-surface). Therefore, if the local curvature is larger than a predetermined threshold, the local region is determined as a non-surface region.
(2)局所平面へのフィッティング精度:局所領域の各点と対応する局所平面との距離を計算し、これらの距離の平均が予め設定した閾値よりも大きい場合、当該局所領域を非面領域と判定する。すなわち、局所領域が平面から乖離した状態であると、その程度が激しい程、当該局所領域の各点と対応する局所平面との距離は大きくなる。このことを利用して当該局所領域の非面の程度が判定される。 (2) Fitting accuracy to the local plane: When the distance between each point of the local area and the corresponding local plane is calculated and the average of these distances is greater than a preset threshold, the local area is determined as a non-surface area. judge. That is, when the local area is in a state of being deviated from the plane, the distance between the local plane corresponding to each point of the local area increases as the degree becomes more severe. Using this fact, the degree of non-surface of the local region is determined.
(3)共平面性のチェック:ここでは、隣接する局所領域において、対応する局所平面同士の向きを比較する。この局所平面の向きの違いが閾値を超えている場合、比較の対象となった局所領域が非面領域に属していると判定する。具体的には、対象となる2つの局所領域のそれぞれにフィッティングする2つの局所平面の法線ベクトルと、その中心点間を結ぶベクトルとの内積が0であれば、両局所平面が同一平面上に存在すると判定される。また、上記内積が大きくなる程、2つの局所平面が同一面上にない程度がより顕著であると判定される。 (3) Coplanarity check: Here, the directions of corresponding local planes are compared in adjacent local regions. If the difference in orientation of the local planes exceeds the threshold value, it is determined that the local area to be compared belongs to the non-plane area. Specifically, if the inner product of the normal vector of the two local planes fitted to each of the two target local regions and the vector connecting the center points is 0, both local planes are on the same plane. Is determined to exist. Moreover, it is determined that the extent that the two local planes are not on the same plane is more remarkable as the inner product becomes larger.
上記の(1)〜(3)の方法による判定において、1以上の方法において非面領域と判定された局所領域を、非面領域を構成する局所領域として抽出する。そして、この抽出された局所領域を構成する点に係る三次元点群位置データを算出対象としている三次元点群位置データから除去する。以上のようにして、非面領域の除去が行われる。なお、除去された三次元点群位置データは、後の処理で利用する可能性があるので、適当な記憶領域に格納するなり、除去されなかった三次元点群位置データと識別できる状態とするなどして、後で利用できる状態にしておく。 In the determination by the above methods (1) to (3), a local region determined as a non-surface region by one or more methods is extracted as a local region constituting the non-surface region. Then, the 3D point cloud position data relating to the points constituting the extracted local region is removed from the 3D point cloud position data to be calculated. The non-surface area is removed as described above. Since the removed 3D point cloud position data may be used in later processing, it is stored in an appropriate storage area so that it can be identified from the 3D point cloud position data that has not been removed. To make it available for later use.
次に面ラベリング部203の機能について説明する。面ラベリング部203は、非面領域の三次元点群位置データが除去された三次元点群位置データに対して、法線ベクトルの連続性に基づいて面ラベリングを行う。具体的には、特定の注目点と隣接点の法線ベクトルの角度差が予め決めた閾値以下なら、それらの点に同一ラベルを貼る。この作業を繰り返すことで、連続する平面、連続する緩やかな曲面に同一ラベルが貼られ、それらを一つの面として識別可能となる。また、面ラベリングの後、法線ベクトルの角度差や法線ベクトルの3軸成分の標準偏差を用いて、ラベル(面)が平面であるか、または曲率の小さい曲面であるかを判定し、その旨を識別する識別データを各ラベルに関連付ける。 Next, the function of the surface labeling unit 203 will be described. The surface labeling unit 203 performs surface labeling on the 3D point cloud position data from which the 3D point cloud position data of the non-surface area is removed based on the continuity of normal vectors. Specifically, if the angle difference between the normal vector of a specific point of interest and an adjacent point is less than a predetermined threshold, the same label is attached to those points. By repeating this operation, the same label is attached to a continuous flat surface and a continuous gentle curved surface, and these can be identified as one surface. Further, after the surface labeling, it is determined whether the label (surface) is a plane or a curved surface with a small curvature by using the angle difference between the normal vectors and the standard deviation of the three-axis components of the normal vectors. Identification data for identifying the fact is associated with each label.
続いて、面積の小さいラベル(面)をノイズとして除去する。なお、このノイズ除去は、面ラベリングの処理と同時に行ってもよい。この場合、面ラベリングを行いながら、同一ラベルの点数(ラベルを構成する点の数)を数え、所定以下の点の数であるラベルを取り消す処理を行う。次に、この時点でラベルが無い点に対して、最近傍面(最も近い面)と同一のラベルを付与していく。これにより、既にラベリングされた面の拡張を行う。 Subsequently, the label (surface) having a small area is removed as noise. This noise removal may be performed simultaneously with the surface labeling process. In this case, while performing surface labeling, the number of points of the same label (the number of points constituting the label) is counted, and a process of canceling the label having the number of points equal to or less than a predetermined value is performed. Next, the same label as the nearest surface (closest surface) is given to the point having no label at this time. As a result, the already labeled surface is expanded.
すなわち、ラベルの付いた面の方程式を求め、当該面とラベルが無い点との距離を求める。ラベルが無い点の周辺に複数のラベル(面)がある場合には、その距離が最も短いラベルを選択する。そして、依然としてラベルが無い点が残存している場合には、非面領域除去、ノイズ除去、およびラベル拡張における各閾値を変更し、再度関連する処理を行う。例えば、非面領域除去において、局所曲率の閾値を上げることで、非面として抽出する点の数が少なくなるようにする。または、ラベル拡張において、ラベルの無い点と最近傍面との距離の閾値を上げることで、ラベルの無い点に対してより多くのラベルを付与するようにする。 That is, the equation of the surface with the label is obtained, and the distance between the surface and the point without the label is obtained. If there are a plurality of labels (surfaces) around a point where there is no label, the label with the shortest distance is selected. If there is still a point with no label, the threshold values for non-surface area removal, noise removal, and label expansion are changed, and related processing is performed again. For example, in non-surface area removal, the number of points to be extracted as non-surface is reduced by increasing the threshold value of local curvature. Alternatively, in label expansion, by increasing the threshold of the distance between a point without a label and the nearest surface, more labels are given to the point without a label.
次に、ラベルが異なる面であっても同一面である場合にラベルを統合する。この場合、連続しない面であっても、位置または向きが等しい面同士に同じラベルを付ける。具体的には、各面の法線ベクトルの位置および向きを比較することで、連続しない同一面を抽出し、いずれかの面のラベルに統一する。以上が面ラベリング部203の機能である。 Next, even if the labels are different surfaces, the labels are integrated when they are the same surface. In this case, even if the surfaces are not continuous, the same label is attached to the surfaces having the same position or orientation. Specifically, by comparing the position and orientation of the normal vector of each surface, the same non-continuous surface is extracted and unified to the label of any surface. The above is the function of the surface labeling unit 203.
この面ラベリング部203の機能によれば、扱うデータ量を圧縮できるので、三次元点群位置データの処理を高速化できる。また必要なメモリ量を節約できる。また、測定中に紛れ込んだ通行人や通過した車両の三次元点群位置データをノイズとして除去することができる。 According to the function of the surface labeling unit 203, the amount of data to be handled can be compressed, so that the processing of the three-dimensional point cloud position data can be speeded up. In addition, the required amount of memory can be saved. In addition, it is possible to remove the three-dimensional point cloud position data of a passerby or a vehicle that has passed through during measurement as noise.
輪郭線算出部204は、隣接する面の三次元点群位置データに基づき、輪郭線を算出(推定)する。以下、具体的な算出方法について説明する。輪郭線算出部204は、間に非面領域を挟む隣接する面同士の交線を求め、それを輪郭線とする処理を行う。この際、隣接する面の間の非面領域に局所平面をフィッティングさせ、この局所平面を複数繋ぐことで、非面領域を複数の局所平面によって近似する方法を採用することもできる。これは、複数の局所平面により構成される多面体で非面領域を近似したものと捉えることができる。この場合、隣接する面から局所平面をつないでゆき、最後に隣接した局所平面同士の交線を輪郭線として算出する。輪郭線が算出されることで、測定対象物の輪郭の画像が明確となる。
The
次に、二次元エッジ算出部205について説明する。以下、二次元エッジ算出部205で行われる処理の一例を説明する。まず、対象物からの反射光の強度分布に基づいて、ラプラシアン、プリューウィット、ソーベル、キャニーなどの公知のエッジ抽出オペレータを用いて、セグメント化(区分け)された面に対応する二次元画像の領域内からエッジを抽出する。すなわち、二次元エッジは、面内の濃淡の違いにより認識されるので、この濃淡の違いを反射光の強度の情報から抽出し、その抽出条件に閾値を設けることで、濃淡の境目をエッジとして抽出する。次に、抽出されたエッジを構成する点の三次元座標の高さ(z値)と、その近傍の輪郭線(三次元エッジ)を構成する点の三次元座標の高さ(z値)とを比較し、この差が所定の閾値以内の場合には、当該エッジを二次元エッジとして抽出する。すなわち、二次元画像上で抽出されたエッジを構成する点が、セグメント化された面上にあるか否かを判定し、面上にあると判定された場合にそれを二次元エッジとする。 Next, the two-dimensional edge calculation unit 205 will be described. Hereinafter, an example of processing performed by the two-dimensional edge calculation unit 205 will be described. First, based on the intensity distribution of the reflected light from the object, a region of a two-dimensional image corresponding to a segmented (segmented) surface using a known edge extraction operator such as Laplacian, Pleuwit, Sobel, Canny Extract edges from within. In other words, since the two-dimensional edge is recognized by the difference in shading in the surface, the difference in shading is extracted from the information on the intensity of the reflected light, and by setting a threshold value in the extraction condition, the border between the shading is used as an edge. Extract. Next, the height (z value) of the three-dimensional coordinates of the points constituting the extracted edge, and the height (z value) of the three-dimensional coordinates of the points constituting the neighboring contour line (three-dimensional edge) If the difference is within a predetermined threshold, the edge is extracted as a two-dimensional edge. That is, it is determined whether or not a point constituting the edge extracted on the two-dimensional image is on the segmented surface, and if it is determined that the point is on the surface, it is set as the two-dimensional edge.
二次元エッジの算出後、輪郭線算出部204が算出した輪郭線と二次元エッジ算出部205が算出した二次元エッジとを統合する。この処理はエッジ統合部206において行われる。これにより、三次元点群位置データに基づくエッジの抽出が行われる。このエッジの抽出により、測定対象物を視認する際における測定対象物の外観を構成する線(輪郭線)が抽出される。そして得られたエッジの情報に基づいて、三次元モデル形成部207において、測定対象物の三次元モデル(線図の画像)の形成を行う。以下、三次元モデルの具体的な一例を説明する。例えば、測定対象物として建物を選択し、この建物の三次元点群位置データに基づいて、三次元モデルを得た場合を説明する。この場合、当該建物の外観、外壁の模様、窓枠等の輪郭を線図で表した三次元モデルが得られる。
After the calculation of the two-dimensional edge, the contour line calculated by the
(動作例)
図1の光学情報処理装置100の具体的な動作の一例を説明する。図9は、処理の手順の一例を示すフローチャートである。図10には、ここで説明する処理が行われる状況が概念的に示されている。図10には、測定対象物となる建物120、建物120の手前に駐車している乗用車121、レーザースキャナ122、パーソナルコンピュータ123、ステレオペア画像撮影装置124が示されている。
(Operation example)
An example of a specific operation of the optical information processing apparatus 100 in FIG. 1 will be described. FIG. 9 is a flowchart illustrating an example of a processing procedure. FIG. 10 conceptually shows a situation where the processing described here is performed. FIG. 10 shows a building 120 to be measured, a passenger car 121 parked in front of the building 120, a laser scanner 122, a personal computer 123, and a stereo pair image capturing device 124.
レーザースキャナ122は、図1のレーザースキャナ121に相当し、測定対象物である建物120の三次元点群位置データを取得する。ここで、レーザースキャナ122は、第1の視点に配置されている。パーソナルコンピュータ123は、図1の光学情報処理装置100の機能を備え、レーザースキャナ122およびステレオペア画像撮影装置124の2台のデジタルカメラに接続され、レーザースキャナ122からの三次元点群位置データおよび2台のデジタルカメラ125、126からの画像データが入力される。ステレオペア画像撮影装置124は、図1のデジタルカメラに相当し、専用の架台127上に距離を離して2台のデジタルカメラ125、126が配置された構造を有し、この2台のデジタルカメラを用いて、測定対象物である建物120を撮影し、そのステレオペア画像の画像データを取得する。ここで、ステレオペア画像撮影装置124は、レーザースキャナ122が設置された第1の視点とは異なる第2の視点に配置されている。
The laser scanner 122 corresponds to the laser scanner 121 of FIG. 1 and acquires the three-dimensional point cloud position data of the building 120 that is the measurement object. Here, the laser scanner 122 is arranged at the first viewpoint. The personal computer 123 has the function of the optical information processing apparatus 100 of FIG. 1 and is connected to two digital cameras, a laser scanner 122 and a stereo pair image photographing apparatus 124, and the three-dimensional point cloud position data from the laser scanner 122 and Image data from the two
図10には、第1の視点から見た場合に、測定対象物である建物120の一部が手前に駐車している乗用車121の影となりオクルージョンが発生する状態が示されている。したがって、第1の視点においてレーザースキャナ122が得る建物120の三次元点群位置データには、上記オクルージョンに起因する欠損がある。この例では、このオクルージョンを解消する位置として第2の視点が選択された場合が示されている。 FIG. 10 shows a state in which occlusion occurs when a part of the building 120 as a measurement object is shaded by the passenger car 121 parked in front when viewed from the first viewpoint. Therefore, the three-dimensional point cloud position data of the building 120 obtained by the laser scanner 122 at the first viewpoint has a defect due to the occlusion. In this example, a case where the second viewpoint is selected as a position to eliminate this occlusion is shown.
以下、図9を参照して処理の手順の一例を説明する。処理が開始されると(ステップS901)、まず第1の視点にレーザースキャナ122が配置され、そこからレーザー光を用いての建物120の三次元点群位置データ(第1の三次元点群位置データ)の取得が行われる(ステップS902)。次いで、ステップS902で取得した建物120の三次元点群位置データが、パーソナルコンピュータ123に送られ、図1および図2に示す三次元点群位置データ処理部108で処理される(ステップS903)。この処理では、建物120の三次元モデルおよびその処理過程で得た中間データ(非面領域に係るデータやラベルのデータ)が取得される。 Hereinafter, an example of a processing procedure will be described with reference to FIG. When the processing is started (step S901), first, the laser scanner 122 is arranged at the first viewpoint, and from there, the three-dimensional point cloud position data of the building 120 (first three-dimensional point cloud position using the laser beam). Data) is acquired (step S902). Next, the three-dimensional point cloud position data of the building 120 acquired in step S902 is sent to the personal computer 123 and processed by the three-dimensional point cloud position data processing unit 108 shown in FIGS. 1 and 2 (step S903). In this process, a three-dimensional model of the building 120 and intermediate data (data related to a non-surface area and label data) obtained in the process are acquired.
ステップS903の後、図10の第2の視点にステレオペア画像撮影装置124を設置し、第2の視点から建物120のステレオペア画像の撮影を行う(ステップS904)。ここで撮影されたステレオペア画像の画像データは、パーソナルコンピュータ123に送られる。このステレオペア画像の画像データを受け取ったパーソナルコンピュータ123は、当該ステレオペア画像に基づいて建物120の三次元点群位置データ(第2の三次元点群位置データ)の算出を行う(ステップS905)。この処理は、図1の座標算出部104において行われる。 After step S903, the stereo pair image capturing device 124 is installed at the second viewpoint in FIG. 10, and the stereo pair image of the building 120 is captured from the second viewpoint (step S904). The image data of the stereo pair image taken here is sent to the personal computer 123. The personal computer 123 that has received the image data of the stereo pair image calculates the 3D point cloud position data (second 3D point cloud position data) of the building 120 based on the stereo pair image (step S905). . This processing is performed in the coordinate calculation unit 104 in FIG.
次いで、第1の視点においてレーザースキャナ122によって得た第1の三次元点群位置データと、第2の視点においてステレオペア画像撮影装置124が撮影したステレオペア画像に基づいて得た第2の三次元点群位置データ間における対応点の指定(ステップS906)、およびこの指定された対応点に基づく両三次元点群位置データ間の対応関係の算出が行われる(ステップS907)。これらの処理は、図1の対応関係特定部103において行われる。 Next, a second tertiary obtained based on the first three-dimensional point cloud position data obtained by the laser scanner 122 at the first viewpoint and the stereo pair image photographed by the stereo pair image photographing device 124 at the second viewpoint. Corresponding points between the original point cloud position data are designated (step S906), and the correspondence between the three-dimensional point cloud position data based on the designated corresponding points is calculated (step S907). These processes are performed in the correspondence relationship specifying unit 103 in FIG.
2つの三次元点群位置データの対応関係の特定を行った後、第1の視点においてレーザースキャナ122が取得した三次元点群位置データ(第1の三次元点群位置データ)から選ばれた画像的の特徴部分となる点をターゲット(基準点)としたキャリブレーションを行い、デジタルカメラ125,126の内部標定要素の算出を行う(ステップS908)。この処理は、図1の内部標定要素算出部106において行われる。
After specifying the correspondence between the two three-dimensional point cloud position data, it was selected from the three-dimensional point cloud position data (first three-dimensional point cloud position data) acquired by the laser scanner 122 at the first viewpoint. Calibration is performed with a point (reference point) as a point that is an image-like characteristic portion, and the internal orientation elements of the
次に、算出した内部標定要素に基づき、第2の視点において、ステレオペア画像撮影装置124が撮影したステレオペア画像の修正を行う(ステップS909)。この処理は、図1の画像修正部107で行われる。
Next, based on the calculated internal orientation element, the stereo pair image captured by the stereo pair image capturing device 124 is corrected at the second viewpoint (step S909). This processing is performed by the
次に、ステップS909で修正されたステレオペア画像に基づき、測定対象物である建物120の三次元点群位置データ(第2の三次元点群位置データ)の再算出を行う(ステップS910)。この処理は、図1の座標算出部104で行われる。この処理では、レンズの収差等に起因する像の歪みの影響が、ステップS909において修正されているので、レンズの収差等に起因する誤差が低減あるいは解消された三次元点群位置データが算出される。 Next, based on the stereo pair image corrected in step S909, the 3D point cloud position data (second 3D point cloud position data) of the building 120 as the measurement object is recalculated (step S910). This processing is performed by the coordinate calculation unit 104 in FIG. In this process, since the influence of image distortion caused by lens aberration or the like is corrected in step S909, three-dimensional point group position data in which the error caused by lens aberration or the like is reduced or eliminated is calculated. The
次いで、ステップS902で取得した第1の三次元点群位置データと、ステップS910で再度算出された第2の三次元点群位置データとの対応関係を再度算出する(ステップS911)。この処理は、図1の対応関係特定部105において行われる。この際、第2の三次元点群位置データの精度がステップS910の処理により、ステップS907の時点におけるものより向上しているので、より精度の高い対応関係が得られる。 Next, the correspondence relationship between the first three-dimensional point group position data acquired in step S902 and the second three-dimensional point group position data calculated again in step S910 is calculated again (step S911). This processing is performed in the correspondence relationship specifying unit 105 in FIG. At this time, since the accuracy of the second three-dimensional point cloud position data is improved by the process of step S910 from that at the time of step S907, a more accurate correspondence can be obtained.
次いで、ステップS911で得た対応関係に基づいて、図10の第1の視点においてレーザースキャナ122を用いて取得した建物120の三次元点群位置データ(ステップS902で得た第1の三次元点群位置データ)と、第2の視点においてステレオペア画像撮影装置124が撮影した建物120のステレオペア画像に基づいて得た建物120の三次元点群位置データ(ステップS910で得た三次元点群位置データ)とを統合し、この統合されたた三次元点群位置データに基づいて、建物120の三次元モデルを作成する。この三次元モデルは、第1の視点からは乗用車によってオクルージョンとなる部分の三次元点群位置データが第2の視点から得たステレオペア画像に基づく三次元点群位置データによって補完されるので、乗用車121に起因するオクルージョンが解消されたものとなる。尚、第2の視点を得る装置として、ステレオペア画像撮影装置124を利用した説明を行ってきたが、1台のデジタルカメラにて2枚以上の画像を撮影しておこなってもよい。 Next, based on the correspondence obtained in step S911, the three-dimensional point cloud position data of the building 120 acquired using the laser scanner 122 at the first viewpoint in FIG. 10 (the first three-dimensional point obtained in step S902). Group position data) and the three-dimensional point cloud position data of the building 120 obtained based on the stereo pair image of the building 120 photographed by the stereo pair image photographing device 124 at the second viewpoint (the three-dimensional point cloud obtained in step S910). Position data) and a three-dimensional model of the building 120 is created based on the integrated three-dimensional point cloud position data. Since this 3D model is complemented by 3D point cloud position data based on the stereo pair image obtained from the 2nd viewpoint, the 3D point cloud position data of the part that is occluded by the passenger car from the 1st viewpoint. Occlusion caused by the passenger car 121 is eliminated. The stereo pair image capturing device 124 has been described as an apparatus for obtaining the second viewpoint. However, two or more images may be captured by a single digital camera.
以上述べた処理では、第1の視点から建物120のレーザースキャンを行い、三次元点群位置データを得る。他方で、第2の視点から第1の視点でオクルージョンとなる建物120の部分を含むステレオペア画像の撮影を行う。そして、第2の視点で得たステレオ画像と第1の視点で得た三次元点群位置データとの対応関係を求めることで、当該三次元点群位置データを利用してのステレオペア画像撮影装置124のキャリブレーションを行なう。 In the processing described above, laser scanning of the building 120 is performed from the first viewpoint to obtain three-dimensional point cloud position data. On the other hand, a stereo pair image including the part of the building 120 that is occluded from the second viewpoint to the first viewpoint is captured. Then, by obtaining the correspondence between the stereo image obtained from the second viewpoint and the three-dimensional point cloud position data obtained from the first viewpoint, the stereo pair image shooting using the three-dimensional point cloud position data is obtained. The device 124 is calibrated.
この処理によれば、オクルージョンを解消するために、再度の三次元点群位置データの取得を行わないので、再度の点群位置データの取得に要する労力が生じない。また、第2の視点においてデジタルカメラ125、126のキャリブレーションが行なえるので、第2の視点が自由に選択できる。また、第2の視点におけるキャリブレーションは、第1の視点においてレーザースキャナ122によって既に取得されている三次元点群位置データに基づいて行われるので、キャリブレーションに必要なターゲットの設定や距離の設定といった煩雑な作業が必要とされない。
According to this processing, since the acquisition of the three-dimensional point cloud position data is not performed again in order to eliminate the occlusion, the labor required to acquire the point cloud position data again does not occur. In addition, since the
(その他)
図10の第2の視点において、建物120を部分的に重複するように複数に分割してステレオペア画像の撮影を行ない、更に得られた複数組のステレオペア画像のそれぞれに対してステップS904〜ステップS908を行なう方法もある。この方法によれば繰り返しの計算により算出結果の精度を高めることができる。
(Other)
In the second viewpoint of FIG. 10, the building 120 is divided into a plurality of parts so as to partially overlap, and stereo pair images are taken, and further, a plurality of sets of stereo pair images are obtained in steps S904 to S904. There is also a method of performing step S908. According to this method, the accuracy of the calculation result can be increased by repeated calculation.
固定焦点におけるカメラの内部標定要素を取得する方法を更に発展させた方法として、異なる複数の焦点距離における内部標定要素を予め求め、それに基づく当該カメラの焦点距離と内部標定要素との関係を示す近似曲線を利用することで、任意の焦点距離における内部標定要素を算出する手法がある。この手法では、上記の近似曲線のデータを焦点距離情報として当該カメラ内部の記憶部や適当な記憶媒体に記憶しておき、この焦点距離情報と撮影条件における対象物までの距離に基づいて内部標定要素の算出が行なわれる。この場合、推定値あるいは近似値ではあるが撮影条件における内部標定要素を得ることができる。この手法に本発明を利用したキャリブレーションを組み合わせることができる。 Approximation that shows the relationship between the focal length of the camera and the internal orientation element based on the internal orientation elements obtained at different focal lengths in advance, as a further development of the method for acquiring the internal orientation element of the camera at a fixed focus There is a method of calculating an internal orientation element at an arbitrary focal length by using a curve. In this method, the above approximate curve data is stored as focal length information in a storage unit inside the camera or an appropriate storage medium, and internal orientation is determined based on the focal length information and the distance to the object under the shooting conditions. The element is calculated. In this case, although it is an estimated value or an approximate value, an internal orientation element in the photographing condition can be obtained. Calibration using the present invention can be combined with this method.
すなわち、上述した焦点距離に応じた内部標定要素を近似曲線から算出する方法は、誤差を含んでいるが、正確な値からある程度の範囲の精度が得られる。そこで、ステップS908でおこなわれる内部標定要素の算出において、上記の近似曲線から得られる内部標定用要素の値を基準値として用いることで、演算をより効率化することができる。例えば、ステップS908で行なわれる計算では、近似計算や繰り返し計算を行なうことで解を収束させてゆく作業が必要となるが、この際に目安となる値が予め分かっていると、その目安となる値の近くに解が存在する(あるいは収束する)ことを前提として計算を行なえるので、上記の目安がない場合に比較して、計算の手間がより省力化される場合がある。計算が省力化されることで、パーソナルコンピュータ123の演算時間が短縮される。また解の大体の値が予め分かることで、解が収束せずエラーとなるような不都合を避けることができる。焦点距離に応じた内部標定要素を近似曲線から得る形態としては、ズームレンズやオートフォーカスレンズを使用した場合に、あらかじめカメラファイルにその概略焦点距離を記録しておく形態が挙げられる。 That is, the above-described method of calculating the internal orientation element corresponding to the focal length from the approximate curve includes an error, but a certain range of accuracy can be obtained from an accurate value. Therefore, in the calculation of the internal orientation element performed in step S908, the value of the internal orientation element obtained from the approximate curve can be used as a reference value, whereby the calculation can be made more efficient. For example, in the calculation performed in step S908, an operation for converging the solution by performing approximate calculation or iterative calculation is required. If a value serving as a guide at this time is known in advance, the guide is used. Since the calculation can be performed on the assumption that a solution exists (or converges) near the value, the labor of calculation may be further reduced as compared with the case where there is no guideline. Since the calculation is labor-saving, the computation time of the personal computer 123 is shortened. In addition, since the approximate value of the solution is known in advance, it is possible to avoid the inconvenience that the solution does not converge and an error occurs. As a form for obtaining an internal orientation element corresponding to the focal length from an approximate curve, there is a form in which the approximate focal length is recorded in advance in a camera file when a zoom lens or an autofocus lens is used.
また、ステップS904において撮影したステレオペア画像を画像修正部107において上記近似曲線を利用することで修正し、その精度を高めておく手法も有効である。この場合、ステップS904で得るステレオペア画像の精度を高くできるので、ステップS904で得たステレオペア画像に基づくステップS905での第2の三次元点群位置データの算出を予め誤差の少ないものにできる。このようにすることで、計算の手間がより省力化され、精度のよい結果が得られやすくなる。
It is also effective to correct the stereo pair image captured in step S904 by using the approximate curve in the
2.第2の実施形態
以下、三次元点群位置データを処理する機能を有する三次元レーザースキャナについて説明する。この例において、三次元レーザースキャナは、測定対象物に対して測距光(レーザー光)を走査しつつ照射し、レーザー光の飛行時間に基づいて自身の位置から測定対象物上の多数の測定点までの距離を測距する。また、この三次元レーザースキャナは、レーザー光の照射方向(水平角および高低角)を検出し、距離および照射方向に基づいて測定点の三次元座標を算出する。また、この三次元レーザースキャナは、測定対象物を撮影した二次元画像(各測定点におけるRGB強度)を取得し、二次元画像と三次元座標とを結び付けた三次元点群位置データを形成する。さらに、ここで示す三次元レーザースキャナは、図1に関連して説明した光学情報処理装置100の処理を行う機能を有している。
2. Second Embodiment Hereinafter, a three-dimensional laser scanner having a function of processing three-dimensional point cloud position data will be described. In this example, the three-dimensional laser scanner irradiates the object to be measured with distance measuring light (laser light), and performs a number of measurements on the object to be measured from its own position based on the time of flight of the laser light. Measure the distance to the point. The three-dimensional laser scanner detects the irradiation direction (horizontal angle and elevation angle) of the laser beam, and calculates the three-dimensional coordinates of the measurement point based on the distance and the irradiation direction. The three-dimensional laser scanner acquires a two-dimensional image (RGB intensity at each measurement point) obtained by photographing the measurement object, and forms three-dimensional point group position data that combines the two-dimensional image and the three-dimensional coordinates. . Furthermore, the three-dimensional laser scanner shown here has a function of performing the processing of the optical information processing apparatus 100 described with reference to FIG.
(構成)
図11および図12は、三次元レーザースキャナ1の構成を示す断面図である。三次元レーザースキャナ1は、整準部22、回転機構部23、本体部27、および回転照射部28を備えている。本体部27は、測距部24、撮影部25、制御部26等から構成されている。なお、図11は、説明の便宜のため、図12に示す断面方向に対して、回転照射部28のみ側方から見た状態を示している。
(Constitution)
11 and 12 are cross-sectional views showing the configuration of the three-
整準部22は、台盤29を有し、回転機構部23は下部ケーシング30を有する。下部ケーシング30は、ピン31と2個の調整ネジ32とにより3点で台盤29に支持されている。下部ケーシング30は、ピン31の先端を支点にして傾動する。なお、台盤29と下部ケーシング30との間には、台盤29と下部ケーシング30とが互いに離反しないようにするため、引っ張りスプリング33が設けられている。
The leveling
下部ケーシング30の内部には、2個の整準モータ34が設けられている。2個の整準モータ34は、制御部26によって互いに独立して駆動される。整準モータ34の駆動により整準駆動ギア35、整準従動ギア36を介して調整ネジ32が回転し、調整ネジ32の下方への突出量が調整される。また、下部ケーシング30の内部には傾斜センサ37(図13参照)が設けられている。2個の整準モータ34は、傾斜センサ37の検出信号により駆動され、これにより整準が実行される。
Two leveling
回転機構部23は、下部ケーシング30の内部に水平角用駆動モータ38を有する。水平角用駆動モータ38の出力軸には水平回動駆動ギア39が嵌着されている。水平回動駆動ギア39は、水平回動ギア40に噛合されている。水平回動ギア40は、回転軸部41に設けられている。回転軸部41は、回転基盤42の中央部に設けられている。回転基盤42は、下部ケーシング30の上部に、軸受け部材43を介して設けられている。
The
また、回転軸部41には水平角検出器44として、例えばエンコーダが設けられている。水平角検出器44は、下部ケーシング30に対する回転軸部41の相対的回転角(水平角)を検出する。水平角は制御部26に入力され、制御部26は、その検出結果に基づき水平角用駆動モータ38を制御する。
Further, the rotary shaft portion 41 is provided with, for example, an encoder as the
本体部27は、本体部ケーシング45を有する。本体部ケーシング45は、回転基盤42に固着されている。本体部ケーシング45の内部には鏡筒46が設けられている。鏡筒46は、本体部ケーシング45の回転中心と同心の回転中心を有する。鏡筒46の回転中心は、光軸47に合致されている。鏡筒46の内部には、光束分離手段としてのビームスプリッタ48が設けられている。ビームスプリッタ48は、可視光を透過し、かつ、赤外光を反射する機能を有する。光軸47は、ビームスプリッタ48によって光軸49と光軸50とに分離される。
The
測距部24は、鏡筒46の外周部に設けられている。測距部24は、発光部としてのパルスレーザ光源51を有する。パルスレーザ光源51とビームスプリッタ48との間には、穴あきミラー52、レーザー光のビームウエスト径を変更するビームウエスト変更光学系53が配設されている。測距光源部は、パルスレーザ光源51、ビームウエスト変更光学系53、穴あきミラー52で構成されている。穴あきミラー52は、パルスレーザ光を穴部52aからビームスプリッタ48に導き、測定対象物から反射して戻って来た反射レーザー光を測距受光部54に向けて反射する役割を有する。
The
パルスレーザ光源51は、制御部26の制御により所定のタイミングで赤外パルスレーザ光を発する。赤外パルスレーザ光は、ビームスプリッタ48によって高低角用回動ミラー55に向けて反射される。高低角用回動ミラー55は、赤外パルスレーザ光を測定対象物に向けて反射する。高低角用回動ミラー55は、高低角方向に回転することで、鉛直方向に延びる光軸47を高低角方向の投光光軸56に変換する。ビームスプリッタ48と高低角用回動ミラー55との間でかつ鏡筒46の内部には集光レンズ57が配設されている。
The pulse
測定対象物からの反射レーザー光は、高低角回動用ミラー55、集光レンズ57、ビームスプリッタ48、穴あきミラー52を経て測距受光部54に導かれる。また、測距受光部54には、内部参照光路を通って参照光も導かれる。反射レーザー光が測距受光部54で受光されるまでの時間と、レーザー光が内部参照光路を通って測距受光部54で受光されるまでの時間との差に基づき、光学情報処理装置1から測定対象物(測定対象点)までの距離が測定される。測距受光部54は、CMOS光センサ等の光電変化素子により構成され、検出した光のRGB強度を検出する機能も有している。
The reflected laser light from the object to be measured is guided to the distance measuring
撮影部25は、画像受光部58を備え、カメラとして機能する。画像受光部58は、鏡筒46の底部に設けられている。画像受光部58は、多数の画素が平面状に集合して配列されたもの、例えば、CCD(Charge Coupled Device)で構成されている。画像受光部58の各画素の位置は光軸50によって特定される。例えば、光軸50を原点として、X−Y座標を想定し、このX−Y座標の点として画素が定義される。
The photographing
回転照射部28は、投光ケーシング59の内部に収納されている。投光ケーシング59の周壁の一部は、投光窓となっている。図12に示すように、鏡筒46のフランジ部60には、一対のミラーホルダー板61が対向して設けられている。ミラーホルダー板61には、回動軸62が掛け渡されている。高低角用回動ミラー55は、回動軸62に固定されている。回動軸62の一端部には高低角ギア63が嵌着されている。回動軸62の他端側には高低角検出器64が設けられている。高低角検出器64は、高低角用回動ミラー55の回動角を検出し、その検出結果を制御部26に出力する。
The
ミラーホルダー板61の一方には、高低角用駆動モータ65が取り付けられている。高低角用駆動モータ65の出力軸には駆動ギア66が嵌着されている。駆動ギア66は、回転軸62に取り付けられた高低角ギア63に噛合されている。高低角用駆動モータ65は、高低角検出器64の検出結果に基づき、制御部26の制御により適宜駆動される。
A high and low
投光ケーシング59の上部には、照星照門67が設けられている。照星照門67は、測定対象物を概略視準するのに用いられる。照星照門67を用いた視準方向は、投光光軸56の延びる方向、および回動軸62の延びる方向に対して直交する方向とされている。また、図12に示すように、投光ケーシング59の上部には、GPSアンテナ81が配置されている。GPSアンテナにより、GPS情報が取得され、内部で行われる演算にGPS情報を利用することができる構成とされている。
On the upper part of the
図13は、制御部のブロック図である。制御部26には、水平角検出器44、高低角検出器64、傾斜センサ37、GPSアンテナ81からの検出信号が入力される。また、制御部26は、操作部6から操作指示信号が入力される。制御部26は、水平角用駆動モータ38、高低角用駆動モータ65、整準モータ34を駆動制御する共に、作業状況、測定結果等を表示する表示部7を制御する。制御部26には、メモリカード、HDD等の外部記憶装置68が着脱可能とされている。
FIG. 13 is a block diagram of the control unit. Detection signals from the
制御部26は、演算部4、記憶部5、水平駆動部69、高低駆動部70、整準駆動部71、距離データ処理部72、画像データ処理部73等から構成されている。記憶部5は、測距や高低角と水平角の検出を行うために必要なシーケンスプログラム、演算プログラム、測定データの処理を実行する測定データ処理プログラム、画像処理を行う画像処理プログラム、三次元点群位置データから面を抽出し、更に輪郭線を算出するプログラム、この算出した輪郭線を表示部7に表示させるための画像表示プログラム、三次元点群位置データの再取得に係る処理を制御するプログラム等の各種のプログラムを格納すると共に、これらの各種のプログラムを統合管理するための統合管理プログラム等を格納する。また、記憶部5は、測定データ、画像データ等の各種のデータを格納する。水平駆動部69は、水平角用駆動モータ38を駆動制御し、高低駆動部70は、高低角用駆動モータ65を駆動制御し、整準駆動部71は、整準モータ34を駆動制御する。距離データ処理部72は、測距部24によって得られた距離データを処理し、画像データ処理部73は、撮影部25により得られた画像データを処理する。
The
また、制御部26は、GPS受信部82を備えている。GPS受信部82は、GPSアンテナが受信したGPS衛星からの信号を処理し、地球上における座標データを算出する。これは、通常のGPS受信装置と同じである。GPSから得られた位置情報は、光学情報処理部100’に入力される。
The
図14は、演算部4のブロック図である。演算部4は、三次元座標演算部74、リンク形成部75、グリッド形成部9、光学情報処理部100’を備えている。三次元座標演算部74には、距離データ処理部72から測定対象点の距離データが入力され、水平角検出器44および高低角検出器64から測定対象点の方向データ(水平角および高低角)が入力される。三次元座標演算部74は、入力された距離データと方向データとに基づき、光学情報処理装置1の位置を原点(0,0,0)とした各測定点の三次元座標(直交座標)を算出する。
FIG. 14 is a block diagram of the
リンク形成部75には、画像データ処理部73から画像データおよび三次元座標演算部74が算出した各測定点の三次元座標の座標データが入力される。リンク形成部75は、画像データ(各測定点のRGB強度)と三次元座標を結び付けた三次元点群位置データ2を形成する。つまり、リンク形成部75は、測定対象物のある点に着目した場合、その着目点の二次元画像中における位置と、その着目点の三次元座標とを関連付けしたものを作成する。この関連付けされたデータは、全ての測定点について算出され、それらが三次元点群位置データ2となる。
The link forming unit 75 receives the image data from the image
リンク形成部75は、以上の三次元点群位置データ2をグリッド形成部9に出力する。グリッド形成部9は、三次元点群位置データ2の隣接点の点間距離が一定でない場合に、等間隔のグリッド(メッシュ)を形成し、グリッドの交点に最も近い点を登録する。または、グリッド形成部9は、線形補間法やバイキュービック法を用いて、グリッドの交点位置に全点を補正する。なお、三次元点群位置データ2の点間距離が一定である場合には、グリッド形成部9の処理を省略することができる。
The link forming unit 75 outputs the above three-dimensional point
以下、グリッドの形成手順について説明する。図15は、点間距離が一定でない三次元点群位置データを示す概念図であり、図16は、形成したグリッドを示す概念図である。図16に示すように、各列の平均水平間隔H1〜Nを求め、さらに列間の平均水平間隔の差分ΔHi,jを算出し、その平均をグリッドの水平間隔ΔHとする(数20)。垂直方向の間隔は、各列での垂直方向の隣接点との距離ΔVN,Hを算出し、画像サイズW,Hの画像全体におけるΔVN,Hの平均を垂直間隔ΔVとする(数21)。そして、図16に示すように、算出した水平間隔ΔHおよび垂直間隔ΔVのグリッドを形成する。 Hereinafter, the grid formation procedure will be described. FIG. 15 is a conceptual diagram showing three-dimensional point group position data in which the distance between points is not constant, and FIG. 16 is a conceptual diagram showing a formed grid. As shown in FIG. 16, the average horizontal interval H 1 to N of each column is obtained, the difference ΔH i, j of the average horizontal interval between the columns is calculated, and the average is set as the horizontal interval ΔH of the grid (Equation 20 ). The vertical interval is calculated by calculating the distance ΔV N, H between the vertical adjacent points in each column and the average of ΔV N, H in the entire image of the image sizes W, H is defined as the vertical interval ΔV (Equation 21 ). Then, as shown in FIG. 16, a grid with the calculated horizontal interval ΔH and vertical interval ΔV is formed.
次に、形成したグリッドの交点に最も近い点を登録する。この際、交点から各点までの距離には所定の閾値を設けて、登録を制限する。例えば、閾値は、水平間隔ΔHおよび垂直間隔ΔVの1/2とする。なお、線形補間法やバイキュービック法のように、交点との距離に応じた重みを付けて全点を補正してもよい。ただし、補間を行った場合には、本来計測していない点となる。 Next, the point closest to the intersection of the formed grids is registered. At this time, a predetermined threshold is provided for the distance from the intersection to each point to limit registration. For example, the threshold value is ½ of the horizontal interval ΔH and the vertical interval ΔV. It should be noted that all points may be corrected by applying a weight according to the distance from the intersection, such as a linear interpolation method or a bicubic method. However, when interpolation is performed, the point is not originally measured.
以上のようにして得られた三次元点群位置データは、光学情報処理部100’に出力される。光学情報処理部100’は、第1の実施形態で説明した光学情報処理装置100と同様の動作を行う。また、その動作においてユーザに提示される画像の表示が液晶ディスプレイである表示部7に表示される。光学情報処理部100’は、図1の光学情報処理装置100と同様の機能を有するハードウェアであり、FPGAを利用した専用の集積回路により構成されている。
The three-dimensional point cloud position data obtained as described above is output to the optical information processing unit 100 '. The optical information processing unit 100 ′ performs the same operation as that of the optical information processing apparatus 100 described in the first embodiment. Further, the display of the image presented to the user in the operation is displayed on the
光学情報処理部100’には、GPS受信部82から得られた地球上における座標データが入力される。この構成によれば、光学情報処理部100’で取り扱われる座標がGPSから得られた位置データ(例えば、電子地図情報)とリンクされる。これにより、例えば、三次元レーザースキャナ1の設置位置を電子地図上に画面表示することができる。
Coordinate data on the earth obtained from the
(その他)
制御部26の構成において、グリッド形成部9から三次元点群位置データが外部に出力される形態とすると、図11、図12に示す装置は、第1の実施形態で示したパーソナルコンピュータを利用した光学情報処理装置と組み合わせて使用可能な三次元レーザースキャナとなる。また、光学情報処理部100’が行う処理を分散して行う構成も可能である。例えば、光学情報処理部100’の機能の一部を通信回線で結ばれたサーバで行うような構成も可能である。これは、図1の光学情報処理装置100の場合も同じである。これらの構成は、本発明の光学情報処理システムの一例として把握される。
(Other)
In the configuration of the
画像を取得する方法として、CCDカメラ等を用いた撮影による方法が一般的であるが、点群データに基づいて測定対象物の画像を再現することもできる。レーザースキャナにより三次元点群位置データを得た場合、各点からの反射光の光強度に係るデータが得られる。したがって、三次元点群位置データを対象物の画像を構成する画素データとして取り扱うことで、三次元点群位置データに基づいて測定対象物の画像を再現することができる。つまり、CCDやCMOSイメージセンサ等の撮影手段の代わりに、レーザースキャナを用いて測定対象物の画像を得ることができる。この場合、図1の画像受付け部102は、レーザースキャナ121から出力される三次元点群位置データに基づき、上述した原理により画像データを取得する。 As a method for acquiring an image, a method by photographing using a CCD camera or the like is common, but an image of a measurement object can also be reproduced based on point cloud data. When three-dimensional point cloud position data is obtained by a laser scanner, data relating to the light intensity of reflected light from each point is obtained. Therefore, by treating the 3D point cloud position data as pixel data constituting the image of the object, the image of the measurement object can be reproduced based on the 3D point cloud position data. That is, an image of the measurement object can be obtained using a laser scanner instead of a photographing means such as a CCD or a CMOS image sensor. In this case, the image receiving unit 102 in FIG. 1 acquires image data based on the above-described principle based on the three-dimensional point cloud position data output from the laser scanner 121.
本発明は、三次元情報の測定を行う技術に利用することができる。 The present invention can be used in a technique for measuring three-dimensional information.
1…三次元レーザースキャナ、2…三次元点群位置データ、22…整準部、23…回転機構部、24…測距部、25…撮影部、26…制御部、27…本体部、28…回転照射部、29…台盤、30…下部ケーシング、31…ピン、32…調整ネジ、33…引っ張りスプリング、34…整準モータ、35…整準駆動ギア、36…整準従動ギア、37…傾斜センサ、38…水平回動モータ、39…水平回動駆動ギア、40…水平回動ギア、41…回転軸部、42…回転基盤、43…軸受部材、44…水平角検出器、45…本体部ケーシング、46…鏡筒、47…光軸、48…ビームスプリッタ、49、50…光軸、51…パルスレーザ光源、52…穴あきミラー、53…ビームウエスト変更光学系、54…測距受光部、55…高低角用回動ミラー、56…投光光軸、57…集光レンズ、58…画像受光部、59…投光ケーシング、60…フランジ部、61…ミラーホルダー板、62…回動軸、63…高低角ギア、64…高低角検出器、65…高低角用駆動モータ、66…駆動ギア、67…照星照門、68…外部記憶装置、69…水平駆動部、70…高低駆動部、71…整準駆動部、72…距離データ処理部、73…画像データ処理部、81…GPSアンテナ、82…GPS受信部、100’…光学情報処理部、120…建物、121…乗用車、122…レーザースキャナ、123…パーソナルコンピュータ、124…ステレオペア画像撮影装置、125…デジタルカメラ、126…デジタルカメラ、127…架台。
DESCRIPTION OF
Claims (10)
第2の視点において撮影した前記測定対象物のステレオ画像に基づく前記測定対象物に係る第2の三次元点群位置データを算出する座標算出部と、
前記第1の三次元点群位置データと前記第2の三次元点群位置データとの対応関係を特定する対応関係特定部と、
前記第1の三次元点群位置データと前記対応関係特定部で特定された前記対応関係とに基づき、前記ステレオ画像の撮影を行った撮影装置の内部標定要素を算出する内部標定要素算出部と、
前記内部標定要素算出部で算出した前記内部標定要素に基づき、前記ステレオ画像を修正する画像修正部と、
前記第1の三次元点群位置データと前記画像修正部で修正された前記ステレオ画像に基づく前記測定対象物に係る第3の三次元点群位置データとを統合し、該統合された三次元点群位置データに基づいて前記測定対象物の三次元モデルを作成する三次元モデル作成部と
を備えることを特徴とする光学情報処理装置。 A three-dimensional point cloud position data receiving unit that receives the first three-dimensional point group location data according to the measurement object that is based on reflected light resulting laser beam in the first aspect,
A coordinate calculation unit for calculating second 3D point cloud position data relating to the measurement object based on a stereo image of the measurement object photographed at the second viewpoint;
A correspondence specifying unit that specifies a correspondence between the first three-dimensional point group position data and the second three-dimensional point group position data ;
An internal orientation element calculation unit that calculates an internal orientation element of an imaging apparatus that has captured the stereo image based on the first three-dimensional point cloud position data and the correspondence relationship specified by the correspondence relationship specification unit; ,
An image correcting unit that corrects the stereo image based on the internal orientation element calculated by the internal orientation element calculation unit ;
The first three-dimensional point group position data and the third three-dimensional point group position data related to the measurement object based on the stereo image corrected by the image correction unit are integrated, and the integrated three-dimensional An optical information processing apparatus comprising: a three-dimensional model creating unit that creates a three-dimensional model of the measurement object based on point cloud position data .
前記対応関係特定部は、前記第1の三次元点群位置データと前記第3の三次元点群位置データとの対応関係の特定を行い、
前記第1の三次元点群位置データと前記第3の三次元点群位置データとの前記対応関係に基づいて、前記第1の三次元点群位置データと前記第3の三次元点群位置データの統合が行われることを特徴とする請求項1〜4のいずれか一項に記載の光学情報処理装置。 The coordinate calculation unit calculates the third 3D point cloud position data by calculating the 3D point cloud position data again based on the stereo image corrected by the image correction unit,
The correspondence specifying unit specifies the correspondence between the first three-dimensional point cloud position data and the third three-dimensional point cloud position data;
Based on the correspondence between the first three-dimensional point group position data and the third three-dimensional point group position data, the first three-dimensional point group position data and the third three-dimensional point group position 5. The optical information processing apparatus according to claim 1, wherein data integration is performed .
第2の視点において撮影した前記測定対象物のステレオ画像に基づく前記測定対象物に係る第2の三次元点群位置データを算出する座標算出手段と、
前記第1の三次元点群位置データと前記第2の三次元点群位置データとの対応関係を特定する対応関係特定手段と、
前記第1の三次元点群位置データと前記対応関係特定手段で特定された前記対応関係とに基づき、前記ステレオ画像の撮影を行った撮影装置の内部標定要素を算出する内部標定要素算出手段と、
前記内部標定要素算出手段で算出した前記内部標定要素に基づき、前記ステレオ画像を修正する画像修正手段と、
前記第1の三次元点群位置データと前記画像修正手段で修正された前記ステレオ画像に基づく前記測定対象物に係る第3の三次元点群位置データとを統合し、該統合された三次元点群位置データに基づいて前記測定対象物の三次元モデルを作成する三次元モデル作成手段と
を備えることを特徴とする光学情報処理システム。 A first three-dimensional point cloud position data receiving means for receiving three-dimensional point group location data according to the measurement object that is based on the reflected light of the laser light obtained in the first aspect,
Coordinate calculating means for calculating second 3D point cloud position data relating to the measurement object based on a stereo image of the measurement object photographed at the second viewpoint;
Correspondence specifying means for specifying the correspondence between the first three-dimensional point group position data and the second three-dimensional point group position data ;
An internal orientation element calculating means for calculating an internal orientation element of an imaging apparatus that has captured the stereo image based on the first three-dimensional point cloud position data and the correspondence relation specified by the correspondence relation specifying means; ,
Image correcting means for correcting the stereo image based on the internal orientation element calculated by the internal orientation element calculation means ;
The first three-dimensional point group position data and the third three-dimensional point group position data related to the measurement object based on the stereo image corrected by the image correction unit are integrated, and the integrated three-dimensional An optical information processing system comprising: a three-dimensional model creating unit that creates a three-dimensional model of the measurement object based on point cloud position data .
第2の視点において撮影した前記測定対象物のステレオ画像に基づく前記測定対象物に係る第2の三次元点群位置データを算出する座標算出ステップと、
前記第1の三次元点群位置データと前記第2の三次元点群位置データとの対応関係を特定する対応関係特定ステップと、
前記第1の三次元点群位置データと前記対応関係特定ステップで特定された前記対応関係とに基づき、前記ステレオ画像の撮影を行った撮影装置の内部標定要素を算出する内部標定要素算出ステップと、
前記内部標定要素算出ステップで算出した前記内部標定要素に基づき、前記ステレオ画像を修正する画像修正ステップと、
前記第1の三次元点群位置データと前記画像修正ステップで修正された前記ステレオ画像に基づく前記測定対象物に係る第3の三次元点群位置データとを統合し、該統合された三次元点群位置データに基づいて前記測定対象物の三次元モデルを作成する三次元モデル作成ステップと
を備えることを特徴とする光学情報処理方法。 A first three-dimensional point group location data reception step of receiving three-dimensional point group location data according to the measurement object that is based on the reflected light of the laser light obtained in the first aspect,
A coordinate calculation step of calculating second 3D point cloud position data relating to the measurement object based on a stereo image of the measurement object photographed at the second viewpoint;
A correspondence specifying step for specifying a correspondence between the first three-dimensional point group position data and the second three-dimensional point group position data ;
An internal orientation element calculating step for calculating an internal orientation element of an imaging apparatus that has captured the stereo image , based on the first three-dimensional point cloud position data and the correspondence relationship specified in the correspondence relationship specifying step; ,
An image correction step for correcting the stereo image based on the internal orientation element calculated in the internal orientation element calculation step ;
The first three-dimensional point cloud position data and the third three-dimensional point cloud position data related to the measurement object based on the stereo image corrected in the image correction step are integrated, and the integrated three-dimensional An optical information processing method comprising: a three-dimensional model creation step of creating a three-dimensional model of the measurement object based on point cloud position data .
コンピュータを
第1の視点において得られるレーザー光の反射光に基づく測定対象物に係る第1の三次元点群位置データを受け付ける三次元点群位置データ受付手段と、
第2の視点において撮影した前記測定対象物のステレオ画像に基づく前記測定対象物に係る第2の三次元点群位置データを算出する座標算出手段と、
前記第1の三次元点群位置データと前記第2の三次元点群位置データとの対応関係を特定する対応関係特定手段と、
前記第1の三次元点群位置データと前記対応関係特定手段で特定された前記対応関係とに基づき、前記ステレオ画像の撮影を行った撮影装置の内部標定要素を算出する内部標定要素算出手段と、
前記内部標定要素算出手段で算出した前記内部標定要素に基づき、前記ステレオ画像を修正する画像修正手段と、
前記第1の三次元点群位置データと前記画像修正手段で修正された前記ステレオ画像に基づく前記測定対象物に係る第3の三次元点群位置データとを統合し、該統合された三次元点群位置データに基づいて前記測定対象物の三次元モデルを作成する三次元モデル作成手段と
して機能させることを特徴とする光学情報処理用プログラム。 A program that is read and executed by a computer,
Computer
A first three-dimensional point cloud position data receiving means for receiving three-dimensional point group location data according to the measurement object that is based on the reflected light of the laser light obtained in the first aspect,
Coordinate calculating means for calculating second 3D point cloud position data relating to the measurement object based on a stereo image of the measurement object photographed at the second viewpoint;
Correspondence specifying means for specifying the correspondence between the first three-dimensional point group position data and the second three-dimensional point group position data ;
An internal orientation element calculating means for calculating an internal orientation element of an imaging apparatus that has captured the stereo image based on the first three-dimensional point cloud position data and the correspondence relation specified by the correspondence relation specifying means; ,
Image correcting means for correcting the stereo image based on the internal orientation element calculated by the internal orientation element calculation means ;
The first three-dimensional point group position data and the third three-dimensional point group position data related to the measurement object based on the stereo image corrected by the image correction unit are integrated, and the integrated three-dimensional programs for optical information processing, characterized in that to function as a three-dimensional model creation means for creating a three-dimensional model of the object to be measured based on the point group location data.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010233764A JP5580164B2 (en) | 2010-10-18 | 2010-10-18 | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program |
PCT/JP2011/073959 WO2012053521A1 (en) | 2010-10-18 | 2011-10-18 | Optical information processing device, optical information processing method, optical information processing system, and optical information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010233764A JP5580164B2 (en) | 2010-10-18 | 2010-10-18 | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012088114A JP2012088114A (en) | 2012-05-10 |
JP5580164B2 true JP5580164B2 (en) | 2014-08-27 |
Family
ID=45975232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010233764A Active JP5580164B2 (en) | 2010-10-18 | 2010-10-18 | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5580164B2 (en) |
WO (1) | WO2012053521A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10872432B2 (en) | 2018-01-05 | 2020-12-22 | Panasonic Intellectual Property Management Co., Ltd. | Disparity estimation device, disparity estimation method, and program |
US12011806B2 (en) | 2019-06-24 | 2024-06-18 | Wheelabrator Group Limited | Impeller for a blast wheel machine |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6030549B2 (en) * | 2011-04-13 | 2016-11-24 | 株式会社トプコン | 3D point cloud position data processing apparatus, 3D point cloud position data processing system, 3D point cloud position data processing method and program |
US9183631B2 (en) * | 2012-06-29 | 2015-11-10 | Mitsubishi Electric Research Laboratories, Inc. | Method for registering points and planes of 3D data in multiple coordinate systems |
JP5963353B2 (en) * | 2012-08-09 | 2016-08-03 | 株式会社トプコン | Optical data processing apparatus, optical data processing system, optical data processing method, and optical data processing program |
JP6214867B2 (en) * | 2012-11-14 | 2017-10-18 | 株式会社東芝 | Measuring device, method and program |
JP6081209B2 (en) * | 2013-02-01 | 2017-02-15 | オリンパス株式会社 | Endoscope apparatus and program |
DE102013009288B4 (en) * | 2013-06-04 | 2016-02-04 | Testo Ag | 3D recording device, method for creating a 3D image and method for setting up a 3D recording device |
CN105339981B (en) * | 2013-06-19 | 2019-04-12 | 三菱电机株式会社 | Method for using one group of primitive registration data |
JP6622886B2 (en) * | 2013-07-09 | 2019-12-18 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
JP6296444B2 (en) * | 2014-01-30 | 2018-03-20 | 国際航業株式会社 | Plotting method by point cloud image and plotting apparatus by point cloud image |
JP6433200B2 (en) * | 2014-08-28 | 2018-12-05 | 株式会社トプコン | Arithmetic apparatus, arithmetic method, and program |
JP6251142B2 (en) * | 2014-09-05 | 2017-12-20 | 公益財団法人鉄道総合技術研究所 | Non-contact detection method and apparatus for measurement object |
JP2016057108A (en) * | 2014-09-08 | 2016-04-21 | 株式会社トプコン | Arithmetic apparatus, arithmetic system, arithmetic method and program |
WO2017187950A1 (en) * | 2016-04-27 | 2017-11-02 | 富士フイルム株式会社 | Image processing device and image processing method |
CN107808398B (en) | 2016-09-08 | 2023-04-07 | 松下知识产权经营株式会社 | Camera parameter calculation device, calculation method, program, and recording medium |
JP6877946B2 (en) * | 2016-10-17 | 2021-05-26 | 株式会社トプコン | Laser scanner |
JP7038346B2 (en) | 2017-05-01 | 2022-03-18 | パナソニックIpマネジメント株式会社 | Camera parameter calculation method, camera parameter calculation program, and camera parameter calculation device |
JP7113611B2 (en) * | 2017-11-30 | 2022-08-05 | 大成建設株式会社 | LOCATION IDENTIFICATION APPARATUS, LOCATION IDENTIFICATION PROGRAM AND LOCATION IDENTIFICATION METHOD, PHOTOGRAPHED IMAGE REGISTRATION APPARATUS, PHOTOGRAPHED IMAGE REGISTRATION PROGRAM AND PHOTOGRAPHIED IMAGE REGISTRATION METHOD |
JP7007167B2 (en) * | 2017-12-05 | 2022-01-24 | 株式会社トプコン | Surveying equipment, surveying equipment calibration method and surveying equipment calibration program |
WO2019116942A1 (en) * | 2017-12-14 | 2019-06-20 | キヤノン株式会社 | Generation device, generation method and program for three-dimensional model |
CA3061699C (en) * | 2017-12-14 | 2023-03-07 | Canon Kabushiki Kaisha | Generation device, generation method and non-transitory computer-readable meadium storing a program for generating a three-dimensional model from an image |
JP6403862B1 (en) * | 2017-12-14 | 2018-10-10 | キヤノン株式会社 | Three-dimensional model generation apparatus, generation method, and program |
JPWO2020075213A1 (en) * | 2018-10-09 | 2021-09-02 | オリンパス株式会社 | Measuring equipment, measuring methods and microscope systems |
JP6511681B1 (en) | 2018-10-15 | 2019-05-15 | 株式会社Mujin | Shape information generation device, control device, unloading device, distribution system, program, and control method |
WO2020217377A1 (en) | 2019-04-25 | 2020-10-29 | 三菱電機株式会社 | Degree of movement estimation device, degree of movement estimation method, and degree of movement estimation program |
JP7433623B2 (en) * | 2019-11-18 | 2024-02-20 | 株式会社ベイシスコンサルティング | Structure image management system |
CN111047650B (en) * | 2019-12-02 | 2023-09-01 | 北京深测科技有限公司 | Parameter calibration method for time-of-flight camera |
WO2021140886A1 (en) | 2020-01-10 | 2021-07-15 | パナソニックIpマネジメント株式会社 | Three-dimensional model generation method, information processing device, and program |
CN111220100B (en) * | 2020-04-10 | 2020-08-18 | 广东博智林机器人有限公司 | Laser beam-based measurement method, device, system, control device, and medium |
JP6928217B1 (en) * | 2020-07-31 | 2021-09-01 | 松尾建設株式会社 | Measurement processing equipment, methods and programs |
JP2022111795A (en) * | 2021-01-20 | 2022-08-01 | オムロン株式会社 | Measurement system, inspection system, measurement device, measurement method, inspection method, and program |
JP7579535B2 (en) | 2021-03-17 | 2024-11-08 | 株式会社駒井ハルテック | Surveying system, surveying device, surveying method, and surveying program |
CN113099210B (en) * | 2021-03-31 | 2023-01-10 | 东莞中国科学院云计算产业技术创新与育成中心 | Three-dimensional image restoration method, device, computer equipment and storage medium |
CN113643388B (en) * | 2021-10-14 | 2022-02-22 | 深圳市海谱纳米光学科技有限公司 | Black frame calibration and correction method and system for hyperspectral image |
CN115388911A (en) * | 2022-08-24 | 2022-11-25 | Oppo广东移动通信有限公司 | Precision measurement method and device of optical motion capture system and electronic equipment |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4359084B2 (en) * | 2002-06-26 | 2009-11-04 | Hoya株式会社 | Surveying system |
JP4038726B2 (en) * | 2003-09-03 | 2008-01-30 | 株式会社日立プラントテクノロジー | Image matching method |
JP5051493B2 (en) * | 2005-12-26 | 2012-10-17 | 株式会社Ihi | 3D measurement marker and 3D measurement method using the same |
JP5057734B2 (en) * | 2006-09-25 | 2012-10-24 | 株式会社トプコン | Surveying method, surveying system, and surveying data processing program |
-
2010
- 2010-10-18 JP JP2010233764A patent/JP5580164B2/en active Active
-
2011
- 2011-10-18 WO PCT/JP2011/073959 patent/WO2012053521A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10872432B2 (en) | 2018-01-05 | 2020-12-22 | Panasonic Intellectual Property Management Co., Ltd. | Disparity estimation device, disparity estimation method, and program |
US12011806B2 (en) | 2019-06-24 | 2024-06-18 | Wheelabrator Group Limited | Impeller for a blast wheel machine |
Also Published As
Publication number | Publication date |
---|---|
WO2012053521A1 (en) | 2012-04-26 |
JP2012088114A (en) | 2012-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
JP5620200B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
JP6236118B2 (en) | 3D data processing apparatus, 3D data processing system, 3D data processing method and program | |
JP5593177B2 (en) | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program | |
JP5465128B2 (en) | Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method, and point cloud position data processing program | |
EP3373251B1 (en) | Scan colorization with an uncalibrated camera | |
JP5480914B2 (en) | Point cloud data processing device, point cloud data processing method, and point cloud data processing program | |
CN107155341B (en) | Three-dimensional scanning system and frame | |
KR101766603B1 (en) | Image processing apparatus, image processing system, image processing method, and computer program | |
JP4851239B2 (en) | Image processing apparatus and processing method thereof | |
WO2011162388A1 (en) | Point group data processing device, point group data processing system, point group data processing method, and point group data processing program | |
JP2011253376A (en) | Image processing device, image processing method and program | |
CN112132906A (en) | A method and system for calibrating external parameters between a depth camera and a visible light camera | |
CN111583388A (en) | Scanning method and device of three-dimensional scanning system | |
CN114485953A (en) | Temperature measuring method, device and system | |
Wilm et al. | Accurate and simple calibration of DLP projector systems | |
US20170289516A1 (en) | Depth map based perspective correction in digital photos | |
JP4809134B2 (en) | Image processing apparatus and processing method thereof | |
JP2007323616A (en) | Image processing apparatus and processing method thereof | |
JP5727969B2 (en) | Position estimation apparatus, method, and program | |
JP2016114445A (en) | Three-dimensional position calculation device, program for the same, and cg composition apparatus | |
CN114155233A (en) | Apparatus and method for obtaining a registration error map representing a level of sharpness of an image | |
JP2005275789A (en) | 3D structure extraction method | |
CN117333367A (en) | Image stitching method, system, medium and device based on image local features | |
JP3637416B2 (en) | Three-dimensional measurement method, three-dimensional measurement system, image processing apparatus, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140408 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140708 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5580164 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |