JP2012033119A - Three-dimensional environment generation system - Google Patents
Three-dimensional environment generation system Download PDFInfo
- Publication number
- JP2012033119A JP2012033119A JP2010174084A JP2010174084A JP2012033119A JP 2012033119 A JP2012033119 A JP 2012033119A JP 2010174084 A JP2010174084 A JP 2010174084A JP 2010174084 A JP2010174084 A JP 2010174084A JP 2012033119 A JP2012033119 A JP 2012033119A
- Authority
- JP
- Japan
- Prior art keywords
- model
- marker
- dimensional
- point cloud
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Generation (AREA)
Abstract
【課題】大規模点群データのCGモデルへの置き換えを、少ない計算量及び少ない誤差で行う。
【解決手段】環境内の3次元形状を計測した反射強度付き点群データと、マーカ付き3次元CGモデル群を入力し、前記反射強度付き点群データから算出したマーカ配置と、入力したマーカ付き3次元CGモデル群のマーカ配置との照合処理により、類似配置のマーカを持つ3次元CGモデルを抽出するモデル候補抽出部と、反射強度付き点群データから算出したマーカ配置に、前記抽出マーカ付き3次元CGモデルのマーカをあわせることにより、最も照合誤差の少ない3次元CGモデルを該当3次元CGモデルとして、3次元環境モデルとして出力する点群-CG置換部、とを備える。
【選択図】図1A large-scale point cloud data is replaced with a CG model with a small amount of calculation and a small error.
A point cloud data with reflection intensity obtained by measuring a 3D shape in an environment and a 3D CG model group with a marker are input, a marker arrangement calculated from the point cloud data with a reflection intensity, and an input with a marker A model candidate extraction unit that extracts a three-dimensional CG model having a marker with a similar arrangement by collation processing with the marker arrangement of the three-dimensional CG model group, and the marker arrangement calculated from the point cloud data with reflection intensity, A point group-CG replacement unit that outputs a three-dimensional CG model with the smallest matching error as a corresponding three-dimensional CG model by combining the markers of the three-dimensional CG model.
[Selection] Figure 1
Description
本発明は、3次元CGで室内環境を生成するシステムに関し、特に、点群データをCGモデルに置換するシステムに関する。 The present invention relates to a system for generating an indoor environment with three-dimensional CG, and more particularly to a system for replacing point cloud data with a CG model.
現実世界にある建造物などの形状をデジタル化する方法の一つとして、レーザ距離センサなどを用いて対象物を詳細に計測し、点群により3次元状況を表現する方法がある。この現実をありのままに再現する技術に対しては、プラント、土木や重工、文化遺産保存や建造物の現状確認、ロボット移動のための環境認識、アミューズメントなど、幅広い分野でのニーズが考えられる。具体的な用途としては、例えば、プラント施設などでは、既存設備の損傷、劣化の状態を正確に計測して診断すること、設備補修もしくは改造のための現場の寸法を計測すること、などがある。さらに、本技術を、工場内レイアウトの変更や、新規機器導入時の設置場所の検討、工場内で動作するハンドロボットの稼動範囲の確認、移動ロボットの動作確認など、工場におけるシミュレーションの分野に展開することも考えられる。 One method of digitizing the shape of a building or the like in the real world is a method of measuring a target in detail using a laser distance sensor or the like and expressing a three-dimensional situation by a point cloud. For technology that reproduces this reality as it is, there may be needs in a wide range of fields such as plant, civil engineering and heavy industry, preservation of cultural heritage, confirmation of the current state of buildings, environmental recognition for robot movement, and amusement. Specific applications include, for example, in plant facilities and the like, accurately measuring and diagnosing damage and deterioration of existing equipment, and measuring on-site dimensions for equipment repair or modification. . In addition, this technology will be deployed in the field of factory simulation, such as changing the layout of the factory, examining the installation location when introducing new equipment, checking the operating range of hand robots operating in the factory, and checking the operation of mobile robots. It is also possible to do.
しかし、点群により大型設備のモデルを作成する上での課題は数多い。点群のデータ量は膨大であるためPCで扱うのは困難であること、広大な場所を計測するため点群において発生するノイズは大きく異常値の量も多いこと、点群から直接生成されたメッシュモデルのデータ量が膨大であること、などの問題がある。現時点では、大型設備の点群計測データから少ない手間で効率的に3次元モデルを作成する手法は知られていない。 However, there are many problems in creating a model of a large facility using point clouds. Since the amount of data in point clouds is enormous, it is difficult to handle on a PC, the noise generated in point clouds is large and the amount of abnormal values is large to measure vast places, and it is generated directly from point clouds There is a problem that the data amount of the mesh model is enormous. At present, there is no known method for efficiently creating a three-dimensional model from a point cloud measurement data of a large facility with little effort.
点群データに形状モデルを当てはめる手法としては、非特許文献1に記載されているものがある。プラントの配管のモデル化を対象とし、計測データからパイプ部分を手動で切り取ったり、異常値の含まれるパイプ部分の点群を試験的に作成することによって得たデータを基に、点群を自動的に円柱に当てはめるものである。
Non-patent
非特許文献1に記載の点群からのモデル化では、試験的に作成された点群は円柱を当てはめることを前提に作成されていること、及び、扱える曲線が円柱に限定されていることにより、予め円柱とわかっている部分を切り出した点群に円柱を当てはめることしかできない。ゆえに円柱以外の形状には対応不可である。
In modeling from the point cloud described in Non-Patent
我々の生活する一般の環境の中には、円柱だけでなく、様々な形状のオブジェクトが存在する。しかも、どのような形状のものが、どのような位置姿勢で置いてあるかは未知である。また更に、点群にモデルを当てはめようにも、オブジェクト毎に点群を抽出する方法も確立していない。 In the general environment where we live, there are objects of various shapes as well as cylinders. Moreover, it is unknown what kind of shape is placed in what position and orientation. Furthermore, a method for extracting a point cloud for each object has not been established in order to fit a model to the point cloud.
点群で取得した室内環境のモデル化を行うためには、まず、オブジェクトのある場所を認識し、その後、その場所の点群に合致するモデルを選択し、そのモデルを的確な位置姿勢に変更する方法が考えられる。 To model the indoor environment acquired with a point cloud, first recognize the location of the object, then select the model that matches the point cloud at that location, and change the model to the correct position and orientation A way to do this is conceivable.
本発明は上記を鑑みて為されたものであり、その目的は、点群による実測データにCGモデルを当てはめるにあたり、該当するモデルの選出および位置姿勢の算出を、簡易に、少ない誤差で行う3次元環境生成システムを提供することにある。 The present invention has been made in view of the above, and an object of the present invention is to select a corresponding model and calculate a position and orientation simply and with little error when applying a CG model to measured data by a point cloud. It is to provide a dimensional environment generation system.
本発明の望ましい態様は、次のような3次元環境生成システムである。即ち、本発明に係る3次元環境生成システムは、環境内の3次元形状を計測した反射強度付き距離データとマーカ付きの3次元CGモデル群とを入力とし、反射強度付き距離データから特定の反射強度を持つ領域を抽出しそれをマーカ領域として座標値と共に保存するマーカ位置出力部と、任意のマーカに対して近傍にあるマーカを探索し探索されたマーカの座標値をマーカ配置として保存する近傍マーカ探索部と、前記点群から算出したマーカ配置と、入力したマーカ付き3次元CGモデル群のマーカ配置に対する照合処理によって類似配置のマーカを持つ3次元CGモデルを抽出するモデル候補抽出部と、点群から算出したマーカ配置に前記抽出マーカ付き3次元CGモデルのマーカをあわせることによって、3次元CGモデル位置姿勢を仮決定するモデル初期位置算出部と、前記算出モデルの初期位置に設置した3次元CGモデルを点群データと照合する処理を行うモデル照合部と、最も照合誤差の少ない3次元CGモデルを目的の3次元CGモデルとし、点群データ中の該当部分とその3次元CGモデルを入れ替えて3次元環境モデルとして出力する点群-CG置換部と、を備える。 A desirable mode of the present invention is the following three-dimensional environment generation system. That is, the three-dimensional environment generation system according to the present invention receives as input the distance data with reflection intensity obtained by measuring the three-dimensional shape in the environment and the three-dimensional CG model group with a marker, and generates a specific reflection from the distance data with reflection intensity. A marker position output unit that extracts a region with strength and stores it as a marker region with the coordinate value, and a neighborhood that searches for a marker near the marker and stores the coordinate value of the searched marker as a marker location A marker search unit, a marker arrangement calculated from the point group, and a model candidate extraction unit that extracts a three-dimensional CG model having a marker with a similar arrangement by collating the marker arrangement of the input three-dimensional CG model group with a marker; 3D CG model position and orientation by matching the marker of the 3D CG model with the extracted marker to the marker arrangement calculated from the point cloud A model initial position calculation unit that is temporarily determined, a model verification unit that performs processing for verifying a three-dimensional CG model installed at the initial position of the calculation model with point cloud data, and a three-dimensional CG model with the least verification error. A three-dimensional CG model is provided, and a corresponding part in the point group data and a point group-CG replacement unit that replaces the three-dimensional CG model and outputs the three-dimensional environment model are provided.
本発明によれば、少ない計算量で自動的に点群データを3次元CGモデルに置き換えることができる。 According to the present invention, point cloud data can be automatically replaced with a three-dimensional CG model with a small amount of calculation.
以下、実施形態について、図面を参照しながら説明する。 Hereinafter, embodiments will be described with reference to the drawings.
図1は、3次元環境モデル作成の流れを示した機能ブロック図である。3次元環境モデルとは、実空間、例えば我々の生活する室内空間の3次元形状をCGなどでモデル化したものである。 FIG. 1 is a functional block diagram showing the flow of creating a three-dimensional environment model. The three-dimensional environment model is obtained by modeling a three-dimensional shape of a real space, for example, an indoor space in which we live with CG.
実空間にあるものと、レーザ距離センサやカメラなどのセンサで取得したデータとの関連付けを容易にするため、実空間内の適当な場所に目印となるマーカを貼り付ける方法がある。
マーカには、例えば、カメラで認識しやすいような、特定の色・形状・大きさの物体や、IDリーダで認識しやすいような、特定の周波数に反応するICタグを利用する。使用するセンサに応じて適したものを利用する。
ここでは、レーザ距離センサで認識しやすい、レーザ照射時に特別な値を返す素材のものをマーカとして利用する。これを、反射マーカとする。
距離センサを用いて、距離センサ位置と周辺障害物との距離・角度、及び、その計測先におけるレーザの反射強度を計測した、反射強度付き距離データ100を入力する。特定の反射強度のデータを得るためには、レーザ照射時に特別な値を返すものを計測対象となる実空間のいずれかの場所に設置しておく必要がある。
There is a method of pasting a marker serving as a mark at an appropriate location in the real space in order to easily associate the data in the real space with data acquired by a sensor such as a laser distance sensor or a camera.
For the marker, for example, an object of a specific color, shape, or size that can be easily recognized by a camera, or an IC tag that reacts to a specific frequency that can be easily recognized by an ID reader is used. Use a sensor suitable for the sensor used.
Here, a material that can be easily recognized by the laser distance sensor and returns a special value upon laser irradiation is used as a marker. This is a reflection marker.
Using the distance sensor, the
同じ形状の対象物に対しては、同じ配置でマーカを貼付しておく。マーカ位置出力部200では、反射強度付き距離データ100より、反射強度の高い領域を抽出し、その領域の形状及びサイズが予め登録されたマーカ情報と合致していたら、その場所をマーカ貼付場所とする。そして、マーカ領域の中心に位置する点の座標値をマーカ座標値102として出力する。点群データ内に存在する、全ての反射強度の高い領域に対してマーカ座標値102の出力を行う。前記出力されたマーカ座標値102から、任意のマーカを選択し、その近傍にあるマーカを探索する。探索範囲は予め設定しておく。例えば、環境内のモデル化する対象物に設置するマーカの範囲を半径30cm以内とルールを定めている場合、選択したマーカから半径30cm以内にある他のマーカの座標値を抽出する。近傍で見つかったマーカの座標値を組み合わせ、マーカ配置103として出力する。
For objects having the same shape, markers are attached in the same arrangement. The marker
点群データのデータベースには、図10の200に示すように、点群データファイル名と、マーカ座標値、マーカ配置を格納する。マーカ座標値には、点群データ内にある全てのマーカの3次元座標値を、1、2、3、・・・と番号をつけたものを、格納する。マーカ配置には、上記3次元座標値の番号の組み合わせを、マーカ配置として格納する。 The point cloud data database stores the point cloud data file name, the marker coordinate value, and the marker arrangement, as indicated by 200 in FIG. In the marker coordinate value, the three-dimensional coordinate values of all markers in the point cloud data, numbered 1, 2, 3,... Are stored. In the marker arrangement, a combination of the three-dimensional coordinate value numbers is stored as a marker arrangement.
次に、点群データから抽出したマーカ配置103に合致する、3次元CGモデルを決定する。事前にマーカ付き3次元CGモデル110を準備しておく。マーカ付き3次元CGモデルとは、3次元CGモデルにマーカ情報を付加したデータである。図10の300に示すように、形状モデルファイル名、マーカに関する情報(個数、サイズ、配置)をデータベース上に格納しておく。
Next, a three-dimensional CG model that matches the
モデル候補抽出部220では、点群から抽出したマーカ配置103と、全てのマーカ付き3次元モデル110のマーカ配置との照合処理を行う。マーカ位置のずれの許容範囲を例えば5cmとあらかじめ定め、その許容範囲内にマーカが配置されているものを類似の配置を持つマーカ付き3次元CGモデルとして全て抽出し、マーカ付き3次元CGモデル候補112として、データを確保する。
The model
モデル初期位置算出部230では、点群データのマーカ配置103に、3次元CGモデル112のマーカ配置をあわせることにより、点群と3次元CGモデルの照合処理を行うための3次元CGモデルのおおよその初期位置を算出し、モデル位置・角度113を出力する。モデル照合処理240では、点群データ100と、3次元CGモデル112の照合処理を行い、最も誤差が最小となる位置を計算し、モデル位置・角度113データを更新する。モデル照合時の誤差が閾値より低い場合は、そのモデルが点群と合致すると判断し、点群−CG置換部250において、点群データ内の該当部分をCGに置き換え、3次元環境モデル120を作成する。ここでいう3次元環境モデル120とは、点群データとCGモデルとが共存するデータの場合もあれば、全ての点群データがCGモデルに置き換えられ、全てのデータがCGのデータとなる場合もある。
In the model initial
図2は、本実施形態である3次元環境モデル作成の全体のフロー図である。
まず、ステップS1000で、計測データを入力する。レーザ距離センサでは、例えば、周囲180度に1度ごとにレーザ光を照射し、レーザ光が障害物にあたり戻ってくるまでの時間によりその障害物との距離を計測し、センサからの角度θ、その角度における障害物との距離rを、距離データとして出力する。また、レーザ光が障害物に当たったときの反射強度Iも同時に出力する。計測データとは、前記レーザ距離センサで計測したセンサから周囲障害物までの距離データ、及び反射強度データであり、レーザ距離センサ位置(rx、ry、rz)と距離データ(θ、r)より求めた、レーザ照射先の3次元座標値(x、y、z)と、前記計測反射強度Iとを対にして保存する。レーザ照射先の3次元座標値を集めたものを、点群データとする。また、距離データは、計測地点の座標値とそこからの距離及び角度により、同一の座標系に統合され、各座標点は当該座標系の座標値を持つものとする。点群データの例を図4に示す。100は点群データを示したものであり、101は高い反射強度を返す点群データを表したものである。
FIG. 2 is an overall flowchart of creating a three-dimensional environment model according to this embodiment.
First, in step S1000, measurement data is input. In the laser distance sensor, for example, the laser beam is irradiated every 180 degrees around, and the distance to the obstacle is measured according to the time until the laser beam hits the obstacle, the angle θ from the sensor, The distance r to the obstacle at that angle is output as distance data. Further, the reflection intensity I when the laser beam hits the obstacle is also output at the same time. The measurement data is distance data from the sensor measured by the laser distance sensor to surrounding obstacles and reflection intensity data, and is obtained from the laser distance sensor position (rx, ry, rz) and the distance data (θ, r). The three-dimensional coordinate values (x, y, z) of the laser irradiation destination and the measured reflection intensity I are stored as a pair. Collected three-dimensional coordinate values of the laser irradiation destination are set as point cloud data. The distance data is integrated into the same coordinate system based on the coordinate value of the measurement point and the distance and angle from the coordinate value, and each coordinate point has the coordinate value of the coordinate system. An example of point cloud data is shown in FIG.
ステップS1010で、計測データの中で特定の反射強度を持つ領域を抽出する。マーカ部分を区別するために、物体には、レーザ照射時に高い反射強度値を返す高反射テープを予め決めた配置で貼り付けておく。そして、抽出した領域の面積を算出し、その面積がマーカサイズとほぼ同等、例えば10%以内の誤差であった場合のみ、その場所をマーカが設定される場所とする。面積の算出方法の例として、ある任意の座標値から見た点群データを、反射強度の高い部分を白、そうでない部分を黒で表した2次元画像として出力し、白い部分の面積を求める方法が挙げられる。 In step S1010, a region having a specific reflection intensity is extracted from the measurement data. In order to distinguish the marker portion, a high reflection tape that returns a high reflection intensity value upon laser irradiation is attached to the object in a predetermined arrangement. Then, the area of the extracted region is calculated, and only when the area is approximately equal to the marker size, for example, an error within 10%, the place is set as the place where the marker is set. As an example of the area calculation method, point cloud data viewed from an arbitrary coordinate value is output as a two-dimensional image in which a portion with high reflection intensity is expressed in white and a portion other than that in black, and the area of the white portion is obtained. A method is mentioned.
ステップS1020では、マーカ領域の中心位置をマーカ設置位置とし、その座標値を出力する。点群データ内で検出される全てのマーカの座標値を出力し、図10の202に示すように、マーカ番号と一緒に、データベースに格納する。 In step S1020, the center position of the marker area is set as the marker installation position, and the coordinate value is output. The coordinate values of all the markers detected in the point cloud data are output and stored in the database together with the marker numbers as indicated by 202 in FIG.
ステップS1030では、出力されたマーカ位置の近傍にある他のマーカを探索し、ステップS1040では、S1020で出力したマーカの番号と、S1030で探索した近傍マーカの番号とを、図5に示すように同一オブジェクトに対するマーカであると仮定し、図10の203に示すように、マーカ番号をオブジェクトごとにまとめて格納する。 In step S1030, another marker in the vicinity of the output marker position is searched. In step S1040, the marker number output in S1020 and the neighboring marker number searched in S1030 are as shown in FIG. Assuming that the markers are for the same object, marker numbers are collectively stored for each object as indicated by 203 in FIG.
ステップS1050で、CGモデル候補を選定する。点群とモデルをマッチングする際には、最初にマーカ配置によるマッチングを用いてモデルの候補を絞る。この理由は、すべてのモデルを当てはめて検証すると計算量が膨大になる、モデルのおおよその位置及び姿勢が不明であると探索範囲があまりに広くなる、等である。予め登録された3次元CGモデルの例を図6に示す。事前に室内にあるオブジェクトの3次元CGモデルをDBに登録する。図10の200に示すように、DBには、各モデルに対して、形状モデルのファイル名110、マーカ個数、マーカサイズ、マーカ配置を示すマーカの各座標値111を登録する。
In step S1050, a CG model candidate is selected. When matching a point cloud and a model, first, model candidates are narrowed down using matching by marker arrangement. This is because, if all models are applied and verified, the amount of calculation becomes enormous. If the approximate position and orientation of the model are unknown, the search range becomes too wide. An example of a pre-registered three-dimensional CG model is shown in FIG. A 3D CG model of an object in the room is registered in the DB in advance. As shown at 200 in FIG. 10, the coordinate
ステップ1050におけるモデル候補の選定では、図7に示すように、ステップS1040で出力されたマーカ配置(実測から導出)と、予め登録されたモデルのマーカ配置(CGモデルと一緒に登録)とを比較し、予め定めたマーカ位置のずれの許容範囲、例えば5cm以内にマーカが配置されているCGモデルを抽出し、モデル候補とする。 In selecting model candidates in step 1050, as shown in FIG. 7, the marker arrangement (derived from actual measurement) output in step S1040 is compared with the marker arrangement of the model registered in advance (registered together with the CG model). Then, a CG model in which the marker is arranged within a predetermined allowable range of the marker position deviation, for example, within 5 cm, is extracted and set as a model candidate.
モデル候補が見つかれば、該当モデルに番号1〜nを付ける。ステップS1060では、モデル候補の有無を判定し、モデル候補が見つからなければ終了とする。モデル候補が見つかった場合、ステップS1070でモデル候補と計測した点群データとの照合処理を実施し一致するモデルを探す。照合処理の流れは、図3にて詳述する。
If a model candidate is found,
ステップS1080では、点群データをCGモデルに置き換える。ステップS1070で決定したモデル[m]を、ステップS1070で出力したモデル[m]の位置姿勢に従い、点群データ内に設置する。次に、CGモデル[m]内にある点群、及び、CGモデル[m]周辺の点群(レーザ距離センサの計測誤差分の範囲)の点群を削除する。 In step S1080, the point cloud data is replaced with a CG model. The model [m] determined in step S1070 is installed in the point cloud data according to the position and orientation of the model [m] output in step S1070. Next, the point group in the CG model [m] and the point group around the CG model [m] (range of measurement error of the laser distance sensor) are deleted.
この一連の流れを、点群データ内で検出される全てのマーカに対して実施することにより、点群データをCGモデルに置換していく。レイアウト変更等で室内にある物の配置が変更になっても、レーザ距離センサで、再度、室内を計測し距離データ、反射強度データを取得し、前記点群―CG置換処理を行うことにより、該当するモデルを変更された位置・方向においてCGモデルへと自動的に変換することができる。 By executing this series of flows for all the markers detected in the point cloud data, the point cloud data is replaced with a CG model. Even if the arrangement of objects in the room is changed due to a layout change or the like, the laser distance sensor measures the room again, acquires distance data and reflection intensity data, and performs the point group-CG replacement process, The corresponding model can be automatically converted into a CG model at the changed position and direction.
図3は、モデル照合処理のフロー図であり、ステップS1070のモデル照合処理の流れを詳述するものである。 FIG. 3 is a flowchart of the model matching process, and details the flow of the model matching process in step S1070.
ステップS1060で、モデル候補1〜nが選出された。ここでは、モデル候補全てを順に点群に当てはめ、最も合致するものを、置換対象のCGモデルとして決定する。
In step S1060,
まず、モデル番号m=1から照合処理を実施する。照合処理の前処理として、CGモデルmの初期位置・姿勢を設定する必要がある。そこで、ステップS1071で、図8に示すように、モデルのマーカ配置(CGモデルと一緒に登録)が、点群のマーカ配置(実測から導出)と一致するように、CGモデルの位置・姿勢を変更する。ステップS1072では、点群とCGモデルの照合処理を行う。照合処理には、例えば、点群の照合処理に一般的によく用いられるICP(Interactive Closest Point)アルゴリズム、点群とモデルの近傍点間距離(点とその点に最も近い場所にあるモデル表面上の座標値との距離を全ての点に対して計算)の最小二乗誤差の小さくなる位置姿勢を探索するアルゴリズムなどを用いる。このアルゴリズムを用いて的確な結果を得るためには、初期位置の設定が重要である。事前に位置姿勢の初期値を与えることにより、点群とCGモデルの照合処理を容易にし、精度を高めることができる。本発明では、マーカ配置を用いることで予め簡易的に位置合わせを行うため、おおよその初期位置設定を自動的に行うことができる。 First, collation processing is performed from model number m = 1. It is necessary to set the initial position / posture of the CG model m as a pre-process of the collation process. Therefore, in step S1071, as shown in FIG. 8, the position / posture of the CG model is set so that the marker arrangement of the model (registered together with the CG model) matches the marker arrangement of the point group (derived from actual measurement). change. In step S1072, the point cloud and the CG model are collated. The matching process includes, for example, an ICP (Interactive Closest Point) algorithm that is generally used for a point cloud matching process, a distance between a point cloud and a model's neighboring points (on the surface of the model that is closest to the point and the point) For example, an algorithm for searching for a position and orientation with which the least square error of (calculates the distance to the coordinate value of all points) is reduced. In order to obtain an accurate result using this algorithm, the setting of the initial position is important. By giving the initial value of the position and orientation in advance, the collation process between the point group and the CG model can be facilitated and the accuracy can be improved. In the present invention, since the alignment is simply performed in advance by using the marker arrangement, an approximate initial position can be automatically set.
ステップS1073では、上記算出誤差が予め定めた閾値を超えているか否か判断し、閾値を超えている場合は、そのモデルは点群と一致するモデルではないと判断し、ステップS1075に進む。閾値を超えていない場合は、そのモデルを点群と置換できる可能性が高いと判断し、モデル[m]を候補として保持する。またさらに、照合処理で最も誤差の小さくなる場所を、モデル[m]の位置・姿勢として保存する。 In step S1073, it is determined whether the calculation error exceeds a predetermined threshold value. If the calculation error exceeds the threshold value, it is determined that the model is not a model that matches the point group, and the process proceeds to step S1075. If the threshold is not exceeded, it is determined that there is a high possibility that the model can be replaced with a point cloud, and the model [m] is retained as a candidate. Furthermore, the place where the error is smallest in the matching process is stored as the position / posture of the model [m].
ステップ1075では、全ての候補モデルを照合したかどうか判断する。すなわち、今照合処理を行ったモデル番号mが候補モデル総数nより小さいか否かを判断し、まだ照合処理をしていないモデルがあれば、モデル番号に1を加えてステップS1071に戻る。全てのモデルの照合がしたら、モデル候補が残っているか否かをステップS1076で判断し、残っていると判断された場合には、ステップS1077にて、図9に示すように、この段階で残存するモデル候補を照合してそれらの誤差を比較し、最も誤差が小さいものを点群と置換すべきモデルと決定し、そのモデルの番号mと、モデル[m]の位置姿勢を返す。ステップS1076で、モデル候補が全くなかった場合は、該当モデルなしとして処理を終了する。 In step 1075, it is determined whether all candidate models have been collated. That is, it is determined whether or not the model number m that has just been collated is smaller than the total number n of candidate models. If there is a model that has not yet been collated, 1 is added to the model number and the process returns to step S1071. When all the models have been collated, it is determined in step S1076 whether or not model candidates remain, and if it is determined that they remain, in step S1077, as shown in FIG. The model candidates to be compared are compared and their errors are compared. The model having the smallest error is determined as the model to be replaced with the point group, and the model number m and the position and orientation of the model [m] are returned. If there is no model candidate in step S1076, the process ends with no corresponding model.
環境内にある全てのマーカに関して上記処理を実施し、置換可能な点群を全て3次元CGモデルに置き換えられると、照合処理が終了する。 When the above-described processing is performed for all markers in the environment and all replaceable point groups are replaced with the three-dimensional CG model, the matching processing ends.
このように、マーカ配置の照合処理を事前に行うことにより、簡易にCGモデルの候補を絞ることができる。さらに、マーカ配置を基に照合処理前の初期位置を与えることにより、点群とモデルを照合処理したときの誤差を低減させることができる。 In this way, by performing the marker arrangement matching process in advance, the candidates for the CG model can be easily narrowed down. Furthermore, by giving the initial position before the matching process based on the marker arrangement, it is possible to reduce an error when the point cloud and the model are matched.
CGモデル候補を選定するときの探索範囲を限定するため、マーカ付き3次元CGモデルに対して、拘束条件を表す属性を設定してもよい。例えば、棚や机など、倒れた状態で設置される可能性の低いものに対しては、類似マーカ配置を探索する際に、X軸周りやY軸周りの回転の可能性を考慮する必要はないため、XY軸固定を示す属性を設定する。また、底面が床に接してしていることを前提とするような拘束条件の与え方もある。例えば、Z座標値固定の有無を示す属性を設定する。 In order to limit the search range when selecting a CG model candidate, an attribute representing a constraint condition may be set for the three-dimensional CG model with a marker. For example, it is necessary to consider the possibility of rotation around the X axis or around the Y axis when searching for similar marker arrangements for things such as shelves and desks that are unlikely to be installed in a fallen state. Therefore, an attribute indicating XY axis fixation is set. There is also a method of giving a constraint condition on the assumption that the bottom surface is in contact with the floor. For example, an attribute indicating whether or not the Z coordinate value is fixed is set.
また別の属性の可能性としては、移動可能性の有無を示すものも考えられる。例えば、オフィス内の3次元環境を生成することを想定すると、椅子は日々移動する可能性が高いが、ロッカーが移動する可能性は低いと考えられる。そこで、一旦3次元環境モデルを生成し、その後データの更新のみを行う場合には、移動可能性有のモデルのみを更新の対象とすればよく、探索範囲を限定することができる。 Another possible attribute is that indicating the possibility of movement. For example, assuming that a three-dimensional environment in an office is generated, a chair is likely to move daily, but a locker is unlikely to move. Therefore, when a three-dimensional environment model is once generated and only data update is performed thereafter, only a model having a possibility of movement needs to be updated, and the search range can be limited.
100・・・点群、101・・・高反射強度点群、110・・・3次元CGモデル、111・・・マーカ、200・・・点群データベース、300・・・マーカ付き3次元CGモデルのデータベース
DESCRIPTION OF
Claims (3)
反射強度付き点群データから特定の反射強度を有する領域を抽出し、前記領域をマーカ領域として座標値と共に保存するマーカ位置出力部と、
任意のマーカに対して近傍にあるマーカを探索し、発見された前記マーカの座標値をマーカ配置として保存する近傍マーカ探索部と、
前記反射強度付き点群データから算出したマーカ配置と、入力したマーカ付き3次元CGモデル群のマーカ配置との照合処理により、類似配置のマーカを持つ3次元CGモデルを抽出するモデル候補抽出部と、
反射強度付き点群データから算出したマーカ配置に、前記抽出マーカ付き3次元CGモデルのマーカをあわせることにより、3次元CGモデル位置姿勢を仮決定するモデル初期位置算出部と、
反射強度付き点群データと前記算出モデル初期位置に設置した3次元CGモデルとの照合処理を行うモデル照合部と、
前記照合処理の結果、最も照合誤差の少ない3次元CGモデルを該当3次元CGモデルとし、反射強度付き点群データ中の該当部分と、前記該当3次元CGモデルとを入れ替えて、3次元環境モデルとして出力する点群−CG置換部と、
を備えることを特徴とした3次元環境モデル作成システム。 With the input of point cloud data with reflection intensity obtained by measuring the 3D shape in the environment and the 3D CG model group with markers,
A marker position output unit that extracts a region having a specific reflection intensity from point cloud data with reflection intensity, and stores the region as a marker region together with a coordinate value;
A nearby marker search unit that searches for a marker in the vicinity of an arbitrary marker and stores the coordinate value of the found marker as a marker arrangement;
A model candidate extraction unit that extracts a three-dimensional CG model having a marker with a similar arrangement by a matching process between the marker arrangement calculated from the point cloud data with reflection intensity and the marker arrangement of the input three-dimensional CG model group with a marker; ,
A model initial position calculation unit that temporarily determines a 3D CG model position and orientation by matching a marker of the 3D CG model with the extracted marker to a marker arrangement calculated from point cloud data with reflection intensity;
A model matching unit that performs a matching process between the point cloud data with reflection intensity and the three-dimensional CG model installed at the initial position of the calculated model;
As a result of the matching process, the three-dimensional CG model with the smallest matching error is set as the corresponding three-dimensional CG model, and the corresponding portion in the point cloud data with reflection intensity is replaced with the corresponding three-dimensional CG model. A point group-CG replacement unit that outputs as
A three-dimensional environment model creation system characterized by comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010174084A JP5470190B2 (en) | 2010-08-03 | 2010-08-03 | 3D environment generation system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010174084A JP5470190B2 (en) | 2010-08-03 | 2010-08-03 | 3D environment generation system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2012033119A true JP2012033119A (en) | 2012-02-16 |
| JP5470190B2 JP5470190B2 (en) | 2014-04-16 |
Family
ID=45846413
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010174084A Expired - Fee Related JP5470190B2 (en) | 2010-08-03 | 2010-08-03 | 3D environment generation system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5470190B2 (en) |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014059672A (en) * | 2012-09-14 | 2014-04-03 | Mitsutoyo Corp | Three-dimensional model generation method, system and program |
| JP2015184078A (en) * | 2014-03-20 | 2015-10-22 | 株式会社ウニークス | Target used for method of measuring predetermined position of measuring object, and distance measurement method using target |
| JP2015206651A (en) * | 2014-04-18 | 2015-11-19 | 浜松ホトニクス株式会社 | Distance measurement method and distance measurement system |
| JP2017102529A (en) * | 2015-11-30 | 2017-06-08 | ファナック株式会社 | Workpiece position posture calculator and handling system |
| JP2019219238A (en) * | 2018-06-19 | 2019-12-26 | 株式会社トプコン | Reflector position calculation device, reflector position calculation method and reflector position calculation program |
| JP2020181320A (en) * | 2019-04-24 | 2020-11-05 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and device information derivation method |
| WO2020230452A1 (en) * | 2019-05-14 | 2020-11-19 | 株式会社ジオ技術研究所 | Three-dimensional model generation device |
| JP2022516298A (en) * | 2019-01-02 | 2022-02-25 | グリットワールド ゲーエムベーハー | How to reconstruct an object in 3D |
| JP7042380B1 (en) | 2021-09-15 | 2022-03-25 | 株式会社日立プラントコンストラクション | Display device, program and display method |
| JP2023038693A (en) * | 2021-09-07 | 2023-03-17 | 株式会社トプコン | Measurement data processing device, measurement data processing method and measurement data processing processing |
| JP2023109426A (en) * | 2022-01-27 | 2023-08-08 | 株式会社日立製作所 | Video processing device and video processing method |
| US11983818B2 (en) | 2021-08-03 | 2024-05-14 | Kabushiki Kaisha Toshiba | Measurement system and storage medium storing measurement program |
| JP2024064572A (en) * | 2022-10-28 | 2024-05-14 | 株式会社豊田自動織機 | Simulation System |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005034619A (en) * | 2003-06-23 | 2005-02-10 | Yokohama Rubber Co Ltd:The | Golf club head behavior measuring device |
| JP2007303828A (en) * | 2006-05-08 | 2007-11-22 | Konica Minolta Sensing Inc | Cross-sectional data acquisition method and system, and cross-sectional inspection method |
| JP2009294048A (en) * | 2008-06-04 | 2009-12-17 | Yokohama Rubber Co Ltd:The | Behavior measuring device of moving body, and behavior measuring method of moving body |
| JP2010060451A (en) * | 2008-09-04 | 2010-03-18 | Toyota Motor Corp | Robotic apparatus and method for estimating position and attitude of object |
| JP2010085131A (en) * | 2008-09-30 | 2010-04-15 | Taisei Corp | Finished work confirming system, finished work confirmation program, and finished work confirmation method |
| JP2010097419A (en) * | 2008-10-16 | 2010-04-30 | Toshiba Plant Systems & Services Corp | Apparatus, program and method for processing three-dimensional data |
-
2010
- 2010-08-03 JP JP2010174084A patent/JP5470190B2/en not_active Expired - Fee Related
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005034619A (en) * | 2003-06-23 | 2005-02-10 | Yokohama Rubber Co Ltd:The | Golf club head behavior measuring device |
| JP2007303828A (en) * | 2006-05-08 | 2007-11-22 | Konica Minolta Sensing Inc | Cross-sectional data acquisition method and system, and cross-sectional inspection method |
| JP2009294048A (en) * | 2008-06-04 | 2009-12-17 | Yokohama Rubber Co Ltd:The | Behavior measuring device of moving body, and behavior measuring method of moving body |
| JP2010060451A (en) * | 2008-09-04 | 2010-03-18 | Toyota Motor Corp | Robotic apparatus and method for estimating position and attitude of object |
| JP2010085131A (en) * | 2008-09-30 | 2010-04-15 | Taisei Corp | Finished work confirming system, finished work confirmation program, and finished work confirmation method |
| JP2010097419A (en) * | 2008-10-16 | 2010-04-30 | Toshiba Plant Systems & Services Corp | Apparatus, program and method for processing three-dimensional data |
Non-Patent Citations (1)
| Title |
|---|
| 加藤博一, 外3名: ""マーカー追跡に基づく拡張現実感システムとそのキャリブレーション"", 日本バーチャルリアリティ学会論文誌, vol. 第4巻, 第4号, JPN6013063836, 31 December 1999 (1999-12-31), JP, pages 607 - 616, ISSN: 0002712922 * |
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014059672A (en) * | 2012-09-14 | 2014-04-03 | Mitsutoyo Corp | Three-dimensional model generation method, system and program |
| JP2015184078A (en) * | 2014-03-20 | 2015-10-22 | 株式会社ウニークス | Target used for method of measuring predetermined position of measuring object, and distance measurement method using target |
| JP2015206651A (en) * | 2014-04-18 | 2015-11-19 | 浜松ホトニクス株式会社 | Distance measurement method and distance measurement system |
| JP2017102529A (en) * | 2015-11-30 | 2017-06-08 | ファナック株式会社 | Workpiece position posture calculator and handling system |
| US10286557B2 (en) | 2015-11-30 | 2019-05-14 | Fanuc Corporation | Workpiece position/posture calculation system and handling system |
| JP2019219238A (en) * | 2018-06-19 | 2019-12-26 | 株式会社トプコン | Reflector position calculation device, reflector position calculation method and reflector position calculation program |
| JP7173762B2 (en) | 2018-06-19 | 2022-11-16 | 株式会社トプコン | Reflector position calculation device, reflector position calculation method, and reflector position calculation program |
| JP2022516298A (en) * | 2019-01-02 | 2022-02-25 | グリットワールド ゲーエムベーハー | How to reconstruct an object in 3D |
| JP7511209B2 (en) | 2019-01-02 | 2024-07-05 | グリットワールド ゲーエムベーハー | Method for 3D reconstruction of an object - Patents.com |
| JP7198149B2 (en) | 2019-04-24 | 2022-12-28 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and device information derivation method |
| JP2020181320A (en) * | 2019-04-24 | 2020-11-05 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and device information derivation method |
| JP2020187507A (en) * | 2019-05-14 | 2020-11-19 | 株式会社ジオ技術研究所 | 3D model generator |
| WO2020230452A1 (en) * | 2019-05-14 | 2020-11-19 | 株式会社ジオ技術研究所 | Three-dimensional model generation device |
| US11983818B2 (en) | 2021-08-03 | 2024-05-14 | Kabushiki Kaisha Toshiba | Measurement system and storage medium storing measurement program |
| JP2023038693A (en) * | 2021-09-07 | 2023-03-17 | 株式会社トプコン | Measurement data processing device, measurement data processing method and measurement data processing processing |
| JP7042380B1 (en) | 2021-09-15 | 2022-03-25 | 株式会社日立プラントコンストラクション | Display device, program and display method |
| JP2023042981A (en) * | 2021-09-15 | 2023-03-28 | 株式会社日立プラントコンストラクション | Display apparatus, program, and display method |
| JP2023109426A (en) * | 2022-01-27 | 2023-08-08 | 株式会社日立製作所 | Video processing device and video processing method |
| JP2024064572A (en) * | 2022-10-28 | 2024-05-14 | 株式会社豊田自動織機 | Simulation System |
Also Published As
| Publication number | Publication date |
|---|---|
| JP5470190B2 (en) | 2014-04-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5470190B2 (en) | 3D environment generation system | |
| US20220067233A1 (en) | Generating operational and realistic models of physical systems | |
| JP5251080B2 (en) | Object recognition method | |
| Renzaglia et al. | Multi-robot three-dimensional coverage of unknown areas | |
| CN114399515B (en) | Method and storage medium for acquiring 6D pose of class-level target based on language description | |
| JP2004326264A (en) | Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program | |
| WO2012086029A1 (en) | Autonomous movement system | |
| CN111709988A (en) | Method and device for determining characteristic information of object, electronic equipment and storage medium | |
| CN109682336A (en) | Three-dimensional coordinates measurement path for vehicle body accuracy detection is planned automatically and optimization method | |
| Gao et al. | Evaluation of different features for matching point clouds to building information models | |
| CN103196440B (en) | M sequence discrete-type artificial signpost arrangement method and related mobile robot positioning method | |
| CN116429112B (en) | Multi-robot co-location method and device, equipment and storage medium | |
| CN117633964A (en) | A multi-agent-based automatic design method and system for urban open spaces | |
| CN116225029A (en) | A Path Planning Method for Robot | |
| CN118952236B (en) | Intelligent book positioning and sorting system and method based on virtual reality enhancement technology | |
| Tong et al. | A self-calibrating 3D ground-truth localization system using retroreflective landmarks | |
| CN117218063A (en) | Bridge construction progress monitoring method based on changes in the spatial position of the hanging basket during the construction stage | |
| CN119672548B (en) | Storage feature learning method and system based on laser SLAM | |
| CN116690988A (en) | 3D printing system and method for large building model | |
| CN115202355A (en) | Control method and system for electric power tower operation platform | |
| CN117058358B (en) | Scene boundary detection method and mobile platform | |
| CN118235165A (en) | Method and system for creating 3D models for digital twins from point clouds | |
| Wallbaum et al. | Towards real-time Scan-versus-BIM: Methods applications and challenges | |
| CN117158876B (en) | A capsule robot positioning and attitude control system with a magnetic field sensor array | |
| Bonyani et al. | Toolnavigator: Dataset generation for small tools handling and vision-language navigation in construction sites via simulation for robots |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120518 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130128 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131216 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140107 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140203 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5470190 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| LAPS | Cancellation because of no payment of annual fees |