[go: up one dir, main page]

JP2012033119A - Three-dimensional environment generation system - Google Patents

Three-dimensional environment generation system Download PDF

Info

Publication number
JP2012033119A
JP2012033119A JP2010174084A JP2010174084A JP2012033119A JP 2012033119 A JP2012033119 A JP 2012033119A JP 2010174084 A JP2010174084 A JP 2010174084A JP 2010174084 A JP2010174084 A JP 2010174084A JP 2012033119 A JP2012033119 A JP 2012033119A
Authority
JP
Japan
Prior art keywords
model
marker
dimensional
point cloud
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010174084A
Other languages
Japanese (ja)
Other versions
JP5470190B2 (en
Inventor
Fumiko Kureyama
史子 紅山
Toshio Moriya
俊夫 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010174084A priority Critical patent/JP5470190B2/en
Publication of JP2012033119A publication Critical patent/JP2012033119A/en
Application granted granted Critical
Publication of JP5470190B2 publication Critical patent/JP5470190B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Generation (AREA)

Abstract

【課題】大規模点群データのCGモデルへの置き換えを、少ない計算量及び少ない誤差で行う。
【解決手段】環境内の3次元形状を計測した反射強度付き点群データと、マーカ付き3次元CGモデル群を入力し、前記反射強度付き点群データから算出したマーカ配置と、入力したマーカ付き3次元CGモデル群のマーカ配置との照合処理により、類似配置のマーカを持つ3次元CGモデルを抽出するモデル候補抽出部と、反射強度付き点群データから算出したマーカ配置に、前記抽出マーカ付き3次元CGモデルのマーカをあわせることにより、最も照合誤差の少ない3次元CGモデルを該当3次元CGモデルとして、3次元環境モデルとして出力する点群-CG置換部、とを備える。
【選択図】図1
A large-scale point cloud data is replaced with a CG model with a small amount of calculation and a small error.
A point cloud data with reflection intensity obtained by measuring a 3D shape in an environment and a 3D CG model group with a marker are input, a marker arrangement calculated from the point cloud data with a reflection intensity, and an input with a marker A model candidate extraction unit that extracts a three-dimensional CG model having a marker with a similar arrangement by collation processing with the marker arrangement of the three-dimensional CG model group, and the marker arrangement calculated from the point cloud data with reflection intensity, A point group-CG replacement unit that outputs a three-dimensional CG model with the smallest matching error as a corresponding three-dimensional CG model by combining the markers of the three-dimensional CG model.
[Selection] Figure 1

Description

本発明は、3次元CGで室内環境を生成するシステムに関し、特に、点群データをCGモデルに置換するシステムに関する。   The present invention relates to a system for generating an indoor environment with three-dimensional CG, and more particularly to a system for replacing point cloud data with a CG model.

現実世界にある建造物などの形状をデジタル化する方法の一つとして、レーザ距離センサなどを用いて対象物を詳細に計測し、点群により3次元状況を表現する方法がある。この現実をありのままに再現する技術に対しては、プラント、土木や重工、文化遺産保存や建造物の現状確認、ロボット移動のための環境認識、アミューズメントなど、幅広い分野でのニーズが考えられる。具体的な用途としては、例えば、プラント施設などでは、既存設備の損傷、劣化の状態を正確に計測して診断すること、設備補修もしくは改造のための現場の寸法を計測すること、などがある。さらに、本技術を、工場内レイアウトの変更や、新規機器導入時の設置場所の検討、工場内で動作するハンドロボットの稼動範囲の確認、移動ロボットの動作確認など、工場におけるシミュレーションの分野に展開することも考えられる。   One method of digitizing the shape of a building or the like in the real world is a method of measuring a target in detail using a laser distance sensor or the like and expressing a three-dimensional situation by a point cloud. For technology that reproduces this reality as it is, there may be needs in a wide range of fields such as plant, civil engineering and heavy industry, preservation of cultural heritage, confirmation of the current state of buildings, environmental recognition for robot movement, and amusement. Specific applications include, for example, in plant facilities and the like, accurately measuring and diagnosing damage and deterioration of existing equipment, and measuring on-site dimensions for equipment repair or modification. . In addition, this technology will be deployed in the field of factory simulation, such as changing the layout of the factory, examining the installation location when introducing new equipment, checking the operating range of hand robots operating in the factory, and checking the operation of mobile robots. It is also possible to do.

しかし、点群により大型設備のモデルを作成する上での課題は数多い。点群のデータ量は膨大であるためPCで扱うのは困難であること、広大な場所を計測するため点群において発生するノイズは大きく異常値の量も多いこと、点群から直接生成されたメッシュモデルのデータ量が膨大であること、などの問題がある。現時点では、大型設備の点群計測データから少ない手間で効率的に3次元モデルを作成する手法は知られていない。   However, there are many problems in creating a model of a large facility using point clouds. Since the amount of data in point clouds is enormous, it is difficult to handle on a PC, the noise generated in point clouds is large and the amount of abnormal values is large to measure vast places, and it is generated directly from point clouds There is a problem that the data amount of the mesh model is enormous. At present, there is no known method for efficiently creating a three-dimensional model from a point cloud measurement data of a large facility with little effort.

点群データに形状モデルを当てはめる手法としては、非特許文献1に記載されているものがある。プラントの配管のモデル化を対象とし、計測データからパイプ部分を手動で切り取ったり、異常値の含まれるパイプ部分の点群を試験的に作成することによって得たデータを基に、点群を自動的に円柱に当てはめるものである。   Non-patent document 1 discloses a technique for applying a shape model to point cloud data. Targeting the modeling of plant piping, the point cloud is automatically created based on the data obtained by manually cutting the pipe from the measured data or by creating a point cloud of the pipe that contains abnormal values on a trial basis. Is applied to a cylinder.

宮川俊樹、角田将一、入谷太基、飯川義文、増田宏、田中一郎、「レーザスキャンデータに基づくプラントの形状モデリング」、精密工学会春季講演会、2006年3月1日、A69Toshiki Miyagawa, Shoichi Tsunoda, Taiki Iritani, Yoshifumi Iikawa, Hiroshi Masuda, Ichiro Tanaka, “Plant Modeling Based on Laser Scan Data”, Precision Engineering Society Spring Lecture, March 1, 2006, A69

非特許文献1に記載の点群からのモデル化では、試験的に作成された点群は円柱を当てはめることを前提に作成されていること、及び、扱える曲線が円柱に限定されていることにより、予め円柱とわかっている部分を切り出した点群に円柱を当てはめることしかできない。ゆえに円柱以外の形状には対応不可である。   In modeling from the point cloud described in Non-Patent Document 1, the point cloud created experimentally is created on the assumption that a cylinder is applied, and the curves that can be handled are limited to the cylinder. The cylinder can only be applied to a point group obtained by cutting out a portion that is known to be a cylinder in advance. Therefore, it cannot cope with shapes other than the cylinder.

我々の生活する一般の環境の中には、円柱だけでなく、様々な形状のオブジェクトが存在する。しかも、どのような形状のものが、どのような位置姿勢で置いてあるかは未知である。また更に、点群にモデルを当てはめようにも、オブジェクト毎に点群を抽出する方法も確立していない。   In the general environment where we live, there are objects of various shapes as well as cylinders. Moreover, it is unknown what kind of shape is placed in what position and orientation. Furthermore, a method for extracting a point cloud for each object has not been established in order to fit a model to the point cloud.

点群で取得した室内環境のモデル化を行うためには、まず、オブジェクトのある場所を認識し、その後、その場所の点群に合致するモデルを選択し、そのモデルを的確な位置姿勢に変更する方法が考えられる。   To model the indoor environment acquired with a point cloud, first recognize the location of the object, then select the model that matches the point cloud at that location, and change the model to the correct position and orientation A way to do this is conceivable.

本発明は上記を鑑みて為されたものであり、その目的は、点群による実測データにCGモデルを当てはめるにあたり、該当するモデルの選出および位置姿勢の算出を、簡易に、少ない誤差で行う3次元環境生成システムを提供することにある。   The present invention has been made in view of the above, and an object of the present invention is to select a corresponding model and calculate a position and orientation simply and with little error when applying a CG model to measured data by a point cloud. It is to provide a dimensional environment generation system.

本発明の望ましい態様は、次のような3次元環境生成システムである。即ち、本発明に係る3次元環境生成システムは、環境内の3次元形状を計測した反射強度付き距離データとマーカ付きの3次元CGモデル群とを入力とし、反射強度付き距離データから特定の反射強度を持つ領域を抽出しそれをマーカ領域として座標値と共に保存するマーカ位置出力部と、任意のマーカに対して近傍にあるマーカを探索し探索されたマーカの座標値をマーカ配置として保存する近傍マーカ探索部と、前記点群から算出したマーカ配置と、入力したマーカ付き3次元CGモデル群のマーカ配置に対する照合処理によって類似配置のマーカを持つ3次元CGモデルを抽出するモデル候補抽出部と、点群から算出したマーカ配置に前記抽出マーカ付き3次元CGモデルのマーカをあわせることによって、3次元CGモデル位置姿勢を仮決定するモデル初期位置算出部と、前記算出モデルの初期位置に設置した3次元CGモデルを点群データと照合する処理を行うモデル照合部と、最も照合誤差の少ない3次元CGモデルを目的の3次元CGモデルとし、点群データ中の該当部分とその3次元CGモデルを入れ替えて3次元環境モデルとして出力する点群-CG置換部と、を備える。   A desirable mode of the present invention is the following three-dimensional environment generation system. That is, the three-dimensional environment generation system according to the present invention receives as input the distance data with reflection intensity obtained by measuring the three-dimensional shape in the environment and the three-dimensional CG model group with a marker, and generates a specific reflection from the distance data with reflection intensity. A marker position output unit that extracts a region with strength and stores it as a marker region with the coordinate value, and a neighborhood that searches for a marker near the marker and stores the coordinate value of the searched marker as a marker location A marker search unit, a marker arrangement calculated from the point group, and a model candidate extraction unit that extracts a three-dimensional CG model having a marker with a similar arrangement by collating the marker arrangement of the input three-dimensional CG model group with a marker; 3D CG model position and orientation by matching the marker of the 3D CG model with the extracted marker to the marker arrangement calculated from the point cloud A model initial position calculation unit that is temporarily determined, a model verification unit that performs processing for verifying a three-dimensional CG model installed at the initial position of the calculation model with point cloud data, and a three-dimensional CG model with the least verification error. A three-dimensional CG model is provided, and a corresponding part in the point group data and a point group-CG replacement unit that replaces the three-dimensional CG model and outputs the three-dimensional environment model are provided.

本発明によれば、少ない計算量で自動的に点群データを3次元CGモデルに置き換えることができる。   According to the present invention, point cloud data can be automatically replaced with a three-dimensional CG model with a small amount of calculation.

3次元環境モデル作成の流れを示した機能ブロック図である。It is the functional block diagram which showed the flow of 3D environment model creation. 3次元環境モデル作成のフロー図である。It is a flowchart of 3D environment model creation. モデル照合処理のフロー図である。It is a flowchart of a model collation process. 点群データの例を示した図である。It is the figure which showed the example of point cloud data. マーカ付き3次元CGモデルの例を示した図である。It is the figure which showed the example of the 3D CG model with a marker. マーカ配置の照合処理により3次元CGモデル候補を絞った図である。It is the figure which narrowed down a three-dimensional CG model candidate by marker arrangement collation processing. 点群と3次元CGモデル照合処理のイメージ図である。It is an image figure of a point group and a three-dimensional CG model collation process. 点群に最も合致する3次元CGモデルを選出のイメージ図である。It is an image figure of selecting the three-dimensional CG model that most closely matches the point group. 点群に最も合致する3次元CGモデルを選出のイメージ図である。It is an image figure of selecting the three-dimensional CG model that most closely matches the point group. 点群に最も合致する3次元CGモデルを選出のイメージ図である。It is an image figure of selecting the three-dimensional CG model that most closely matches the point group.

以下、実施形態について、図面を参照しながら説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、3次元環境モデル作成の流れを示した機能ブロック図である。3次元環境モデルとは、実空間、例えば我々の生活する室内空間の3次元形状をCGなどでモデル化したものである。   FIG. 1 is a functional block diagram showing the flow of creating a three-dimensional environment model. The three-dimensional environment model is obtained by modeling a three-dimensional shape of a real space, for example, an indoor space in which we live with CG.

実空間にあるものと、レーザ距離センサやカメラなどのセンサで取得したデータとの関連付けを容易にするため、実空間内の適当な場所に目印となるマーカを貼り付ける方法がある。
マーカには、例えば、カメラで認識しやすいような、特定の色・形状・大きさの物体や、IDリーダで認識しやすいような、特定の周波数に反応するICタグを利用する。使用するセンサに応じて適したものを利用する。
ここでは、レーザ距離センサで認識しやすい、レーザ照射時に特別な値を返す素材のものをマーカとして利用する。これを、反射マーカとする。
距離センサを用いて、距離センサ位置と周辺障害物との距離・角度、及び、その計測先におけるレーザの反射強度を計測した、反射強度付き距離データ100を入力する。特定の反射強度のデータを得るためには、レーザ照射時に特別な値を返すものを計測対象となる実空間のいずれかの場所に設置しておく必要がある。
There is a method of pasting a marker serving as a mark at an appropriate location in the real space in order to easily associate the data in the real space with data acquired by a sensor such as a laser distance sensor or a camera.
For the marker, for example, an object of a specific color, shape, or size that can be easily recognized by a camera, or an IC tag that reacts to a specific frequency that can be easily recognized by an ID reader is used. Use a sensor suitable for the sensor used.
Here, a material that can be easily recognized by the laser distance sensor and returns a special value upon laser irradiation is used as a marker. This is a reflection marker.
Using the distance sensor, the distance data 100 with the reflection intensity obtained by measuring the distance / angle between the distance sensor position and the surrounding obstacle and the reflection intensity of the laser at the measurement destination is input. In order to obtain data of specific reflection intensity, it is necessary to install a device that returns a special value at the time of laser irradiation in any place in the real space to be measured.

同じ形状の対象物に対しては、同じ配置でマーカを貼付しておく。マーカ位置出力部200では、反射強度付き距離データ100より、反射強度の高い領域を抽出し、その領域の形状及びサイズが予め登録されたマーカ情報と合致していたら、その場所をマーカ貼付場所とする。そして、マーカ領域の中心に位置する点の座標値をマーカ座標値102として出力する。点群データ内に存在する、全ての反射強度の高い領域に対してマーカ座標値102の出力を行う。前記出力されたマーカ座標値102から、任意のマーカを選択し、その近傍にあるマーカを探索する。探索範囲は予め設定しておく。例えば、環境内のモデル化する対象物に設置するマーカの範囲を半径30cm以内とルールを定めている場合、選択したマーカから半径30cm以内にある他のマーカの座標値を抽出する。近傍で見つかったマーカの座標値を組み合わせ、マーカ配置103として出力する。   For objects having the same shape, markers are attached in the same arrangement. The marker position output unit 200 extracts a region having a high reflection intensity from the distance data with reflection intensity 100, and if the shape and size of the region match the pre-registered marker information, the location is set as a marker application location. To do. Then, the coordinate value of the point located at the center of the marker area is output as the marker coordinate value 102. The marker coordinate value 102 is output for all regions having high reflection intensity existing in the point cloud data. An arbitrary marker is selected from the output marker coordinate values 102, and a marker in the vicinity thereof is searched. The search range is set in advance. For example, when the rule is set that the range of the marker to be set on the object to be modeled in the environment is within a radius of 30 cm, the coordinate values of other markers within the radius of 30 cm are extracted from the selected marker. The coordinate values of the markers found in the vicinity are combined and output as the marker arrangement 103.

点群データのデータベースには、図10の200に示すように、点群データファイル名と、マーカ座標値、マーカ配置を格納する。マーカ座標値には、点群データ内にある全てのマーカの3次元座標値を、1、2、3、・・・と番号をつけたものを、格納する。マーカ配置には、上記3次元座標値の番号の組み合わせを、マーカ配置として格納する。   The point cloud data database stores the point cloud data file name, the marker coordinate value, and the marker arrangement, as indicated by 200 in FIG. In the marker coordinate value, the three-dimensional coordinate values of all markers in the point cloud data, numbered 1, 2, 3,... Are stored. In the marker arrangement, a combination of the three-dimensional coordinate value numbers is stored as a marker arrangement.

次に、点群データから抽出したマーカ配置103に合致する、3次元CGモデルを決定する。事前にマーカ付き3次元CGモデル110を準備しておく。マーカ付き3次元CGモデルとは、3次元CGモデルにマーカ情報を付加したデータである。図10の300に示すように、形状モデルファイル名、マーカに関する情報(個数、サイズ、配置)をデータベース上に格納しておく。   Next, a three-dimensional CG model that matches the marker arrangement 103 extracted from the point cloud data is determined. A marker-added three-dimensional CG model 110 is prepared in advance. The 3D CG model with a marker is data obtained by adding marker information to the 3D CG model. As shown by 300 in FIG. 10, information (number, size, arrangement) on the shape model file name and the marker is stored on the database.

モデル候補抽出部220では、点群から抽出したマーカ配置103と、全てのマーカ付き3次元モデル110のマーカ配置との照合処理を行う。マーカ位置のずれの許容範囲を例えば5cmとあらかじめ定め、その許容範囲内にマーカが配置されているものを類似の配置を持つマーカ付き3次元CGモデルとして全て抽出し、マーカ付き3次元CGモデル候補112として、データを確保する。   The model candidate extraction unit 220 performs a matching process between the marker arrangement 103 extracted from the point group and the marker arrangements of all the three-dimensional models 110 with markers. An allowable range of marker position deviation is determined in advance as, for example, 5 cm, and all the markers arranged within the allowable range are extracted as 3D CG models with markers having similar arrangements, and 3D CG model candidates with markers are extracted. As 112, data is secured.

モデル初期位置算出部230では、点群データのマーカ配置103に、3次元CGモデル112のマーカ配置をあわせることにより、点群と3次元CGモデルの照合処理を行うための3次元CGモデルのおおよその初期位置を算出し、モデル位置・角度113を出力する。モデル照合処理240では、点群データ100と、3次元CGモデル112の照合処理を行い、最も誤差が最小となる位置を計算し、モデル位置・角度113データを更新する。モデル照合時の誤差が閾値より低い場合は、そのモデルが点群と合致すると判断し、点群−CG置換部250において、点群データ内の該当部分をCGに置き換え、3次元環境モデル120を作成する。ここでいう3次元環境モデル120とは、点群データとCGモデルとが共存するデータの場合もあれば、全ての点群データがCGモデルに置き換えられ、全てのデータがCGのデータとなる場合もある。   In the model initial position calculation unit 230, by matching the marker arrangement of the three-dimensional CG model 112 with the marker arrangement 103 of the point cloud data, an approximate three-dimensional CG model for collating the point group with the three-dimensional CG model is obtained. Is calculated, and the model position / angle 113 is output. In the model checking process 240, the point cloud data 100 and the three-dimensional CG model 112 are checked, the position with the smallest error is calculated, and the model position / angle 113 data is updated. If the error at the time of model matching is lower than the threshold value, it is determined that the model matches the point cloud, and the point cloud-CG replacement unit 250 replaces the corresponding part in the point cloud data with CG and replaces the three-dimensional environment model 120. create. Here, the three-dimensional environment model 120 may be data in which point cloud data and a CG model coexist, or all point cloud data is replaced with a CG model, and all data becomes CG data. There is also.

図2は、本実施形態である3次元環境モデル作成の全体のフロー図である。
まず、ステップS1000で、計測データを入力する。レーザ距離センサでは、例えば、周囲180度に1度ごとにレーザ光を照射し、レーザ光が障害物にあたり戻ってくるまでの時間によりその障害物との距離を計測し、センサからの角度θ、その角度における障害物との距離rを、距離データとして出力する。また、レーザ光が障害物に当たったときの反射強度Iも同時に出力する。計測データとは、前記レーザ距離センサで計測したセンサから周囲障害物までの距離データ、及び反射強度データであり、レーザ距離センサ位置(rx、ry、rz)と距離データ(θ、r)より求めた、レーザ照射先の3次元座標値(x、y、z)と、前記計測反射強度Iとを対にして保存する。レーザ照射先の3次元座標値を集めたものを、点群データとする。また、距離データは、計測地点の座標値とそこからの距離及び角度により、同一の座標系に統合され、各座標点は当該座標系の座標値を持つものとする。点群データの例を図4に示す。100は点群データを示したものであり、101は高い反射強度を返す点群データを表したものである。
FIG. 2 is an overall flowchart of creating a three-dimensional environment model according to this embodiment.
First, in step S1000, measurement data is input. In the laser distance sensor, for example, the laser beam is irradiated every 180 degrees around, and the distance to the obstacle is measured according to the time until the laser beam hits the obstacle, the angle θ from the sensor, The distance r to the obstacle at that angle is output as distance data. Further, the reflection intensity I when the laser beam hits the obstacle is also output at the same time. The measurement data is distance data from the sensor measured by the laser distance sensor to surrounding obstacles and reflection intensity data, and is obtained from the laser distance sensor position (rx, ry, rz) and the distance data (θ, r). The three-dimensional coordinate values (x, y, z) of the laser irradiation destination and the measured reflection intensity I are stored as a pair. Collected three-dimensional coordinate values of the laser irradiation destination are set as point cloud data. The distance data is integrated into the same coordinate system based on the coordinate value of the measurement point and the distance and angle from the coordinate value, and each coordinate point has the coordinate value of the coordinate system. An example of point cloud data is shown in FIG. Reference numeral 100 represents point cloud data, and reference numeral 101 represents point cloud data that returns a high reflection intensity.

ステップS1010で、計測データの中で特定の反射強度を持つ領域を抽出する。マーカ部分を区別するために、物体には、レーザ照射時に高い反射強度値を返す高反射テープを予め決めた配置で貼り付けておく。そして、抽出した領域の面積を算出し、その面積がマーカサイズとほぼ同等、例えば10%以内の誤差であった場合のみ、その場所をマーカが設定される場所とする。面積の算出方法の例として、ある任意の座標値から見た点群データを、反射強度の高い部分を白、そうでない部分を黒で表した2次元画像として出力し、白い部分の面積を求める方法が挙げられる。   In step S1010, a region having a specific reflection intensity is extracted from the measurement data. In order to distinguish the marker portion, a high reflection tape that returns a high reflection intensity value upon laser irradiation is attached to the object in a predetermined arrangement. Then, the area of the extracted region is calculated, and only when the area is approximately equal to the marker size, for example, an error within 10%, the place is set as the place where the marker is set. As an example of the area calculation method, point cloud data viewed from an arbitrary coordinate value is output as a two-dimensional image in which a portion with high reflection intensity is expressed in white and a portion other than that in black, and the area of the white portion is obtained. A method is mentioned.

ステップS1020では、マーカ領域の中心位置をマーカ設置位置とし、その座標値を出力する。点群データ内で検出される全てのマーカの座標値を出力し、図10の202に示すように、マーカ番号と一緒に、データベースに格納する。   In step S1020, the center position of the marker area is set as the marker installation position, and the coordinate value is output. The coordinate values of all the markers detected in the point cloud data are output and stored in the database together with the marker numbers as indicated by 202 in FIG.

ステップS1030では、出力されたマーカ位置の近傍にある他のマーカを探索し、ステップS1040では、S1020で出力したマーカの番号と、S1030で探索した近傍マーカの番号とを、図5に示すように同一オブジェクトに対するマーカであると仮定し、図10の203に示すように、マーカ番号をオブジェクトごとにまとめて格納する。   In step S1030, another marker in the vicinity of the output marker position is searched. In step S1040, the marker number output in S1020 and the neighboring marker number searched in S1030 are as shown in FIG. Assuming that the markers are for the same object, marker numbers are collectively stored for each object as indicated by 203 in FIG.

ステップS1050で、CGモデル候補を選定する。点群とモデルをマッチングする際には、最初にマーカ配置によるマッチングを用いてモデルの候補を絞る。この理由は、すべてのモデルを当てはめて検証すると計算量が膨大になる、モデルのおおよその位置及び姿勢が不明であると探索範囲があまりに広くなる、等である。予め登録された3次元CGモデルの例を図6に示す。事前に室内にあるオブジェクトの3次元CGモデルをDBに登録する。図10の200に示すように、DBには、各モデルに対して、形状モデルのファイル名110、マーカ個数、マーカサイズ、マーカ配置を示すマーカの各座標値111を登録する。   In step S1050, a CG model candidate is selected. When matching a point cloud and a model, first, model candidates are narrowed down using matching by marker arrangement. This is because, if all models are applied and verified, the amount of calculation becomes enormous. If the approximate position and orientation of the model are unknown, the search range becomes too wide. An example of a pre-registered three-dimensional CG model is shown in FIG. A 3D CG model of an object in the room is registered in the DB in advance. As shown at 200 in FIG. 10, the coordinate name 111 of the marker indicating the file name 110 of the shape model, the number of markers, the marker size, and the marker arrangement is registered in the DB for each model.

ステップ1050におけるモデル候補の選定では、図7に示すように、ステップS1040で出力されたマーカ配置(実測から導出)と、予め登録されたモデルのマーカ配置(CGモデルと一緒に登録)とを比較し、予め定めたマーカ位置のずれの許容範囲、例えば5cm以内にマーカが配置されているCGモデルを抽出し、モデル候補とする。   In selecting model candidates in step 1050, as shown in FIG. 7, the marker arrangement (derived from actual measurement) output in step S1040 is compared with the marker arrangement of the model registered in advance (registered together with the CG model). Then, a CG model in which the marker is arranged within a predetermined allowable range of the marker position deviation, for example, within 5 cm, is extracted and set as a model candidate.

モデル候補が見つかれば、該当モデルに番号1〜nを付ける。ステップS1060では、モデル候補の有無を判定し、モデル候補が見つからなければ終了とする。モデル候補が見つかった場合、ステップS1070でモデル候補と計測した点群データとの照合処理を実施し一致するモデルを探す。照合処理の流れは、図3にて詳述する。   If a model candidate is found, numbers 1 to n are assigned to the corresponding model. In step S1060, it is determined whether there is a model candidate. If no model candidate is found, the process ends. When a model candidate is found, a matching process is performed between the model candidate and the measured point cloud data in step S1070 to search for a matching model. The flow of the verification process will be described in detail with reference to FIG.

ステップS1080では、点群データをCGモデルに置き換える。ステップS1070で決定したモデル[m]を、ステップS1070で出力したモデル[m]の位置姿勢に従い、点群データ内に設置する。次に、CGモデル[m]内にある点群、及び、CGモデル[m]周辺の点群(レーザ距離センサの計測誤差分の範囲)の点群を削除する。   In step S1080, the point cloud data is replaced with a CG model. The model [m] determined in step S1070 is installed in the point cloud data according to the position and orientation of the model [m] output in step S1070. Next, the point group in the CG model [m] and the point group around the CG model [m] (range of measurement error of the laser distance sensor) are deleted.

この一連の流れを、点群データ内で検出される全てのマーカに対して実施することにより、点群データをCGモデルに置換していく。レイアウト変更等で室内にある物の配置が変更になっても、レーザ距離センサで、再度、室内を計測し距離データ、反射強度データを取得し、前記点群―CG置換処理を行うことにより、該当するモデルを変更された位置・方向においてCGモデルへと自動的に変換することができる。   By executing this series of flows for all the markers detected in the point cloud data, the point cloud data is replaced with a CG model. Even if the arrangement of objects in the room is changed due to a layout change or the like, the laser distance sensor measures the room again, acquires distance data and reflection intensity data, and performs the point group-CG replacement process, The corresponding model can be automatically converted into a CG model at the changed position and direction.

図3は、モデル照合処理のフロー図であり、ステップS1070のモデル照合処理の流れを詳述するものである。   FIG. 3 is a flowchart of the model matching process, and details the flow of the model matching process in step S1070.

ステップS1060で、モデル候補1〜nが選出された。ここでは、モデル候補全てを順に点群に当てはめ、最も合致するものを、置換対象のCGモデルとして決定する。   In step S1060, model candidates 1 to n are selected. Here, all the model candidates are sequentially applied to the point group, and the best match is determined as the CG model to be replaced.

まず、モデル番号m=1から照合処理を実施する。照合処理の前処理として、CGモデルmの初期位置・姿勢を設定する必要がある。そこで、ステップS1071で、図8に示すように、モデルのマーカ配置(CGモデルと一緒に登録)が、点群のマーカ配置(実測から導出)と一致するように、CGモデルの位置・姿勢を変更する。ステップS1072では、点群とCGモデルの照合処理を行う。照合処理には、例えば、点群の照合処理に一般的によく用いられるICP(Interactive Closest Point)アルゴリズム、点群とモデルの近傍点間距離(点とその点に最も近い場所にあるモデル表面上の座標値との距離を全ての点に対して計算)の最小二乗誤差の小さくなる位置姿勢を探索するアルゴリズムなどを用いる。このアルゴリズムを用いて的確な結果を得るためには、初期位置の設定が重要である。事前に位置姿勢の初期値を与えることにより、点群とCGモデルの照合処理を容易にし、精度を高めることができる。本発明では、マーカ配置を用いることで予め簡易的に位置合わせを行うため、おおよその初期位置設定を自動的に行うことができる。   First, collation processing is performed from model number m = 1. It is necessary to set the initial position / posture of the CG model m as a pre-process of the collation process. Therefore, in step S1071, as shown in FIG. 8, the position / posture of the CG model is set so that the marker arrangement of the model (registered together with the CG model) matches the marker arrangement of the point group (derived from actual measurement). change. In step S1072, the point cloud and the CG model are collated. The matching process includes, for example, an ICP (Interactive Closest Point) algorithm that is generally used for a point cloud matching process, a distance between a point cloud and a model's neighboring points (on the surface of the model that is closest to the point and the point) For example, an algorithm for searching for a position and orientation with which the least square error of (calculates the distance to the coordinate value of all points) is reduced. In order to obtain an accurate result using this algorithm, the setting of the initial position is important. By giving the initial value of the position and orientation in advance, the collation process between the point group and the CG model can be facilitated and the accuracy can be improved. In the present invention, since the alignment is simply performed in advance by using the marker arrangement, an approximate initial position can be automatically set.

ステップS1073では、上記算出誤差が予め定めた閾値を超えているか否か判断し、閾値を超えている場合は、そのモデルは点群と一致するモデルではないと判断し、ステップS1075に進む。閾値を超えていない場合は、そのモデルを点群と置換できる可能性が高いと判断し、モデル[m]を候補として保持する。またさらに、照合処理で最も誤差の小さくなる場所を、モデル[m]の位置・姿勢として保存する。   In step S1073, it is determined whether the calculation error exceeds a predetermined threshold value. If the calculation error exceeds the threshold value, it is determined that the model is not a model that matches the point group, and the process proceeds to step S1075. If the threshold is not exceeded, it is determined that there is a high possibility that the model can be replaced with a point cloud, and the model [m] is retained as a candidate. Furthermore, the place where the error is smallest in the matching process is stored as the position / posture of the model [m].

ステップ1075では、全ての候補モデルを照合したかどうか判断する。すなわち、今照合処理を行ったモデル番号mが候補モデル総数nより小さいか否かを判断し、まだ照合処理をしていないモデルがあれば、モデル番号に1を加えてステップS1071に戻る。全てのモデルの照合がしたら、モデル候補が残っているか否かをステップS1076で判断し、残っていると判断された場合には、ステップS1077にて、図9に示すように、この段階で残存するモデル候補を照合してそれらの誤差を比較し、最も誤差が小さいものを点群と置換すべきモデルと決定し、そのモデルの番号mと、モデル[m]の位置姿勢を返す。ステップS1076で、モデル候補が全くなかった場合は、該当モデルなしとして処理を終了する。   In step 1075, it is determined whether all candidate models have been collated. That is, it is determined whether or not the model number m that has just been collated is smaller than the total number n of candidate models. If there is a model that has not yet been collated, 1 is added to the model number and the process returns to step S1071. When all the models have been collated, it is determined in step S1076 whether or not model candidates remain, and if it is determined that they remain, in step S1077, as shown in FIG. The model candidates to be compared are compared and their errors are compared. The model having the smallest error is determined as the model to be replaced with the point group, and the model number m and the position and orientation of the model [m] are returned. If there is no model candidate in step S1076, the process ends with no corresponding model.

環境内にある全てのマーカに関して上記処理を実施し、置換可能な点群を全て3次元CGモデルに置き換えられると、照合処理が終了する。   When the above-described processing is performed for all markers in the environment and all replaceable point groups are replaced with the three-dimensional CG model, the matching processing ends.

このように、マーカ配置の照合処理を事前に行うことにより、簡易にCGモデルの候補を絞ることができる。さらに、マーカ配置を基に照合処理前の初期位置を与えることにより、点群とモデルを照合処理したときの誤差を低減させることができる。   In this way, by performing the marker arrangement matching process in advance, the candidates for the CG model can be easily narrowed down. Furthermore, by giving the initial position before the matching process based on the marker arrangement, it is possible to reduce an error when the point cloud and the model are matched.

CGモデル候補を選定するときの探索範囲を限定するため、マーカ付き3次元CGモデルに対して、拘束条件を表す属性を設定してもよい。例えば、棚や机など、倒れた状態で設置される可能性の低いものに対しては、類似マーカ配置を探索する際に、X軸周りやY軸周りの回転の可能性を考慮する必要はないため、XY軸固定を示す属性を設定する。また、底面が床に接してしていることを前提とするような拘束条件の与え方もある。例えば、Z座標値固定の有無を示す属性を設定する。   In order to limit the search range when selecting a CG model candidate, an attribute representing a constraint condition may be set for the three-dimensional CG model with a marker. For example, it is necessary to consider the possibility of rotation around the X axis or around the Y axis when searching for similar marker arrangements for things such as shelves and desks that are unlikely to be installed in a fallen state. Therefore, an attribute indicating XY axis fixation is set. There is also a method of giving a constraint condition on the assumption that the bottom surface is in contact with the floor. For example, an attribute indicating whether or not the Z coordinate value is fixed is set.

また別の属性の可能性としては、移動可能性の有無を示すものも考えられる。例えば、オフィス内の3次元環境を生成することを想定すると、椅子は日々移動する可能性が高いが、ロッカーが移動する可能性は低いと考えられる。そこで、一旦3次元環境モデルを生成し、その後データの更新のみを行う場合には、移動可能性有のモデルのみを更新の対象とすればよく、探索範囲を限定することができる。   Another possible attribute is that indicating the possibility of movement. For example, assuming that a three-dimensional environment in an office is generated, a chair is likely to move daily, but a locker is unlikely to move. Therefore, when a three-dimensional environment model is once generated and only data update is performed thereafter, only a model having a possibility of movement needs to be updated, and the search range can be limited.

100・・・点群、101・・・高反射強度点群、110・・・3次元CGモデル、111・・・マーカ、200・・・点群データベース、300・・・マーカ付き3次元CGモデルのデータベース DESCRIPTION OF SYMBOLS 100 ... Point group, 101 ... High reflection intensity point group, 110 ... Three-dimensional CG model, 111 ... Marker, 200 ... Point group database, 300 ... Three-dimensional CG model with marker Database

Claims (3)

環境内の3次元形状を計測した反射強度付き点群データと、マーカ付き3次元CGモデル群を入力とし、
反射強度付き点群データから特定の反射強度を有する領域を抽出し、前記領域をマーカ領域として座標値と共に保存するマーカ位置出力部と、
任意のマーカに対して近傍にあるマーカを探索し、発見された前記マーカの座標値をマーカ配置として保存する近傍マーカ探索部と、
前記反射強度付き点群データから算出したマーカ配置と、入力したマーカ付き3次元CGモデル群のマーカ配置との照合処理により、類似配置のマーカを持つ3次元CGモデルを抽出するモデル候補抽出部と、
反射強度付き点群データから算出したマーカ配置に、前記抽出マーカ付き3次元CGモデルのマーカをあわせることにより、3次元CGモデル位置姿勢を仮決定するモデル初期位置算出部と、
反射強度付き点群データと前記算出モデル初期位置に設置した3次元CGモデルとの照合処理を行うモデル照合部と、
前記照合処理の結果、最も照合誤差の少ない3次元CGモデルを該当3次元CGモデルとし、反射強度付き点群データ中の該当部分と、前記該当3次元CGモデルとを入れ替えて、3次元環境モデルとして出力する点群−CG置換部と、
を備えることを特徴とした3次元環境モデル作成システム。
With the input of point cloud data with reflection intensity obtained by measuring the 3D shape in the environment and the 3D CG model group with markers,
A marker position output unit that extracts a region having a specific reflection intensity from point cloud data with reflection intensity, and stores the region as a marker region together with a coordinate value;
A nearby marker search unit that searches for a marker in the vicinity of an arbitrary marker and stores the coordinate value of the found marker as a marker arrangement;
A model candidate extraction unit that extracts a three-dimensional CG model having a marker with a similar arrangement by a matching process between the marker arrangement calculated from the point cloud data with reflection intensity and the marker arrangement of the input three-dimensional CG model group with a marker; ,
A model initial position calculation unit that temporarily determines a 3D CG model position and orientation by matching a marker of the 3D CG model with the extracted marker to a marker arrangement calculated from point cloud data with reflection intensity;
A model matching unit that performs a matching process between the point cloud data with reflection intensity and the three-dimensional CG model installed at the initial position of the calculated model;
As a result of the matching process, the three-dimensional CG model with the smallest matching error is set as the corresponding three-dimensional CG model, and the corresponding portion in the point cloud data with reflection intensity is replaced with the corresponding three-dimensional CG model. A point group-CG replacement unit that outputs as
A three-dimensional environment model creation system characterized by comprising:
前記マーカ付き3次元CGモデルは、モデル姿勢の拘束条件に応じてマーカに属性を付加することを特徴とする、請求項1に記載の3次元環境モデル作成システム。   The 3D environment model creation system according to claim 1, wherein the 3D CG model with a marker adds an attribute to the marker according to a constraint condition of a model posture. 前記マーカ付き3次元CGモデルは、対象が固定物か移動物かに応じてマーカに異なる属性を付加することを特徴とする、請求項1に記載の3次元環境モデル作成システム。   The three-dimensional environment model creation system according to claim 1, wherein the three-dimensional CG model with a marker adds different attributes to the marker depending on whether the target is a fixed object or a moving object.
JP2010174084A 2010-08-03 2010-08-03 3D environment generation system Expired - Fee Related JP5470190B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010174084A JP5470190B2 (en) 2010-08-03 2010-08-03 3D environment generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010174084A JP5470190B2 (en) 2010-08-03 2010-08-03 3D environment generation system

Publications (2)

Publication Number Publication Date
JP2012033119A true JP2012033119A (en) 2012-02-16
JP5470190B2 JP5470190B2 (en) 2014-04-16

Family

ID=45846413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010174084A Expired - Fee Related JP5470190B2 (en) 2010-08-03 2010-08-03 3D environment generation system

Country Status (1)

Country Link
JP (1) JP5470190B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059672A (en) * 2012-09-14 2014-04-03 Mitsutoyo Corp Three-dimensional model generation method, system and program
JP2015184078A (en) * 2014-03-20 2015-10-22 株式会社ウニークス Target used for method of measuring predetermined position of measuring object, and distance measurement method using target
JP2015206651A (en) * 2014-04-18 2015-11-19 浜松ホトニクス株式会社 Distance measurement method and distance measurement system
JP2017102529A (en) * 2015-11-30 2017-06-08 ファナック株式会社 Workpiece position posture calculator and handling system
JP2019219238A (en) * 2018-06-19 2019-12-26 株式会社トプコン Reflector position calculation device, reflector position calculation method and reflector position calculation program
JP2020181320A (en) * 2019-04-24 2020-11-05 株式会社ソニー・インタラクティブエンタテインメント Information processing device and device information derivation method
WO2020230452A1 (en) * 2019-05-14 2020-11-19 株式会社ジオ技術研究所 Three-dimensional model generation device
JP2022516298A (en) * 2019-01-02 2022-02-25 グリットワールド ゲーエムベーハー How to reconstruct an object in 3D
JP7042380B1 (en) 2021-09-15 2022-03-25 株式会社日立プラントコンストラクション Display device, program and display method
JP2023038693A (en) * 2021-09-07 2023-03-17 株式会社トプコン Measurement data processing device, measurement data processing method and measurement data processing processing
JP2023109426A (en) * 2022-01-27 2023-08-08 株式会社日立製作所 Video processing device and video processing method
US11983818B2 (en) 2021-08-03 2024-05-14 Kabushiki Kaisha Toshiba Measurement system and storage medium storing measurement program
JP2024064572A (en) * 2022-10-28 2024-05-14 株式会社豊田自動織機 Simulation System

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005034619A (en) * 2003-06-23 2005-02-10 Yokohama Rubber Co Ltd:The Golf club head behavior measuring device
JP2007303828A (en) * 2006-05-08 2007-11-22 Konica Minolta Sensing Inc Cross-sectional data acquisition method and system, and cross-sectional inspection method
JP2009294048A (en) * 2008-06-04 2009-12-17 Yokohama Rubber Co Ltd:The Behavior measuring device of moving body, and behavior measuring method of moving body
JP2010060451A (en) * 2008-09-04 2010-03-18 Toyota Motor Corp Robotic apparatus and method for estimating position and attitude of object
JP2010085131A (en) * 2008-09-30 2010-04-15 Taisei Corp Finished work confirming system, finished work confirmation program, and finished work confirmation method
JP2010097419A (en) * 2008-10-16 2010-04-30 Toshiba Plant Systems & Services Corp Apparatus, program and method for processing three-dimensional data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005034619A (en) * 2003-06-23 2005-02-10 Yokohama Rubber Co Ltd:The Golf club head behavior measuring device
JP2007303828A (en) * 2006-05-08 2007-11-22 Konica Minolta Sensing Inc Cross-sectional data acquisition method and system, and cross-sectional inspection method
JP2009294048A (en) * 2008-06-04 2009-12-17 Yokohama Rubber Co Ltd:The Behavior measuring device of moving body, and behavior measuring method of moving body
JP2010060451A (en) * 2008-09-04 2010-03-18 Toyota Motor Corp Robotic apparatus and method for estimating position and attitude of object
JP2010085131A (en) * 2008-09-30 2010-04-15 Taisei Corp Finished work confirming system, finished work confirmation program, and finished work confirmation method
JP2010097419A (en) * 2008-10-16 2010-04-30 Toshiba Plant Systems & Services Corp Apparatus, program and method for processing three-dimensional data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
加藤博一, 外3名: ""マーカー追跡に基づく拡張現実感システムとそのキャリブレーション"", 日本バーチャルリアリティ学会論文誌, vol. 第4巻, 第4号, JPN6013063836, 31 December 1999 (1999-12-31), JP, pages 607 - 616, ISSN: 0002712922 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059672A (en) * 2012-09-14 2014-04-03 Mitsutoyo Corp Three-dimensional model generation method, system and program
JP2015184078A (en) * 2014-03-20 2015-10-22 株式会社ウニークス Target used for method of measuring predetermined position of measuring object, and distance measurement method using target
JP2015206651A (en) * 2014-04-18 2015-11-19 浜松ホトニクス株式会社 Distance measurement method and distance measurement system
JP2017102529A (en) * 2015-11-30 2017-06-08 ファナック株式会社 Workpiece position posture calculator and handling system
US10286557B2 (en) 2015-11-30 2019-05-14 Fanuc Corporation Workpiece position/posture calculation system and handling system
JP2019219238A (en) * 2018-06-19 2019-12-26 株式会社トプコン Reflector position calculation device, reflector position calculation method and reflector position calculation program
JP7173762B2 (en) 2018-06-19 2022-11-16 株式会社トプコン Reflector position calculation device, reflector position calculation method, and reflector position calculation program
JP2022516298A (en) * 2019-01-02 2022-02-25 グリットワールド ゲーエムベーハー How to reconstruct an object in 3D
JP7511209B2 (en) 2019-01-02 2024-07-05 グリットワールド ゲーエムベーハー Method for 3D reconstruction of an object - Patents.com
JP7198149B2 (en) 2019-04-24 2022-12-28 株式会社ソニー・インタラクティブエンタテインメント Information processing device and device information derivation method
JP2020181320A (en) * 2019-04-24 2020-11-05 株式会社ソニー・インタラクティブエンタテインメント Information processing device and device information derivation method
JP2020187507A (en) * 2019-05-14 2020-11-19 株式会社ジオ技術研究所 3D model generator
WO2020230452A1 (en) * 2019-05-14 2020-11-19 株式会社ジオ技術研究所 Three-dimensional model generation device
US11983818B2 (en) 2021-08-03 2024-05-14 Kabushiki Kaisha Toshiba Measurement system and storage medium storing measurement program
JP2023038693A (en) * 2021-09-07 2023-03-17 株式会社トプコン Measurement data processing device, measurement data processing method and measurement data processing processing
JP7042380B1 (en) 2021-09-15 2022-03-25 株式会社日立プラントコンストラクション Display device, program and display method
JP2023042981A (en) * 2021-09-15 2023-03-28 株式会社日立プラントコンストラクション Display apparatus, program, and display method
JP2023109426A (en) * 2022-01-27 2023-08-08 株式会社日立製作所 Video processing device and video processing method
JP2024064572A (en) * 2022-10-28 2024-05-14 株式会社豊田自動織機 Simulation System

Also Published As

Publication number Publication date
JP5470190B2 (en) 2014-04-16

Similar Documents

Publication Publication Date Title
JP5470190B2 (en) 3D environment generation system
US20220067233A1 (en) Generating operational and realistic models of physical systems
JP5251080B2 (en) Object recognition method
Renzaglia et al. Multi-robot three-dimensional coverage of unknown areas
CN114399515B (en) Method and storage medium for acquiring 6D pose of class-level target based on language description
JP2004326264A (en) Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program
WO2012086029A1 (en) Autonomous movement system
CN111709988A (en) Method and device for determining characteristic information of object, electronic equipment and storage medium
CN109682336A (en) Three-dimensional coordinates measurement path for vehicle body accuracy detection is planned automatically and optimization method
Gao et al. Evaluation of different features for matching point clouds to building information models
CN103196440B (en) M sequence discrete-type artificial signpost arrangement method and related mobile robot positioning method
CN116429112B (en) Multi-robot co-location method and device, equipment and storage medium
CN117633964A (en) A multi-agent-based automatic design method and system for urban open spaces
CN116225029A (en) A Path Planning Method for Robot
CN118952236B (en) Intelligent book positioning and sorting system and method based on virtual reality enhancement technology
Tong et al. A self-calibrating 3D ground-truth localization system using retroreflective landmarks
CN117218063A (en) Bridge construction progress monitoring method based on changes in the spatial position of the hanging basket during the construction stage
CN119672548B (en) Storage feature learning method and system based on laser SLAM
CN116690988A (en) 3D printing system and method for large building model
CN115202355A (en) Control method and system for electric power tower operation platform
CN117058358B (en) Scene boundary detection method and mobile platform
CN118235165A (en) Method and system for creating 3D models for digital twins from point clouds
Wallbaum et al. Towards real-time Scan-versus-BIM: Methods applications and challenges
CN117158876B (en) A capsule robot positioning and attitude control system with a magnetic field sensor array
Bonyani et al. Toolnavigator: Dataset generation for small tools handling and vision-language navigation in construction sites via simulation for robots

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120518

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140203

R151 Written notification of patent or utility model registration

Ref document number: 5470190

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees