JP4589224B2 - 3D pattern matching device - Google Patents
3D pattern matching device Download PDFInfo
- Publication number
- JP4589224B2 JP4589224B2 JP2005362973A JP2005362973A JP4589224B2 JP 4589224 B2 JP4589224 B2 JP 4589224B2 JP 2005362973 A JP2005362973 A JP 2005362973A JP 2005362973 A JP2005362973 A JP 2005362973A JP 4589224 B2 JP4589224 B2 JP 4589224B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- dimensional pattern
- dimensional
- registered
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
Description
この発明は、検出対象として人間の顔などの立体物を撮像し、この撮像された立体物の3次元パターンを照合3次元パターン、予め登録されている立体物の3次元パターンを登録3次元パターンとし、照合3次元パターンと登録3次元パターンとを照合する3次元パターン照合装置に関するものである。 The present invention captures a three-dimensional object such as a human face as a detection target, collates a three-dimensional pattern of the captured three-dimensional object, and a registered three-dimensional pattern of a three-dimensional object registered in advance. And a three-dimensional pattern matching device for matching a matching three-dimensional pattern with a registered three-dimensional pattern.
近年、コンピュータ室や重要機械室への入退室管理、コンピュータ端末や銀行の金融端末へのアクセス管理などの個人認証を必要とする分野において、これまでの暗証番号やIDカードに代わって、人間の顔や静脈など3次元の生体情報(バイオメトリクス)に基づいて個人認証を行う装置が開発されている。 In recent years, in fields that require personal authentication, such as access control to computer rooms and important machine rooms, and access control to computer terminals and financial terminals of banks, instead of conventional passwords and ID cards, Devices for performing personal authentication based on three-dimensional biological information (biometrics) such as a face and a vein have been developed.
例えば、検出対象(立体物)を互いに異なる位置から2台のカメラで撮像し、そのステレオ画像を基に撮像した立体物の各部分の凹凸を計測して3次元パターンを作成し、登録時に得られた「登録3次元パターン」と照合時に得られた「照合3次元パターン」との間で照合を行う3次元パターン照合装置が提案されている(特許文献1参照)。 For example, a detection target (three-dimensional object) is imaged with two cameras from different positions, and a three-dimensional pattern is created by measuring the unevenness of each part of the three-dimensional object imaged based on the stereo image, and obtained at the time of registration. There has been proposed a three-dimensional pattern matching apparatus that performs matching between the obtained “registered three-dimensional pattern” and the “matching three-dimensional pattern” obtained at the time of matching (see Patent Document 1).
この3次元パターン照合装置において、照合3次元パターンと登録3次元パターンとは、照合精度を高めるうえで、その3次元パターンの位置ずれ(X,Y,Z軸方向のずれ)や回転ずれ(X,Y,Z軸の軸回りのずれ)を正確に求め、照合3次元パターンと登録3次元パターンとの位置および姿勢を合わせたうえで照合することが重要である。 In this three-dimensional pattern collation apparatus, the collation three-dimensional pattern and the registered three-dimensional pattern are used to increase the collation accuracy, and the positional deviation (X, Y, Z-axis direction deviation) or rotational deviation (X It is important to accurately obtain the deviations of the Y, Z, and Z axes and match the positions and orientations of the matching three-dimensional pattern and the registered three-dimensional pattern.
従来より、3次元パターンの位置および姿勢を合わせる手法として、ICP(Iterative Closest Point )アルゴリズムがある(特許文献2参照)。このICPアルゴリズムでは、登録3次元パターンのデータをM、照合3次元パターンのデータをM’とした場合、照合3次元パターンと登録3次元パターンとの位置および姿勢は次の(1)〜(4)のようにして合わせられる。 Conventionally, there is an ICP (Iterative Closest Point) algorithm as a method for matching the position and orientation of a three-dimensional pattern (see Patent Document 2). In this ICP algorithm, when the registered three-dimensional pattern data is M and the collation three-dimensional pattern data is M ′, the positions and orientations of the collation three-dimensional pattern and the registered three-dimensional pattern are the following (1) to (4 ).
(1)Mに含まれる全ての点miについて、最も近い点mi’をM’の中から探し、得られたmiとmi’の組を対応点の組とする。
(2)現在の対応関係を基にして、2つの3次元パターンのデータM,M’間の最適な運動パターン(回転R,並進t)を最小2乗法により推定する。
(3)上記(2)で得られたRとtを用いて、M’を座標変換する。
(4)Mと座標変換後のM’に対して、Rとtの変化が十分に小さくなり、収束するまで、上記(1)〜(3)を繰り返す。
(1) For all the points mi included in M, the closest point mi ′ is searched from M ′, and the set of obtained mi and mi ′ is set as a set of corresponding points.
(2) Based on the current correspondence relationship, an optimal motion pattern (rotation R, translation t) between the two three-dimensional pattern data M and M ′ is estimated by the least square method.
(3) M ′ is coordinate-transformed using R and t obtained in (2) above.
(4) The above (1) to (3) are repeated until the change in R and t becomes sufficiently small and converges with respect to M and M ′ after coordinate transformation.
しかしながら、上述した従来の3次元パターンの照合方法では、例えば検出対象を人間の顔などの生体情報とした場合、個人差が顕著であり、登録3次元パターンにおける特徴的な部分の位置や姿勢は定まった位置になるとは限らない。例えば、鼻の頭が低かったり、鼻筋が曲がっていたりすることがある。このような場合、照合3次元パターンと登録3次元パターンとで、対応する点を間違えて位置合わせが行われることがあり、照合3次元パターンと登録3次元パターンとの位置および姿勢を正しく合わせることができないことがあった。 However, in the verification method of a conventional three-dimensional pattern described above, for example, when the detection target and the biological information such as a human face, Individuals vary is remarkable, the position and posture of the characteristic portion in the registration three-dimensional pattern Is not always a fixed position. For example, the head of the nose may be low or the nasal muscles may be bent. In such a case, the matching three-dimensional pattern and the registered three-dimensional pattern may be misaligned with each other at the corresponding points, so that the positions and orientations of the matching three-dimensional pattern and the registered three-dimensional pattern are correctly aligned. There was something that could not be done.
また、上述した従来の3次元パターンの照合方法では、1:N照合を行うような場合、すなわち1つの照合3次元パターンとN個の登録3次元パターンとを順次照合するような場合、1つずつ登録3次元パターンを読み出して照合3次元パターンとのICPアルゴリズムによる位置合わせを行わなければならず、照合スピードが落ちるという問題もあった。特に、ICPアルゴリズムは演算が収束するまで何回も演算を繰り返し行うので非常に時間がかかり、処理時間の長期化が避けられない。 Further, in the conventional three-dimensional pattern matching method described above, one is used when 1: N matching is performed, that is, when one matching three-dimensional pattern and N registered three-dimensional patterns are sequentially compared. The registered 3D pattern must be read out one by one and alignment with the collated 3D pattern must be performed by the ICP algorithm, resulting in a problem that collation speed decreases. In particular, since the ICP algorithm repeats the operation many times until the operation converges, it takes a very long time, and the processing time is unavoidable.
本発明は、このような課題を解決するためになされたもので、その目的とするところは、照合3次元パターンと登録3次元パターンとの位置および姿勢を正しくかつ確実に合わせて照合を行うことが可能な3次元パターン照合装置を提供することにある。
また、照合3次元パターンと登録3次元パターンとの位置および姿勢を正しくかつ確実に合わせて、高スピードで1:N照合を行うことが可能な3次元パターン照合装置を提供することにある。
The present invention has been made to solve such a problem, and the object of the present invention is to perform matching by matching the position and orientation of the matching three-dimensional pattern and the registered three-dimensional pattern correctly and reliably. It is to provide a three-dimensional pattern matching device capable of
It is another object of the present invention to provide a three-dimensional pattern matching apparatus capable of performing 1: N matching at high speed by matching the position and orientation of the matching three-dimensional pattern and registered three-dimensional pattern correctly and reliably.
このような目的を達成するために、第1発明(請求項1に係る発明)は、検出対象として立体物を撮像し、この撮像された立体物の3次元パターンを照合3次元パターン、予め登録されている立体物の3次元パターンを登録3次元パターンとし、照合3次元パターンと登録3次元パターンとを照合する3次元パターン照合装置において、検出対象に対して定められその注目部分の3次元パターンが基準位置および基準姿勢とされた3次元パターンを基準テンプレートとして記憶する基準テンプレート記憶手段と、基準テンプレートとの位置合わせを行って照合3次元パターンの位置および姿勢を修正する照合3次元パターン位置・姿勢修正手段と、基準テンプレートとの位置合わせを行って登録3次元パターンの位置および姿勢を修正する登録3次元パターン位置・姿勢修正手段と、照合3次元パターン位置・姿勢修正手段によってその位置および姿勢が修正された照合3次元パターンと登録3次元パターン位置・姿勢修正手段によってその位置および姿勢が修正された登録3次元パターンとを照合する3次元パターン照合手段とを設けたものであり、基準テンプレートは、検出対象である立体物の平均的な3次元パターンから抽出された注目部分の3次元パターンを基準位置および基準姿勢とした3次元パターンであることを特徴とする。なお、本発明において、「位置合わせ」とは、「位置」と「姿勢」の両方を合わせることを意味している。 In order to achieve such an object, the first invention (the invention according to claim 1) images a three-dimensional object as a detection target, and pre-registers a three-dimensional pattern of the imaged three-dimensional object as a collation three-dimensional pattern. A three-dimensional pattern of a three-dimensional object that is defined as a detection target in a three-dimensional pattern matching apparatus that uses a registered three-dimensional pattern as a registered three-dimensional pattern and collates the matching three-dimensional pattern with the registered three-dimensional pattern. A reference template storage means for storing a three-dimensional pattern having a reference position and a reference posture as a reference template, and a matching three-dimensional pattern position for correcting the position and posture of the matching three-dimensional pattern by aligning with the reference template Registration that corrects the position and posture of the registered 3D pattern by aligning the posture correction means with the reference template. The three-dimensional pattern position / posture correction means, the matching three-dimensional pattern whose position and posture are corrected by the matching three-dimensional pattern position / posture correction means, and the registered three-dimensional pattern position / posture correction means correct the position and posture. 3D pattern matching means for matching the registered 3D pattern, and the reference template is obtained by extracting the 3D pattern of the target portion extracted from the average 3D pattern of the three-dimensional object to be detected. It is a three-dimensional pattern having a reference position and a reference posture. In the present invention, “alignment” means matching both “position” and “posture”.
本発明では、例えば、検出対象を人間の顔とした場合、撮像された顔の3次元パターン(照合対象3次元顔パターン)と予め登録されている3次元パターン(登録対象3次元顔パターン)とを照合する。この場合、登録対象3次元顔パターンと基準テンプレート(例えば、検出対象である人間の顔の平均的な3次元パターン(平均3次元顔パターン)から抽出された注目部分として「鼻の頭」を基準位置、「鼻筋」を基準姿勢とした3次元パターン)との位置合わせをICPアルゴリズムなどにより行って、登録対象3次元顔パターンの位置および姿勢を修正する。また、照合対象3次元顔パターンと基準テンプレートとの位置合わせをICPアルゴリズムなどにより行って、照合対象3次元顔パターンの位置および姿勢を修正する。この位置および姿勢を修正した照合対象3次元顔パターンと登録対象3次元顔パターンとを照合する。 In the present invention, for example, when a detection target is a human face, a captured three-dimensional pattern of a face (collation target three-dimensional face pattern) and a pre-registered three-dimensional pattern (registration target three-dimensional face pattern) Is matched. In this case, the registration target 3D face pattern and the reference template (for example, the head of the nose is used as the reference portion extracted from the average 3D pattern (average 3D face pattern) of the human face to be detected). The position and the position of the 3D face pattern to be registered are corrected by the ICP algorithm or the like. Further, the position and orientation of the verification target 3D face pattern are corrected by performing alignment between the verification target 3D face pattern and the reference template using an ICP algorithm or the like. The verification target 3D face pattern and the registration target 3D face pattern, whose position and orientation are corrected, are verified.
基準テンプレートにおいて、「鼻の頭」や「鼻筋」などの注目部分は基準位置および基準姿勢とされ、個人差がない標準的なものとされている。したがって、照合対象3次元顔パターンと基準テンプレートとの位置合わせが個人差のない注目部分との対応をとるようにして行われ、登録対象3次元顔パターンと基準テンプレートとの位置合わせが個人差のない注目部分との対応をとるようにして行われ、対応する点を間違えて位置合わせが行われる虞れが少なくなり、照合対象3次元顔パターンと登録対象3次元顔パターンとをその位置および姿勢を正しくかつ確実に合わせた状態で照合することが可能となる。 In the reference template, attention portions such as “nose head” and “nasal muscle” are set as a reference position and a reference posture, and are standard with no individual differences. Therefore, the alignment between the verification target 3D face pattern and the reference template is performed so as to correspond to the target portion without individual differences, and the registration target 3D face pattern and the reference template are aligned with individual differences. This is performed in such a way as to correspond to a non-attention part, and there is less possibility that registration will be performed by mistaken corresponding points, and the position and orientation of the verification target 3D face pattern and the registration target 3D face pattern are reduced. It is possible to collate in a state where the two are correctly and reliably combined.
本発明において、1:N照合を行う場合、登録3次元パターン位置・姿勢修正手段によってその位置および姿勢が修正された複数の登録3次元パターンを記憶させておき、照合3次元パターン位置・姿勢修正手段によってその位置および姿勢が修正された照合3次元パターンと記憶されている複数の登録3次元パターンとを順次照合するようにする(第2発明(請求項2に係る発明))。この場合、登録3次元パターンと基準テンプレートとの位置合わせは既に行われているので、照合時の位置合わせは照合3次元パターンと基準テンプレートとの1回で済み、処理時間を大幅に短縮し、高スピードで1:N照合を行うことが可能となる。 In the present invention, when 1: N matching is performed, a plurality of registered three-dimensional patterns whose positions and postures have been corrected by the registered three-dimensional pattern position / posture correction means are stored, and the matching three-dimensional pattern position / posture correction is performed. The collation three-dimensional pattern whose position and orientation are corrected by the means and the plurality of registered three-dimensional patterns stored are sequentially collated (second invention (invention according to claim 2)). In this case, since registration between the registered 3D pattern and the reference template has already been performed, alignment at the time of collation is only once with the collation 3D pattern and the reference template, greatly reducing processing time, It is possible to perform 1: N verification at high speed.
なお、本発明(第1,第2発明)において、例えば、検出対象を人間の顔とし、基準テンプレートに「髪型」が含まれ、基準テンプレートの「髪型」と撮像された顔の「髪型」とが同じであったような場合、「鼻の頭」や「鼻筋」などの注目部分ではなく、「髪型」との対応をとるようにして位置合わせが行われてしまう虞れがある。そこで、第3発明(請求項3に係る発明)では、基準テンプレートを、注目部分を含む注目エリアの3次元パターンとする。例えば、「鼻の頭」や「鼻筋」を含む限られたエリアの3次元パターンを基準テンプレートとし、基準テンプレートから「髪型」などの余計な部分を除外することで、照合3次元パターンおよび登録3次元パターンと基準テンプレートとの位置合わせの精度を高める。 In the present invention (first and second inventions), for example, the detection target is a human face, the reference template includes “hairstyle”, the “hairstyle” of the reference template, and the “hairstyle” of the imaged face. May be aligned with the “hairstyle” instead of the attention portion such as “nose head” and “nasal muscle”. Therefore, in the third invention (the invention according to claim 3), the reference template is a three-dimensional pattern of the attention area including the attention portion. For example, by using a three-dimensional pattern of a limited area including “head of nose” and “nose muscle” as a reference template, and excluding extra portions such as “hairstyle” from the reference template, the matching three-dimensional pattern and registration 3 Increase the accuracy of alignment between the dimensional pattern and the reference template.
また、本発明(第1,第2発明)において、照合3次元パターンと登録3次元パターンとの照合の前に、その照合3次元パターンおよび登録3次元パターンの注目部分を含む注目エリアの個々のパターンデータに重み付けを行うようにしてもよい(第4発明(請求項4に係る発明))。このようにすると、例えば、「鼻の頭」や「鼻筋」を含む注目エリアの個々のパターンデータを他のエリアのパターンデータよりも強調するようにして、照合精度を高めることが可能となる。 Further, in the present invention (first and second inventions), before collation between the collation three-dimensional pattern and the registered three-dimensional pattern, each of the attention areas including the collation three-dimensional pattern and the attention portion of the registered three-dimensional pattern The pattern data may be weighted (fourth invention (invention according to claim 4)). In this way, for example, it is possible to enhance the collation accuracy by emphasizing individual pattern data of the area of interest including “head of nose” and “nose muscle” more than pattern data of other areas.
第1発明によれば、検出対象に対してその注目部分の3次元パターンを基準位置および基準姿勢とした基準テンプレート(検出対象である立体物の平均的な3次元パターンから抽出された注目部分の3次元パターンを基準位置および基準姿勢とした3次元パターン)を定め、基準テンプレートとの位置合わせを行って照合3次元パターンの位置および姿勢を修正し、基準テンプレートとの位置合わせを行って登録3次元パターンの位置および姿勢を修正し、この位置および姿勢を修正した照合3次元パターンと登録3次元パターンとを照合するようにしたので、対応する点を間違えて位置合わせが行われる虞れを少なくし、照合3次元パターンと登録3次元パターンとをその位置および姿勢を正しくかつ確実に合わせた状態で照合することが可能となる。 According to the first aspect of the present invention, the reference template (the target portion extracted from the average three-dimensional pattern of the three-dimensional object to be detected is set as the reference position and the reference posture with respect to the detection target. A three-dimensional pattern using a three-dimensional pattern as a reference position and a reference posture ), aligning with a reference template to correct the position and posture of the collation three-dimensional pattern, aligning with the reference template, and registering 3 The position and orientation of the three-dimensional pattern are corrected, and the collation 3D pattern with the corrected position and orientation is collated with the registered three-dimensional pattern. The collation 3D pattern and the registered 3D pattern can be collated in a state where the position and orientation are matched correctly and reliably. The ability.
第2発明によれば、登録3次元パターン位置・姿勢修正手段によってその位置および姿勢が修正された複数の登録3次元パターンを記憶させておき、照合3次元パターン位置・姿勢修正手段によってその位置および姿勢が修正された照合3次元パターンと記憶されている複数の登録3次元パターンとを順次照合するようにしたので、照合時の位置合わせを照合3次元パターンと基準テンプレートとの1回として、処理時間を大幅に短縮し、高スピードで1:N照合を行うことが可能となる。 According to the second invention, a plurality of registered three-dimensional patterns whose positions and postures are corrected by the registered three-dimensional pattern position / posture correction means are stored, and the positions and postures are corrected by the collation three-dimensional pattern position / posture correction means. Since the collation 3D pattern whose posture has been corrected and a plurality of stored registered 3D patterns are sequentially collated, the alignment at the time of collation is performed once as the collation 3D pattern and the reference template. Time can be greatly shortened and 1: N verification can be performed at high speed.
第3発明によれば、第1,第2発明において、注目部分を含む注目エリアの3次元パターンを基準テンプレートとしたので、例えば「鼻」や「鼻筋」などの注目部分のみを含む限られたエリアの3次元パターンを基準テンプレートとし、基準テンプレートから「髪型」などの余計な部分を除外することで、照合3次元パターンおよび登録3次元パターンと基準テンプレートとの位置合わせの精度を高めることが可能となる。
第4発明によれば、第1,第2発明において、照合3次元パターンと登録3次元パターンとの照合の前に、その照合3次元パターンおよび登録3次元パターンの注目部分を含む注目エリアの個々のパターンデータに重み付けを行うようにしたので、例えば「鼻の頭」や「鼻筋」を含む注目エリアの個々のパターンデータを他のエリアのパターンデータよりも強調するようにして、照合精度を高めることが可能となる。
According to the third invention, in the first and second inventions, the three-dimensional pattern of the attention area including the attention portion is used as the reference template. Therefore, the reference template includes only the attention portion such as “nose” and “nasal muscle”. By using the 3D pattern of the area as a reference template and excluding unnecessary parts such as “hairstyle” from the reference template, it is possible to improve the accuracy of alignment between the matching 3D pattern and registered 3D pattern and the reference template It becomes.
According to the fourth invention, in each of the first and second inventions, each of the attention areas including the target portion of the matching three-dimensional pattern and the registered three-dimensional pattern before the matching of the matching three-dimensional pattern and the registered three-dimensional pattern. Since the pattern data is weighted, for example, the individual pattern data of the attention area including “head of nose” and “nose muscle” is emphasized more than the pattern data of other areas, thereby improving the matching accuracy. It becomes possible.
以下、本発明を図面に基づいて詳細に説明する。
〔実施の形態1:1:1照合〕
図1は本発明に係る3次元パターン照合装置の一実施の形態の要部を示すブロック図である。
Hereinafter, the present invention will be described in detail with reference to the drawings.
[Embodiment 1: 1: 1 verification]
FIG. 1 is a block diagram showing a main part of an embodiment of a three-dimensional pattern matching apparatus according to the present invention.
図1において、1は検出対象として人間の顔を2台のカメラ1−1および1−2で撮像し、そのステレオ画像を基に撮像した顔の各部分の凹凸を計測して照合対象の3次元パターン(照合対象3次元顔パターン)PXおよび登録対象の3次元パターン(登録対象3次元顔パターン)PYを作成する3次元パターン作成部、2は検出対象(人間の顔)に対して定められた基準テンプレートPRを記憶する基準テンプレート記憶部である。
In FIG. 1, reference numeral 1 denotes a human face as a detection target, which is imaged by two cameras 1-1 and 1-2. A three-dimensional
この実施の形態において、基準テンプレートPRは、例えば、検出対象である人間の顔の平均的な3次元パターン(平均3次元顔パターン)を作成し、この平均3次元顔パターンから注目部分として「鼻の頭」および「鼻筋」を含む注目エリアの3次元パターンを抽出し、その抽出した注目エリアの3次元パターンの「鼻の頭(A)」をX=0,Y=0,Z=0として基準位置とし、「鼻筋(B)」をY軸に位置させて基準姿勢としたものである。図3に人間の顔における注目エリアARとこの注目エリアARに含まれる注目部分TAとの関係を示す。本実施の形態では、鼻を中心とし、目や口、髪を含まないエリアとして、注目エリアARを定めている。 In this embodiment, the reference template PR creates, for example, an average three-dimensional pattern (average three-dimensional face pattern) of a human face that is a detection target, and “nose” as a target portion from the average three-dimensional face pattern. 3D pattern of the attention area including “head of nose” and “nose muscle” is extracted, and “nose head (A)” of the extracted three-dimensional pattern of the attention area is set as X = 0, Y = 0, Z = 0. The reference position is set, and the "nose muscle (B)" is positioned on the Y-axis to obtain the reference posture. FIG. 3 shows the relationship between the attention area AR in the human face and the attention portion TA included in the attention area AR. In the present embodiment, the attention area AR is defined as an area centering on the nose and not including eyes, mouth and hair.
なお、鼻の頭の位置、鼻筋ラインを合わせて単純に3次元的な平均を求めると、平均3次元顔パターン(平均顔)ができる。また、2つの目と鼻の位置で大きさを正規化して平均化し、平均顔を作成してもよい。 If the three-dimensional average is simply obtained by combining the position of the head of the nose and the nose muscle line, an average three-dimensional face pattern (average face) can be obtained. Also, the average face may be created by normalizing and averaging the sizes of the positions of the two eyes and the nose.
図1において、3−1は3次元パターン作成部1から送られてくる照合対象3次元顔パターンPXと基準テンプレート記憶部2から読み出した基準テンプレートPRとの位置合わせを行う第1の位置・姿勢合わせ部、3−2は3次元パターン作成部1から送られてくる登録対象3次元顔パターンPYと基準テンプレート記憶部2から読み出した基準テンプレートPRとの位置合わせを行う第2の位置・姿勢合わせ部、4は第2の位置・姿勢合わせ部3−2によって位置合わせが行われた登録対象3次元顔パターンPYを登録3次元顔パターンPY’として記憶するデータベース、5は第1の位置・姿勢合わせ部3−1によって位置合わせが行われた照合3次元顔パターンPX’とデータベース4に記憶されている登録3次元顔パターンPY’との照合を行う照合部である。
In FIG. 1, reference numeral 3-1 denotes a first position / posture for aligning the comparison target 3D face pattern PX sent from the 3D pattern creation unit 1 with the reference template PR read from the reference
この実施の形態において、第1の位置・姿勢合わせ部3−1は、照合対象3次元顔パターンPXと基準テンプレートPRとの位置合わせをICPアルゴリズムにより行って、その位置および姿勢を修正した照合3次元顔パターンPX’を生成する。第2の位置・姿勢合わせ部3−2は、登録対象3次元顔パターンPYと基準テンプレートPRとの位置合わせをICPアルゴリズムにより行って、その位置および姿勢を修正した登録3次元顔パターンPY’を生成する。 In this embodiment, the first position / posture matching unit 3-1 performs matching between the target 3D face pattern PX and the reference template PR using the ICP algorithm, and corrects the position and posture. A three-dimensional face pattern PX ′ is generated. The second position / posture matching unit 3-2 performs registration between the registration target three-dimensional face pattern PY and the reference template PR using an ICP algorithm, and obtains a registered three-dimensional face pattern PY ′ whose position and posture are corrected. Generate.
この場合、位置・姿勢合わせ部3−1は、基準テンプレートPRのデータをM、照合対象3次元顔パターンPXのデータをM’とし、照合対象3次元顔パターンPXと基準テンプレートPRとの位置および姿勢を次の(1)〜(4)のようにして合わせ込む。同様に位置・姿勢合わせ部3−2は、基準テンプレートPRのデータをM、登録対象3次元顔パターンPYのデータをM’とし、登録対象3次元顔パターンPYと基準テンプレートPRとの位置および姿勢を次の(1)〜(4)のようにして合わせ込む。 In this case, the position / posture matching unit 3-1 sets the data of the reference template PR as M, the data of the verification target 3D face pattern PX as M ′, the position of the verification target 3D face pattern PX and the reference template PR, and The posture is adjusted as follows (1) to (4). Similarly, the position / posture matching unit 3-2 sets the data of the reference template PR as M, the data of the registration target 3D face pattern PY as M ', and the positions and orientations of the registration target 3D face pattern PY and the reference template PR. Are combined as in the following (1) to (4).
(1)Mに含まれる全ての点miについて、最も近い点mi’をM’の中から探し、得られたmiとmi’の組を対応点の組とする。
(2)現在の対応関係を基にして、2つの3次元パターンのデータM,M’間の最適な運動パターン(回転R,並進t)を最小2乗法により推定する。
(3)上記(2)で得られたRとtを用いて、M’を座標変換する。
(4)Mと座標変換後のM’に対して、Rとtの変化が十分に小さくなり、収束するまで、上記(1)〜(3)を繰り返す。
(1) For all the points mi included in M, the closest point mi ′ is searched from M ′, and the set of obtained mi and mi ′ is set as a set of corresponding points.
(2) Based on the current correspondence relationship, an optimal motion pattern (rotation R, translation t) between the two three-dimensional pattern data M and M ′ is estimated by the least square method.
(3) M ′ is coordinate-transformed using R and t obtained in (2) above.
(4) The above (1) to (3) are repeated until the change in R and t becomes sufficiently small and converges with respect to M and M ′ after coordinate transformation.
なお、本実施の形態では、計算を高速化するために、ICPアルゴリズムの初期段階では、少ない数の対応点を使用して大まかな位置合わせを行い、処理が進むにつれて徐々に対応点の数を増やし、位置を合わせるようにしている。 In this embodiment, in order to speed up the calculation, in the initial stage of the ICP algorithm, rough alignment is performed using a small number of corresponding points, and the number of corresponding points is gradually increased as the processing proceeds. Increase and adjust the position.
基準テンプレートPRにおいて、「鼻の頭(A)」や「鼻筋(B)」は基準位置および基準姿勢とされ、個人差がない標準的なものとされている。したがって、照合対象3次元顔パターンPXと基準テンプレートPRとの位置合わせは、基準テンプレートPR中の個人差のない「鼻の頭(A)」や「鼻筋(B)」との対応をとるようにして行われる。同様に、登録対象3次元顔パターンPYと基準テンプレートPRとの位置合わせも、基準テンプレートPR中の個人差のない「鼻の頭(A)」や「鼻筋(B)」との対応をとるようにして行われる。 In the reference template PR, “head of nose (A)” and “nose muscle (B)” are set as reference positions and reference postures, and are standard with no individual differences. Therefore, the alignment of the comparison target 3D face pattern PX and the reference template PR is performed so as to correspond to the “nasal head (A)” and “nasal muscle (B)” in the reference template PR without individual differences. Done. Similarly, the registration of the registration target 3D face pattern PY and the reference template PR also corresponds to the “nasal head (A)” and “nasal muscle (B)” in the reference template PR without individual differences. Is done.
照合部5は、位置・姿勢合わせ部3−1から照合3次元顔パターンPX’が送られてくると、データベース4から登録3次元顔パターンPY’を読み出し、照合3次元顔パターンPX’と登録3次元顔パターンPY’との照合を行う。この照合に際し、照合3次元顔パターンPX’および登録3次元顔パターンPY’は、基準テンプレートPRの「鼻の頭(A)」や「鼻筋(B)」との対応をとるようにして、基準テンプレートPRとの位置合わせが正しくかつ確実に行われている。したがって、照合3次元顔パターンPX’と登録3次元顔パターンPY’とが、その位置および姿勢を正しく合わせた状態で照合される。
When the collation 3D face pattern PX ′ is sent from the position / posture matching unit 3-1, the
また、本実施の形態では、「鼻の頭(A)」や「鼻筋(B)」を含む限られたエリアの3次元パターンを基準テンプレートPRとしているので、すなわち基準テンプレートPRから「髪型」など余計な部分を除外しているので、「髪型」との対応をとるようにして位置合わせが行われてしまう虞れがなく、照合対象3次元顔パターンPXおよび登録対象3次元顔パターンPYと基準テンプレートPRとの位置合わせの精度が高まる。 In the present embodiment, the three-dimensional pattern of a limited area including “nose head (A)” and “nose muscle (B)” is used as the reference template PR, that is, from the reference template PR to “hairstyle” and the like. Since unnecessary portions are excluded, there is no fear that alignment is performed so as to correspond to the “hairstyle”, and the comparison target 3D face pattern PX and the registration target 3D face pattern PY and the reference The accuracy of alignment with the template PR is increased.
なお、この実施の形態では、登録対象3次元顔パターンPYの位置および姿勢を修正し、この位置および姿勢が修正された登録3次元顔パターンPY’をデータベース4に記憶するようにしたが、登録対象3次元顔パターンPYを記憶しておき、照合時に登録対象3次元顔パターンPYの位置および姿勢を修正し、照合3次元顔パターンPX’との照合を行うようにしてもよい。この場合、照合時の位置合わせとして、照合対象3次元顔パターンPXと基準テンプレートPRとの位置合わせに加え、登録対象3次元顔パターンPYと基準テンプレートPRとの位置合わせが必要となるが、1:1照合の場合には2回の位置合わせで済むので、照合スピードがそれほど落ちることはない。勿論、データベース4に登録3次元顔パターンPY’を記憶させて、照合を行うようにした方がよいことは言うまでもない。
In this embodiment, the position and posture of the registration target three-dimensional face pattern PY are corrected, and the registered three-dimensional face pattern PY ′ having the corrected position and posture is stored in the
〔実施の形態2:1:N照合〕
ICPアルゴリズムは演算が収束するまで何回も演算を繰り返し行うので非常に時間がかかる。1:N照合を行う場合、N+1回のICPアルゴリズムによる位置合わせが必要となり、これを照合時に行っていたのでは、処理時間が莫大となり、照合スピードが落ちる。そこで、1:N照合では、図2に示すように、位置・姿勢合わせ部3−2において登録対象3次元顔パターンPY1,PY2・・・・PYNと基準テンプレートPRとの位置合わせを各個にICPアルゴリズムによって行い、その位置および姿勢を修正した登録3次元顔パターンPY1’,PY2’・・・・PYN’をデータベース4に記憶させておく。
[Embodiment 2: 1: 1 N verification]
The ICP algorithm is very time consuming because the operation is repeated many times until the operation converges. When 1: N collation is performed, alignment by the ICP algorithm N + 1 times is necessary. If this is performed at the time of collation, the processing time becomes enormous and the collation speed decreases. Therefore, in 1: N collation, as shown in FIG. 2, in the position / posture matching unit 3-2, the registration target 3D face patterns PY1, PY2,. Registered three-dimensional face patterns PY1 ′, PY2 ′,... PYN ′ corrected by the algorithm and corrected in position and orientation are stored in the
照合部5は、照合3次元顔パターンPX’が送られてくると、データベース4から登録3次元顔パターンPY1’,PY2’・・・・PYN’を順次読み出して、照合3次元顔パターンPX’との照合を行う。この照合に際し、登録3次元顔パターンPY1’,PY2’・・・・PYN’は登録時にすでにICPアルゴリズムによる位置合わせが行われているので、ICPアルゴリズムによる位置合わせを一々行わなくてもよい。したがって、照合時にその都度ICPアルゴリズムによる位置合わせを行う場合と比較し、処理時間を大幅に短縮し、高スピードで1:N照合を行うことができる。
When the
なお、上述した実施の形態では、照合用として第1の位置・姿勢合わせ部3−1を、登録用として第2の位置・姿勢合わせ部3−2を設けたが、第1の位置・姿勢合わせ部3−1を照合と登録との兼用とし、第2の位置・姿勢合わせ部3−2を省略するようにしてもよい。また、照合部5での照合は、特徴点方式としたり、相関方式としたりするなど、どのような照合方式を採用してもよい。
In the above-described embodiment, the first position / posture matching unit 3-1 is provided for verification, and the second position / posture matching unit 3-2 is provided for registration. The matching unit 3-1 may be used for both verification and registration, and the second position / posture matching unit 3-2 may be omitted. In addition, the collation by the
また、照合3次元顔パターンPX’と登録3次元顔パターンPY’との照合の前に、その照合3次元顔パターンPX’および登録3次元顔パターンPY’の「鼻の頭」や「鼻筋」を含む注目エリアの個々のパターンデータに重み付けを行うようにしてもよい。これにより、「鼻の頭」や「鼻筋」を含む注目エリアの個々のパターンデータを他のエリアのパターンデータよりも強調し、照合精度を高めることが可能となる。 Further, before collation between the collation 3D face pattern PX ′ and the registered 3D face pattern PY ′, the “nose head” and “nasal muscle” of the collation 3D face pattern PX ′ and the registered 3D face pattern PY ′. It is also possible to weight each pattern data of the attention area including As a result, individual pattern data of the area of interest including “head of nose” and “nose muscle” can be emphasized more than pattern data of other areas, and matching accuracy can be improved.
また、基準テンプレートPRを定める際の人間の顔の平均的な3次元パターン(平均3次元顔パターン)として、例えば登録3次元顔パターンPY1〜PYNの平均をとった登録平均3次元顔パターンを作成し、その作成した登録平均3次元顔パターンから注目部分を抽出して基準テンプレートPRを作成するようにしてもよい。このようにすると、基準テンプレートPRに利用者の顔の情報が反映されるとものとなり、位置合わせの精度が高まり、さらに照合精度がアップする。 In addition, as an average three-dimensional pattern (average three-dimensional face pattern) of a human face when determining the reference template PR, for example, a registered average three-dimensional face pattern that is an average of the registered three-dimensional face patterns PY1 to PYN is created. Then, the reference template PR may be created by extracting a target part from the created registered average three-dimensional face pattern. In this way, the user's face information is reflected in the reference template PR, so that the alignment accuracy is increased and the matching accuracy is further improved.
また、基準テンプレートPRには「鼻」だけではなく、「目」や「口」などを注目部分として含ませるようにしてもよい。また、人間の顔の平均的な3次元パターン(平均顔)を作成するのではなく、平均と思われる人の顔の3次元パターンから注目部分を抽出し、基準テンプレートPRを作成するようにしてもよい。また、世界的に見た場合、国や地域によって人間の顔の平均的な3次元パターンは異なると考えられ、国や地域毎に代表的な基準テンプレートPRを作るようにしてもよい。また、基準テンプレートPRに含ませる注目部分を手動で指定するようにしてもよい。 In addition, the reference template PR may include not only “nose” but also “eyes”, “mouth”, and the like as attention parts. Also, instead of creating an average three-dimensional pattern (average face) of a human face, a reference portion PR is created by extracting a target portion from a three-dimensional pattern of a human face that seems to be an average. Also good. Further, when viewed globally, it is considered that the average three-dimensional pattern of a human face differs depending on the country or region, and a representative reference template PR may be created for each country or region. Further, the target portion to be included in the reference template PR may be manually designated.
また、検出対象は人間の顔に限られるものではなく、人間の顔のように高い部分と低い部分とがその特徴として必ず存在する立体物であれば、人間の顔の場合と同様にしてその立体物の位置や姿勢を検出することが可能である。
また、上述した実施の形態では、基準テンプレートPRとの位置合わせをICPアルゴリズムによって行うようにしたが、必ずしもICPアルゴリズムによらなくてもよい。
In addition, the detection target is not limited to a human face, and if it is a three-dimensional object that always has a high part and a low part as human features, as in the case of a human face, It is possible to detect the position and orientation of a three-dimensional object.
Further, in the above-described embodiment, the alignment with the reference template PR is performed by the ICP algorithm, but it is not always necessary to use the ICP algorithm.
1…3次元パターン作成部、1−1,1−2…カメラ、2…基準テンプレート記憶部、3−1,3−2…位置・姿勢合わせ部、4…データベース、5…照合部、PR…基準テンプレート、PX…照合対象3次元顔パターン、PY(PY1〜PYN)…登録対象3次元顔パターン、PX’…照合3次元顔パターン、PY’(PY1’〜PYN’)…登録3次元顔パターン、AR…注目エリア、TA…注目部分。 DESCRIPTION OF SYMBOLS 1 ... Three-dimensional pattern creation part, 1-1, 1-2 ... Camera, 2 ... Reference | standard template memory | storage part, 3-1, 3-2 ... Position and attitude | position alignment part, 4 ... Database, 5 ... Collation part, PR ... Reference template, PX ... 3D face pattern to be verified, PY (PY1 to PYN) ... 3D face pattern to be registered, PX '... 3D face pattern to be verified, PY' (PY1 'to PYN') ... 3D face pattern to be registered , AR ... attention area, TA ... attention area.
Claims (4)
前記検出対象に対して定められその注目部分の3次元パターンが基準位置および基準姿勢とされた3次元パターンを基準テンプレートとして記憶する基準テンプレート記憶手段と、
前記基準テンプレートとの位置合わせを行って前記照合3次元パターンの位置および姿勢を修正する照合3次元パターン位置・姿勢修正手段と、
前記基準テンプレートとの位置合わせを行って前記登録3次元パターンの位置および姿勢を修正する登録3次元パターン位置・姿勢修正手段と、
前記照合3次元パターン位置・姿勢修正手段によってその位置および姿勢が修正された照合3次元パターンと前記登録3次元パターン位置・姿勢修正手段によってその位置および姿勢が修正された登録3次元パターンとを照合する3次元パターン照合手段とを備え、
前記基準テンプレートは、
前記検出対象である立体物の平均的な3次元パターンから抽出された前記注目部分の3次元パターンを基準位置および基準姿勢とした3次元パターンである
ことを特徴とする3次元パターン照合装置。 A three-dimensional object is imaged as a detection target, the three-dimensional pattern of the picked three-dimensional object is a collation three-dimensional pattern, and a three-dimensional pattern of a three-dimensional object registered in advance is a registered three-dimensional pattern. In a three-dimensional pattern matching device that matches a registered three-dimensional pattern,
A reference template storage means for storing, as a reference template, a three-dimensional pattern that is defined for the detection target and in which the three-dimensional pattern of the target portion is a reference position and a reference posture;
Collation 3D pattern position / posture correction means for correcting the position and posture of the collation 3D pattern by aligning with the reference template;
Registered three-dimensional pattern position / posture correction means for correcting the position and posture of the registered three-dimensional pattern by performing alignment with the reference template;
The collation 3D pattern whose position and orientation have been corrected by the collation 3D pattern position / posture correction means and the registered 3D pattern whose position and orientation have been corrected by the registered 3D pattern position / posture correction means Three-dimensional pattern matching means for
The reference template is
A three-dimensional pattern matching apparatus , wherein the three-dimensional pattern is a three-dimensional pattern having a reference position and a reference posture as a three-dimensional pattern of the target portion extracted from an average three-dimensional pattern of the three-dimensional object to be detected .
前記登録3次元パターン位置・姿勢修正手段によってその位置および姿勢が修正された登録3次元パターンを記憶する登録3次元パターン記憶手段を備え、
前記登録3次元パターン記憶手段は、前記登録3次元パターン位置・姿勢修正手段によってその位置および姿勢が修正された複数の登録3次元パターンを記憶し、
前記3次元パターン照合手段は、前記照合3次元パターン位置・姿勢修正手段によってその位置および姿勢が修正された照合3次元パターンと前記登録3次元パターン記憶手段が記憶している複数の登録3次元パターンとを順次照合する
ことを特徴とする3次元パターン照合装置。 In the three-dimensional pattern matching apparatus according to claim 1,
A registered three-dimensional pattern storage unit that stores a registered three-dimensional pattern whose position and posture are corrected by the registered three-dimensional pattern position / posture correcting unit;
The registered three-dimensional pattern storage means stores a plurality of registered three-dimensional patterns whose positions and postures are corrected by the registered three-dimensional pattern position / posture correcting means,
The three-dimensional pattern matching means includes a matching three-dimensional pattern whose position and orientation are corrected by the matching three-dimensional pattern position / posture correction means, and a plurality of registered three-dimensional patterns stored in the registered three-dimensional pattern storage means. Is a three-dimensional pattern matching device.
前記基準テンプレート記憶手段は、前記注目部分を含む注目エリアの3次元パターンを基準テンプレートとして記憶する
ことを特徴とする3次元パターン照合装置。 In the three-dimensional pattern matching device according to claim 1 or 2,
The reference template storage unit stores a three-dimensional pattern of an attention area including the attention portion as a reference template.
前記3次元パターン照合手段による照合3次元パターンと登録3次元パターンとの照合の前にその照合3次元パターンおよび登録3次元パターンの前記注目部分を含む注目エリアの個々のパターンデータに重み付けを行う重み付け手段
を備えたことを特徴とする3次元パターン照合装置。 In the three-dimensional pattern matching device according to claim 1 or 2,
Weighting for weighting individual pattern data of the attention area including the attention portion of the matching three-dimensional pattern and the registered three-dimensional pattern before matching the matching three-dimensional pattern with the registered three-dimensional pattern by the three-dimensional pattern matching means A three-dimensional pattern matching apparatus comprising: means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005362973A JP4589224B2 (en) | 2005-12-16 | 2005-12-16 | 3D pattern matching device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005362973A JP4589224B2 (en) | 2005-12-16 | 2005-12-16 | 3D pattern matching device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007164670A JP2007164670A (en) | 2007-06-28 |
JP4589224B2 true JP4589224B2 (en) | 2010-12-01 |
Family
ID=38247464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005362973A Expired - Fee Related JP4589224B2 (en) | 2005-12-16 | 2005-12-16 | 3D pattern matching device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4589224B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007164669A (en) * | 2005-12-16 | 2007-06-28 | Yamatake Corp | 3D pattern position / posture detection device |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5001194B2 (en) * | 2008-02-20 | 2012-08-15 | アズビル株式会社 | Entrance management system |
JP5001195B2 (en) * | 2008-02-20 | 2012-08-15 | アズビル株式会社 | Entrance management system |
CN105740851A (en) * | 2016-03-16 | 2016-07-06 | 中国科学院上海生命科学研究院 | Three-dimensional face automatic positioning method and curved surface registration method and system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07128031A (en) * | 1993-10-29 | 1995-05-19 | Sony Corp | Face-image recognition apparatus |
JP2002245457A (en) * | 2001-02-19 | 2002-08-30 | Chuo Spring Co Ltd | Fingerprint collation device |
JP2003058896A (en) * | 2001-08-10 | 2003-02-28 | Nec Corp | Device, method and program for recognizing positioning attitude |
-
2005
- 2005-12-16 JP JP2005362973A patent/JP4589224B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07128031A (en) * | 1993-10-29 | 1995-05-19 | Sony Corp | Face-image recognition apparatus |
JP2002245457A (en) * | 2001-02-19 | 2002-08-30 | Chuo Spring Co Ltd | Fingerprint collation device |
JP2003058896A (en) * | 2001-08-10 | 2003-02-28 | Nec Corp | Device, method and program for recognizing positioning attitude |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007164669A (en) * | 2005-12-16 | 2007-06-28 | Yamatake Corp | 3D pattern position / posture detection device |
Also Published As
Publication number | Publication date |
---|---|
JP2007164670A (en) | 2007-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9916495B2 (en) | Face comparison device, method, and recording medium | |
Lu et al. | Automatic feature extraction for multiview 3D face recognition | |
US10535136B2 (en) | Registration of a magnetic tracking system with an imaging device | |
Husken et al. | Strategies and benefits of fusion of 2D and 3D face recognition | |
Sukno et al. | 3-D facial landmark localization with asymmetry patterns and shape regression from incomplete local features | |
JP4899551B2 (en) | Authentication device, authentication method, authentication program, and computer-readable recording medium | |
CN109271950B (en) | Face living body detection method based on mobile phone forward-looking camera | |
US8908934B2 (en) | Fingerprint recognition for low computing power applications | |
JP4951498B2 (en) | Face image recognition device, face image recognition method, face image recognition program, and recording medium recording the program | |
CN105740778B (en) | Improved three-dimensional human face in-vivo detection method and device | |
US12142075B2 (en) | Facial authentication device, facial authentication method, and program recording medium | |
Vretos et al. | 3D facial expression recognition using Zernike moments on depth images | |
JP2009053916A (en) | Face image processing apparatus, face image processing method, and computer program | |
CN109858433B (en) | Method and device for identifying two-dimensional face picture based on three-dimensional face model | |
JP2002063567A (en) | Device and method for estimating body position and attitude, method for feature point extraction method using the same, and image collating method | |
JP2012256272A (en) | Biological body identifying device and biological body identifying method | |
Prommegger et al. | Rotation invariant finger vein recognition | |
Zhou et al. | Automatic landmark location with a combined active shape model | |
Ratyal et al. | 3D face recognition based on pose and expression invariant alignment | |
JP4589224B2 (en) | 3D pattern matching device | |
CN101206716B (en) | Registration apparatus, registration method | |
JP4758218B2 (en) | 3D pattern position / posture detection device | |
CN101657841A (en) | Information extracting method, registering device, collating device and program | |
US20230004632A1 (en) | Face authentication system | |
CN110276249B (en) | Stereo palm image correcting method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100608 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100806 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100907 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100909 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4589224 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130917 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130917 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140917 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |