JP3903783B2 - Face metadata generation method and apparatus, and face similarity calculation method and apparatus - Google Patents
Face metadata generation method and apparatus, and face similarity calculation method and apparatus Download PDFInfo
- Publication number
- JP3903783B2 JP3903783B2 JP2001381530A JP2001381530A JP3903783B2 JP 3903783 B2 JP3903783 B2 JP 3903783B2 JP 2001381530 A JP2001381530 A JP 2001381530A JP 2001381530 A JP2001381530 A JP 2001381530A JP 3903783 B2 JP3903783 B2 JP 3903783B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- vector
- image
- feature
- basis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 29
- 238000004364 calculation method Methods 0.000 title description 34
- 239000013598 vector Substances 0.000 claims description 120
- 239000011159 matrix material Substances 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 18
- 230000001815 facial effect Effects 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 13
- 238000000513 principal component analysis Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000009826 distribution Methods 0.000 description 90
- 230000014509 gene expression Effects 0.000 description 26
- 230000003044 adaptive effect Effects 0.000 description 20
- 239000000203 mixture Substances 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000013016 learning Effects 0.000 description 5
- 238000005315 distribution function Methods 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 238000007476 Maximum Likelihood Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 241000212384 Bifora Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000031836 visual learning Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、顔同定や顔識別、顔の表情認識、顔による男女識別、顔による年齢判別等に利用可能な技術に係り、特に静止画像や動画像に映されている顔情報に関するメタデータを生成するメタデータ生成、顔類似度算出およびメタデータのマッチング技術に関する。
【0002】
【従来の技術】
メタデータとは、一般に、データの意味を記述あるいは代表するデータのことであり、顔認識の場合には、主に静止顔画像や動画像などの顔データに関するデータを意味する。
【0003】
映像・画像や音声などのマルチメディアコンテンツに対するメタデータの標準化活動として、MPEG-7(MPEG(Moving Pictures Experts Group) によって標準化されたマルチメディアコンテンツ記述インタフェースの国際標準規格 ,ISO/IEC 15938)の活動が広く知られている。この中で顔認識に関するメタデータの記述子として、顔認識記述子が提案されている(A. Yamada他編, "MPEG-7 Visual part of eXperimental Model Version 9.0," ISO/IEC JTC1/SC29/WG11 N3914, 2001)。
【0004】
この顔認識記述子では、切り出して正規化した顔画像に対して、一般的に固有顔と呼ばれる部分空間法の一種を用いて、顔画像の特徴量を抽出するための基底行列を求め、この基底行列によって画像中から顔特徴量を抽出し、これをメタデータとする。また、この顔特徴量に対する類似度として重み付け絶対値距離を用いることを提案している。
【0005】
また、顔認識に関する技術には様々な方法があることが知られており、例えば、
主成分分析(Moghaddam他,"Probalilistic Visual Learning for Object Detection",IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 17, No. 7, pp. 696-710, 1997)、あるいは、
判別分析(W. Zhao他, "Discriminant Analysis of Principal Components for Face Recognition," Proceedings of the IEEE Third International Conference on Automatic Face and Gesture Recognition, pp. 336-341, 1998)
に基づく固有顔による方法などが知られている。
【0006】
また、指紋画像から得られた特徴量に対して部分空間法を適用する際に、品質指標を導入し適応的にパターン間の距離を測る方法がある (T. Kamei and M. Mizoguchi, “Fingerprint Preselection Using Eigenfeatures,” Proceedings of the 1998 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp.918-923, 1998, 特開平10-177650号公報)。
【0007】
【発明が解決しようとする課題】
しかしながら、上記従来の技術では、十分な顔認識の精度を得られなかった。そこで、本発明の目的は、顔認識の精度を向上させることが可能な顔メタデータ生成技術および顔類似度算出技術を提供し、さらに実用的な顔のマッチングシステムを構築するための技術を提供することにある。
【0008】
【課題を解決するための手段】
本発明によれば、顔画像から信頼性を抽出して、その信頼性に応じて適応的にパターン間の類似度を算出することで、顔認識の精度を向上させることができる。
【0009】
本発明によれば、顔画像から顔特徴量を抽出する顔特徴抽出手段と、前記顔特徴量を用いた顔認識結果の信頼性を表す信頼性指標を抽出する信頼性指標抽出手段と、を備え、前記顔特徴量および前記信頼性指標を顔メタデータとして出力し、前記顔特徴抽出手段は、画像から得られた特徴ベクトルをΛとしたときに、特徴ベクトルΛの部分基底ベクトルによって特定される基底行列Uと特徴ベクトルΛの平均ベクトルΨとを用いて特徴ベクトルv=UT(Λ−Ψ)を算出し、当該特徴ベクトルvを顔特徴量として抽出し、前記信頼性指標抽出手段は、前記顔画像内の画素値を標本とする統計量を前記顔特徴量の顔認識精度の信頼性を表す信頼性指標として抽出することを特徴とする。
【0010】
前記信頼性指標抽出手段は、前記信頼性指標として、前記画像のコントラスト指標を抽出することができる。画像のコントラスト指標としては、前記画像中の画素値の最大値と最小値との差を抽出することを特徴とする。あるいは、画像のコントラスト指標として、前記画像中の画素値の分散あるいは標準偏差を抽出することを特徴とする。
【0011】
さらに、信頼性指標として、前記画像の非対称性指標を抽出することができる。画像の非対称性指標としては、前記画像と該画像を左右反転した画像(以下、反転画像という。)との間の差分の最大値を抽出することを特徴とする。あるいは、画像の非対称性指標として、前記画像と反転画像との間の差分画像の画素値のべき乗の和および平均のいずれかを抽出することを特徴とする。
【0012】
信頼性指標抽出手段は、前記画像のコントラスト指標を抽出する第1信頼性指標抽出手段と、前記画像の非対称性指標を抽出する第2信頼性指標抽出手段と、を備えることを特徴とする。前記第1信頼性指標抽出手段は、画像のコントラスト指標として、画像中の画素値の最大値と最小値の差を抽出し、前記第2信頼性指標抽出手段は、画像の非対称性指標として、画像と反転画像との間の差分の最大値を抽出することを特徴とする。あるいは、前記第1信頼性指標抽出手段は、画像のコントラスト指標として、画像中の画素値の分散および標準偏差の一方を抽出し、 前記第2信頼性指標抽出手段は、画像の非対称性指標として、画像と反転画像との間の差分画像の画素値のべき乗の和および平均の一方を抽出してもよい。
【0013】
前記基底行列Uは、顔画像サンプル集合[Λ]の主成分分析によって得られる基底ベクトルの中から選択した部分基底ベクトルによって特定される、ことを特徴とする。基底行列Uは、顔画像サンプルにおける特徴ベクトル集合[Λ]の主成分分析によって得られる基底ベクトルの中から選択した部分基底ベクトルによって特定される基底行列と、顔画像を左右反転する画素値の変換と対応するように前記基底ベクトルの要素を入れ換えた反転部分基底ベクトルによって特定される基底行列と、の線形和によって得ることもできる。前記特徴ベクトルΛは、画像中の各画素値を要素とするベクトルであるか、あるいは、画像をフーリエ変換し、得られる複素フーリエ成分の各成分の大きさを要素とするベクトルであってもよい。
【0014】
画像の顔情報に関するメタデータ間の類似度を算出する顔類似度算出装置は、前記画像から抽出された顔特徴量と当該顔特徴量に対する信頼性を表す信頼性指標とに基づいて前記類似度を算出する。
【0015】
上記顔類似度算出装置は、比較する顔特徴量に対する信頼性指標を用いて、顔特徴量間の差ベクトルの事後分布に関するパラメータ情報を推定する分布推定手段と、事後分布の対数尤度から導かれる顔特徴間の距離を類似度として算出する距離算出手段と、を有することを特徴とする。
【0016】
前記距離算出手段は、顔特徴量間の差ベクトルの事後分布が正規分布であるとして、前記信頼性指標における正規分布の対数尤度から導かれる適応的マハラノビス距離を類似度として算出することを特徴とする。
【0017】
前記分布推定手段は信頼性指標[θi]に対する差ベクトルsの各要素kの分散σs,k([θi])2を推定し、前記距離算出手段は、前記各要素kの分散σs,k([θi])2を用いて適応的マハラノビス距離を計算する、ことを特徴とする。
【0018】
前記分布推定手段は、信頼性指標[θi]に対する差ベクトルsの各要素kの分散σs,k([θi])2をあらかじめ記憶する分散値テーブルを備え、信頼性指標[θi]によって前記分散値テーブルを参照することによって適応的マハラノビス距離の計算で必要となる分散値を出力する、ことを特徴とする。
【0019】
顔特徴量間の差ベクトルの事後分布が混合分布であるとして、前記距離算出手段は、前記信頼性指標における混合分布の対数尤度から導かれる適応的混合マハラノビス距離を類似度として算出する、ことを特徴とする。
【0020】
比較する顔特徴量に対する信頼性指標を用いて、一致と見倣すべきクラス内における顔特徴量間の差ベクトルの事後分布(クラス内分布)と、不一致と見倣すべきクラス間における顔特徴量間の差ベクトルの事後分布(クラス間分布)と に関するパラメータ情報を推定し、前記クラス内分布および前記クラス間分布の比の対数尤度から導かれる顔特徴量間の距離を類似度として算出する、ことを特徴とする。
【0021】
前記クラス内分布および前記クラス間分布がそれぞれ正規分布であるとして、前記信頼性指標におけるそれぞれの分布の比の対数尤度から導かれる適応的判別距離を類似度として算出することを特徴とする。
【0022】
信頼性指標[θi]に対する差ベクトルsの各要素kのクラス内分散σW,k([θi])2およびクラス間分散σB,k([θi])2 を推定することで、適応的判別距離を類似度として算出することを特徴とする。
【0023】
信頼性指標[θi]に対する差ベクトルsの各要素kのクラス内分散σW,k([θi])2およびクラス間分散σB, k([θi])2の推定のために、クラス内分散σW,k([θi])2をあらかじめ記憶する第1分散値テーブルと、クラス間分散σB,k([θi])2をあらかじめ記憶する第2分散値テーブルとを備え、信頼性指標[θi]によって第1および第2分散値テーブルをそれぞれ参照することで、適応的判別距離において必要となる分散値を推定することを特徴とする。
【0024】
前記クラス内分布および前記クラス間分布がそれぞれ混合分布であるとして、前記信頼性指標におけるそれぞれの混合分布の比の対数尤度から導かれる適応的混合判別距離を類似度として算出することを特徴とする。
【0025】
画像を入力する画像入力部と、顔画像を蓄積する顔画像データベース部と、を有する顔認識システムは、前記画像から抽出された顔特徴量と当該顔特徴量に対する信頼性を表す信頼性指標顔とを顔メタデータとして生成する顔メタデータ生成部と、前記顔メタデータ生成部によって生成された顔メタデータを蓄積する顔メタデータ蓄積部と、顔特徴量と当該顔特徴量に対する信頼性を表す信頼性指標とに基づいて顔類似度を算出する顔類似度算出部と、入力された指令に応じて、前記顔メタデータ生成部、前記顔メタデータ蓄積部および前記顔類似度算出部を制御し、顔画像のマッチングを実行する制御部と、を備える。
【0026】
上述した顔メタデータ生成部および顔類似度算出部を用いることにより、高精度の顔画像マッチングを達成することができる。
【発明の実施の形態】
(発明の原理)
はじめに本発明の原理について説明する。一般に、パターン認識を行う際、認識を行いたいクラスに対する学習データを大量に用意することが可能であるならば、その学習データに対する統計解析に基づいてパターンの分布関数を推定し、パターン認識機構を構築することができる。しかしながら、顔認識応用の場合、個人毎には1枚だけの登録画像しか得られず、ごく少数の登録画像しか許されないことが多い。
【0027】
このような場合であっても、顔の特徴ベクトルに対して信頼性指標という指標を与え、その指標に基づくクラスを考えることで、その信頼性指標に対するクラスの統計解析を行いパターンの分布関数を推定することで、一枚の登録画像しか得られないような顔認識応用に対しても信頼性指標を通じた分布関数に基づくパターン認識機構を構築することができる。
【0028】
以下、誤差分布に基づく場合のマハラノビス距離とクラス内分布やクラス間分布に基づく判別距離についての顔認識の原理について説明する。
【0029】
いま、ある一人の顔を観測する場合を考える。誤差がない場合に顔画像から得られる特徴ベクトルをv0とし、実際に観測 される観測ベクトルvは、誤差ベクトルεが重畳しているとする(数1)。
【0030】
【数1】
ここで、特徴ベクトルv0を2回観測するとすれば、二つの観測ベクトルv1とv2が得られる(数2)。
【0031】
【数2】
いま、誤差ベクトルε1、誤差ベクトルε2に対して相関を持つ信頼性指標θ1、信頼性指標θ2がそれぞれ得られ、その事後分布がp(ε|θ1)、p(ε|θ2)であるとする。
【0032】
このような分布が得られたときのv1とv2の差ベクトルsの事後分布がp(s|θ1,θ2)と表されるとすれば、パターン間の類似度d(v1,v2)として、次の対数尤度を用いることができる。
【0033】
【数3】
事後分布p(ε|θ1)、p(ε|θ2)がそれぞれ正規分布であるとすると、差ベクトルsの分布p(s|θ1, θ2)も正規分布となる。ここで、誤差ベクトルの事後分布p(ε|θi) (i=1,2)として平均0で共分散行列Σε(θi)の正規分布を考えると、差ベクトルsの分布は、平均0で、共分散行列Σs(θ1, θ2)は次式(数4)となる。
【0034】
【数4】
つまり、事後分布p(s|θ1, θ2)は次式(数5)で表される。
【0035】
【数5】
従って、(数3)は、次式(数6)に示すように、共分散行列Σε(θ1)やΣε(θ2)を用いて、信頼性指標θ1,やθ2に対して適応的なマハラノビス距離に書き表すことができる。
【0036】
【数6】
誤差ベクトルの各要素間における独立性を仮定すれば、(数5)は次式(数7)となる。
【0037】
【数7】
ここで、σs,k(θ1, θ2)2は共分散行列Σs(θ1, θ2)のk番目の対角要素であり、つまり、観測誤差の分散である。また、σε,k(θ1)2、σε,k(θ2)2は、それぞれ共分散行列Σε(θ1)、Σε(θ2)のk番目の対角要素である。skは差ベクトルsのk番目の要素である。
【0038】
このように正規分布を仮定することで、(数3)は、次式(数8)のように各特徴ベクトルの要素毎の分散σε,k(θ1)、σε,k(θ2)を用いて、信頼性指標θ1やθ2に対して適応的なマハラノビス距離によって類似度を定義することができる。
【0039】
【数8】
ここで、v1,k、v2,kはそれぞれ特徴ベクトルv1、v2のk番目の要素である。
【0040】
上記説明では事後分布p(s|θ1, θ2)として正規分布を仮定したが、以下、混合正規分布を仮定する。さて、事後分布p(s|θ1, θ2)として、次式(数9)によって示すように、正規分布p(s|θ1, θ2, j) (j=1,2,...,M)の和によって事後分布p(s|θ1, θ2)が表現できると仮定する。
【0041】
【数9】
従って、次式(数10)により適応的混合マハラノビス距離を定義することができる。
【0042】
【数10】
事後分布p(s|θ1, θ2, j)の共分散行列Σs(θ1, θ2, j)およびP(j)の推定については、一般的な推定方法である最尤推定法やEMアルゴリズムを用いて推定することができる (C.M. Bishop, "Neural Networks for Pattern Recognition", Oxford University Express, 1995)。
【0043】
混合正規分布を仮定することで、分布をより正確に近似でき、マッチング性能が向上するが、大量の学習データが必要になるとともに演算量もまた大幅に増加する。
【0044】
前述の誤差分布に基づくマハラノビス距離は、検索する顔が他の登録されている顔データの中でどれに最も近いかを調べる顔同定(face identification)のような問題に対して優れている距離である。
【0045】
一方、顔識別(face verification)の問題では、入力された顔が登録された画像との同一性を判定する上で、受け入れるか、棄却するかが重要な問題である。以下で説明する「判別距離」と名付ける距離は、この顔識別問題に対しては 前述のマハラノビス距離を用いる場合よりも、優れた類似度尺度となっている。
【0046】
いま、顔の二つの特徴ベクトルvが、一致すると判定すべき、つまり、二つの特徴ベクトルが同一クラス内に属している(例えば、二つの特徴ベクトルが同じ人物の顔データである)ならば、それらの特徴ベクトルの組み合わせはクラスWに属しているとする。また、二つの特徴ベクトルvが不一致と判定すべき、つまり、クラス間の特徴ベクトルである(例えば、二つの特徴ベクトルが異なった人物の顔データである)ならば、それらの組み合わせはクラスBに属しているとする。
【0047】
二つの特徴ベクトルv1、v2に対して信頼性指標θ1、θ2が得られるとする。差ベクトルsと二つの信頼性指標θ1、θ2(以下、二つの信頼性指標のセットを[θi]と表記する。)が観測されたときに一致している と見倣すクラスWと不一致と見倣すべきクラスBとの判別問題を考えると、次式(数11)の判別則(decision rule)が得られる。
【0048】
【数11】
上記(数11)の左辺は、ベイズ定理(Bayes Theorem)によって次式(数12)のように書き直すことができる。
【0049】
【数12】
ここで、W、Bと[θi]の生じる確率は独立であると仮定して、P(W,[θi])=P(W)P([θi])、P(B,[θi])=P(B)P([θi])としている。
【0050】
パターン間の距離d(v1,v2)として(数12)の対数尤度を計算することで、次式(数13)のように、顔識別問題に適した類似度を求めることができる。
【0051】
【数13】
個別のマッチング毎に事前確率P(W)、P(B)が異なり、且つ、それを知ることができるならば、(数13)の第2項を計算することが望ましい。しかし、多くの場合、個別のマッチング毎に事前確率を知ることができないので、事前確率は一定と仮定することで、第2項を一定と見倣し、類似度の計算からは除外する。
【0052】
事後確率P(s|W,[θi])、P(s|B,[θi])を、それぞれクラス内分布pW(s|[θi])、クラス間分布pB(s|[θi])と書き代えると、次式(数14)となる。
【0053】
【数14】
次に、クラス内分布pW(s|[θi])、クラス間分布pB(s|[θi])がそれぞれ正規分布であると仮定し、その平均がそれぞれ0、共分散行列がそれぞれΣW([θi])、ΣB([θi])とすれば、事後分布はそれぞれ次式(数15)で書き表すことができる。
【0054】
【数15】
上式を(数14)に代入すると(但し、(数14)の第2項は省略)、次式(数16)で示す距離を得ることができる。これを「適応的判別距離」と呼ぶことにする。
【0055】
【数16】
差ベクトルsの各要素間における独立性を仮定すれば、(数15)は、次式となる。
【0056】
【数17】
ここで、σW,k(θi)2、σB,k(θi)2は、それぞれ共分散行列ΣW(θi)、ΣB(θi)のk番目の対角要素であり、つまり、クラス内分散とクラス間分散に相当する。skは差ベクトルsのk番目の要素である。
【0057】
このように正規分布を仮定することで(数16)は、次式(数18)のように、各特徴ベクトルの要素毎のクラス内分散σW,k(θi)2、クラス間分散σB,k(θi)2を用いて、信頼性指標[θi]に対して適応的な判別距離による類似度を定義することができる。
【0058】
【数18】
上記までの説明ではクラス内分散σW,k(θi)2、クラス間分散σB,k(θi)2として 正規分布を仮定したが、以下では混合分布を仮定する。
【0059】
次式(数19)のように、クラス内分布pW(s|[θi])、クラス間分布pB(s|[θi])として、それぞれ正規分布pW(s|[θi], jW) (jW=1,2,...,MW)、pB(s|[θi], jB) (jB=1,2,...,MB)の和によって事後分布が表現できると仮定する。
【0060】
【数19】
従って、この対数尤度を用いて次式(数20)の適応的混合マハラノビス距離を導くことができる。
【0061】
【数20】
クラス内分布pW(s|[θi], jW)、クラス間分布pB(s|[θi], jB)の共分散行列ΣW(s|[θi], jW)、ΣB(s|[θi], jB)および P(jW)、P(jB)の推定については、最尤推定法やEMアルゴリズムを用いて推定することができる。
【0062】
混合分布を仮定することで、分布をより正確に近似でき、マッチング性能を 向上させることができるが、同時に大量の学習データが必要になるとともに、演算量も大幅に増加する。
【0063】
このように顔特徴量に対してさらに信頼性指標を抽出することによって、信頼性指標に対して適応的な距離規範を導くことができ、高精度な顔認識機構を構築することができる。なお、上記では、特徴ベクトルに対する信頼性指標をスカラー量(一つの成分のみ)か、ベクトル量(複数の成分をもつ)か特定していないが、どちらの場合でも成立する議論であり、複数の要素を用いることで、性能の向上が期待できる。
【0064】
具体的な信頼性指標については、実験的に有効な信頼性指標を発見することが必要であり、顔認識の場合では、画像のコントラストを表すコントラスト指標や、正面顔の認識では、照明変動や姿勢変動によって生じる顔画像の左右の対称性の歪みからの量を表す非対称指標を用いると高い効果が得られ、それらの信頼性指標を組み合わせてベクトル量とすることで、より精度の向上が期待できる。
【0065】
(実施の形態)
図1は、本発明の一実施形態による顔画像マッチングシステムを示すブロック図である。以下、顔画像マッチングシステムについて詳細に説明する。
【0066】
図1に示すように、本発明による顔画像マッチングシステムには、顔画像を入力する顔画像入力部11と、入力された顔画像からそれらの顔特徴量、信頼性指標の顔メタデータを生成する顔メタデータ生成部12と、抽出された顔メタデータを蓄積する顔メタデータ蓄積部13と、顔メタデータから顔の類似度を算出する顔類似度算出部14と、顔画像を蓄積する顔画像データベース15と、画像の登録要求・検索要求に応じて、画像の入力・メタデータの生成・メタデータの蓄積・顔類似度の算出の制御を行う制御部16と、顔画像や他の情報を表示するディスプレイの表示部17と、が設けられている。
【0067】
また、顔メタデータ生成部12は、入力された顔画像から顔特徴を抽出する顔特徴抽出部121と、信頼性指標を抽出する信頼性指標抽出部122とから構成され、顔類似度算出部14は、信頼性指標から事後分布に関するパラメータ情報を推定する分布推定部141と顔特徴量と分布推定部141からの事後分布情報から顔特徴量間の距離を算出する距離算出部142によって構成される。
【0068】
登録時には、画像入力部11では、スキャナあるいはビデオカメラなどで顔写真等を顔の大きさや位置を合わせた上で入力する。あるいは、人物の顔を直接ビデオカメラなどから入力しても構わない。この場合には、前述のMoghaddamの文献に示されているような顔検出技術を用いて、入力された画像の顔位置を検出し、顔画像の大きさ等を自動的に正規化する方がよいであろう。
【0069】
また、入力された顔画像は必要に応じて顔画像データベース15に登録する。顔画像登録と同時に、顔メタデータ生成部12によって顔メタデータを生成し、顔メタデータ蓄積部13に蓄積する。
【0070】
検索時には同様に顔画像入力部11によって顔画像を入力し、顔メタデータ生成部12にて顔メタデータを生成する。生成された顔メタデータは、一旦 顔メタデータ蓄積部13に登録するか、または、直接に顔類似度算出部14へ送られる。検索では、予め入力された顔画像がデータベース中にあるかどうかを確認する場合(顔同定)には、顔メタデータ蓄積部13に登録されたデータの一つ一つとの類似度を算出する。最も類似度が高い(距離値が小さい)結果に基づいて制御部16では、顔画像データベース15から、顔画像を選び、表示部17等に顔画像の表示を行い、検索画像と登録画像における顔の同一性を作業者が確認する。
【0071】
一方、予めID番号等で特定された顔画像と検索の顔画像が一致するかどうかを確認する場合(顔識別)では、特定されたID番号の顔画像と一致するか否かを顔類似度算出部14にて計算し、予め決められた類似度よりも類似度が低い(距離値が大きい)場合には一致しないと判定し、類似度が高い場合には一致すると判定し、その結果を表示部17に表示する。このシステムを入室管理用に用いるならば、表示する代わりに、制御部16から自動ドアに対して、その開閉制御信号を送ることで、自動ドアの制御によって入室管理を行うことができる。
【0072】
上記のように、顔画像マッチングシステムは動作するが、このような動作はコンピュータシステム上で実現することもできる。たとえば、次に詳述するようなメタデータ生成を実行するメタデータ生成プログラムおよび類似度算出を実行する類似度算出プログラムをそれぞれメモリに格納しておき、これらをプログラム制御プロセッサによってそれぞれ実行することで顔画像マッチングを実現することができる。
【0073】
次に、この顔画像マッチングシステムの動作、特に顔メタデータ生成部12と顔類似度算出部14について詳細に説明する。
【0074】
(1)顔メタデータ生成
顔メタデータ生成部12では、位置と大きさを正規化した画像I(x, y)を用いて、顔特徴量を抽出する。位置と大きさの正規化は、例えば、目位置が(16, 24)、(31, 24)、サイズが46×56画素となるように画像を正規化しておくとよい。以下では、このサイズに画像が正規化されている場合について説明する。
【0075】
顔特徴量として、所謂、固有顔の手法(前述Moghaddamの論文)を用いて特徴抽出する。つまり、画像中の画素値を要素とする特徴ベクトルΛに対して、顔画像サンプル集合[Λ]の主成分分析によって得られた基底ベクトルの中から選択した部分基底ベクトルによって特定される基底行列Uと、顔画像サンプル集合[Λ]における平均ベクトルである平均顔Ψとを用いて、特徴ベクトルv=UT(Λ−Ψ)を算出し特徴ベクトルとする。このように、入力画像ではなく、部分基底ベクトルを用いることで、入力画像のデータ量を削減することができる。このようにデータ量を削減することは、メタデータベースにおける蓄積量を少なくするだけではなく、高速なマッチングを実現するためには重要な要素である。この特徴ベクトルの次元数としては、例えば、48次元の特徴量を用いればよい。
【0076】
このように一般的に用いられる固有顔による手法の他に、主成分分析に対して判別分析を組み合わせた手法(前述、W. Zhaoの論文)等を用いて部分基底ベクトルを規定しても構わない。
【0077】
また、前述したような顔画像サンプルにおける特徴ベクトル集合[Λ]の主成分分析や判別分析によって得られる基底ベクトルの中から選択した部分基底ベクトルによって特定される基底行列Unと、顔画像を左右反転される画素値の変換と対応するように基底ベクトルの要素を入 れ換えた反転部分基底ベクトルによって特定される基底行列Umの線形和によって得られる行列U(= aUn + bUm)を基底行列として、顔特徴ベクトルを抽出してもよい。例えばa=b=1とすると、得られる顔特徴ベクトルは、入力画像空間で左右の変換に対して対称な成分のみを抽出 することができる。顔は本来左右対称であるので、照明の影響で非対称となった画像成分や顔の向きが正面に向いていないために生じる非対称成分が本来ノイズに相当するものであるので、これを除去し、対称な成分のみを抽出することで、照明や姿勢の変動に対して安定な顔特徴量を抽出することが可能となる。
【0078】
また、画像をフーリエ変換し、得られた複素フーリエ成分の各成分の大きさを要素とするベクトルを特徴ベクトルΛとして算出し、上記のような主成分分析や判別分析によって次元圧縮を行い顔特徴量を抽出してもよい。このように画像をフーリエ変換することで、位置ずれに対して強い顔特徴量を抽出することができる。このようにして、顔特徴抽出部121では、顔特徴量vを抽出する。
【0079】
信頼性指標抽出部122では、顔特徴量vの信頼性指標として有効なコントラスト指標θcontrastと非対称性指標θasymmetricを抽出する。コントラスト指標θcontrastとして、顔画像 I(x,y)の画素値の標準偏差を次式(数21)によって計算する。
【0080】
【数21】
ここでround()は数値の丸め処理を意味する。このように抽出された信頼性指標θcontrastを[0,1,2,...,15]の4 bitの範囲に収まるように、値域を越えるものは値を制限する。なお、上記ではコントラスト指標として、画像の標準偏差を計算したが、分散や画像中の画素値の最大値と最小値の差を抽出してもよい。画像中の画素値の最大値と最小値による コントラスト指標は、標準偏差や分散による場合よりも演算量が少ないが、効果は相対的に小さい。
【0081】
非対称性指標θasymmetricとして、顔画像 I(x,y)とその反転画像との間の差分の絶対値(1乗)の平均を次式(数22)により抽出する。
【0082】
【数22】
このように抽出された信頼性指標θasymmetricを[0,1,2,...,15]の4 bitの範囲に収まるように値域を越えるものは値を制限する。なお、上記では非対称指標として、絶対値による値(1乗)を用いたが差分の2乗等を用いてもよい。また、平均の代わりに、和等の値を用いても同等の効果を得ることができる。また、差分の最大値を検出して、その値を非対称指標として用いれば演算量が少なくて済む。
【0083】
信頼性指標抽出部122では、顔画像に対して、特徴ベクトルvと信頼性指標θcontrastと信頼性指標θasymmetricを抽出し、顔メタデータとして出力する。前述したように、上記顔メタデータ生成手順をコンピュータプログラムによってコンピュータに実行させることもできる。
【0084】
(2)顔類似度算出
次に、顔類似度算出部14の動作について説明する。顔類似度算出部14では、二つの顔メタデータの信頼性指標θcontrast,1、θconstrast,2とθasymmetri c,1、θasymmetric,2を用いて、分布推定部141が事後分布に関するパラメータ情報を推定し、二つの顔メタデータの二つの特徴ベクトルv1、v 2と事後分布に関するパラメータ情報とを用いて距離算出部142が顔特徴間の類似度dを算出する。
【0085】
ここでは、(数8)あるいは(数18)によって顔の類似度を計算する場合について説明する。
【0086】
(数8)あるいは(数18)にて表記されている信頼性指標θ1、θ2は本実施形態ではベクトルであり、それぞれの要素はθ1 = (θcontrast,1, θasymmetric,1)T、θ2 = (θcontrast,2, θasymmetric,2)Tとなる。コントラスト指標、非対称性指標はそれぞれ4bitで表現されているので、θiのとり得る状態は256個の状態となる。与えられた信頼性指標θiによって、256個の状態の中の一つの状態が特定できる。
【0087】
分布推定部141では、後述するように、予め求めておいた信頼性指標θ(256個の状態がある)に対する差ベクトルの分散値σε, k(θ)や分散値σW,k(θ)、分散値σB,k (θ)をテーブルに記憶しておき、信頼性指標θ1およびθ2を用いて、それぞれの分散値テーブルの値を参照し、得られた分散値を事後分布情報として、距離算出部142に引き渡す。なお、顔同定の場合には、(数8)で必要な分散値σε,k(θ1)、分散値σε,k (θ2)の値を距離算出部142に出力すればよく、顔識別の場合には、(数18)に必要な分散値σW,k(θ)、分散値σB,k(θ)を出力する。
【0088】
距離算出部142では、(数8)あるいは(数18)に従って適応的マハラノビス距離あるいは適応的判別距離を算出し、類似度dとして出力する。
【0089】
前述した分散値テーブルの分散値は、予め用意した顔画像データサンプルを用いて計算しておく。顔画像サンプルにおける特徴ベクトル集合[vi]とその信頼性指標[θi]から、それぞれの分散値は次のように計算できる。
【0090】
【数23】
【0091】
【数24】
ここで、"(i, j)がクラスWに属する"とは、データiとデータjが同一クラス(同一人物)から得られたデータである(クラス内である)ことを意味し、"(i, j)がクラスBに属する"とは、データiとデータjが異なるクラス(異なる人物)から得られたデータである(クラス間である)ことを意味する。また、Nε(θ)、NW(θ)、NB(θ)はそれぞれのクラスに属するデータの組み合わせの数である。このようにθのビン毎に分散値を計算する際に、そのデータ数が少な過ぎる場合には、近傍のビンのデータを併合するようにして、サンプル数を確保するようにする(これは、分布推定におけるk近傍法(前述Bishop の文献,pp.53)によってbinを併合するのと同様な手法である)。
【0092】
ここで、(数18)の場合、(数4)と同様に、σW,k([θi])2 = σW,k(θ1)2 + σW,k(θ2)2、および、σB,k([θi])2 = σB,k(θ1)2 +σB,k(θ2)2となることに注意されたい。
【0093】
なお、誤差分散σε,k(θ)2とクラス内分散σW,k(θ)2が同じになるので、顔画像マッチングシステムで(数8)と(数18)の両方の距離を計算する場合には、これらの分散値テーブルを共有して構わない。
【0094】
また、誤差分布とクラス間分布は強い相関がある場合が多いので、誤差分 散σε,k(θ)2の代わりにクラス間分散σB,k(θ)2を用いても、信頼性指標を用いない場合よりは精度が向上する(しかし、誤差分散を用いた方が精度が良い)。
【0095】
このように顔メタデータ間の類似度を信頼性指標θcontrastや信頼性指標θasymmetricを介した事後分布情報を用いて算出することで、精度のよい顔認識を行うことが可能である。前述したように、上記顔類似度算出手順をコンピュータプログラムによってコンピュータに実行させることもできる。
【0096】
なお、ここでは(数8)と(数18)を用いて、類似度を計算しているが、次のような様々な計算方法によって近似的に計算し、高速化等を図ることもできる。
【0097】
【数25】
【0098】
【数26】
上記各式の右辺第二項(lnの部分)を計算しないことで、さらなる高速演算を図ることができる。
【0099】
また、(数6)や(数16)によって類似度を計算する場合も、基本的には同様に予め用意した顔画像データサンプルから、それぞれの計算に必要な差ベクトルの誤差の共分散行列Σε(θ)や差ベクトルのクラス内の共分散行列ΣW(θ)、クラス間の共分散行列ΣB(θ)を算出して、共分散テーブルとして用意しておき、類似度計算の際にその共分散テーブルを参照するようにすればよい。この方法は共分散行列を用いて距離を計算するために演算量が増加するが、十分な学習サンプルがある場合には類似度計算の精度を向上させることができる。
【0100】
(数3)の事後分布や(数14)のクラス間分布、クラス間分布に対して混合正規分布を仮定して、分布関数を推定することで、それぞれ(数10)や(数20)の適応的混合マハラノビス距離や適応的混合判別距離を計算してもよい。この場合も、分散や共分散行列を用いて、事後分布情報を計算するのと同様に顔画像データサンプルから、混合正規分布を表す共分散行列Σs(θ1, j)、P(j)等の混合分布を特定するパラメータを求めておき、テーブルとして記憶しておけばよい。なお、この推定については、一般的な推定方法である最尤推定法やEMアルゴリズムを用いて推定すればよい。
【0101】
ここまでの説明では、一枚の顔画像が登録され、一枚の顔画像を用いて検索する場合について説明したが、一人の顔に対して複数の画像が登録され、一枚の顔画像を用いて検索する場合には、例えば、次のようにすればよい。
【0102】
検索側の特徴ベクトルをvqueとし、登録側の特徴ベクトルをvreg,kとし、複数画像登録の場合の類似度dmulti(vque, [vreg,1, vreg,2, ... ,vreg,n])として、次式(数27、数28)に示す計算式に基づき類似度を計算すればよい。
【0103】
【数27】
あるいは、
【0104】
【数28】
同様に1つの顔当たりの複数枚の画像登録と複数画像による検索の場合も、各組み合わせの類似度の平均や最小値を求め類似度を算出することで、一つの顔データに対する類似度を算出することができる。これは、動画像を複数画像と見倣すことで、本発明のマッチングシステムを動画像における顔認識に対しても適用できることを意味する。
【0105】
また、上記説明では、同一人物の顔の同定や顔の識別を中心に説明したが、例えば、男性の顔を一つのカテゴリー、女性の顔を一つのカテゴリーと考えて、それぞれの分布に関する情報を求め、男女の顔を識別する性別識別を行ったり、笑った顔、怒った顔、悲しい顔などの表情のカテゴリーを考えて、顔の表情を認識する表情認識に適用することも可能である。10代、20代、30代、40代というようにカテゴリーを設定し、そのカテゴリー毎に誤差分布、クラス内分布やクラス間分布を求めることで、年齢判別を行うことも可能であり、様々な顔認識に対して本発明を適用することが可能である。
【0106】
【発明の効果】
以上詳細に説明したように、本発明によれば、顔特徴量に対してその信頼性を表現するための信頼性指標を加えて顔メタデータとして生成することで、信頼性指標を通じた適応的な距離を導くことができ、その距離を用いて精度の高い顔認識を行うことが可能となる。
【図面の簡単な説明】
【図1】 本発明の一実施形態による顔画像マッチングシステムの構成を示すブロック図である。
【符号の説明】
11: 顔画像入力部
12: 顔メタデータ生成部
13: 顔メタデータ蓄積部
14: 顔類似度算出部
15: 顔画像データベース
16: 制御部
17: 表示部
121: 顔特徴抽出部
122: 信頼性指標抽出部
141: 分布推定部
142: 距離算出部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a technique that can be used for face identification, face identification, facial expression recognition, gender identification by face, age discrimination by face, and the like, and in particular metadata related to face information displayed in still images and moving images. The present invention relates to metadata generation, face similarity calculation, and metadata matching technology.
[0002]
[Prior art]
Metadata generally refers to data that describes or represents the meaning of data. In the case of face recognition, it mainly refers to data related to face data such as still face images and moving images.
[0003]
As a standardization activity of metadata for multimedia contents such as video, images and audio, MPEG-7 (MPEG (Moving Pictures Experts Group) International standard for multimedia content description interface standardized by ISO / IEC 15938) Is widely known. Among them, a face recognition descriptor has been proposed as a metadata descriptor for face recognition (A. Yamada et al., "MPEG-7 Visual part of eXperimental Model Version 9.0," ISO / IEC JTC1 / SC29 / WG11). N3914, 2001).
[0004]
In this face recognition descriptor, a base matrix for extracting feature values of a face image is obtained from a cut and normalized face image using a kind of subspace method generally called an eigenface. A face feature amount is extracted from the image using a base matrix, and this is used as metadata. It has also been proposed to use a weighted absolute value distance as the similarity to the face feature amount.
[0005]
In addition, it is known that there are various methods for face recognition technology.
Principal component analysis (Moghaddam et al., "Probalilistic Visual Learning for Object Detection", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 17, No. 7, pp. 696-710, 1997), or
Discriminant analysis (W. Zhao et al., "Discriminant Analysis of Principal Components for Face Recognition," Proceedings of the IEEE Third International Conference on Automatic Face and Gesture Recognition, pp. 336-341, 1998)
There are known methods based on eigenfaces based on.
[0006]
In addition, when applying the subspace method to features obtained from fingerprint images, there is a method that introduces a quality index and adaptively measures the distance between patterns (T. Kamei and M. Mizoguchi, “Fingerprint Preselection Using Eigenfeatures, ”Proceedings of the 1998 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp.918-923, 1998, JP-A-10-177650).
[0007]
[Problems to be solved by the invention]
However, the conventional technology described above cannot obtain sufficient face recognition accuracy. Accordingly, an object of the present invention is to provide a face metadata generation technique and a face similarity calculation technique capable of improving the accuracy of face recognition, and further provide a technique for constructing a practical face matching system. There is to do.
[0008]
[Means for Solving the Problems]
According to the present invention, the accuracy of face recognition can be improved by extracting the reliability from the face image and adaptively calculating the similarity between the patterns according to the reliability.
[0009]
According to the present invention, face feature extraction means for extracting a face feature amount from a face image, and reliability index extraction means for extracting a reliability index representing the reliability of the face recognition result using the face feature amount, The face feature amount and the reliability index are output as face metadata, and the face feature extraction means is specified by a partial basis vector of the feature vector Λ when the feature vector obtained from the image is Λ. Feature vector v = U using the basis matrix U and the mean vector Ψ of feature vectors ΛT(Λ−Ψ) is calculated and the feature vector v is extracted as a facial feature quantityThe reliability index extraction unit extracts a statistic obtained by sampling the pixel value in the face image as a reliability index representing the reliability of the face recognition accuracy of the face feature amount.It is characterized by that.
[0010]
The reliability index extraction unit can extract a contrast index of the image as the reliability index. As a contrast index of an image, a difference between a maximum value and a minimum value of pixel values in the image is extracted. Alternatively, a variance or standard deviation of pixel values in the image is extracted as a contrast index of the image.
[0011]
Furthermore, the asymmetry index of the image can be extracted as a reliability index. As an image asymmetry index, a maximum value of a difference between the image and an image obtained by horizontally inverting the image (hereinafter referred to as an inverted image) is extracted. Alternatively, as an asymmetry index of the image, either the sum or average of the powers of the pixel values of the difference image between the image and the inverted image is extracted.
[0012]
The reliability index extraction unit includes a first reliability index extraction unit that extracts a contrast index of the image and a second reliability index extraction unit that extracts an asymmetry index of the image. The first reliability index extracting unit extracts a difference between the maximum value and the minimum value of pixel values in the image as a contrast index of the image, and the second reliability index extracting unit is used as an asymmetry index of the image. The maximum value of the difference between the image and the reverse image is extracted. Alternatively, the first reliability index extracting unit extracts one of a variance and a standard deviation of pixel values in the image as a contrast index of the image, and the second reliability index extracting unit is used as an asymmetry index of the image. One of the sum and average of the powers of the pixel values of the difference image between the image and the reverse image may be extracted.
[0013]
SaidThe basis matrix U is characterized by being specified by a partial basis vector selected from basis vectors obtained by principal component analysis of the face image sample set [Λ]. The basis matrix U is a basis matrix specified by a partial basis vector selected from basis vectors obtained by principal component analysis of a feature vector set [Λ] in a face image sample, and conversion of pixel values for horizontally flipping the face image. Can be obtained by a linear sum of a basis matrix specified by an inverted partial basis vector in which elements of the basis vector are replaced so as to correspond to The feature vector Λ may be a vector having each pixel value in the image as an element, or may be a vector having the magnitude of each component of a complex Fourier component obtained by performing Fourier transform on the image as an element. .
[0014]
imageFor calculating similarity between face metadata of face informationIsThe similarity is calculated based on a facial feature amount extracted from the image and a reliability index representing reliability with respect to the facial feature amount.To do.
[0015]
The face similarity calculation device is derived from a distribution estimation means for estimating parameter information relating to a posterior distribution of a difference vector between face feature amounts using a reliability index for the face feature amount to be compared, and a log likelihood of the posterior distribution. Distance calculating means for calculating the distance between the facial features to be calculated as a similarity.
[0016]
The distance calculation means calculates an adaptive Mahalanobis distance as a similarity degree derived from a logarithmic likelihood of a normal distribution in the reliability index, assuming that a posterior distribution of a difference vector between facial feature quantities is a normal distribution. And
[0017]
The distribution estimation means uses a reliability index [θiThe variance σ of each element k of the difference vector ss, k([θi])2And the distance calculation means calculates the variance σ of each element ks, k([θi])2And calculating the adaptive Mahalanobis distance using.
[0018]
The distribution estimation means uses a reliability index [θiThe variance σ of each element k of the difference vector ss, k([θi])2Is stored in advance, and a reliability index [θi] Is used to output a variance value necessary for calculating the adaptive Mahalanobis distance by referring to the variance value table.
[0019]
The distance calculation means calculates the adaptive mixed Mahalanobis distance derived from the logarithmic likelihood of the mixed distribution in the reliability index as the similarity, assuming that the posterior distribution of the difference vector between the facial feature quantities is a mixed distribution. It is characterized by.
[0020]
A posterior distribution (intraclass distribution) of difference vectors between face features in the class to be matched and imitated using the reliability index for the face feature to be compared, and face features between the classes to be imitated and inconsistent Estimate parameter information related to the posterior distribution (interclass distribution) of the difference vector between quantities, and calculate the distance between facial feature quantities derived from the log likelihood of the ratio between the intraclass distribution and the interclass distribution as the similarity It is characterized by.
[0021]
Assuming that the intra-class distribution and the inter-class distribution are normal distributions, an adaptive discriminant distance derived from the log likelihood of the ratio of the respective distributions in the reliability index is calculated as the similarity.
[0022]
Reliability index [θi] Intraclass variance σ of each element k of difference vector sW, k([θi])2And interclass variance σB, k([θi])2 The adaptive discriminant distance is calculated as the similarity degree by estimating.
[0023]
Reliability index [θi] Intraclass variance σ of each element k of difference vector sW, k([θi])2And interclass variance σB, k([θi])2For the estimation of the intraclass variance σW, k([θi])2And a first variance value table for storing in advance, and an interclass variance σB, k([θi])2And a second variance value table that stores in advance a reliability index [θi], By referring to the first and second variance value tables, respectively, the variance value required in the adaptive discrimination distance is estimated.
[0024]
Assuming that the intraclass distribution and the interclass distribution are each a mixture distribution, an adaptive mixture discrimination distance derived from a logarithmic likelihood of a ratio of each mixture distribution in the reliability index is calculated as a similarity. To do.
[0025]
imageRecognition system having an image input unit for inputting a face and a face image database unit for storing face imagesIsA face metadata generation unit that generates a face feature amount extracted from the image and a reliability index face that represents reliability of the face feature amount as face metadata; and a face generated by the face metadata generation unit A face metadata accumulation unit that accumulates metadata, a face similarity calculation unit that calculates a face similarity based on a face feature amount and a reliability index that represents the reliability of the face feature amount, and an input command And a control unit that controls the face metadata generation unit, the face metadata storage unit, and the face similarity calculation unit, and executes matching of face images.Prepare.
[0026]
By using the face metadata generation unit and the face similarity calculation unit described above, highly accurate face image matching can be achieved.
DETAILED DESCRIPTION OF THE INVENTION
(Principle of the invention)
First, the principle of the present invention will be described. In general, when pattern recognition is performed, if it is possible to prepare a large amount of learning data for a class to be recognized, a pattern distribution function is estimated based on statistical analysis of the learning data. Can be built. However, in the face recognition application, only one registered image can be obtained for each individual, and only a few registered images are often allowed.
[0027]
Even in such a case, an index called a reliability index is given to the facial feature vector, and by considering a class based on that index, statistical analysis of the class for that reliability index is performed, and the pattern distribution function is calculated. By estimating, it is possible to construct a pattern recognition mechanism based on a distribution function through a reliability index even for face recognition applications in which only one registered image can be obtained.
[0028]
Hereinafter, the principle of face recognition regarding the Mahalanobis distance based on the error distribution and the discrimination distance based on the intraclass distribution and the interclass distribution will be described.
[0029]
Consider the case of observing one person's face. The feature vector obtained from the face image when there is no error is v0It is assumed that the error vector ε is superimposed on the actually observed vector v (Equation 1).
[0030]
[Expression 1]
Where the feature vector v0If two observations are taken, two observation vectors v1And v2Is obtained (Equation 2).
[0031]
[Expression 2]
Now, the error vector ε1, Error vector ε2Reliability index θ correlated with1, Reliability index θ2Are obtained, and the posterior distribution is p (ε | θ1), P (ε | θ2).
[0032]
V when such a distribution is obtained1And v2The posterior distribution of the difference vector s is p (s | θ1, θ2), The similarity d (v between patterns)1, v2) Can be the following log likelihood.
[0033]
[Equation 3]
Posterior distribution p (ε | θ1), P (ε | θ2) Are normal distributions, the distribution p (s | θ of the difference vector s1, θ2) Also has a normal distribution. Here, the posterior distribution p (ε | θ of the error vectori) Covariance matrix Σε (θ with mean 0 as (i = 1,2)i), The distribution of the difference vector s is 0 on average and the covariance matrix Σs(θ1, θ2) Is given by the following equation (Equation 4).
[0034]
[Expression 4]
That is, the posterior distribution p (s | θ1, θ2) Is expressed by the following equation (Equation 5).
[0035]
[Equation 5]
Therefore, (Equation 3) is expressed by the covariance matrix Σε (θ1) Or Σε (θ2), The reliability index θ1, And θ2Can be expressed as an adaptive Mahalanobis distance.
[0036]
[Formula 6]
Assuming the independence among the elements of the error vector, (Equation 5) becomes
[0037]
[Expression 7]
Where σs, k(θ1, θ2)2Is the covariance matrix Σs(θ1, θ2) K-th diagonal element, that is, the variance of the observation error. Also, σε, k(θ1)2, Σε, k(θ2)2Is the covariance matrix Σε (θ1), Σε (θ2) K-th diagonal element. skIs the kth element of the difference vector s.
[0038]
Assuming a normal distribution in this way, (Equation 3) can be expressed by the variance σε for each element of each feature vector as shown in the following equation (Equation 8)., k(θ1), Σε, k(θ2), The reliability index θ1And θ2The similarity can be defined by an adaptive Mahalanobis distance.
[0039]
[Equation 8]
Where v1, k, V2, kIs the feature vector v1, V2K-th element.
[0040]
In the above description, the posterior distribution p (s | θ1, θ2), A normal distribution is assumed. Hereinafter, a mixed normal distribution is assumed. Now, the posterior distribution p (s | θ1, θ2), As shown by the following equation (Equation 9), the normal distribution p (s | θ1, θ2, j) The posterior distribution p (s | θ by the sum of (j = 1,2, ..., M)1, θ2) Can be expressed.
[0041]
[Equation 9]
Therefore, the adaptive mixed Mahalanobis distance can be defined by the following equation (Equation 10).
[0042]
[Expression 10]
Posterior distribution p (s | θ1, θ2, j) covariance matrix Σs(θ1, θ2, j) and P (j) can be estimated using general estimation methods such as maximum likelihood estimation and EM algorithm (CM Bishop, "Neural Networks for Pattern Recognition", Oxford University Express , 1995).
[0043]
By assuming a mixed normal distribution, the distribution can be approximated more accurately and the matching performance is improved. However, a large amount of learning data is required and the amount of calculation is also greatly increased.
[0044]
The Mahalanobis distance based on the above error distribution is a distance that is excellent for problems such as face identification to find out which face to search is closest to among other registered face data. is there.
[0045]
On the other hand, in the face verification problem, whether to accept or reject is important in determining the identity of the input face with the registered image. The distance named “discrimination distance” described below is a better similarity measure than the above-described Mahalanobis distance for the face identification problem.
[0046]
Now, it should be determined that the two feature vectors v of the face match, that is, if the two feature vectors belong to the same class (for example, the two feature vectors are the face data of the same person), Assume that the combination of these feature vectors belongs to class W. Also, if the two feature vectors v should be determined to be inconsistent, that is, feature vectors between classes (for example, the two feature vectors are different face data of a person), the combination thereof is class B. Suppose it belongs.
[0047]
Two feature vectors v1, V2Reliability index θ1, Θ2Is obtained. Difference vector s and two reliability indices θ1, Θ2(Hereafter, a set of two reliability indices is represented by [θi]. ) Is observed, the discriminant rule between the class W that is considered to be coincident with the class B that is to be imitated and the class B that is to be imitated is obtained as follows: .
[0048]
## EQU11 ##
The left side of the above (Equation 11) can be rewritten as the following equation (Equation 12) by the Bayes Theorem.
[0049]
[Expression 12]
Where W, B and [θi] Is assumed to be independent and P (W, [θi]) = P (W) P ([θi]), P (B, [θi]) = P (B) P ([θi]).
[0050]
Distance d (v between patterns1, v2) To calculate the log likelihood of (Equation 12), the similarity suitable for the face identification problem can be obtained as in the following equation (Equation 13).
[0051]
[Formula 13]
If the prior probabilities P (W) and P (B) are different for each individual matching and can be known, it is desirable to calculate the second term of (Equation 13). However, in many cases, since the prior probability cannot be known for each individual matching, assuming that the prior probability is constant, the second term is assumed to be constant and excluded from the calculation of the similarity.
[0052]
Posterior probability P (s | W, [θi]), P (s | B, [θi]) In each class distribution pW(s | [θi]), Interclass distribution pB(s | [θi]), The following expression (Expression 14) is obtained.
[0053]
[Expression 14]
Next, intraclass distribution pW(s | [θi]), Interclass distribution pB(s | [θi]) Are normally distributed, the average is 0, and the covariance matrix is ΣW([θi]), ΣB([θi]), The posterior distribution can be expressed by the following equation (Equation 15).
[0054]
[Expression 15]
Substituting the above expression into (Expression 14) (however, the second term of (Expression 14) is omitted), the distance expressed by the following expression (Expression 16) can be obtained. This is called “adaptive discrimination distance”.
[0055]
[Expression 16]
Assuming the independence between the elements of the difference vector s, (Equation 15) becomes the following equation.
[0056]
[Expression 17]
Where σW, k(θi)2, ΣB, k(θi)2Are the covariance matrices ΣW(θi), ΣB(θi) K-th diagonal element, that is, corresponding to intra-class variance and inter-class variance. skIs the kth element of the difference vector s.
[0057]
Assuming a normal distribution in this way, (Equation 16) can be obtained by calculating the intra-class variance σ for each element of each feature vector as shown in the following equation (Equation 18).W, k(θi)2, Interclass variance σB, k(θi)2Using the reliability index [θi], It is possible to define a similarity based on an adaptive discrimination distance.
[0058]
[Expression 18]
In the above explanation, intra-class variance σW, k(θi)2, Interclass variance σB, k(θi)2A normal distribution is assumed as, but a mixed distribution is assumed below.
[0059]
Intraclass distribution p as in the following equation (Equation 19)W(s | [θi]), Interclass distribution pB(s | [θi]) As normal distribution pW(s | [θi], jW) (jW= 1,2, ..., MW), PB(s | [θi], jB) (jB= 1,2, ..., MB) Is assumed to be able to express the posterior distribution.
[0060]
[Equation 19]
Therefore, the adaptive mixed Mahalanobis distance of the following equation (Equation 20) can be derived using this log likelihood.
[0061]
[Expression 20]
Intraclass distribution pW(s | [θi], jW), Interclass distribution pB(s | [θi], jB) Covariance matrix ΣW(s | [θi], jW), ΣB(s | [θi], jB) And P (jW), P (jB) Can be estimated using a maximum likelihood estimation method or an EM algorithm.
[0062]
By assuming a mixed distribution, the distribution can be approximated more accurately and the matching performance can be improved, but at the same time, a large amount of learning data is required and the amount of computation is greatly increased.
[0063]
Thus, by extracting a reliability index further from the face feature amount, an adaptive distance criterion can be derived for the reliability index, and a highly accurate face recognition mechanism can be constructed. In the above, the reliability index for the feature vector is not specified as a scalar quantity (only one component) or a vector quantity (having a plurality of components), but it is an argument that holds in either case. Use of elements can be expected to improve performance.
[0064]
As for the specific reliability index, it is necessary to find an experimentally effective reliability index. In the case of face recognition, the contrast index indicating the contrast of the image, and the front face recognition, Using an asymmetric index that represents the amount of distortion in the face image caused by posture changes from left and right symmetry distortion is highly effective, and combining these reliability indices into a vector quantity is expected to improve accuracy. it can.
[0065]
(Embodiment)
FIG. 1 is a block diagram illustrating a face image matching system according to an embodiment of the present invention. Hereinafter, the face image matching system will be described in detail.
[0066]
As shown in FIG. 1, in the face image matching system according to the present invention, a face image input unit 11 for inputting a face image, and generating face metadata of the face feature amount and reliability index from the input face image. A face metadata generation unit 12, a face
[0067]
The face metadata generation unit 12 includes a face
[0068]
At the time of registration, the image input unit 11 inputs a face photograph or the like after matching the size and position of the face with a scanner or a video camera. Alternatively, a person's face may be input directly from a video camera or the like. In this case, it is better to detect the face position of the input image and automatically normalize the size of the face image using the face detection technique as shown in the above-mentioned Moghaddam document. Would be good.
[0069]
Further, the input face image is registered in the face image database 15 as necessary. Simultaneously with the registration of the face image, face metadata is generated by the face metadata generation unit 12 and stored in the face
[0070]
Similarly, at the time of retrieval, a face image is input by the face image input unit 11, and face metadata is generated by the face metadata generation unit 12. The generated face metadata is once registered in the face
[0071]
On the other hand, when confirming whether the face image specified in advance by the ID number or the like matches the searched face image (face identification), it is determined whether or not the face image with the specified ID number matches. When the similarity is lower than the predetermined similarity (the distance value is large), it is determined not to match, and when the similarity is high, it is determined to match, and the result is calculated. It is displayed on the display unit 17. If this system is used for entry management, entry control can be performed by controlling the automatic door by sending an opening / closing control signal from the
[0072]
As described above, the face image matching system operates, but such an operation can also be realized on a computer system. For example, a metadata generation program that executes metadata generation and a similarity calculation program that executes similarity calculation, which will be described in detail below, are stored in memory, respectively, and are executed by a program control processor. Face image matching can be realized.
[0073]
Next, the operation of the face image matching system, particularly the face metadata generation unit 12 and the face
[0074]
(1) Face metadata generation
The face metadata generation unit 12 extracts a face feature amount using an image I (x, y) whose position and size are normalized. For normalization of the position and size, for example, the image may be normalized so that the eye position is (16, 24), (31, 24), and the size is 46 × 56 pixels. Hereinafter, a case where an image is normalized to this size will be described.
[0075]
As a face feature amount, feature extraction is performed using a so-called eigenface technique (Moghaddam's paper described above). That is, the basis matrix U specified by the partial basis vector selected from the basis vectors obtained by the principal component analysis of the face image sample set [Λ] with respect to the feature vector Λ having the pixel values in the image as elements. And the feature vector v = U using the mean face Ψ which is the mean vector in the face image sample set [Λ].T(Λ−Ψ) is calculated as a feature vector. In this way, the data amount of the input image can be reduced by using the partial basis vector instead of the input image. Reducing the amount of data in this way is an important factor for realizing high-speed matching as well as reducing the amount of storage in the meta database. As the number of dimensions of the feature vector, for example, a 48-dimensional feature amount may be used.
[0076]
In addition to the commonly used eigenface technique, partial basis vectors may be defined using a technique that combines discriminant analysis with principal component analysis (the above-mentioned W. Zhao paper). Absent.
[0077]
In addition, the base matrix Un specified by the partial base vector selected from the base vectors obtained by the principal component analysis or discriminant analysis of the feature vector set [Λ] in the face image sample as described above, and the face image are horizontally reversed. The matrix U (= aUn + bUm) obtained by linear summation of the basis matrix Um specified by the inverted partial basis vector with the basis vector elements replaced so as to correspond to the conversion of the pixel value to be A face feature vector may be extracted. For example, when a = b = 1, the obtained facial feature vector can extract only components that are symmetric with respect to the left and right transformations in the input image space. Since the face is essentially symmetric, the image component that has become asymmetric due to the effect of lighting and the asymmetric component that occurs because the orientation of the face is not directed to the front is essentially equivalent to noise. By extracting only symmetric components, it is possible to extract a facial feature quantity that is stable against changes in illumination and posture.
[0078]
Also, the image is subjected to Fourier transform, and a vector whose element is the size of each component of the obtained complex Fourier component is calculated as a feature vector Λ. The amount may be extracted. In this way, by performing Fourier transform on the image, it is possible to extract a facial feature amount that is strong against displacement. In this way, the facial
[0079]
In the reliability
[0080]
[Expression 21]
Here, round () means rounding of numerical values. Reliability index θ extracted in this waycontrastIf the value exceeds the range, the value is limited so that the value falls within the 4-bit range of [0,1,2, ..., 15]. In the above description, the standard deviation of the image is calculated as the contrast index. However, the variance or the difference between the maximum value and the minimum value of the pixel values in the image may be extracted. A contrast index based on the maximum and minimum pixel values in an image has a smaller amount of computation than the standard deviation and variance, but the effect is relatively small.
[0081]
Asymmetry index θasymmetricAs an average, the average of the absolute value (first power) of the difference between the face image I (x, y) and its inverted image is extracted by the following equation (Equation 22).
[0082]
[Expression 22]
Reliability index θ extracted in this wayasymmetricIf the value exceeds the range to fit within the 4-bit range of [0,1,2, ..., 15], the value is limited. In the above description, the absolute value (first power) is used as the asymmetric index, but the square of the difference or the like may be used. Further, the same effect can be obtained by using a value such as a sum instead of the average. Further, if the maximum value of the difference is detected and used as an asymmetric index, the amount of calculation can be reduced.
[0083]
In the reliability
[0084]
(2) Face similarity calculation
Next, the operation of the face
[0085]
Here, a case will be described in which the face similarity is calculated by (Equation 8) or (Equation 18).
[0086]
Reliability index θ expressed by (Equation 8) or (Equation 18)1, Θ2Is a vector in this embodiment, and each element is θ1= (θcontrast, 1, θasymmetric, 1)T, Θ2 = (θcontrast, 2, θasymmetric, 2)TIt becomes. Since the contrast index and the asymmetry index are each expressed in 4 bits, θiThere are 256 possible states. Given reliability index θiThus, one of the 256 states can be specified.
[0087]
As will be described later, the
[0088]
The distance calculation unit 142 calculates an adaptive Mahalanobis distance or an adaptive discrimination distance according to (Equation 8) or (Equation 18), and outputs it as the similarity d.
[0089]
The variance values in the above-described variance value table are calculated using face image data samples prepared in advance. Feature vector set in face image sample [vi] And its reliability index [θi], Each variance value can be calculated as follows:
[0090]
[Expression 23]
[0091]
[Expression 24]
Here, “(i, j) belongs to class W” means that data i and data j are data obtained from the same class (same person) (within the class), and “( “i, j) belongs to class B” means that data i and data j are data obtained from different classes (different persons) (between classes). Nε (θ), NW(θ), NB(θ) is the number of combinations of data belonging to each class. In this way, when calculating the variance value for each bin of θ, if the number of data is too small, the data of neighboring bins are merged to ensure the number of samples (this is K-nearest neighbor method in distribution estimation (similar to merging bin by Bishop literature, pp. 53).
[0092]
Here, in the case of (Equation 18), as in (Equation 4), σW, k([θi])2 = σW, k(θ1)2 + σW, k(θ2)2And σB, k([θi])2 = σB, k(θ1)2 + σB, k(θ2)2Note that
[0093]
The error variance σε, k(θ)2And intra-class variance σW, k(θ)2Therefore, when the distances of both (Equation 8) and (Equation 18) are calculated by the face image matching system, these variance value tables may be shared.
[0094]
In addition, the error distribution and interclass distribution often have a strong correlation, so the error variance σε, k(θ)2Instead of class variance σB, k(θ)2Even if is used, the accuracy is improved as compared with the case where the reliability index is not used (but the accuracy is better if error variance is used).
[0095]
In this way, the similarity between face metadata is represented by the reliability index θcontrastAnd reliability index θasymmetricBy calculating using the posterior distribution information via, it is possible to perform face recognition with high accuracy. As described above, the computer can execute the face similarity calculation procedure using a computer program.
[0096]
Here, the degree of similarity is calculated using (Equation 8) and (Equation 18), but it is also possible to approximate the calculation by various calculation methods such as the following to increase the speed.
[0097]
[Expression 25]
[0098]
[Equation 26]
By not calculating the second term on the right side of each of the above formulas (the part of ln), it is possible to achieve further high-speed computation.
[0099]
Also, when calculating the similarity according to (Equation 6) or (Equation 16), basically, from the face image data sample prepared in advance, the covariance matrix Σε of the difference vector error necessary for each calculation is used. (θ) or covariance matrix Σ within the class of difference vectorsW(θ), covariance matrix Σ between classesB(θ) may be calculated and prepared as a covariance table, and the covariance table may be referred to when calculating the similarity. In this method, the amount of calculation increases because the distance is calculated using the covariance matrix, but the accuracy of similarity calculation can be improved when there are sufficient learning samples.
[0100]
By assuming a mixed normal distribution for the posterior distribution of (Equation 3), the interclass distribution of (Equation 14), and the interclass distribution, and estimating the distribution function, respectively, (Equation 10) and (Equation 20) An adaptive mixture Mahalanobis distance or an adaptive mixture discrimination distance may be calculated. In this case, the covariance matrix Σ representing the mixed normal distribution is obtained from the face image data sample in the same manner as calculating the posterior distribution information using the variance and the covariance matrix.s(θ1, j), P (j), and the like parameters for specifying the mixture distribution may be obtained and stored as a table. This estimation may be performed using a general likelihood estimation method such as a maximum likelihood estimation method or an EM algorithm.
[0101]
In the above description, a case where a single face image is registered and retrieval is performed using a single face image has been described. However, a plurality of images are registered for one face, and a single face image is registered. When using the search, for example, the following may be performed.
[0102]
The feature vector on the search side is vqueAnd the registration-side feature vector is vreg, kAnd similarity d when registering multiple imagesmulti(vque, [vreg, 1, vreg, 2, ..., vreg, n]), The similarity may be calculated based on the calculation formulas shown in the following equations (Equations 27 and 28).
[0103]
[Expression 27]
Or
[0104]
[Expression 28]
Similarly, in the case of registration of a plurality of images per face and search by a plurality of images, the similarity for one face data is calculated by calculating the similarity by calculating the average or the minimum value of the similarity of each combination. can do. This means that the matching system of the present invention can be applied to face recognition in a moving image by imitating the moving image as a plurality of images.
[0105]
Also, in the above explanation, the explanation was centered on the identification of the same person's face and the identification of the face, but for example, considering the male face as one category and the female face as one category, information on each distribution is given. It can also be applied to facial expression recognition for recognizing facial expressions in consideration of gender identification that identifies male and female faces, or considering facial expression categories such as laughed faces, angry faces, and sad faces. Age can be determined by setting categories such as teens, 20s, 30s and 40s, and obtaining error distribution, intraclass distribution and interclass distribution for each category. The present invention can be applied to face recognition.
[0106]
【The invention's effect】
As described above in detail, according to the present invention, by adding a reliability index for expressing the reliability of a face feature amount as face metadata, adaptive generation through the reliability index is achieved. It is possible to guide a highly accurate face recognition using the distance.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a face image matching system according to an embodiment of the present invention.
[Explanation of symbols]
11: Face image input part
12: Face metadata generator
13: Face metadata storage
14: Face similarity calculator
15: Face image database
16: Control unit
17: Display
121: Facial feature extraction unit
122: Reliability index extraction unit
141: Distribution estimation part
142: Distance calculator
Claims (10)
前記顔特徴抽出手段は、前記顔画像から得られた特徴ベクトルをΛとしたときに、特徴ベクトルΛの部分基底ベクトルによって特定される基底行列Uと特徴ベクトルΛの平均ベクトルΨとを用いて特徴ベクトルv=UT(Λ−Ψ)を算出し、当該特徴ベクトルvを顔特徴量として抽出し、
前記信頼性指標抽出手段は、前記顔画像内の画素値を標本とする統計量を前記顔特徴量の顔認識精度の信頼性を表す信頼性指標として抽出することを特徴とする顔メタデータ生成装置。Face feature extraction means for extracting a face feature value from a face image; and reliability index extraction means for extracting a reliability index representing the reliability of a face recognition result using the face feature value, the face feature value and In the face metadata generation device that outputs the reliability index as face metadata,
When the feature vector obtained from the face image is Λ, the face feature extracting means uses the basis matrix U specified by the partial basis vector of the feature vector Λ and the average vector Ψ of the feature vector Λ. A vector v = U T (Λ−Ψ) is calculated, and the feature vector v is extracted as a facial feature quantity ;
The reliability index extracting unit extracts a statistical quantity using pixel values in the face image as a sample as a reliability index representing reliability of face recognition accuracy of the face feature quantity. apparatus.
前記顔画像から得られた特徴ベクトルをΛとしたときに、特徴ベクトルΛの部分基底ベクトルによって特定される基底行列Uと特徴ベクトルΛの平均ベクトルΨとを用いて特徴ベクトルv=U When a feature vector obtained from the face image is Λ, a feature vector v = U using a basis matrix U specified by a partial basis vector of the feature vector Λ and an average vector Ψ of the feature vector Λ. TT (( Λ−ΨΛ-Ψ )) を算出し、当該特徴ベクトルvを前記顔特徴量として抽出し、And extracting the feature vector v as the face feature amount,
前記顔画像内の画素値を標本とする統計量を前記顔特徴量の顔認識精度の信頼性を表す信頼性指標として抽出する、 Extracting a statistic obtained by sampling pixel values in the face image as a reliability index representing the reliability of face recognition accuracy of the face feature amount;
ことを特徴とする顔メタデータ生成方法。 A method for generating face metadata.
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001381530A JP3903783B2 (en) | 2001-12-14 | 2001-12-14 | Face metadata generation method and apparatus, and face similarity calculation method and apparatus |
EP08167201A EP2017770B1 (en) | 2001-12-14 | 2002-12-16 | Face meta-data generation and face similarity calculation |
CNB2006101218606A CN100492397C (en) | 2001-12-14 | 2002-12-16 | Face meta-data creation equipment and method, face distinguishing system and method |
US10/488,213 US7593551B2 (en) | 2001-12-14 | 2002-12-16 | Face meta-data generation and face similarity calculation |
EP02790768A EP1460580B1 (en) | 2001-12-14 | 2002-12-16 | Face meta-data creation and face similarity calculation |
DE60232365T DE60232365D1 (en) | 2001-12-14 | 2002-12-16 | FACE METADATA GENERATION AND FACIAL SIMILARITY CALCULATION |
CNB028173597A CN100367311C (en) | 2001-12-14 | 2002-12-16 | Face meta-data creation and face similarity calculation |
PCT/JP2002/013114 WO2003052690A1 (en) | 2001-12-14 | 2002-12-16 | Face meta-data creation and face similarity calculation |
CNB2006101218610A CN100492398C (en) | 2001-12-14 | 2002-12-16 | Face meta-data creation equipment and method, face distinguishing system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001381530A JP3903783B2 (en) | 2001-12-14 | 2001-12-14 | Face metadata generation method and apparatus, and face similarity calculation method and apparatus |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006212711A Division JP4375571B2 (en) | 2006-08-04 | 2006-08-04 | Face similarity calculation method and apparatus |
JP2006212710A Division JP4375570B2 (en) | 2006-08-04 | 2006-08-04 | Face recognition method and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003187229A JP2003187229A (en) | 2003-07-04 |
JP3903783B2 true JP3903783B2 (en) | 2007-04-11 |
Family
ID=19187349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001381530A Expired - Lifetime JP3903783B2 (en) | 2001-12-14 | 2001-12-14 | Face metadata generation method and apparatus, and face similarity calculation method and apparatus |
Country Status (6)
Country | Link |
---|---|
US (1) | US7593551B2 (en) |
EP (2) | EP1460580B1 (en) |
JP (1) | JP3903783B2 (en) |
CN (3) | CN100492398C (en) |
DE (1) | DE60232365D1 (en) |
WO (1) | WO2003052690A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10878657B2 (en) | 2018-07-25 | 2020-12-29 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11521460B2 (en) | 2018-07-25 | 2022-12-06 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
Families Citing this family (80)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6996251B2 (en) | 2002-09-30 | 2006-02-07 | Myport Technologies, Inc. | Forensic communication apparatus and method |
US7778438B2 (en) | 2002-09-30 | 2010-08-17 | Myport Technologies, Inc. | Method for multi-media recognition, data conversion, creation of metatags, storage and search retrieval |
US10721066B2 (en) | 2002-09-30 | 2020-07-21 | Myport Ip, Inc. | Method for voice assistant, location tagging, multi-media capture, transmission, speech to text conversion, photo/video image/object recognition, creation of searchable metatags/contextual tags, storage and search retrieval |
GB2402536B (en) * | 2003-06-05 | 2008-04-02 | Canon Kk | Image processing |
JP4483334B2 (en) * | 2004-02-18 | 2010-06-16 | 富士ゼロックス株式会社 | Image processing device |
WO2005086089A1 (en) * | 2004-03-03 | 2005-09-15 | Nec Corporation | Object posture estimation/correlation system, object posture estimation/correlation method, and program for the same |
US7697026B2 (en) * | 2004-03-16 | 2010-04-13 | 3Vr Security, Inc. | Pipeline architecture for analyzing multiple video streams |
US20060083414A1 (en) * | 2004-10-14 | 2006-04-20 | The Secretary Of State For The Home Department | Identifier comparison |
KR100634527B1 (en) * | 2004-11-26 | 2006-10-16 | 삼성전자주식회사 | Layer based image processing device and method |
US20110102553A1 (en) * | 2007-02-28 | 2011-05-05 | Tessera Technologies Ireland Limited | Enhanced real-time face models from stereo imaging |
JP2006338092A (en) * | 2005-05-31 | 2006-12-14 | Nec Corp | Pattern collation method, pattern collation system and pattern collation program |
US8094895B2 (en) * | 2005-06-08 | 2012-01-10 | Koninklijke Philips Electronics N.V. | Point subselection for fast deformable point-based imaging |
JP4696857B2 (en) | 2005-11-02 | 2011-06-08 | オムロン株式会社 | Face matching device |
KR100723417B1 (en) | 2005-12-23 | 2007-05-30 | 삼성전자주식회사 | Face recognition method, apparatus, method for extracting features from facial image for same and apparatus therefor |
JP4771139B2 (en) * | 2006-02-14 | 2011-09-14 | オムロン株式会社 | Anomaly detection apparatus and method, recording medium, and program |
JP4951995B2 (en) * | 2006-02-22 | 2012-06-13 | オムロン株式会社 | Face matching device |
US8208694B2 (en) * | 2006-06-06 | 2012-06-26 | Thomas Jelonek | Method and system for image and video analysis, enhancement and display for communication |
CN100383806C (en) * | 2006-06-08 | 2008-04-23 | 上海交通大学 | Face Recognition Method Based on Robust Position Preserving Mapping |
CN100527170C (en) * | 2006-09-20 | 2009-08-12 | 清华大学 | Complex expression emulation system and implementation method |
US8031914B2 (en) * | 2006-10-11 | 2011-10-04 | Hewlett-Packard Development Company, L.P. | Face-based image clustering |
KR100828371B1 (en) | 2006-10-27 | 2008-05-08 | 삼성전자주식회사 | Method and apparatus for generating metadata of content |
JP4787180B2 (en) | 2007-01-24 | 2011-10-05 | 富士フイルム株式会社 | Imaging apparatus and imaging method |
JP5049356B2 (en) | 2007-02-28 | 2012-10-17 | デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド | Separation of directional lighting variability in statistical face modeling based on texture space decomposition |
US8027541B2 (en) * | 2007-03-15 | 2011-09-27 | Microsoft Corporation | Image organization based on image content |
US8295603B2 (en) * | 2007-03-28 | 2012-10-23 | Sharp Kabushiki Kaisha | Image processing apparatus, image forming apparatus, image processing system, and image processing method |
GB2449125A (en) * | 2007-05-11 | 2008-11-12 | Sony Uk Ltd | Metadata with degree of trust indication |
US8041076B1 (en) * | 2007-08-09 | 2011-10-18 | Adobe Systems Incorporated | Generation and usage of attractiveness scores |
CN101393597B (en) * | 2007-09-19 | 2011-06-15 | 上海银晨智能识别科技有限公司 | Method for identifying front of human face |
CN101414348A (en) * | 2007-10-19 | 2009-04-22 | 三星电子株式会社 | Method and system for identifying human face in multiple angles |
US8180112B2 (en) * | 2008-01-21 | 2012-05-15 | Eastman Kodak Company | Enabling persistent recognition of individuals in images |
WO2009093525A1 (en) * | 2008-01-23 | 2009-07-30 | Niigata University | Identification device, identification method, and identification processing program |
US8750578B2 (en) | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
US8542095B2 (en) | 2008-02-22 | 2013-09-24 | Nec Corporation | Biometric authentication device, biometric authentication method, and storage medium |
WO2009138938A2 (en) * | 2008-05-15 | 2009-11-19 | Koninklijke Philips Electronics N.V. | Method, apparatus, and computer program product for compression and decompression of an image dataset |
US8520979B2 (en) * | 2008-08-19 | 2013-08-27 | Digimarc Corporation | Methods and systems for content processing |
JP4720880B2 (en) * | 2008-09-04 | 2011-07-13 | ソニー株式会社 | Image processing apparatus, imaging apparatus, image processing method, and program |
GB0819069D0 (en) | 2008-10-17 | 2008-11-26 | Forensic Science Service Ltd | Improvements in and relating to methods and apparatus for comparison |
JP5247480B2 (en) * | 2009-01-13 | 2013-07-24 | キヤノン株式会社 | Object identification device and object identification method |
US8254699B1 (en) * | 2009-02-02 | 2012-08-28 | Google Inc. | Automatic large scale video object recognition |
JP5459312B2 (en) * | 2009-03-27 | 2014-04-02 | 日本電気株式会社 | Pattern matching device, pattern matching method, and pattern matching program |
CN102713975B (en) * | 2010-01-12 | 2016-02-03 | 日本电气株式会社 | Image clearing system, image method for sorting and computer program |
US9465993B2 (en) * | 2010-03-01 | 2016-10-11 | Microsoft Technology Licensing, Llc | Ranking clusters based on facial image analysis |
US10108852B2 (en) * | 2010-06-07 | 2018-10-23 | Affectiva, Inc. | Facial analysis to detect asymmetric expressions |
US8320644B2 (en) | 2010-06-15 | 2012-11-27 | Apple Inc. | Object detection metadata |
WO2012071677A1 (en) * | 2010-11-29 | 2012-06-07 | Technicolor (China) Technology Co., Ltd. | Method and system for face recognition |
US9251854B2 (en) * | 2011-02-18 | 2016-02-02 | Google Inc. | Facial detection, recognition and bookmarking in videos |
US8836777B2 (en) | 2011-02-25 | 2014-09-16 | DigitalOptics Corporation Europe Limited | Automatic detection of vertical gaze using an embedded imaging device |
JP5923723B2 (en) * | 2011-06-02 | 2016-05-25 | パナソニックIpマネジメント株式会社 | Person attribute estimation system, person attribute estimation apparatus, and person attribute estimation method |
EP2557524A1 (en) * | 2011-08-09 | 2013-02-13 | Teclis Engineering, S.L. | Method for automatic tagging of images in Internet social networks |
US20130044927A1 (en) * | 2011-08-15 | 2013-02-21 | Ian Poole | Image processing method and system |
CN102955931B (en) * | 2011-08-19 | 2015-11-25 | 株式会社理光 | The method of special object and the system of use the method in recognition image |
CN103020576B (en) * | 2011-09-20 | 2015-09-30 | 华晶科技股份有限公司 | Feature data compression device, multi-directional face detection system and detection method thereof |
JP5836095B2 (en) * | 2011-12-05 | 2015-12-24 | キヤノン株式会社 | Image processing apparatus and image processing method |
CN102567719B (en) * | 2011-12-26 | 2014-07-02 | 东南大学 | Human age automatic estimation method based on posterior probability neural network |
US8861855B2 (en) * | 2012-01-18 | 2014-10-14 | The United States Of America As Represented By The Secretary Of The Air Force | Method and apparatus for simplifying electro-optical imaging systems |
JP5900052B2 (en) * | 2012-03-15 | 2016-04-06 | オムロン株式会社 | Registration determination apparatus, control method and control program thereof, and electronic device |
JP6016489B2 (en) | 2012-07-09 | 2016-10-26 | キヤノン株式会社 | Image processing apparatus, image processing apparatus control method, and program |
JP6074182B2 (en) | 2012-07-09 | 2017-02-01 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP5963609B2 (en) * | 2012-08-23 | 2016-08-03 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP5787845B2 (en) * | 2012-08-24 | 2015-09-30 | 株式会社東芝 | Image recognition apparatus, method, and program |
US9183062B2 (en) * | 2013-02-25 | 2015-11-10 | International Business Machines Corporation | Automated application reconfiguration |
US8971668B2 (en) * | 2013-02-27 | 2015-03-03 | Adobe Systems Incorporated | Covariance based color characteristics of images |
EP2983077B1 (en) * | 2013-04-01 | 2021-04-28 | Sony Corporation | Display control device, display control method, and display control program |
JP6338191B2 (en) * | 2013-07-01 | 2018-06-06 | Necソリューションイノベータ株式会社 | Attribute estimation system |
CN103810663B (en) * | 2013-11-18 | 2017-09-26 | 北京航天金盾科技有限公司 | A kind of demographic data method for cleaning based on Identification of Images |
US9405963B2 (en) * | 2014-07-30 | 2016-08-02 | International Business Machines Corporation | Facial image bucketing with expectation maximization and facial coordinates |
CN106446754A (en) * | 2015-08-11 | 2017-02-22 | 阿里巴巴集团控股有限公司 | Image identification method, metric learning method, image source identification method and devices |
JP6700791B2 (en) * | 2016-01-05 | 2020-05-27 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
CN107203529B (en) * | 2016-03-16 | 2020-02-21 | 中国移动通信集团河北有限公司 | Method and device for multi-service correlation analysis based on similarity of metadata graph structure |
JP6597914B2 (en) * | 2016-03-29 | 2019-10-30 | 日本電気株式会社 | Image processing apparatus, image processing method, and program |
DE102016122649B3 (en) * | 2016-11-24 | 2018-03-01 | Bioid Ag | Biometric method |
TWI731919B (en) * | 2017-01-19 | 2021-07-01 | 香港商斑馬智行網絡(香港)有限公司 | Image recognition method and device and metric learning method and device |
US10678846B2 (en) * | 2017-03-10 | 2020-06-09 | Xerox Corporation | Instance-level image retrieval with a region proposal network |
CN107169473A (en) * | 2017-06-10 | 2017-09-15 | 广东聚宜购家居网络科技有限公司 | A kind of recognition of face control system |
WO2019050508A1 (en) * | 2017-09-06 | 2019-03-14 | Hitachi Data Systems Corporation | Emotion detection enabled video redaction |
WO2019193781A1 (en) | 2018-04-04 | 2019-10-10 | パナソニックIpマネジメント株式会社 | Emotion inference device, emotion inference method, and program |
US11379535B2 (en) | 2018-05-01 | 2022-07-05 | Google Llc | Accelerated large-scale similarity calculation |
JP6713153B1 (en) | 2019-11-15 | 2020-06-24 | 株式会社Patic Trust | Information processing apparatus, information processing method, program, and camera system |
JP6815667B1 (en) | 2019-11-15 | 2021-01-20 | 株式会社Patic Trust | Information processing equipment, information processing methods, programs and camera systems |
CN113158948B (en) * | 2021-04-29 | 2024-08-02 | 宜宾中星技术智能系统有限公司 | Information generation method, device and terminal equipment |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0520442A (en) | 1991-07-17 | 1993-01-29 | Nippon Telegr & Teleph Corp <Ntt> | Face picture collation device |
JPH0546743A (en) * | 1991-08-09 | 1993-02-26 | Matsushita Electric Ind Co Ltd | Personal identification device |
JP2840816B2 (en) | 1995-03-13 | 1998-12-24 | 株式会社エイ・ティ・アール通信システム研究所 | Facial expression detection device |
JPH11502344A (en) * | 1995-03-20 | 1999-02-23 | ロー テクノロジーズ | Apparatus and method for identifying images |
US5710833A (en) * | 1995-04-20 | 1998-01-20 | Massachusetts Institute Of Technology | Detection, recognition and coding of complex objects using probabilistic eigenspace analysis |
JPH1055412A (en) | 1996-06-06 | 1998-02-24 | Fujitsu Ltd | Pattern recognition apparatus and method using feature selection by projecting feature vector to partial eigenspace |
US6111978A (en) * | 1996-12-13 | 2000-08-29 | International Business Machines Corporation | System and method for determining ridge counts in fingerprint image processing |
JP2815045B2 (en) | 1996-12-16 | 1998-10-27 | 日本電気株式会社 | Image feature extraction device, image feature analysis device, and image matching system |
US6151403A (en) * | 1997-08-29 | 2000-11-21 | Eastman Kodak Company | Method for automatic detection of human eyes in digital images |
US6108437A (en) * | 1997-11-14 | 2000-08-22 | Seiko Epson Corporation | Face recognition apparatus, method, system and computer readable medium thereof |
JPH11306325A (en) | 1998-04-24 | 1999-11-05 | Toshiba Tec Corp | Object detection apparatus and object detection method |
JP4087953B2 (en) | 1998-07-14 | 2008-05-21 | 株式会社東芝 | Pattern recognition apparatus and method |
JP3468108B2 (en) | 1998-07-15 | 2003-11-17 | 松下電器産業株式会社 | Face image matching method and face image matching device |
US6292575B1 (en) * | 1998-07-20 | 2001-09-18 | Lau Technologies | Real-time facial recognition and verification system |
GB2341231A (en) * | 1998-09-05 | 2000-03-08 | Sharp Kk | Face detection in an image |
JP2000099722A (en) | 1998-09-22 | 2000-04-07 | Toshiba Corp | Personal face recognizing device and its method |
JP2000132675A (en) | 1998-10-29 | 2000-05-12 | Matsushita Electric Ind Co Ltd | Method and device for identifying and collating faces |
JP2000187733A (en) | 1998-12-22 | 2000-07-04 | Canon Inc | Image processor, its method and recording medium |
JP2000306095A (en) | 1999-04-16 | 2000-11-02 | Fujitsu Ltd | Image collation / search system |
KR100343223B1 (en) * | 1999-12-07 | 2002-07-10 | 윤종용 | Apparatus for eye and face detection and method thereof |
JP3877274B2 (en) | 2000-03-24 | 2007-02-07 | 富士通株式会社 | Image verification processing system |
JP4443722B2 (en) | 2000-04-25 | 2010-03-31 | 富士通株式会社 | Image recognition apparatus and method |
-
2001
- 2001-12-14 JP JP2001381530A patent/JP3903783B2/en not_active Expired - Lifetime
-
2002
- 2002-12-16 EP EP02790768A patent/EP1460580B1/en not_active Expired - Lifetime
- 2002-12-16 CN CNB2006101218610A patent/CN100492398C/en not_active Expired - Fee Related
- 2002-12-16 CN CNB028173597A patent/CN100367311C/en not_active Expired - Fee Related
- 2002-12-16 DE DE60232365T patent/DE60232365D1/en not_active Expired - Lifetime
- 2002-12-16 WO PCT/JP2002/013114 patent/WO2003052690A1/en active Application Filing
- 2002-12-16 CN CNB2006101218606A patent/CN100492397C/en not_active Expired - Fee Related
- 2002-12-16 US US10/488,213 patent/US7593551B2/en active Active
- 2002-12-16 EP EP08167201A patent/EP2017770B1/en not_active Expired - Lifetime
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10878657B2 (en) | 2018-07-25 | 2020-12-29 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11455864B2 (en) | 2018-07-25 | 2022-09-27 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US11521460B2 (en) | 2018-07-25 | 2022-12-06 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US12087130B2 (en) | 2018-07-25 | 2024-09-10 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
US12106630B2 (en) | 2018-07-25 | 2024-10-01 | Konami Gaming, Inc. | Casino management system with a patron facial recognition system and methods of operating same |
Also Published As
Publication number | Publication date |
---|---|
EP2017770A2 (en) | 2009-01-21 |
CN1912891A (en) | 2007-02-14 |
EP2017770A3 (en) | 2009-07-01 |
CN100367311C (en) | 2008-02-06 |
CN1912890A (en) | 2007-02-14 |
EP1460580A4 (en) | 2007-06-13 |
EP1460580A1 (en) | 2004-09-22 |
CN1552041A (en) | 2004-12-01 |
US20040197013A1 (en) | 2004-10-07 |
EP2017770B1 (en) | 2013-02-20 |
WO2003052690A1 (en) | 2003-06-26 |
JP2003187229A (en) | 2003-07-04 |
DE60232365D1 (en) | 2009-06-25 |
CN100492398C (en) | 2009-05-27 |
CN100492397C (en) | 2009-05-27 |
EP1460580B1 (en) | 2009-05-13 |
US7593551B2 (en) | 2009-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3903783B2 (en) | Face metadata generation method and apparatus, and face similarity calculation method and apparatus | |
JP3873793B2 (en) | Face metadata generation method and face metadata generation apparatus | |
JP4375570B2 (en) | Face recognition method and system | |
JP4543423B2 (en) | Method and apparatus for automatic object recognition and collation | |
Naseem et al. | Linear regression for face recognition | |
AU2019200711A1 (en) | Biometric verification | |
US20240127631A1 (en) | Liveness detection method and apparatus, and computer device | |
JP4375571B2 (en) | Face similarity calculation method and apparatus | |
Rani et al. | Face recognition using principal component analysis | |
Nagendra et al. | Video-based face recognition and face-tracking using sparse representation based categorization | |
Kekre et al. | Eigenvectors of covariance matrix using row mean and column mean sequences for face recognition | |
Kekre et al. | Performance Comparison for Face Recognition using PCA, DCT &WalshTransform of Row Mean and Column Mean | |
Tan et al. | Face recognition algorithm based on open CV | |
CN115909421A (en) | Intelligent door lock face recognition encryption method and system | |
Poh et al. | Face video competition | |
Mau et al. | Video face matching using subset selection and clustering of probabilistic multi-region histograms | |
Gambhir et al. | Person recognition using multimodal biometrics | |
Tistarelli et al. | Understanding iconic image-based face biometrics | |
Lin et al. | A new approach using modified Hausdorff distances with eigenface for human face recognition | |
Ercan et al. | A Face Authentication System Using Landmark Detection | |
Zhang et al. | Unconstrained face identification based on 3d face frontalization and support vector guided dictionary learning | |
Shah et al. | Biometric authentication based on detection and recognition of multiple faces in image | |
Ayo et al. | Normalized Independent Component Analysis for Face Recognition | |
Wai et al. | Intelligent Face Recognition System | |
Deshmukh et al. | Pose Variant Based Comparative Analysis of PCA and LDA |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060613 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060919 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070101 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3903783 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110119 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110119 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120119 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130119 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130119 Year of fee payment: 6 |
|
EXPY | Cancellation because of completion of term |