JP4011426B2 - Face detection device, face detection method, and face detection program - Google Patents
Face detection device, face detection method, and face detection program Download PDFInfo
- Publication number
- JP4011426B2 JP4011426B2 JP2002208881A JP2002208881A JP4011426B2 JP 4011426 B2 JP4011426 B2 JP 4011426B2 JP 2002208881 A JP2002208881 A JP 2002208881A JP 2002208881 A JP2002208881 A JP 2002208881A JP 4011426 B2 JP4011426 B2 JP 4011426B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- reference point
- existence probability
- face part
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、入力画像中の顔画像を検出する顔検出装置、顔検出方法および顔検出プログラムに関し、特に、顔パーツの位置関係のばらつきを迅速かつ確実に吸収し、もって信頼性の高い迅速な顔検出をおこなうことができる顔検出装置、顔検出方法および顔検出プログラムに関する。
【0002】
【従来技術】
監視カメラシステムでは、監視カメラが捉えた画像に人物が映っているか否かを自動的に認識させることが必要になるので、部分空間法と呼ばれる顔検出技術を用いる技術が知られている。
【0003】
たとえば、Matthew A.Turk,Alex Pentland,“Face Recognition Using Eigefaces”,Proc.CVPR,pp.586-591,1991には、多人数の顔画像のデータを集めて部分空間を構成する技術が開示されており、この先行技術では、顔全体を表現する低次元の部分空間を用意し、入力画像中のどの位置における部分画像が、用意された部分空間に最もよく当てはまるかを調べることによって顔位置を検出している。
【0004】
具体的には、学習用に用意した顔画像データセットから得られる平均および共分散行列をパラメータとする正規分布を仮定したパターン分布を表現するモデルにおいて、共分散行列の上位固有値に随伴する固有ベクトルで張られる部分空間にパターンを制限し、この部分空間を顔空間とみなすことによって入力パターンと部分空間との距離を計量することとしている。
【0005】
ところで、かかる部分空間法を利用した顔検出をおこなう場合には、個人間で顔パーツ(目、鼻および口など)の位置のばらつきが大きいので、このばらつきを吸収するのが難しい。すなわち、顔検出においては顔画像の大きさを正規化する必要があるが、たとえばその基準を「両目の間隔」とすると、この両目の中点から他の顔パーツ(たとえば「口」)までの距離は、面長の顔と丸顔の顔とでは大きく異なってしまう。
【0006】
このことから、特開平9−91429号公報(従来技術1)には、縦横比を変えながら部分空間とのマッチングを取るようにした発明が開示されている。また、特開平9−44676号公報(従来技術2)には、複数の顔パーツを検出した後、各顔パーツの位置関係に基づいて顔の位置を特定する発明が記載されている。かかる従来技術1および従来技術2にそれぞれ開示された発明を利用することにより、顔パーツの位置のばらつきをある程度吸収することができる。
【0007】
【発明が解決しようとする課題】
しかしながら、上記従来技術1を用いた場合には、マッチング演算回数が縦横比を変える回数に比例するため、計算時間が膨大になってしまうため、結果的に顔検出を迅速におこなうことができないという問題がある。
【0008】
また、上記従来技術2を用いた場合には、顔パーツの位置のばらつきはある程度吸収できるものの、各顔パーツのパターンが顔全体に比較して単純なため、顔パーツ検出の信頼性が低く、結果的に、顔検出の信頼性が低下してしまうという問題がある。
【0009】
この発明は、上述した問題点を解消するためになされたものであり、顔パーツの位置関係のばらつきを迅速かつ確実に吸収し、もって信頼性の高い迅速な顔検出をおこなうことができる顔検出装置、顔検出方法および顔検出プログラムを提供することを目的とする。
【0010】
【課題を解決するための手段】
本発明は、上記目的を達成するためになされたものであり、請求項1に係る顔検出装置は、入力画像中に存在する顔画像を検出する顔検出装置であって、各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶する記憶手段と、前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手段とを備え、前記検出手段は、前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手段と、前記パーツ情報算定手段によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定手段と、前記存在確率算定手段によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定手段と、前記総和算定手段により算定された第2の存在確率の総和の最大値を求め、この最大値をとる位置を顔の基準点として特定する基準点特定手段とを備えたことを特徴とする。
【0012】
また、請求項2に係る顔検出装置は、請求項1の発明において、前記存在確率算定手段は、前記パーツ情報算定手段によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の第2の存在確率を算出することを特徴とする。
【0013】
また、請求項3に係る顔検出方法は、入力画像中に存在する顔画像を検出する顔検出方法であって、各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納工程と、前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出工程とを含み、前記検出工程は、前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定工程と、前記パーツ情報算定工程によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定工程と、前記存在確率算定工程によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定工程と、前記総和算定工程により算定された第2の存在確率の総和の最大値を求め、この最大値をとる位置を顔の基準点として特定する基準点特定工程とを含んだことを特徴とする。
【0015】
また、請求項4に係る顔検出装置は、請求項3の発明において、前記存在確率算定工程は、前記パーツ情報算定工程によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の第2の存在確率を算出することを特徴とする。
【0016】
また、請求項5に係る顔検出プログラムは、入力画像中に存在する顔画像を検出する顔検出プログラムであって、各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納手順と、前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手順とを備え、前記検出手順は、前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手順と、前記パーツ情報算定手順によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定手順と、前記存在確率算定手順によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定手順と、前記総和算定手順により算定された第2の存在確率の総和の最大値を求め、この最大値をとる位置を顔の基準点として特定する基準点特定手順とを含んだ各手順をコンピュータに実行させることを特徴とする。
【0018】
また、請求項6に係る顔検出プログラムは、請求項5の発明において、前記存在確率算定手順は、前記パーツ情報算定手順によって算定されたパーツ情報と、前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率との畳み込みにより、各顔パーツに基づく顔の基準点の第2の存在確率を算出することを特徴とする。
【0019】
【発明の実施の形態】
以下に添付図面を参照して、この発明に係る顔検出装置、顔検出方法および顔検出プログラムの好適な実施の形態を詳細に説明する。
【0020】
図1は、本発明の実施の形態に係る顔検出装置の概略構成を示すブロック図である。図1に示すように、この顔検出装置1は、撮像部2と、記憶部4に記憶された各顔パーツの事前情報に基づいて、入力画像中に存在する顔パーツを認識し、これら各顔パーツに基づいて入力画像中の顔の基準点を算出し、この顔の基準点に基づいて入力画像中から顔画像を検出する検出部3と、各顔パーツを基準とした基準点の存在確率を含む各顔パーツの事前情報を記憶する記憶部4とを備えている。この記憶部4に記憶される事前情報については後述する。ここで、この顔パーツとは、右目、左目、鼻および口などの顔の構成要素のことを指す。
【0021】
撮像部2は、本例の場合、従来から知られているCCD等を利用したカメラ装置を採用している。また、検出部3は、コンピュータ装置(CPU)を用いている。さらに、記憶部4は、検出部3をなすコンピュータ装置に付設のハードディスクを採用している。なお、この記憶部4は、コンピュータ装置とは別のコンピュータ装置を採用することもできる。
【0022】
検出部3は、図1に示すように、パーツ情報算定部3a、存在確率算定部3b、総和算定部3cおよび基準点特定部3dを有する。このパーツ情報算定部3aは、撮像部2によって入力された入力画像の各位置に対して記憶部4に記憶されている部分空間を用いて各顔パーツらしさを求める処理部である。
【0023】
また、存在確率算定部3bは、上記パーツ情報算定部3aによって得られた各顔パーツらしさと、事前情報の一つである各顔パーツを基準とした顔の基準点の存在確率とにより、それぞれの顔パーツに基づく顔の基準点の存在確率を算出する処理部である。ここでは、それぞれの顔パーツに基づく顔の基準点の存在確率は、各顔パーツらしさと、記憶部4に記憶されているそれぞれの顔パーツを基準とした顔の基準点に対する存在確率との畳み込み(コンボリューション)により算出することとしている。
【0024】
また、総和算定部3cは、まず存在確率算定部3bによって得られたそれぞれの顔パーツに基づく顔の基準点の存在確率に各顔パーツの重要度による重み付けをおこない、この重み付けをおこなうことで得られる各顔パーツに基づく顔の基準点の存在確率の総和を求める処理部である。
【0025】
また、基準点特定部3dは、総和算定部3cで得られた存在確率の和の最大値を求め、この最大値を顔の基準点とする処理部である。
【0026】
上記構成を有する顔検出装置1を用いて、撮像部2から得られた入力画像中の顔画像の検出手順は、図3に示すフローチャートのようになる。ただし、かかる顔検出に先立って、図2に示すフローチャートの学習処理をおこない、この学習処理で得られた各種事前情報を記憶部4に格納しておく必要がある。以下では、かかる学習処理について説明した後、顔検出処理について説明する。
【0027】
図2は、顔検出に先だっておこなわれる学習処理手順を示すフローチャートである。同図に示すように、あらかじめ多数の顔画像を入力して記憶部4に記憶する(ステップS201)。かかる顔画像は、撮像部2を用いて学習用としての顔画像を撮像することによって入力することができる。また、スキャナなどの図示しない別の入力装置を用いても良い。
【0028】
この入力作業を終えたならば、ステップS202に進み、ステップS201で入力した各顔画像に対して、顔の基準点と、各顔パーツの位置を指定し、各顔パーツの位置を基準とした所定の大きさの顔パーツ画像を抽出する。なお、顔の基準点および各顔パーツの位置は、作業者が適宜に指定する。
【0029】
次に、ステップS203に進み、ステップS202で定めた顔の基準点の各顔パーツ位置に対する相対位置を求める。この後、ステップS204に進み、ステップS203で求めた複数の相対位置の平均と共分散とを求める。更に、これら平均および共分散に基づいて、正規分布を用いて各顔パーツに対する顔の基準点の存在確率Qi(x)を求める。
【0030】
具体的には、2次元の平均列ベクトルをm、共分散行列の逆行列をVとすると、
Qi(x)=Cexp{−<m,Vm>}
として求める。なお、Cは定数であり、<m,Vm>は、mとVmの内積を示すものとする。
【0031】
最後に、ステップS205に進み、各顔パーツ画像について前述した部分空間法を用いて学習する。すなわち、各顔パーツの平均画像および固有画像を作成し、記憶部4に記憶させる。これら各顔パーツの平均画像や固有画像、各顔パーツに対する顔の基準点の存在確率Qi(x)が、特許請求の範囲に記載された事前情報に相当する。
【0032】
上述したような学習を終えたならば、撮像部2から取り込んだ入力画像から顔画像を検出することが可能となる。次に、この顔検出手順について図3を用いて説明する。
【0033】
図3のステップS301に示すように、撮像部2で取得した検出対象用の入力画像を検出部3に入力したならば、入力画像中のすべての位置に対してその位置を中心とする部分画像を抽出し、各顔パーツiに対して部分空間法を適用して、各顔パーツiの位置xにおける各顔パーツiの部分空間との距離をdi(x)とした場合の、それぞれの各顔パーツらしさPi(x)=exp(−di(x)/d0)を算出する。これは、検出部3のパーツ情報算定部3aが担当する。
【0034】
具体的には、顔パーツiに関し、i=1を右目、i=2を左目、i=3を鼻、i=4を口とすると、これら各顔パーツである、右目、左目、鼻、口に対して上記部分空間法を適用して、それぞれ右目らしさP1(x)、左目らしさP2(x)、鼻らしさP3(x)、口らしさP4(x)を、上記Pi(x)の式に基づいて算出する。
【0035】
次に、ステップ303に進み、各顔パーツiを用いた顔の基準点の存在確率Ri(x)を求める。この存在確率Ri(x)は、上記Pi(x)と各顔パーツに対する顔の基準点の存在確率Qi(x)とにより、Pi(x)*Qi(x)で求める。上記演算記号「*」は、コンボリューション(畳み込み)を表している。なお、かかるRiは、確率であることの条件ΣRi=1を満たさないが、Ri(x)が大きいほどxが顔の基準点である確率が大きくなるという意味で、ここでは確率と言う。上記ステップS303に係る作業は、検出部3の存在確率算定部3bが担当する。
【0036】
図4は、各顔パーツに対する顔の基準点のばらつきを示したものである。たとえば、図4(A)は、右目の位置K1が決まったときに、顔の基準点が楕円Q1の範囲内にある確率が高いことを表している。同様に、同図(B)は、左目の位置K2が決まったときに、顔の基準点が楕円Q2の範囲内にある確率が高いことを表しており、同図(C)は、鼻の位置K3が決まったときに、顔の基準点が楕円Q3の範囲内にある確率が高いことを表しており、同図(D)は、口の位置K4が決まったときに、顔の基準点が楕円Q4の範囲内にある確率が高いことを表している。
【0037】
次いでステップS304に進み、上記ステップS303で求めた各顔パーツiにおけるそれぞれの存在確率Ri(x)ごとに、その重要度に応じた重みを付加し、重みを付加した後の各存在確率Wi・Ri(x)の総和を求める。すなわち、R(x)=ΣWi・Ri(x)を求める。このステップS304に係る作業は、検出部3の総和算定部3cが担当する。
【0038】
このように重みを付加した後の各存在確率の総和R(x)が求まったならば、ステップS305に進み、R(x)の最大値Rmax(x)を求める。さらに、このRmax(x)を満たす位置xを顔の基準点とする。すなわち、各顔パーツiのそれぞれの存在確率Ri(x)に基づいて、各顔パーツiごとのそれぞれの顔の基準点が、図5(A)に示すように得られる。これら各基準点についてR(x)の最大値Rmax(x)を求めることにより、図5(B)に示すように、各顔パーツiが統合された状態における上記位置xが得られる。上記ステップS305に係る作業は、検出部3の基準点特定部3dが担当する。
【0039】
上述してきたように、本発明に係る顔検出装置は、各顔パーツらしさを求めた後、それらの結果を位置のばらつきを考慮して統合する。このため、従来方法のように個人間における各顔パーツの大きなばらつきが生じることがない。すなわち、このようなばらつきを有効に吸収できる。この結果、確実な顔検出を行えるようになり、顔検出の信頼性が向上する。
【0040】
なお、本実施の形態では撮像部2としてCCDカメラを用いた場合について説明したが、本発明はこれに限定されるものではなく、例えばスキャナを採用して写真中の顔画像を検出する装置に応用することもできる。
【0041】
また図1に示す検出部3は一のコンピュータ装置によって構成しているが、この場合、当該コンピュータ装置に、パーツ情報算定部3a、存在確率算定部3b、総和算定部3c、基準点特定部3dにそれぞれ対応するプログラムを組み込んでいる。
【0042】
【発明の効果】
以上説明したように、本発明に係る顔検出装置、顔検出方法、顔検出プログラムによれば、各顔パーツらしさを求めた後、それらの結果を位置のばらつきを考慮して統合する。このため、従来方法のように個人間における各顔パーツの大きなばらつきが生じることがない。すなわち、このようなばらつきを有効に吸収できる。この結果、確実な顔検出を行えるようになり、顔検出の信頼性が向上する。また、例えば監視装置に本発明を組み込む等、従来知られた種々の装置に組み込んで適用可能であるため、産業の発展に寄与できる。
【図面の簡単な説明】
【図1】この発明の実施の形態である顔検出装置の概略構成を示すブロック図である。
【図2】顔検出に先だって行われる学習の手順を示すフローチャートである。
【図3】顔検出の手順を示すフローチャートである。
【図4】各顔パーツに対する顔の基準点のばらつきを示す図である。
【図5】最終的な顔の基準点を求める際の作用を説明するための略図であり、(A)は各顔パーツの統合前を、(B)は統合後を、それぞれ示す略図である。
【符号の説明】
1 顔検出装置
2 撮像部
3 検出部
3a パーツ情報算定部
3b 存在確率算定部
3c 総和算定部
3d 基準点特定部
4 記憶部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a face detection apparatus, a face detection method, and a face detection program for detecting a face image in an input image, and in particular, quickly and reliably absorb variations in the positional relationship of face parts, thereby having high reliability and speed. The present invention relates to a face detection apparatus, a face detection method, and a face detection program capable of performing face detection.
[0002]
[Prior art]
In the surveillance camera system, since it is necessary to automatically recognize whether or not a person is reflected in an image captured by the surveillance camera, a technique using a face detection technique called a subspace method is known.
[0003]
For example, Matthew A. Turk, Alex Pentland, “Face Recognition Using Eigefaces”, Proc. CVPR, pp. 586-591, 1991, discloses a technique for constructing a partial space by collecting data of face images of a large number of people. In this prior art, a low-dimensional subspace that represents the entire face is prepared, and the face position is determined by examining which position in the input image best fits the prepared subspace. Detected.
[0004]
Specifically, in a model expressing a pattern distribution assuming a normal distribution with parameters of the mean and covariance matrix obtained from the face image data set prepared for learning, an eigenvector associated with the upper eigenvalue of the covariance matrix The pattern is limited to the subspace to be stretched, and the distance between the input pattern and the subspace is measured by regarding the subspace as a face space.
[0005]
By the way, when performing face detection using such a subspace method, it is difficult to absorb this variation because the variation in position of face parts (eyes, nose, mouth, etc.) is large among individuals. That is, in face detection, it is necessary to normalize the size of the face image. For example, if the reference is “interval between eyes”, the distance from the midpoint of both eyes to other face parts (eg, “mouth”) The distance is greatly different between a face with a face length and a face with a round face.
[0006]
For this reason, Japanese Patent Laid-Open No. 9-91429 (Prior Art 1) discloses an invention in which matching with a partial space is performed while changing the aspect ratio. Japanese Patent Application Laid-Open No. 9-44676 (Prior Art 2) describes an invention in which after detecting a plurality of face parts, the position of the face is specified based on the positional relationship of each face part. By utilizing the inventions disclosed in the
[0007]
[Problems to be solved by the invention]
However, when the above
[0008]
In addition, when using the above-described
[0009]
The present invention has been made to solve the above-described problems, and is capable of quickly and reliably absorbing variations in the positional relationship of face parts, and thus performing face detection with high reliability and quickness. An object is to provide an apparatus, a face detection method, and a face detection program.
[0010]
[Means for Solving the Problems]
The present invention has been made to achieve the above object, and the face detection device according to
[0012]
The face detection device according to
[0013]
According to a third aspect of the present invention, there is provided a face detection method for detecting a face image existing in an input image, wherein the first presence probability of a face reference point based on each face part and each face A storing step of storing in advance a front part information of each face part including a partial space of the parts in the storage unit, and recognizing each facial part existing in the input image based on the partial space, and recognizing each recognized facial part and the face Detection of calculating a reference point of a face in the input image based on a first existence probability of a reference point of a face with reference to a part, and detecting a face image from the input image based on the calculated reference point of the face a step seen including, the detecting step includes a part information calculation step of calculating a respective face part likeness as part information using the subspace, the part information calculating part information calculated by steps and the prior information Each face part that is one Based on the first existence probability of the reference point of the face as a reference, the existence probability calculation step of calculating the second existence probability of the face reference point based on each face part, and the calculation by the existence probability calculation step The second existence probability of the face reference point based on each face part is weighted according to the importance of each face part, and the second of the face reference points based on each face part obtained from the weight result A sum total calculation step for calculating the sum of existence probabilities, and a reference point specification for obtaining a maximum value of the second sum of existence probabilities calculated by the sum calculation step and specifying a position where the maximum value is obtained as a reference point of the face And a process .
[0015]
According to a fourth aspect of the present invention, in the invention of the third aspect , the presence probability calculating step includes each piece of face information that is one of the part information calculated in the part information calculating step and the prior information. The second existence probability of the face reference point based on each face part is calculated by convolution with the first existence probability of the face reference point based on the part.
[0016]
According to a fifth aspect of the present invention, there is provided a face detection program for detecting a face image existing in an input image, wherein the first presence probability of a face reference point based on each face part and each face A storing procedure for storing in advance a front part information of each face part including a partial space of the parts in the storage unit, and recognizing each facial part existing in the input image based on the partial space, and recognizing each recognized facial part and the face Detection of calculating a reference point of a face in the input image based on a first existence probability of a reference point of a face with reference to a part, and detecting a face image from the input image based on the calculated reference point of the face The detection procedure includes a part information calculation procedure for calculating the likelihood of each facial part as part information using the partial space, a part information calculated by the part information calculation procedure, and one of the prior information. One An existence probability calculation procedure for calculating a second existence probability of a face reference point based on each face part based on the first existence probability of a face reference point based on each face part; and the existence probability Weighting according to the importance of each face part to the second existence probability of the face reference point based on each face part calculated by the calculation procedure, and the face reference point based on each face part obtained from the weighting result The sum total calculation procedure for calculating the sum of the second existence probabilities of the first and the maximum value of the second sum of the second existence probabilities calculated by the sum calculation procedure, and specifying the position where this maximum value is taken as the reference point of the face The computer is caused to execute each procedure including a reference point specifying procedure to be performed.
[0018]
The face detection program according to claim 6 is the face detection program according to claim 5 , wherein the existence probability calculation procedure is a part information calculated by the parts information calculation procedure and each face as one of the prior information. The second existence probability of the face reference point based on each face part is calculated by convolution with the first existence probability of the face reference point based on the part.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Exemplary embodiments of a face detection device, a face detection method, and a face detection program according to the present invention will be explained below in detail with reference to the accompanying drawings.
[0020]
FIG. 1 is a block diagram showing a schematic configuration of a face detection apparatus according to an embodiment of the present invention. As shown in FIG. 1, the
[0021]
In the case of this example, the
[0022]
As shown in FIG. 1, the
[0023]
In addition, the existence
[0024]
Also, the sum
[0025]
The reference
[0026]
The procedure for detecting a face image in an input image obtained from the
[0027]
FIG. 2 is a flowchart showing a learning processing procedure performed prior to face detection. As shown in the figure, a number of face images are input in advance and stored in the storage unit 4 (step S201). Such a face image can be input by capturing a face image for learning using the
[0028]
When this input operation is completed, the process proceeds to step S202, where the face reference point and the position of each face part are designated for each face image input in step S201, and the position of each face part is used as a reference. A face part image having a predetermined size is extracted. The face reference point and the position of each face part are appropriately designated by the operator.
[0029]
Next, the process proceeds to step S203, and the relative position of the face reference point determined in step S202 with respect to each face part position is obtained. Thereafter, the process proceeds to step S204, and the average and covariance of the plurality of relative positions obtained in step S203 are obtained. Further, based on these averages and covariances, the existence probability Qi (x) of the face reference point for each face part is obtained using a normal distribution.
[0030]
Specifically, when the two-dimensional average column vector is m and the inverse matrix of the covariance matrix is V,
Qi (x) = Cexp {-<m, Vm>}
Asking. C is a constant, and <m, Vm> represents an inner product of m and Vm.
[0031]
Finally, the process proceeds to step S205, where each face part image is learned using the subspace method described above. That is, an average image and a unique image of each face part are created and stored in the storage unit 4. The average image and unique image of each face part, and the presence probability Qi (x) of the face reference point for each face part correspond to the prior information described in the claims.
[0032]
When learning as described above is completed, a face image can be detected from the input image captured from the
[0033]
As shown in step S301 of FIG. 3, if the detection target input image acquired by the
[0034]
Specifically, regarding face part i, if i = 1 is the right eye, i = 2 is the left eye, i = 3 is the nose, and i = 4 is the mouth, these face parts are the right eye, left eye, nose, mouth. By applying the above subspace method, the right eye-likeness P1 (x), the left eye-likeness P2 (x), the nasal-likeness P3 (x), and the mouth-likeness P4 (x) are respectively expressed in the above Pi (x). Calculate based on
[0035]
Next, the process proceeds to step 303, where the existence probability Ri (x) of the reference point of the face using each face part i is obtained. The existence probability Ri (x) is obtained as Pi (x) * Qi (x) from the above Pi (x) and the existence probability Qi (x) of the face reference point for each face part. The arithmetic symbol “*” represents convolution (convolution). Note that such Ri does not satisfy the probability condition ΣRi = 1, but here, the larger Ri (x), the larger the probability that x is the reference point of the face, and here it is referred to as a probability. The work relating to step S303 is handled by the existence
[0036]
FIG. 4 shows the variation of the face reference point for each face part. For example, FIG. 4A shows that when the position K1 of the right eye is determined, the probability that the face reference point is within the range of the ellipse Q1 is high. Similarly, FIG. 5B shows that when the position K2 of the left eye is determined, the probability that the face reference point is within the range of the ellipse Q2 is high. FIG. When the position K3 is determined, the probability that the face reference point is within the range of the ellipse Q3 is high. FIG. 4D shows the face reference point when the mouth position K4 is determined. Represents a high probability of being within the range of the ellipse Q4.
[0037]
Next, the process proceeds to step S304, for each existence probability Ri (x) in each face part i obtained in step S303, a weight corresponding to the importance is added, and each existence probability Wi · Find the sum of Ri (x). That is, R (x) = ΣWi · Ri (x) is obtained. The operation relating to step S304 is handled by the sum
[0038]
When the sum R (x) of the respective existence probabilities after adding weights is obtained in this way, the process proceeds to step S305, and the maximum value Rmax (x) of R (x) is obtained. Further, a position x satisfying this Rmax (x) is set as a reference point of the face. That is, based on the existence probability Ri (x) of each face part i, the reference point of each face for each face part i is obtained as shown in FIG. By obtaining the maximum value Rmax (x) of R (x) for each of these reference points, the position x in the state where the face parts i are integrated is obtained as shown in FIG. The reference
[0039]
As described above, the face detection device according to the present invention obtains the likelihood of each face part, and then integrates the results in consideration of the position variation. For this reason, there is no large variation in individual facial parts among individuals as in the conventional method. That is, such variation can be effectively absorbed. As a result, reliable face detection can be performed, and the reliability of face detection is improved.
[0040]
In this embodiment, the case where a CCD camera is used as the
[0041]
1 comprises a single computer device. In this case, the computer device includes a parts information calculation unit 3a, an existence
[0042]
【The invention's effect】
As described above, according to the face detection device, the face detection method, and the face detection program according to the present invention, after obtaining the likelihood of each face part, the results are integrated in consideration of the variation in position. For this reason, there is no large variation in individual facial parts among individuals as in the conventional method. That is, such variation can be effectively absorbed. As a result, reliable face detection can be performed, and the reliability of face detection is improved. In addition, since the present invention can be incorporated and applied to various conventionally known devices, for example, the present invention is incorporated into a monitoring device, it can contribute to industrial development.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a schematic configuration of a face detection apparatus according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a learning procedure performed prior to face detection.
FIG. 3 is a flowchart illustrating a face detection procedure.
FIG. 4 is a diagram showing variations in facial reference points for each facial part.
FIGS. 5A and 5B are schematic diagrams for explaining an action in obtaining a final face reference point, where FIG. 5A is a schematic diagram showing before and after integration of each facial part; FIG. .
[Explanation of symbols]
DESCRIPTION OF
Claims (6)
各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶する記憶手段と、
前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手段とを備え、
前記検出手段は、
前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手段と、前記パーツ情報算定手段によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定手段と、前記存在確率算定手段によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定手段と、前記総和算定手段により算定された第2の存在確率の総和の最大値を求め、この最大値をとる位置を顔の基準点として特定する基準点特定手段とを備えた
ことを特徴とする顔検出装置。A face detection device for detecting a face image present in an input image,
Storage means for storing prior information of each face part including a first existence probability of a reference point of the face relative to each face part and a partial space of each face part;
Recognizing each face part present in the input image based on the partial space, and in the input image based on a first existence probability of each recognized face part and a reference point of a face based on the face part. Detecting means for detecting a face image from the input image based on the calculated face reference point ,
The detection means includes
Parts information calculation means for calculating the likelihood of each face part as part information using the partial space, and the parts information calculated by the parts information calculation means and each face part as one of the prior information A presence probability calculating means for calculating a second existence probability of the face reference point based on each face part based on the first existence probability of the face reference point; and each of the existence probability calculating means calculated by the existence probability calculating means The second existence probability of the face reference point based on the face part is weighted according to the importance of each face part, and the second existence probability of the face reference point based on each face part obtained from the weighting result Sum total calculating means for calculating the sum, and a reference point specifying means for determining a maximum value of the total sum of the second existence probabilities calculated by the sum calculating means and specifying a position where the maximum value is obtained as a reference point of the face Face detection apparatus characterized by comprising and.
各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納工程と、
前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出工程とを含み、
前記検出工程は、
前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定工程と、前記パーツ情報算定工程によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定工程と、前記存在確率算定工程によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定工程と、前記総和算定工程により算定された第2の存在確率の総和の最大値を求め、この最大値をとる位置を顔の基準点として特定する基準点特定工程とを含んだ
ことを特徴とする顔検出方法。A face detection method for detecting a face image present in an input image,
A storing step of storing in the storage unit prior information of each face part including a first existence probability of a reference point of the face relative to each face part and a partial space of each face part;
Recognizing each face part present in the input image based on the partial space, and in the input image based on a first existence probability of each recognized face part and a reference point of a face based on the face part. of calculating the reference points of the face, seen including a detection step of detecting a face image from the input image based on the reference point of the calculated face,
The detection step includes
A part information calculation step for calculating the likelihood of each facial part as part information using the partial space, and part information calculated by the part information calculation step and each face part as one of the prior information. A presence probability calculating step of calculating a second presence probability of the face reference point based on each face part based on the first presence probability of the face reference point; The second existence probability of the face reference point based on the face part is weighted according to the importance of each face part, and the second existence probability of the face reference point based on each face part obtained from the weighting result A total point calculation process for calculating the total sum and a reference point specifying process for determining the maximum value of the total sum of the second existence probabilities calculated by the total calculation step and specifying a position where the maximum value is obtained as a reference point of the face Face detection method characterized by including and.
各顔パーツを基準とした顔の基準点の第1の存在確率および各顔パーツの部分空間を含む各顔パーツの事前情報を記憶部に格納する格納手順と、
前記部分空間に基づいて前記入力画像中に存在する各顔パーツを認識し、認識した各顔パーツと前記顔パーツを基準とした顔の基準点の第1の存在確率に基づいて前記入力画像中の顔の基準点を算出し、算出した顔の基準点に基づいて前記入力画像から顔画像を検出する検出手順とを備え、
前記検出手順は、
前記部分空間を用いて各顔パーツらしさをパーツ情報として算定するパーツ情報算定手順と、前記パーツ情報算定手順によって算定されたパーツ情報と前記事前情報の一つである各顔パーツを基準とした顔の基準点の第1の存在確率とに基づいて、それぞれの顔パーツに基づく顔の基準点の第2の存在確率を算定する存在確率算定手順と、前記存在確率算定手順によって算定された各顔パーツに基づく顔の基準点の第2の存在確率に対して各顔パーツの重要度による重み付けをおこない、該重み付け結果から得られる各顔パーツに基づく顔の基準点の第2の存在確率の総和を算定する総和算定手順と、前記総和算定手順により算定された第2の存在確率の総和の最大値を求め、この最大値とる位置を顔の基準点として特定する基準点特定手順とを含んだ
各手順をコンピュータに実行させることを特徴とする顔検出プログラム。A face detection program for detecting a face image present in an input image,
A storage procedure for storing in advance a first information on each face part including a first existence probability of a reference point of a face relative to each face part and a partial space of each face part in a storage unit;
Recognizing each face part present in the input image based on the partial space, and in the input image based on a first existence probability of each recognized face part and a reference point of a face based on the face part. And a detection procedure for detecting a face image from the input image based on the calculated face reference point .
The detection procedure includes:
A part information calculation procedure for calculating the likelihood of each face part as part information using the partial space, and part information calculated by the part information calculation procedure and each face part as one of the prior information. An existence probability calculation procedure for calculating a second existence probability of a face reference point based on each face part based on the first existence probability of the face reference point; and each of the existence probability calculation procedures calculated by the existence probability calculation procedure The second existence probability of the face reference point based on the face part is weighted according to the importance of each face part, and the second existence probability of the face reference point based on each face part obtained from the weighting result Sum total calculation procedure for calculating the sum, and a reference point specifying procedure for obtaining the maximum value of the total sum of the second existence probabilities calculated by the total calculation procedure and specifying the position where the maximum value is taken as the reference point of the face Including
A face detection program for causing a computer to execute each procedure .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002208881A JP4011426B2 (en) | 2002-07-17 | 2002-07-17 | Face detection device, face detection method, and face detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002208881A JP4011426B2 (en) | 2002-07-17 | 2002-07-17 | Face detection device, face detection method, and face detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004054442A JP2004054442A (en) | 2004-02-19 |
JP4011426B2 true JP4011426B2 (en) | 2007-11-21 |
Family
ID=31932913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002208881A Expired - Fee Related JP4011426B2 (en) | 2002-07-17 | 2002-07-17 | Face detection device, face detection method, and face detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4011426B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4410732B2 (en) * | 2005-07-27 | 2010-02-03 | グローリー株式会社 | Face image detection device, face image detection method, and face image detection program |
JP4532419B2 (en) * | 2006-02-22 | 2010-08-25 | 富士フイルム株式会社 | Feature point detection method, apparatus, and program |
JP4795864B2 (en) * | 2006-06-21 | 2011-10-19 | 富士フイルム株式会社 | Feature point detection apparatus and method, and program |
JP4745207B2 (en) * | 2006-12-08 | 2011-08-10 | 株式会社東芝 | Facial feature point detection apparatus and method |
JP4998637B1 (en) * | 2011-06-07 | 2012-08-15 | オムロン株式会社 | Image processing apparatus, information generation apparatus, image processing method, information generation method, control program, and recording medium |
JP6032921B2 (en) * | 2012-03-30 | 2016-11-30 | キヤノン株式会社 | Object detection apparatus and method, and program |
US9183429B2 (en) * | 2012-08-15 | 2015-11-10 | Qualcomm Incorporated | Method and apparatus for facial recognition |
WO2015049826A1 (en) * | 2013-10-01 | 2015-04-09 | 日本電気株式会社 | Object detection apparatus, method for detecting object, and learning apparatus |
JP6325405B2 (en) * | 2014-09-22 | 2018-05-16 | 株式会社東芝 | Feature point detection apparatus, method and program |
-
2002
- 2002-07-17 JP JP2002208881A patent/JP4011426B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004054442A (en) | 2004-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11741736B2 (en) | Determining associations between objects and persons using machine learning models | |
WO2020088588A1 (en) | Deep learning-based static three-dimensional method for detecting whether face belongs to living body | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
KR102016082B1 (en) | Method and apparatus for pose-invariant face recognition based on deep learning | |
US20160379050A1 (en) | Method for determining authenticity of a three-dimensional object | |
JP6007682B2 (en) | Image processing apparatus, image processing method, and program | |
KR102476016B1 (en) | Apparatus and method for determining position of eyes | |
CN108875533B (en) | Face recognition method, device, system and computer storage medium | |
JP7525990B2 (en) | Main subject determination device, imaging device, main subject determination method, and program | |
CN112257696B (en) | Sight estimation method and computing equipment | |
JP6071002B2 (en) | Reliability acquisition device, reliability acquisition method, and reliability acquisition program | |
JP5001930B2 (en) | Motion recognition apparatus and method | |
JP2021531601A (en) | Neural network training, line-of-sight detection methods and devices, and electronic devices | |
JP5087037B2 (en) | Image processing apparatus, method, and program | |
CN110909561A (en) | Eye state detection system and operation method thereof | |
CN112562159B (en) | Access control method and device, computer equipment and storage medium | |
WO2021084972A1 (en) | Object tracking device and object tracking method | |
CN106881716A (en) | Human body follower method and system based on 3D cameras robot | |
CN110895802A (en) | Image processing method and device | |
JP4011426B2 (en) | Face detection device, face detection method, and face detection program | |
WO2020195732A1 (en) | Image processing device, image processing method, and recording medium in which program is stored | |
CN116580169B (en) | Digital man driving method and device, electronic equipment and storage medium | |
JP4774818B2 (en) | Image processing apparatus and image processing method | |
CN106406507B (en) | Image processing method and electronic device | |
CN114743264B (en) | Shooting behavior detection method, device, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050413 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20051213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070515 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070904 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070905 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100914 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110914 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110914 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120914 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120914 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130914 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130914 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |