JP2000222572A - Gender determination method - Google Patents
Gender determination methodInfo
- Publication number
- JP2000222572A JP2000222572A JP11020076A JP2007699A JP2000222572A JP 2000222572 A JP2000222572 A JP 2000222572A JP 11020076 A JP11020076 A JP 11020076A JP 2007699 A JP2007699 A JP 2007699A JP 2000222572 A JP2000222572 A JP 2000222572A
- Authority
- JP
- Japan
- Prior art keywords
- principal component
- gender
- face image
- converted
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】学習用顔画像と被識別対象顔画像を同一環境下
で撮影した場合でも異なる環境下で撮影した場合でも男
女の性別を高い識別率で判定する。
【解決手段】被識別対象顔画像を主成分ベクトルにより
主成分へ変換し、この変換された主成分を計算済みの線
形判別分析式に入力して男女の性別を決定する。すなわ
ち、性別未知の顔画像xを主成分ベクトルによりp個の
主成分値に変換し、k個の主成分を選んでk次元ベクト
ルzを作る。そして、k次元ベクトルzを学習フェーズ
においてパラメータ決定された線形1次判別分析式に代
入してwを求め、wの値が正ならば男性、負ならば女性
と判別する。
(57) [Summary] [Problem] To determine the gender of a man and a woman at a high discrimination rate regardless of whether a learning face image and a face image to be identified are shot under the same environment or under different environments. A face image to be identified is converted into a principal component by a principal component vector, and the converted principal component is input to a calculated linear discriminant analysis formula to determine the gender of the gender. That is, the gender unknown face image x is converted into p principal component values by the principal component vector, and k principal components are selected to create a k-dimensional vector z. Then, the k-dimensional vector z is substituted into the linear primary discriminant analysis equation for which the parameters have been determined in the learning phase to obtain w.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、顔画像による性別
の判定方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for determining gender based on a face image.
【0002】[0002]
【従来の技術】性別の判定方法としては、例えば、文献
「Medical Imaging Technology」Vol.12 No.6 710〜715
の「ニューラルネットワークによる8×6超低解像度画
像からの男女識別」には、顔画像をモザイク化して8×
8又は8×6の小画像とし、その小画像の各輝度値をニ
ューラルネットワークに入力し男女を判定する方法が記
載されている。これは、最初に学習用顔画像をモザイク
化して、ニューラルネットワークに入力しネットワーク
の学習を行い、被識別対象の顔画像も同様にモザイク化
してニューラルネットワークに入力して性別を判定する
というものである。一方、パターン認識における判別分
析は、通常、顔画像の全輝度値について画像処理を施し
た結果得られる特徴量を利用して行われていた。2. Description of the Related Art As a method for determining gender, for example, the literature “Medical Imaging Technology” Vol. 12 No. 6 710-715
In “Determination of Gender from 8 × 6 Ultra-Low-Resolution Images Using Neural Network”, the face
A method is described in which a small image of 8 or 8 × 6 is set, and each luminance value of the small image is input to a neural network to determine gender. In this method, a learning face image is first mosaiced, input to a neural network to perform network learning, and a face image to be identified is similarly mosaicized and input to the neural network to determine gender. is there. On the other hand, discriminant analysis in pattern recognition is usually performed using a feature amount obtained as a result of performing image processing on all luminance values of a face image.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、前者の
判定方法では、画像をあるブロック毎に輝度の平均値を
求め、画像サイズを落としているため、識別に重要にな
る可能性のある輝度情報もブロック毎に平均化されてし
まうため男女の性別を精度良く識別できないという問題
があった。However, in the former determination method, since the average value of the luminance of the image is obtained for each block and the image size is reduced, luminance information that may be important for identification is also obtained. There is a problem that the gender of a man and a woman cannot be identified with high accuracy because the data is averaged for each block.
【0004】また、後者の顔画像の全輝度値について画
像処理を施して判別分析を行う方法を男女の判定に適用
した場合、ある環境で撮影した顔画像集合を学習に利用
し、この学習した情報を基に他の環境で撮影した顔画像
の性別を判定しようとすると、環境の違いの影響を受け
て識別率が低下するという問題があった。すなわち、学
習用顔画像と被識別対象顔画像が同一環境下で撮影した
画像の場合は良いが、異なる環境下で撮影した場合には
男女の性別を精度良く識別できないという問題があっ
た。When the latter method of performing discriminant analysis by applying image processing to all luminance values of a face image is applied to the determination of gender, a set of face images photographed in a certain environment is used for learning. When trying to determine the gender of a face image captured in another environment based on the information, there is a problem that the discrimination rate decreases due to the influence of the environment. That is, it is good if the learning face image and the face image to be identified are images captured in the same environment, but there is a problem that gender of the gender cannot be accurately distinguished when captured in different environments.
【0005】そこで、各請求項記載の発明は、学習用顔
画像と被識別対象顔画像が同一環境下で撮影した場合は
勿論、異なる環境下で撮影した場合であっても、男女の
性別を高い識別率で精度良く判定できる性別の判定方法
を提供する。[0005] Therefore, the inventions described in the claims claim that the gender of a man and a woman can be determined not only when the learning face image and the face image to be identified are photographed under the same environment but also under different environments. Provided is a gender determination method capable of determining with high identification rate and high accuracy.
【0006】[0006]
【課題を解決するための手段】請求項1記載の発明は、
男女の学習用顔画像の集合に対して主成分分析を行って
主成分ベクトルを求め、各学習用顔画像を主成分ベクト
ルにより主成分に変換し、この変換した各学習用顔画像
のそれぞれの主成分を利用して男女を判別するための線
形判別分析のパラメータ決定を行い、続いて、被識別対
象の顔画像を主成分ベクトルにより主成分に変換し、こ
の変換した主成分により線形判別分析を行って男女の性
別を判定することにある。According to the first aspect of the present invention,
Principal component analysis is performed on a set of male and female learning face images to obtain a principal component vector, each learning face image is converted into a principal component by the principal component vector, and each of the converted learning face images is converted to a principal component. The parameters of the linear discriminant analysis for discriminating between men and women are determined using the principal components. Subsequently, the face image to be identified is converted into the principal components by the principal component vectors, and the linear discriminant analysis is performed using the converted principal components. To determine the gender of the gender.
【0007】請求項2記載の発明は、男女の学習用顔画
像の集合に対して主成分分析を行って主成分ベクトルを
求め、各学習用顔画像を主成分ベクトルにより主成分に
変換し、この変換した各学習用顔画像のそれぞれの主成
分を利用して男女を判別するための非線形判別分析のパ
ラメータ決定を行い、続いて、被識別対象の顔画像を主
成分ベクトルにより主成分に変換し、この変換した主成
分により非線形判別分析を行って男女の性別を判定する
ことにある。According to a second aspect of the invention, a principal component analysis is performed on a set of male and female learning face images to obtain a principal component vector, and each learning face image is converted into a principal component by the principal component vector. Using the converted principal components of each of the learning face images, parameters for nonlinear discriminant analysis for discriminating between men and women are determined, and then the face image to be identified is converted into the principal components by the principal component vector. The gender of a man and a woman is determined by performing a nonlinear discriminant analysis using the converted principal components.
【0008】請求項3記載の発明は、請求項1又は2記
載の性別の判定方法において、判別分析のパラメータ決
定及び識別対象の顔画像の判別分析を上位主成分や選択
した主成分を利用して行うことにある。According to a third aspect of the present invention, in the gender determination method according to the first or second aspect, the determination of the parameters of the discriminant analysis and the discriminant analysis of the face image to be identified are performed using the upper principal components or the selected principal components. To do.
【0009】[0009]
【発明の実施の形態】本発明の実施の形態を図面を参照
して説明する。 (第1の実施の形態)図1は男女の性別判定装置の構成
を示すブロック図で、1は、CCDカメラ等を備え、人
物の顔画像を背景を含めて撮影し画像情報として入力す
る画像入力手段である。2は、前記画像入力手段1が取
込んだ画像情報から顔画像のみを抽出する顔検出手段で
ある。3は、要部を為し、前記顔検出手段2が抽出した
顔画像から男女の性別を判定し、その結果を出力する性
別判定手段である。Embodiments of the present invention will be described with reference to the drawings. (First Embodiment) FIG. 1 is a block diagram showing the configuration of a gender determination apparatus for males and females. Reference numeral 1 denotes an image provided with a CCD camera and the like, which captures a face image of a person including a background and inputs the information as image information. Input means. Reference numeral 2 denotes a face detection unit that extracts only a face image from the image information captured by the image input unit 1. Reference numeral 3 denotes a gender determining unit which functions as a main part, determines the gender of the male and female from the face image extracted by the face detecting unit 2, and outputs the result.
【0010】前記性別判定手段3が性別判定を行うに
は、予め顔画像を学習する学習フェーズが必要となる。
この学習フェーズは、図2に示す流れ図に基づいて行わ
れる。すなわち、学習フェーズS1にて、学習用顔画像
n枚の主成分分析を行い、続いて、学習フェーズS2に
て、学習用顔画像n枚を主成分ベクトルにより主成分に
変換し、最後に、学習フェーズS3にて、学習用顔画像
n枚の主成分による線形判別分析のパラメータ計算を行
う。In order for the gender judging means 3 to judge gender, a learning phase for learning a face image is required in advance.
This learning phase is performed based on the flowchart shown in FIG. That is, in the learning phase S1, the principal component analysis of n learning face images is performed. Subsequently, in the learning phase S2, the n learning face images are converted into the principal components by the principal component vector. In the learning phase S3, the parameters of the linear discriminant analysis based on the principal components of the n learning face images are calculated.
【0011】この学習フェーズの処理についてさらに詳
しく述べると、先ず、学習フェーズS1では、n枚の男
女を含む学習用顔画像を用意し、このn枚の顔画像に対
し主成分分析を行う。n枚の学習用顔画像の各画像のサ
イズを、縦×横=dとする。The learning phase process will be described in more detail. First, in the learning phase S1, a learning face image including n men and women is prepared, and principal component analysis is performed on the n face images. The size of each of the n learning face images is defined as length × width = d.
【0012】この画像xをd次元ベクトル x=[x1,x2,・・・・・,xd]T (1) として、学習用サンプル画像の複数の画像xから、共分散行列Sを、 S=E{(x−m)(x−m)T} (2) により求める。但し、共分散行列の代わりに平均値を引
かない自己相関行列を利用してもよい。Assuming that the image x is a d-dimensional vector x = [x 1 , x 2 ,..., X d ] T (1), a covariance matrix S is calculated from a plurality of images x of the learning sample images. , S = E {(x−m) (x−m) T } (2) However, an autocorrelation matrix that does not subtract an average value may be used instead of the covariance matrix.
【0013】 m=E{x} (3) はxの平均ベクトル。そして、 Suj=λjuj (4) Sの固有ベクトルを対応する固有値の大きい方からp個
取出す。通常pは全サンプル数n又は元の画像の次元d
のうちの小さい方の値よりもさらに小さい値がとられ
る。これが学習用顔画像から抽出された主成分ベクトル
となる。M = E {x} (3) is an average vector of x. Then, taking p number of eigenvectors of Su j = λ j u j ( 4) S from the largest of the corresponding eigenvalues. Usually p is the total number of samples n or the dimension d of the original image
Is smaller than the smaller one of the two. This is the principal component vector extracted from the learning face image.
【0014】 {u1,u2,・・・・・,up} (5) 続いて、学習フェーズS2では、各学習用顔画像xを y=[u1,u2,・・・・・,up]Tx (6) によりp個の主成分値により構成されるp次元ベクトル y=[y1,y2,・・・・・,yp]T (7) に変換する。すなわち、n枚の各学習用顔画像を上記
(6)式に従い(7)式のp次元ベクトルに変換する。主成分
値は、大きい順に並べ、それぞれ第1主成分、第2主成
分、・・・と呼ばれる。[0014] {u 1, u 2, ····· , u p} (5) Subsequently, the learning phase S2, each learning face image x y = [u 1, u 2, ···· ·, u p] T x p-dimensional vector composed of p pieces of the main component values by (6) y = [y 1 , y 2, ·····, converted to y p] T (7). That is, the n learning face images are
According to the equation (6), it is converted into the p-dimensional vector of the equation (7). The principal component values are arranged in descending order, and are respectively referred to as a first principal component, a second principal component,....
【0015】このn枚の各学習用顔画像についてp個の
主成分のうちのk個の主成分を以降に述べる判別分析へ
の入力とする。すなわち、入力としてk個の主成分によ
るk次元ベクトル z=[z1,z2,・・・・・,zk]T (8) を利用する。For each of the n learning face images, k of the p principal components are input to the discriminant analysis described below. That is, a k-dimensional vector z = [z 1 , z 2 ,..., Z k ] T (8) using k principal components is used as an input.
【0016】k個の主成分の選び方は、p個の主成分の
うち、上位k主成分までとして、第1主成分から第k主
成分までを選んでもよく、また、p個のうち、例えば、
第1主成分、第3主成分、第5主成分等、幾つかを任意
に選択してもよい。また、学習フェーズS1における主
成分分析の時点で、p個の主成分ベクトルを計算せず
に、予め上位k個の主成分ベクトルを計算し、この学習
フェーズS2でそれを用いて各学習用顔画像をk個の主
成分値により構成されるk次元ベクトルに変換してもよ
い。以上により、求めたk個の主成分により構成される
n枚のk次元ベクトルz1〜znを次のステップの判別
分析のためのパラメータ計算に利用する。The k principal components may be selected from the first principal component to the k-th principal component as the top k principal components among the p principal components. ,
Some may be arbitrarily selected, such as a first principal component, a third principal component, and a fifth principal component. Also, at the time of the principal component analysis in the learning phase S1, the top k principal component vectors are calculated in advance without calculating the p principal component vectors, and the learning face S2 is used in this learning phase S2. The image may be converted into a k-dimensional vector composed of k principal component values. Thus, utilizing the k-dimensional vector z 1 to z n of n sheets constituted by the k principal components obtained in the parameter calculation for the discriminant analysis in the next step.
【0017】学習フェーズS3では、先ず、男女を含む
n枚の学習用サンプル顔画像のうち、男性の顔画像数を
n1、女性の顔画像数をn2とする。学習フェーズS2
で求めたn1枚の男性用顔画像のk次元ベクトルzの平
均ベクトルをβ1、n2枚の女性の顔画像のzの平均ベ
クトルをβ2とする。[0017] In the learning phase S3, first of all, out of the n pieces of learning sample face images, including men and women, the number of face image male n 1, the number of face image women and n 2. Learning phase S2
Let β 1 be the average vector of the k-dimensional vector z of the n 1 male face images and β 2 be the average vector of z of the n 2 female face images.
【0018】また、n1枚の男性顔画像のzの共分散行
列をS1、n2枚の女性顔画像のzの共分散行列をS2
として、プールされた共分散行列を S=1/(n1+n2-2)×{(n1-1)S1+(n2-1)S2} (9) として、 w={z−1/2(β1+β2)}TS−1(β1−β2) (10 ) という線形判別式を求める。このようにして、線形1次
判別分析のパラメータ計算を終了する。Further, the covariance matrix of z of n 1 male face images is S 1 , and the covariance matrix of z of n 2 female face images is S 2
And the pooled covariance matrix is S = 1 / (n 1 + n 2 -2) × {(n 1 -1) S 1 + (n 2 -1) S 2 } (9), and w = { A linear discriminant of z−1 / 2 (β 1 + β 2 )} TS −1 (β 1 −β 2 ) (10) is obtained. Thus, the parameter calculation of the linear primary discriminant analysis is completed.
【0019】前記性別判定手段3は上述した学習フェー
ズにより求めた線形判別式を使用して図3に示す流れ図
に基づく識別フェーズを実行する。すなわち、識別フェ
ーズS11て、被識別対象顔画像を主成分ベクトルにより
主成分へ変換する。続いて、識別フェーズS12にて、変
換された主成分を計算済みの線形判別分析式に入力し、
識別フェーズS13にて、男女の性別を決定する。The gender determination means 3 executes an identification phase based on the flow chart shown in FIG. 3 using the linear discriminant obtained in the learning phase described above. That is, in the identification phase S11, the face image to be identified is converted into the principal component by the principal component vector. Subsequently, in the identification phase S12, the converted principal components are input to the calculated linear discriminant analysis formula,
In the discrimination phase S13, the gender of the gender is determined.
【0020】この識別フェーズの処理についてさらに詳
しく述べると、先ず、識別フェーズS11では、前記顔検
出手段2により取出された性別未知の顔画像xを学習フ
ェーズのときと同様に(5)式による主成分ベクトルによ
りp個の主成分値に変換し、k個の主成分を選んでk次
元ベクトルzを作る。また、(5)式で予め上位k個の主
成分ベクトルを計算していた場合には顔画像をk個の主
成分値に変換しk次元ベクトルzを作る。More specifically, the processing in the identification phase will be described. First, in the identification phase S11, the face image x of unknown gender extracted by the face detection means 2 is expressed by the main equation (5) as in the learning phase. The component vectors are converted into p principal component values, and k principal components are selected to create a k-dimensional vector z. If the top k principal component vectors have been calculated in advance by equation (5), the face image is converted into k principal component values to create a k-dimensional vector z.
【0021】続いて、識別フェーズS12では、求められ
たk次元ベクトルzを学習フェーズにおいてパラメータ
決定された線形1次判別分析式、すなわち、(10)式のz
に代入してwを求める。そして、識別フェーズS13で
は、wの値が正ならば男性、負ならば女性と判別する。
なお、この場合は、男女の先験確率が等しいものとして
いる。Subsequently, in the discrimination phase S12, the obtained k-dimensional vector z is converted to a linear primary discriminant analysis equation whose parameters are determined in the learning phase, that is, z in equation (10).
To obtain w. Then, in the identification phase S13, if the value of w is positive, it is determined that it is male, and if it is negative, it is determined that it is female.
In this case, it is assumed that the prior probabilities of the men and women are equal.
【0022】以上は、多変量解析における線形1次判別
分析で、パターン認識等に利用されるFisherの判
別分析(Fisher’s Linear Discriminant Analysi
s)を利用することもできる。これは群内分散を小さ
く、群間分散を大きくするような基底ベクトルを求める
方法である。また、2群を分ける超平面を求める1層パ
ーセプトロンも線形判別分析とほぼ等価なので含めるこ
ととする。The above is a linear primary discriminant analysis in a multivariate analysis, and Fisher's Linear Discriminant Analyst used for pattern recognition and the like.
s) can also be used. This is a method of finding a base vector that reduces intra-group variance and increases inter-group variance. Also, a one-layer perceptron for obtaining a hyperplane separating the two groups is included because it is substantially equivalent to linear discriminant analysis.
【0023】また、線形2次判別分析の判別式である、 w=1/2{(z-β1)TS1 −1(z-β1)-(z-β2)TS2 −1(z-β2) +log|S2|-log|S1|} (11) により、同様にwの正負で性別を判定することができ
る。この2次判別分析はパターン認識における正規分布
パターンの場合の統計的関数、 gi(z)=1/2{(z-βi)TSi −1(z-βi)-1/2・log|Si| +logP(wi)-n/2・log2π} (12) と等価である。通常、gi(z)が大きいクラスへ分類す
る。上記(11)式は上記(12)式について、i=1,2とし
て差分をとった形になっている。Further, a discriminant linear quadratic discriminant analysis, w = 1/2 {( z-β 1) T S 1 -1 (z-β 1) - (z-β 2) T S 2 - By 1 (z-β 2 ) + log | S 2 | −log | S 1 |} (11), the gender can be similarly determined by the sign of w. This secondary discriminant analysis is a statistical function for a normal distribution pattern in pattern recognition, g i (z) = 1/2 {(z-β i ) T S i −1 (z-β i ) -1/2 Log | S i | + log P (w i ) -n / 2 · log 2π} (12) Usually, the classification is made into a class in which g i (z) is large. The above equation (11) is obtained by taking the difference from the above equation (12) with i = 1,2.
【0024】以上の主成分分析と判別分析の組合わせに
よる性別の判定を示すと図4に示すようになる。すなわ
ち、d次元空間上の学習用サンプル顔画像を主成分分析
によりk次元部分空間上に落とし、k次元部分空間内に
男性と女性を分ける超平面Mを入れる。なお、線形1次
判別分析(1層パーセプトロンも含む)の場合は超平面
となるが、線形2次判別分析の場合は超曲面となる。FIG. 4 shows the determination of gender by the combination of the above-described principal component analysis and discriminant analysis. That is, the learning sample face image on the d-dimensional space is dropped on the k-dimensional subspace by principal component analysis, and a hyperplane M for separating male and female is put in the k-dimensional subspace. In the case of linear primary discriminant analysis (including a single-layer perceptron), a hyperplane is obtained, whereas in the case of linear quadratic discriminant analysis, a hypersurface is obtained.
【0025】このようにして前記性別判定手段3により
性別判定処理が行われるが、この場合において、主成分
分析により上位のみの主成分、あるいは主成分の幾つか
を選択したうえで性別判定を行った方が、特に、学習用
顔画像と別環境で撮影された画像において性別の判定能
力が向上する。In this way, the gender determination processing is performed by the gender determination means 3. In this case, the gender determination is performed after selecting only the main components or only some of the main components by principal component analysis. In particular, the gender determination ability is improved particularly in an image captured in a different environment from the learning face image.
【0026】すなわち、図5は主成分数と識別率との関
係を示すグラフであるが、グラフg1は、学習時の顔画
像の撮影とテストした顔画像の撮影が共に同一の撮影環
境Aで撮影した場合を示し、グラフg2は、学習時の顔
画像の撮影とテストした顔画像の撮影が、学習時には撮
影環境A、テスト時には撮影環境Bというように異なる
撮影環境で撮影した場合を示している。That is, FIG. 5 is a graph showing the relationship between the number of principal components and the discrimination rate, and the graph g1 shows the photographing environment A in which both the photographing of the face image during learning and the photographing of the tested face image are the same. Graph g2 shows a case where shooting of a face image during learning and shooting of a tested face image are performed in different shooting environments such as shooting environment A during learning and shooting environment B during testing. I have.
【0027】この各グラフから、撮影環境A、Bの何れ
で撮影した顔画像もあるところまでは主成分数が増える
に従って識別率が上昇していることが分かる。しかし、
あるところを過ぎると識別率は逆に低下する。学習時の
顔画像と同一の撮影環境Aで撮影した顔画像の場合はそ
の低下が顕著ではないが、撮影環境Bで撮影した顔画像
の場合にはその低下が顕著となる。From these graphs, it can be seen that the discrimination rate increases as the number of principal components increases up to the point where there is a face image photographed in any of the photographing environments A and B. But,
After a certain point, the recognition rate decreases. In the case of a face image shot in the same shooting environment A as the face image at the time of learning, the drop is not significant, but in the case of a face image shot in shooting environment B, the drop is significant.
【0028】これらの結果から、主成分分析をかけない
でd次元ベクトルを直接判別分析にかけるよりも、主成
分分析を行い、k次元ベクトルを判別分析にかけた方が
撮影環境が変化しても性別判定能力が高く維持できるこ
とが分かる。従って、主成分分析を行った上で判別分析
にかける方法を採用すれば、様々な環境での性別判定に
有効であることが結論付けられる。特に、学習用顔画像
とは別環境で撮影された顔画像の性別判定に有効であ
る。From these results, it is clear that the principal component analysis and the k-dimensional vector are subjected to the discriminant analysis rather than the direct discriminant analysis of the d-dimensional vector without the principal component analysis, even if the photographing environment changes. It can be seen that the gender determination ability can be kept high. Therefore, it can be concluded that adopting a method of performing discriminant analysis after performing principal component analysis is effective for gender determination in various environments. In particular, it is effective for determining the gender of a face image captured in an environment different from the learning face image.
【0029】次に、判別分析による性別判定と他の性別
判定との比較に付いて述べる。図6は、線形1次判別分
析、線形2次判別分析、最近傍決定則、K−近傍決定則
及びCLAFIC法のそれぞれによる性別判定の主成分
数と識別率との関係を示すグラフで、グラフg11は線形
1次判別分析による結果を示し、グラフg12は線形2次
判別分析による結果を示し、グラフg13は最近傍決定則
による結果を示し、グラフg14はK−近傍決定則による
結果を示し、グラフg15はCLAFIC法による結果を
示している。Next, comparison between gender judgment by discriminant analysis and another gender judgment will be described. FIG. 6 is a graph showing the relationship between the number of principal components and the discrimination rate of gender judgment by each of linear primary discriminant analysis, linear quadratic discriminant analysis, nearest neighbor determination rule, K-nearest neighbor determination rule, and CLAFIC method. g11 shows the result of linear primary discriminant analysis, graph g12 shows the result of linear secondary discriminant analysis, graph g13 shows the result of nearest neighbor decision rule, graph g14 shows the result of K-neighbor decision rule, Graph g15 shows the result of the CLAFIC method.
【0030】この結果からも線形判別分析による男女性
別の識別率が高いことが分かる。なお、CLAFIC法
は、部分空間法の1つで、原点中心の主成分分析により
得られる固有ベクトルを類似度計算に利用する方法であ
る。他の識別方法は全て通常の主成分分析後、その主成
分データを学習データ等に利用して判別している。従っ
て、方法的には若干異なるが、同じように横軸に主成分
数をとれることから同一のグラフ上に載せた。このよう
に、主成分分析後、判別分析を行うことで男女の性別の
判定能力を高めることができ、性別判定にきわめて有効
であることが分かる。 (第2の実施の形態)この実施の形態は、性別判定手段
3として非線形判別分析による判定方法を使用したもの
である。なお、画像入力手段1及び顔画像検出手段2の
構成は前述した第1の実施の形態と同一であり、また、
予め学習フェーズを行うことも前述した第1の実施の形
態と同一である。From this result, it can be seen that the discrimination rate by male and female by the linear discriminant analysis is high. The CLAFIC method is a subspace method in which eigenvectors obtained by principal component analysis at the origin are used for similarity calculation. In all other identification methods, after a normal principal component analysis, the principal component data is used for learning data or the like to make a distinction. Therefore, although the method is slightly different, the number of principal components can be similarly plotted on the horizontal axis, so they are shown on the same graph. As described above, by performing the discriminant analysis after the principal component analysis, it is possible to enhance the ability to determine the gender of males and females, and it is found that the gender determination is extremely effective. (Second Embodiment) In this embodiment, a gender determination means 3 uses a determination method based on non-linear discriminant analysis. Note that the configurations of the image input unit 1 and the face image detection unit 2 are the same as those of the first embodiment described above.
Performing the learning phase in advance is also the same as in the first embodiment.
【0031】この非線形判別分析は多層ニューラルネッ
トワークを利用している。すなわち、多層ニューラルネ
ットワークにより非線形な判別面を男性のk次元ベクト
ルzと女性のk次元ベクトルzの間に入れる。通常、多
層ニューラルネットワークの学習にはバックプロパゲー
ション法(誤差逆伝播学習法)が利用される。This nonlinear discriminant analysis utilizes a multilayer neural network. That is, a non-linear discrimination plane is inserted between a male k-dimensional vector z and a female k-dimensional vector z by a multilayer neural network. Usually, a back propagation method (error back propagation learning method) is used for learning of the multilayer neural network.
【0032】従って、多層ニューラルネットワークによ
る学習には、主成分により構成されるk次元ベクトルを
利用するため、図7に示すように、入力はk個(定数を
入力する場合はk+1個)、出力は男女の2種類のため
2個にする。但し、閾値を設定することにより出力を男
女いずれかの1個にすることも可能である。Therefore, in learning by the multilayer neural network, a k-dimensional vector composed of principal components is used. Therefore, as shown in FIG. 7, there are k inputs (k + 1 if a constant is input) and an output Is 2 for male and female. However, it is also possible to set the output to one of male and female by setting a threshold value.
【0033】学習フェーズは図8に示す流れ図に基づい
て行う、すなわち、学習フェーズS21では前述した第1
の実施の形態の学習フェーズS1と同様に、n枚の顔画
像に対し主成分分析を行う。続く、学習フェースS22で
も前述した第1の実施の形態の学習フェーズS2と同様
に、n枚の学習用顔画像を主成分分析によりk次元ベク
トルに変換する。The learning phase is performed based on the flowchart shown in FIG. 8, that is, in the learning phase S21, the first phase described above is performed.
Similarly to the learning phase S1 of the embodiment, principal component analysis is performed on n face images. In the subsequent learning face S22, similarly to the learning phase S2 of the first embodiment described above, the n learning face images are converted into k-dimensional vectors by principal component analysis.
【0034】続く、学習フェーズS23では、各k次元ベ
クトルをニューラルネットワークへ入力し、出力が男性
ならば「1,0」、女性ならば「0,1」の教師信号を
与え、教師信号との誤差が小さくなるように、各ニュー
ロンへの入力信号の重みを修正する。この修正のための
計算には通常バックプロパゲーション法を用いる。In the subsequent learning phase S23, each k-dimensional vector is input to the neural network, and if the output is male, a teacher signal of "1,0" is output, and if it is female, a teacher signal of "0,1" is given. The weight of the input signal to each neuron is modified so as to reduce the error. Normally, the back propagation method is used for the calculation for this correction.
【0035】そして、実際に性別未知の顔画像の性別を
判定する場合は、図9に示す流れ図に基づく識別フェー
ズを実行する。すなわち、識別フェーズS31て、被識別
対象顔画像を主成分ベクトルにより主成分へ変換してk
次元ベクトルzを求める。続いて、識別フェーズS32に
て、変換された主成分を計算済みの線形判別分析式に入
力する。すなわち、k次元ベクトルzをk入力の多層ニ
ューラルネットワークに入力する。続いて、識別フェー
ズS33にて、男女の性別を決定する。すなわち、出力
が、男性用出力が「1」、女性用出力が「0」であれば
男性とし、男性用出力が「0」、女性用出力が「1」で
あれば女性とする。出力は、それぞれ0〜1の範囲の値
をとり、男性用出力、女性用出力のどちらが1に近いか
否かで性別を判定する。Then, when actually determining the gender of a face image whose gender is unknown, an identification phase based on the flowchart shown in FIG. 9 is executed. That is, in the identification phase S31, the face image to be identified is converted into the principal component by the principal component vector and k
Find the dimension vector z. Subsequently, in the identification phase S32, the converted principal components are input to the calculated linear discriminant analysis equation. That is, the k-dimensional vector z is input to a k-input multilayer neural network. Subsequently, in the discrimination phase S33, the gender of the gender is determined. That is, if the output is "1" for the male output and "0" for the female output, the output is male, and if the male output is "0" and the female output is "1", the output is female. The output takes a value in the range of 0 to 1, and the gender is determined based on which of the male output and the female output is closer to 1.
【0036】このように非線形判別分析を使用した場合
でも主成分分析と判別分析の組合わせによる性別の判定
となり、それを図示すると第1の実施の形態と同様に図
4に示すようになる。但し、非線形判別分析では、k次
元部分空間内に入れる男性と女性を分ける面は超曲面と
なり、その曲面は線形2次判別分析の場合よりもさらに
複雑な曲面となる。As described above, even when nonlinear discriminant analysis is used, gender is determined by a combination of principal component analysis and discriminant analysis, which is shown in FIG. 4 as in the first embodiment. However, in the non-linear discriminant analysis, the surface separating men and women in the k-dimensional subspace is a hypersurface, and the surface is a more complicated surface than in the case of the linear quadratic discriminant analysis.
【0037】そして、この非線形判別分析を使用した場
合でも主成分分析と判別分析の組合わせによる性別の判
定となるので、線形判別分析を使用した場合と同様、男
女の性別の判定能力を高めることができ、性別判定にき
わめて有効である。In addition, even when this nonlinear discriminant analysis is used, gender is determined by a combination of principal component analysis and discriminant analysis. Is very effective for gender determination.
【0038】[0038]
【発明の効果】各請求項記載の発明によれば、学習用顔
画像と被識別対象顔画像が同一環境下で撮影した場合は
勿論、異なる環境下で撮影した場合であっても、男女の
性別を高い識別率で精度良く判定できる。According to the invention described in each of the claims, not only when the learning face image and the face image to be identified are photographed under the same environment but also under different environments, the Gender can be determined with a high identification rate and with high accuracy.
【図1】本発明の第1の実施の形態を示すブロック図。FIG. 1 is a block diagram showing a first embodiment of the present invention.
【図2】同実施の形態における学習フェーズの処理を示
す流れ図。FIG. 2 is a flowchart showing processing in a learning phase according to the embodiment;
【図3】同実施の形態における識別フェーズの処理を示
す流れ図。FIG. 3 is a flowchart showing processing in an identification phase according to the embodiment;
【図4】同実施の形態における性別の判定方法を説明す
るための図。FIG. 4 is an exemplary view for explaining a gender determination method in the embodiment.
【図5】同実施の形態における撮影環境の違いによる主
成分数と識別率との関係を示すグラフ。FIG. 5 is a graph showing the relationship between the number of principal components and the discrimination rate according to a difference in a shooting environment in the embodiment.
【図6】同実施の形態の判定方法と他の判定方法を比較
した主成分数と識別率との関係を示すグラフ。FIG. 6 is a graph showing the relationship between the number of principal components and the discrimination rate when the determination method of the embodiment is compared with another determination method.
【図7】本発明の第2の実施の形態で利用する多層ニュ
ーラルネットワークを示す図。FIG. 7 is a diagram showing a multilayer neural network used in a second embodiment of the present invention.
【図8】同実施の形態における学習フェーズの処理を示
す流れ図。FIG. 8 is a flowchart showing processing in a learning phase according to the embodiment;
【図9】同実施の形態における識別フェーズの処理を示
す流れ図。FIG. 9 is a flowchart showing processing in an identification phase according to the embodiment;
2…顔検出手段 3…性別判定手段 2: Face detection means 3: Gender determination means
Claims (3)
分分析を行って主成分ベクトルを求め、各学習用顔画像
を主成分ベクトルにより主成分に変換し、この変換した
各学習用顔画像のそれぞれの主成分を利用して男女を判
別するための線形判別分析のパラメータ決定を行い、続
いて、被識別対象の顔画像を前記主成分ベクトルにより
主成分に変換し、この変換した主成分により線形判別分
析を行って男女の性別を判定することを特徴とする性別
の判定方法。1. A principal component analysis is performed on a set of male and female learning face images to obtain a principal component vector, each learning face image is converted into a principal component by the principal component vector, and each of the converted learning face images is converted. The parameters of linear discriminant analysis for discriminating between men and women are determined by using the respective principal components of the face image. Subsequently, the face image to be identified is converted into the principal component by the principal component vector, and this converted A gender determination method characterized by determining gender of male and female by performing linear discriminant analysis using principal components.
分分析を行って主成分ベクトルを求め、各学習用顔画像
を主成分ベクトルにより主成分に変換し、この変換した
各学習用顔画像のそれぞれの主成分を利用して男女を判
別するための非線形判別分析のパラメータ決定を行い、
続いて、被識別対象の顔画像を前記主成分ベクトルによ
り主成分に変換し、この変換した主成分により非線形判
別分析を行って男女の性別を判定することを特徴とする
性別の判定方法。2. A principal component analysis is performed on a set of male and female learning face images to obtain a principal component vector, each learning face image is converted into a principal component by the principal component vector, and each of the converted learning face images is converted. Determine the parameters of nonlinear discriminant analysis for discriminating between men and women using each principal component of the face image,
Subsequently, a gender determination method is characterized in that a face image to be identified is converted into a principal component by the principal component vector, and the converted principal component is subjected to non-linear discriminant analysis to determine gender of the gender.
の顔画像の判別分析を上位主成分や選択した主成分を利
用して行うことを特徴とする請求項1又は2記載の性別
の判定方法。3. The gender determination method according to claim 1 or 2, wherein the determination of the parameters of the discriminant analysis and the discriminant analysis of the face image to be identified are performed using the upper principal component or the selected principal component.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11020076A JP2000222572A (en) | 1999-01-28 | 1999-01-28 | Gender determination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11020076A JP2000222572A (en) | 1999-01-28 | 1999-01-28 | Gender determination method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000222572A true JP2000222572A (en) | 2000-08-11 |
Family
ID=12017020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11020076A Pending JP2000222572A (en) | 1999-01-28 | 1999-01-28 | Gender determination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000222572A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003157439A (en) * | 2001-11-20 | 2003-05-30 | National Institute Of Advanced Industrial & Technology | Image Feature Correlation Extraction Method by Image Categorization and Correlation Extraction Device |
JP2004030627A (en) * | 2002-05-10 | 2004-01-29 | Sony Corp | Information processing apparatus and method, program storage medium, and program |
KR20040013951A (en) * | 2002-08-09 | 2004-02-14 | (주)워치비젼 | Apparatus and method for identifying user based on face recognition and system for restricting offer of information using user identification apparatus |
WO2005064540A1 (en) * | 2003-12-26 | 2005-07-14 | Seiko Epson Corporation | Face image detection method, face image detection system, and face image detection program |
JP2005250712A (en) * | 2004-03-03 | 2005-09-15 | Univ Waseda | Figure attribute identification method and its system |
JP2006505878A (en) * | 2002-11-07 | 2006-02-16 | 本田技研工業株式会社 | Clustering the appearance of objects under varying lighting conditions |
CN100403333C (en) * | 2001-05-31 | 2008-07-16 | 全感知有限公司 | Personal identity verification process and system |
JP2009140513A (en) * | 2002-07-16 | 2009-06-25 | Nec Corp | Pattern characteristic extraction method and device for the same |
US8116571B2 (en) | 2002-07-16 | 2012-02-14 | Nec Corporation | Pattern feature extraction via fourier amplitudes of a block image |
JP2013532315A (en) * | 2010-04-19 | 2013-08-15 | コンパニー ゼネラール デ エタブリッスマン ミシュラン | How to monitor the appearance of a tire surface |
TWI619846B (en) * | 2013-10-02 | 2018-04-01 | 日商島野股份有限公司 | Slide member, bicycle component using slide member, fishing tackle component using slide member, and method of manufacturing slide member |
-
1999
- 1999-01-28 JP JP11020076A patent/JP2000222572A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100403333C (en) * | 2001-05-31 | 2008-07-16 | 全感知有限公司 | Personal identity verification process and system |
JP2003157439A (en) * | 2001-11-20 | 2003-05-30 | National Institute Of Advanced Industrial & Technology | Image Feature Correlation Extraction Method by Image Categorization and Correlation Extraction Device |
JP2004030627A (en) * | 2002-05-10 | 2004-01-29 | Sony Corp | Information processing apparatus and method, program storage medium, and program |
JP2009140513A (en) * | 2002-07-16 | 2009-06-25 | Nec Corp | Pattern characteristic extraction method and device for the same |
US8116571B2 (en) | 2002-07-16 | 2012-02-14 | Nec Corporation | Pattern feature extraction via fourier amplitudes of a block image |
KR20040013951A (en) * | 2002-08-09 | 2004-02-14 | (주)워치비젼 | Apparatus and method for identifying user based on face recognition and system for restricting offer of information using user identification apparatus |
JP2006505878A (en) * | 2002-11-07 | 2006-02-16 | 本田技研工業株式会社 | Clustering the appearance of objects under varying lighting conditions |
WO2005064540A1 (en) * | 2003-12-26 | 2005-07-14 | Seiko Epson Corporation | Face image detection method, face image detection system, and face image detection program |
JP2005250712A (en) * | 2004-03-03 | 2005-09-15 | Univ Waseda | Figure attribute identification method and its system |
JP2013532315A (en) * | 2010-04-19 | 2013-08-15 | コンパニー ゼネラール デ エタブリッスマン ミシュラン | How to monitor the appearance of a tire surface |
US9002093B2 (en) | 2010-04-19 | 2015-04-07 | Compagnie Generale Des Etablissements Michelin | Method of monitoring the appearance of the surface of a tire |
TWI619846B (en) * | 2013-10-02 | 2018-04-01 | 日商島野股份有限公司 | Slide member, bicycle component using slide member, fishing tackle component using slide member, and method of manufacturing slide member |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3258425B1 (en) | Information processing apparatus, information processing method, and storage medium | |
US11282295B2 (en) | Image feature acquisition | |
Tabassi et al. | A novel approach to fingerprint image quality | |
US9070041B2 (en) | Image processing apparatus and image processing method with calculation of variance for composited partial features | |
US6430307B1 (en) | Feature extraction system and face image recognition system | |
US8666122B2 (en) | Assessing biometric sample quality using wavelets and a boosted classifier | |
US20020181785A1 (en) | Classification of objects through model ensembles | |
US8457394B2 (en) | Method of detecting skin-colored area using variable skin color model | |
US20070160296A1 (en) | Face recognition method and apparatus | |
WO2010004958A1 (en) | Personal authentication system and personal authentication method | |
JP2004348674A (en) | Area detection method and device | |
JP2000222572A (en) | Gender determination method | |
CN106682604B (en) | A fuzzy image detection method based on deep learning | |
JP2016224821A (en) | Learning device, control method of learning device, and program | |
US11216639B2 (en) | Template matching of a biometric object | |
CN111062338A (en) | Certificate portrait consistency comparison method and system | |
Kota et al. | Principal component analysis for gesture recognition using systemc | |
JP3468108B2 (en) | Face image matching method and face image matching device | |
KR100472953B1 (en) | Face region detecting method using support vector machine | |
CN112990145B (en) | Group-sparse-based age estimation method and electronic equipment | |
TW201931193A (en) | Face recognition apparatus and method thereof, method for increasing image recognition accuracy, and computer-readable storage medium | |
Mohan et al. | Fast face detection using boosted eigenfaces | |
Yelmanov et al. | A method for rapid quantitative assessment of incomplete integral contrast for complex images | |
US20240404246A1 (en) | Image processing apparatus and control method for same | |
Kryszczuk et al. | On face image quality measures |