JP2016099759A - Face detection method, face detection device, and face detection program - Google Patents
Face detection method, face detection device, and face detection program Download PDFInfo
- Publication number
- JP2016099759A JP2016099759A JP2014235232A JP2014235232A JP2016099759A JP 2016099759 A JP2016099759 A JP 2016099759A JP 2014235232 A JP2014235232 A JP 2014235232A JP 2014235232 A JP2014235232 A JP 2014235232A JP 2016099759 A JP2016099759 A JP 2016099759A
- Authority
- JP
- Japan
- Prior art keywords
- face
- face posture
- coordinate system
- posture
- pupil
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 124
- 210000001747 pupil Anatomy 0.000 claims abstract description 199
- 238000012937 correction Methods 0.000 claims abstract description 44
- 238000009795 derivation Methods 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims description 30
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 238000003384 imaging method Methods 0.000 claims description 13
- 230000001131 transforming effect Effects 0.000 claims 2
- 230000009466 transformation Effects 0.000 claims 1
- 238000000034 method Methods 0.000 abstract description 94
- 238000007781 pre-processing Methods 0.000 description 90
- 230000006870 function Effects 0.000 description 83
- 239000013598 vector Substances 0.000 description 61
- 210000003128 head Anatomy 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 19
- 230000014509 gene expression Effects 0.000 description 16
- 230000005484 gravity Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 7
- 210000005252 bulbus oculi Anatomy 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 210000004087 cornea Anatomy 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 210000001525 retina Anatomy 0.000 description 4
- 210000003625 skull Anatomy 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、顔検出方法、顔検出装置、及び顔検出プログラムに関する。 The present invention relates to a face detection method, a face detection apparatus, and a face detection program.
自動車技術などの分野では、ドライバーの視線及び頭部姿勢を計測し、これらデータに基づいてドライバーの運転支援を行う技術が検討されている。特許文献1〜3には、瞳孔と角膜反射像とを利用して、被験者の視線を高精度に検出する視線検出装置が開示されている。また、特許文献4〜6には、被験者の頭部姿勢を検出する装置が開示されている。ここで、頭部姿勢とは、被験者の眼球の回転とは関係の無い、頭蓋骨の位置と方向をいう。特許文献4,5の頭部姿勢検出装置は、いわゆるステレオマッチング法を利用している。具体的には、ステレオ較正された光学系を利用して被験者の頭部画像データを取得する。次に、2枚の頭部画像データをステレオマッチングして、被験者の瞳孔及び鼻孔の各三次元座標を求める。これら三次元座標を利用して瞳孔と鼻孔間中点の重心を算出し、この重心を頭部位置としている。また、瞳孔と鼻孔間中点を通る平面を算出し、この平面の法線を頭部方向としている。また、特許文献6の頭部姿勢検出方法は、1台の光学系によって瞳孔と鼻孔間中点といった特徴点の三次元位置を推定する。すなわち、特許文献6の頭部姿勢検出方法は、いわゆるステレオマッチング法を利用していない。この方法では、1台の光学系によって得た画像データと、2個の瞳孔と各鼻孔との互いの距離を拘束条件とを利用して、瞳孔と鼻孔間中点の三次元位置を推定する。
In the field of automobile technology and the like, a technique for measuring driver's line of sight and head posture and assisting the driver's driving based on these data is being studied.
特許文献4,5の頭部姿勢検出装置は、ステレオマッチング法を利用しているため、ランダムノイズが大きくなる傾向にある。特許文献6の頭部姿勢検出方法は、2個の瞳孔と各鼻孔との互いの距離を拘束条件として与えているため、頭部と眼球との相対的な姿勢関係によっては、偏り誤差が大きくなる傾向にある。 Since the head posture detection devices of Patent Documents 4 and 5 use the stereo matching method, random noise tends to increase. Since the head posture detection method of Patent Document 6 gives the mutual distance between the two pupils and each nostril as a constraint, depending on the relative posture relationship between the head and the eyeball, the bias error is large. Tend to be.
そこで、本発明は、精度のよい顔検出の結果が得られる顔検出方法、顔検出装置、及び顔検出プログラムを提供する。 Therefore, the present invention provides a face detection method, a face detection apparatus, and a face detection program that can obtain accurate face detection results.
本発明の一形態に係る顔検出方法は、対象者の顔姿勢と視線との間の第1角度及び基準顔姿勢と顔姿勢の間の第2角度の関係を規定する係数を含み、顔姿勢を補正するための関数を導出する関数導出ステップと、顔姿勢を導出する顔姿勢導出ステップと、関数導出ステップにおいて導出された関数を利用して、顔姿勢を補正する顔姿勢補正ステップと、を有し、顔姿勢は、対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、対象者の顔画像において検出される基準部位群の二次元的位置とを利用して、基準部位群を含む平面の法線を算出することによって導出され、視線及び基準顔姿勢は、2枚の対象者の顔画像をステレオマッチングすることによって導出される。 A face detection method according to an aspect of the present invention includes a coefficient that defines a relationship between a first angle between a face posture and a line of sight of a subject and a second angle between a reference face posture and the face posture. A function deriving step for deriving a function for correcting the face, a face posture deriving step for deriving a face posture, and a face posture correcting step for correcting the face posture using the function derived in the function deriving step. The facial posture is a distance between parts in a reference part group that is a combination of any one of the left pupil, right pupil, and right and left nostrils of the subject, and a reference detected in the face image of the subject It is derived by calculating the normal of the plane including the reference part group using the two-dimensional position of the part group, and the line of sight and the reference face posture are stereo-matching the face images of the two subjects. Is derived by
この顔検出方法は、基準部位群における部位間の距離を拘束条件として利用する方法によって顔姿勢を導出する。従って、ランダムノイズの少ない安定した結果を得ることができる。そして、顔検出方法では、関数を利用して顔姿勢を補正する。この関数は、対象者の視線と顔姿勢の間の第1角度及び顔姿勢と基準顔姿勢の間の第2角度の関係を規定する係数を含んでいるので、導出された顔姿勢を基準顔姿勢に相当する結果に変換する。ここで、基準顔姿勢は、ステレオマッチングにより導出された結果であるので、真の顔姿勢に対する偏りが小さい。このため、ランダムノイズの少ない安定した顔姿勢が、真の顔姿勢に対する偏りが小さい顔姿勢に補正される。従って、精度のよい顔検出の結果が得られる。 In this face detection method, a face posture is derived by a method using a distance between parts in a reference part group as a constraint condition. Therefore, a stable result with little random noise can be obtained. In the face detection method, the face posture is corrected using a function. This function includes a coefficient that defines the relationship between the first angle between the line of sight of the subject and the face posture and the second angle between the face posture and the reference face posture. Convert to a result corresponding to the posture. Here, since the reference face posture is a result derived by stereo matching, the bias with respect to the true face posture is small. For this reason, a stable face posture with less random noise is corrected to a face posture with a small deviation from the true face posture. Therefore, an accurate face detection result can be obtained.
関数導出ステップは、顔姿勢を導出するステップと、視線及び基準顔姿勢を導出するステップと、第1角度及び第2角度に基づいて、係数を導出するステップと、を含むこととしてもよい。この関数導出ステップによれば、第1角度及び第2角度の関係を規定する係数を含む関数を導出することができる。 The function deriving step may include a step of deriving a face posture, a step of deriving a line of sight and a reference face posture, and a step of deriving a coefficient based on the first angle and the second angle. According to this function deriving step, a function including a coefficient that defines the relationship between the first angle and the second angle can be derived.
関数導出ステップを1回実行した後に、顔姿勢導出ステップと顔姿勢補正ステップと、を繰り返し実行することとしてもよい。この方法では、顔姿勢導出ステップと、顔姿勢補正ステップを実行するときに、補正のための関数が既に得られている。従って、顔姿勢導出ステップと、顔姿勢補正ステップを実行し始めた直後から、精度のよい顔検出の結果が得ることができる。 After executing the function deriving step once, the face posture deriving step and the face posture correcting step may be repeatedly executed. In this method, a function for correction is already obtained when executing the face posture deriving step and the face posture correcting step. Accordingly, an accurate face detection result can be obtained immediately after the start of the face posture deriving step and the face posture correcting step.
顔検出方法では、関数導出ステップと顔姿勢導出ステップと顔姿勢補正ステップと、この順で繰り返し実行することとしてもよい。この方法によれば、顔姿勢導出ステップと顔姿勢補正ステップを実行する毎に、関数導出ステップも実行される。関数導出ステップの繰り返しにより係数が更新されて所定の値に収束する。従って、事前に関数を準備することなく、顔姿勢を検出し始めることができる。 In the face detection method, the function deriving step, the face posture deriving step, and the face posture correcting step may be repeatedly executed in this order. According to this method, the function deriving step is also executed every time the face posture deriving step and the face posture correcting step are performed. The coefficient is updated by repeating the function derivation step and converges to a predetermined value. Therefore, it is possible to start detecting the face posture without preparing a function in advance.
顔姿勢補正ステップは、第1の座標系に基づく視線と第1の座標系に基づく顔姿勢とを、第1の座標系とは異なる第2の座標系に基づくように座標変換するステップと、第2の座標系に基づく視線と第2の座標系に基づく顔姿勢とを利用して、第2の座標系に基づく第1角度を取得し、当該第1角度と関数とを利用して、第2の座標系に基づく第2角度を取得するステップと、第2の座標系に基づく第2角度を利用して、第2の座標系に基づく顔姿勢を補正するステップと、補正された顔姿勢を第1の座標系に基づくように座標変換するステップと、を含むこととしてもよい。この方法によれば、顔姿勢の検出精度を高めることができる。 The face posture correction step is a step of performing coordinate conversion between a line of sight based on the first coordinate system and a face posture based on the first coordinate system based on a second coordinate system different from the first coordinate system; Using a line of sight based on the second coordinate system and a face posture based on the second coordinate system, a first angle based on the second coordinate system is obtained, and using the first angle and the function, Obtaining a second angle based on the second coordinate system; correcting a face posture based on the second coordinate system using the second angle based on the second coordinate system; and a corrected face And converting the posture so as to be based on the first coordinate system. According to this method, the detection accuracy of the face posture can be increased.
本発明の別の形態に係る顔姿勢検出装置は、対象者の顔を撮像する少なくとも2台の撮像手段と、撮像手段で撮像された顔画像に基づいて、対象者の顔姿勢を導出する処理手段と、を備え、処理手段は、対象者の顔姿勢と視線との間の第1角度及び基準顔姿勢と顔姿勢の間の第2角度の関係を規定する係数を含み、顔姿勢を補正するための関数を導出する関数導出部と、顔姿勢を導出する顔姿勢導出部と、関数導出部において導出された関数を利用して、顔姿勢を補正する顔姿勢補正部と、を有し、顔姿勢は、対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、対象者の顔画像において検出される基準部位群の二次元的位置とを利用して、基準部位群を含む平面の法線を算出することによって導出され、視線及び基準顔姿勢は、2枚の対象者の顔画像をステレオマッチングすることによって導出される。 According to another aspect of the present invention, there is provided a face posture detection apparatus that derives a face posture of a target person based on at least two image pickup means for picking up the face of the target person and a face image picked up by the image pickup means. And the processing means includes a coefficient that defines a relationship between a first angle between the face posture and the line of sight of the subject and a second angle between the reference face posture and the face posture, and corrects the face posture. A function deriving unit for deriving a function for performing a facial pose, a face posture deriving unit for deriving a face posture, and a face posture correcting unit for correcting the face posture using the function derived in the function deriving unit. The face posture is determined by the distance between the parts in the reference part group that is a combination of any one of the left pupil, the right pupil, and the right and left nostrils of the subject, and the reference part group detected in the face image of the subject The normal of the plane including the reference region group is calculated using the two-dimensional position of Is derived by, gaze and reference face orientation is derived by stereo matching two of the subject's face image.
この顔検出装置は、上述した顔検出方法と同様の効果を得ることができる。すなわち、顔検出装置は、基準部位群における部位間の距離を拘束条件として利用することにより顔姿勢を導出する。従って、ランダムノイズの少ない安定した結果を得ることができる。そして、顔検出装置では、関数を利用して顔姿勢を補正する。この関数は、対象者の視線と顔姿勢の間の第1角度及び顔姿勢と基準顔姿勢の間の第2角度の関係を規定する係数を含んでいるので、導出された顔姿勢を、基準顔姿勢に相当する結果に変換する。ここで、基準顔姿勢は、ステレオマッチングにより導出された結果であるので、真の顔姿勢に対する偏りが小さい。このため、ランダムノイズの少ない安定した顔姿勢が、真の顔姿勢に対する偏りが小さい顔姿勢に補正される。精度のよい顔検出の結果が得られる。 This face detection device can obtain the same effect as the face detection method described above. That is, the face detection device derives the face posture by using the distance between the parts in the reference part group as a constraint condition. Therefore, a stable result with little random noise can be obtained. The face detection device corrects the face posture using a function. This function includes coefficients that define the relationship between the first angle between the subject's line of sight and the face posture and the second angle between the face posture and the reference face posture. The result is converted into a result corresponding to the face posture. Here, since the reference face posture is a result derived by stereo matching, the bias with respect to the true face posture is small. For this reason, a stable face posture with less random noise is corrected to a face posture with a small deviation from the true face posture. Accurate face detection results can be obtained.
顔姿勢補正部は、第1の座標系に基づく視線と第1の座標系に基づく顔姿勢とを、第1の座標系とは異なる第2の座標系に基づくように座標変換する第1の座標変換部と、第2の座標系に基づく視線と第2の座標系に基づく顔姿勢とを利用して、第2の座標系に基づく第1角度を取得し、当該第1角度と関数とを利用して、第2の座標系に基づく第2角度を取得する角度取得部と、第2の座標系に基づく第2角度を利用して、第2の座標系に基づく顔姿勢を補正する方向補正部と、補正された顔姿勢を第1の座標系に基づくように座標変換する第2の座標変換部と、を含むこととしてもよい。この構成によれば、顔姿勢の検出精度を高めることができる。 The face posture correcting unit performs first coordinate conversion between a line of sight based on the first coordinate system and a face posture based on the first coordinate system based on a second coordinate system different from the first coordinate system. A coordinate conversion unit, a line of sight based on the second coordinate system, and a face posture based on the second coordinate system are used to obtain a first angle based on the second coordinate system, and the first angle and function Using the angle acquisition unit for acquiring the second angle based on the second coordinate system and the second angle based on the second coordinate system, the face posture based on the second coordinate system is corrected. A direction correction unit and a second coordinate conversion unit that converts the corrected face posture based on the first coordinate system may be included. According to this configuration, the detection accuracy of the face posture can be increased.
本発明の更に別の形態に係る顔検出プログラムは、コンピュータを、対象者の顔姿勢と視線との間の第1角度及び基準顔姿勢と顔姿勢の間の第2角度の関係を規定する係数を含み、顔姿勢を補正するための関数を導出する関数導出部と、顔姿勢を導出する顔姿勢導出部と、関数導出部において導出された関数を利用して、顔姿勢を補正する顔姿勢補正部と、して機能させ、顔姿勢は、対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、対象者の顔画像において検出される基準部位群の二次元的位置とを利用して、基準部位群を含む平面の法線を算出することによって導出され、視線及び基準顔姿勢は、2枚の対象者の顔画像をステレオマッチングすることによって導出される。 According to still another aspect of the present invention, there is provided a face detection program for calculating a relationship between a first angle between a face posture and a line of sight of a subject and a second angle between a reference face posture and the face posture. A function derivation unit for deriving a function for correcting the face pose, a face derivation unit for deriving the face pose, and a face pose that corrects the face pose using the functions derived in the function derivation unit The face posture is the distance between the parts in the reference part group that is a combination of any one of the left pupil, the right pupil, and the right and left nostrils, and the face of the subject. Using the two-dimensional position of the reference part group detected in the image, it is derived by calculating the normal of the plane including the reference part group, and the line of sight and the reference face posture are the faces of the two subjects. Derived by stereo matching the image .
この顔検出プログラムは、上述した顔検出方法及び顔検出装置と同様の効果を得ることができる。すなわち、顔検出プログラムは、基準部位群における部位間の距離を拘束条件として利用することにより顔姿勢を導出する。従って、ランダムノイズの少ない安定した結果を得ることができる。そして、顔検出装置では、関数を利用して顔姿勢を補正する。この関数は、対象者の視線と顔姿勢の間の第1角度及び顔姿勢と基準顔姿勢の間の第2角度の関係を規定する係数を含んでいるので、導出された顔姿勢を、基準顔姿勢に相当する結果に変換する。ここで、基準顔姿勢は、ステレオマッチングにより導出された結果であるので、真の顔姿勢に対する偏りが小さい。このため、ランダムノイズの少ない安定した顔姿勢が、真の顔姿勢に対する偏りが小さい顔姿勢に補正される。精度のよい顔検出の結果が得られる。 This face detection program can obtain the same effects as the above-described face detection method and face detection apparatus. That is, the face detection program derives the face posture by using the distance between the parts in the reference part group as a constraint condition. Therefore, a stable result with little random noise can be obtained. The face detection device corrects the face posture using a function. This function includes coefficients that define the relationship between the first angle between the subject's line of sight and the face posture and the second angle between the face posture and the reference face posture. The result is converted into a result corresponding to the face posture. Here, since the reference face posture is a result derived by stereo matching, the bias with respect to the true face posture is small. For this reason, a stable face posture with less random noise is corrected to a face posture with a small deviation from the true face posture. Accurate face detection results can be obtained.
本発明の一形態に係る顔検出方法、顔検出装置及び顔検出プログラムによれば、精度のよい顔検出の結果が得られる。 According to the face detection method, the face detection apparatus, and the face detection program according to an aspect of the present invention, a highly accurate face detection result can be obtained.
以下、添付図面を参照しながら本発明を実施するための形態を詳細に説明する。図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.
本発明の一形態に係る顔検出方法は、図1に示される顔検出装置1により実行される。顔検出装置1は、対象者Aの視線及び顔姿勢を検出するコンピュータシステムであり、このシステムにより、顔検出方法が実施される。対象者Aとは、視線及び顔姿勢を検出する対象となる人であり、被験者ともいうことができる。視線とは、対象者Aの瞳孔中心と該対象者の注視点(対象者が見ている点)とを結ぶ線である。なお、「視線」という用語は、起点、終点、及び方向の意味(概念)を含む。顔姿勢は、顔の方向及び重心とで定まり、後述する顔姿勢ベクトルで表される。すなわち、顔姿勢とは骨格(頭蓋骨)の位置と方向を意味し、眼球の回転とは無関係である。顔検出装置1及び顔検出方法の利用目的は何ら限定されず、例えば、よそ見運転の検出、運転者の眠気の検出、商品の興味の度合いの調査、コンピュータへのデータ入力などに利用することができる。
The face detection method according to one aspect of the present invention is executed by the
まず、本実施形態に係る顔検出方法の基本原理について説明する。図2に示されるように、対象者Aの顔姿勢を示す顔姿勢ベクトルVBは、対象者Aの瞳孔及び鼻孔を利用して導出される。例えば、顔姿勢ベクトルVF,VBは、左瞳孔の座標P1、右瞳孔の座標P2、及び鼻孔間中心の座標P0の3点を通る平面の法線ベクトルとして導出される。これら左瞳孔、右瞳孔、左鼻孔中心、右鼻孔中心及び鼻孔間中心は、特徴点である。ここで特徴点の三次元座標を算出する方法として、所定の拘束条件を利用して算出する方法と、ステレオマッチングを利用して算出する方法と、がある。以下の説明において、便宜上、拘束条件を利用する方法を「拘束条件法」と呼び、ステレオマッチングによる方法を「ステレオ法」と呼ぶことにする。 First, the basic principle of the face detection method according to this embodiment will be described. As shown in FIG. 2, the face posture vector V B indicating the face posture of the subject A is derived using the pupil and nostril of the subject A. For example, the face posture vectors V F and V B are derived as a normal vector of a plane passing through three points of the left pupil coordinate P 1 , the right pupil coordinate P 2 , and the internostral center coordinate P 0 . These left pupil, right pupil, left nostril center, right nostril center and nostril center are feature points. Here, as a method of calculating the three-dimensional coordinates of the feature points, there are a method of calculating using a predetermined constraint condition and a method of calculating using stereo matching. In the following description, for convenience, a method using a constraint condition is referred to as a “constraint condition method”, and a method using stereo matching is referred to as a “stereo method”.
拘束条件法では、特徴点の三次元座標の算出において、特徴点の間の距離(以下「特徴点間距離」又は単に「距離」という)を拘束条件として利用している。特徴点間距離とは、例えば、左瞳孔の座標P1と右瞳孔の座標P2との間の距離L1、左瞳孔の座標P1と鼻孔間中心の座標P0との間の距離L2及び右瞳孔の座標P2と鼻孔間中心の座標P0との間の距離L3である。拘束条件法により導出される顔姿勢は、安定性が高いという利点を有する。この安定性とは、対象者Aの頭部を固定した状態で顔姿勢を検出したときに現れる時間的なランダムノイズによって示される特性をいう。すなわち、安定性が高いとは、ランダムノイズが小さいことを意味する。また、ステレオ法の実施には光学系(例えばカメラ)が2個必要であるところ、拘束条件法は1個の光学系だけで実施可能である。従って、2個の光学系を離間して配置し、それぞれの光学系を利用して拘束条件法を実施することにより、顔方向の検出範囲を光学系の離間方向に拡大することが可能になる。2個の光学系と拘束条件法を利用した場合の顔方向検出範囲は、2個の光学系とステレオ法を利用した場合の顔方向検出範囲よりも広い。なお、以下の説明において、拘束条件法で導出された結果を、単に「顔方向」(顔姿勢)と呼ぶ。 In the constraint condition method, the distance between feature points (hereinafter referred to as “distance between feature points” or simply “distance”) is used as a constraint condition in calculating the three-dimensional coordinates of the feature points. The distance between the feature points is, for example, a distance L 1 between the coordinate P 1 of the left pupil and the coordinate P 2 of the right pupil, and a distance L between the coordinate P 1 of the left pupil and the coordinate P 0 of the center between the nostrils. 2 and the distance L 3 between the coordinate P 2 of the right pupil and the coordinate P 0 of the center between the nostrils. The face posture derived by the constraint condition method has an advantage of high stability. This stability refers to a characteristic indicated by temporal random noise that appears when a face posture is detected with the subject A's head fixed. That is, high stability means that random noise is small. In addition, the implementation of the stereo method requires two optical systems (for example, cameras), but the constraint method can be implemented with only one optical system. Accordingly, by arranging the two optical systems apart and performing the constraint condition method using the respective optical systems, the detection range in the face direction can be expanded in the separation direction of the optical system. . The face direction detection range when the two optical systems and the constraint method are used is wider than the face direction detection range when the two optical systems and the stereo method are used. In the following description, the result derived by the constraint condition method is simply referred to as “face direction” (face posture).
しかし、拘束条件法は、顔方向に対して視線が動いた場合に、特徴点間距離が変化する。例えば、対象者Aが頭部を動かすことなく視線のみを移動させた場合や、対象者Aがある点を注視した状態で頭部のみを移動させた場合が挙げられる。この場合には、特徴点間距離が変化する。図3(a)は、顔方向(顔姿勢ベクトルVBの方向)と視線Gが一致しているときに、3個の特徴点の座標P1,P2,P0により規定される平面B1と、その法線ベクトル(顔姿勢ベクトルVF)を示す。図3(b)は、図3(a)の状態から顔方向を固定したままで視線を変化させた場合における、3個の特徴点の座標P1,P2,P0により規定される平面B2と、その法線ベクトル(顔姿勢ベクトルVF)を示す。理想的には、顔方向は固定されたままであるので、顔姿勢ベクトルVFも変化しないはずである。しかし、図3(b)に示されるように、視線を変化させることによって、3個の特徴点の座標P1,P2,P0により規定される平面B2が変化している。換言すると、距離L1,L2,L3が変化している。従って、実際の特徴点間距離と、顔方向の導出に利用する特徴点間距離とに差異が生じ、導出される顔方向に誤差(偏り誤差)が発生する。すなわち、拘束条件法では、顔方向と視線とのずれに起因する誤差が生じ得る。図4に示されるように、対象者Aの顔方向naをディスプレイ装置40の中心の点A1に向けた状態で、視線Gだけをディスプレイ装置40の左斜め下に設定した点A2に向けると、導出される顔方向は点neになる。例えば、対象者Aの顔方向を固定した状態で、視線だけを左右に±10度ほど動かすと、顔方向は真値から左右に±5度程度偏って検出される。視線は左右に±30度程度までは検出できるため、顔方向は更に大きく偏って検出されることになる。
However, the constraint condition method changes the distance between feature points when the line of sight moves with respect to the face direction. For example, the case where the subject A moves only the line of sight without moving the head, or the case where the subject A moves only the head while gazing at a certain point. In this case, the distance between feature points changes. FIG. 3A shows a plane B1 defined by the coordinates P 1 , P 2 , and P 0 of the three feature points when the face direction (the direction of the face posture vector V B ) and the line of sight G match. And its normal vector (face posture vector V F ). FIG. 3B is a plane defined by the coordinates P 1 , P 2 , and P 0 of the three feature points when the line of sight is changed from the state of FIG. 3A while the face direction is fixed. B2 and its normal vector (face posture vector V F ) are shown. Ideally, the face orientation vector V F should not change because the face direction remains fixed. However, as shown in FIG. 3B, the plane B2 defined by the coordinates P 1 , P 2 , and P 0 of the three feature points is changed by changing the line of sight. In other words, the distances L 1 , L 2 and L 3 are changing. Therefore, there is a difference between the actual distance between feature points and the distance between feature points used for derivation of the face direction, and an error (bias error) occurs in the derived face direction. That is, in the constraint condition method, an error due to a deviation between the face direction and the line of sight can occur. As shown in FIG. 4, the face direction n a subject's A state toward the point A 1 of the center of the
一方、ステレオ法では、顔方向と視線とのずれに起因する誤差はほとんど問題にならない。なぜならば、ステレオ法では、特徴点の三次元座標をステレオマッチングにより独立に検出する。このような三次元座標を利用して導出される顔姿勢ベクトルは、顔方向と視線との間でずれが発生した状態であっても、ほとんどその影響を受けない。この理由は、眼球が眼窩の中で±30程度回転しても、瞳孔の奥行き方向の位置は大きく変化しないためである。しかし、ステレオ法は、ステレオマッチングの処理過程において、顔画像毎に含まれる独立したノイズが、算出される特徴点の三次元座標にも影響を与え、ひいては顔姿勢ベクトルにも影響を及ぼす。具体的には、顔画像に含まれたノイズは、顔姿勢ベクトルにおけるランダムノイズの要因となり得る。このランダムノイズは、平均化処理により低減することが可能である。この平均化処理された顔姿勢ベクトルは、拘束条件法で導出される顔姿勢ベクトルに比べて真の顔方向に対するずれが小さい。なお、以下の説明においてステレオ法で導出された結果を「基準顔方向」(基準顔姿勢)と呼ぶ。 On the other hand, in the stereo method, an error caused by a deviation between the face direction and the line of sight hardly causes a problem. This is because in the stereo method, the three-dimensional coordinates of feature points are detected independently by stereo matching. The face posture vector derived by using such three-dimensional coordinates is hardly affected even when there is a deviation between the face direction and the line of sight. This is because the position of the pupil in the depth direction does not change greatly even if the eyeball rotates about ± 30 in the orbit. However, in the stereo method, in the process of stereo matching, independent noise included in each face image also affects the calculated three-dimensional coordinates of feature points, and thus also affects the face posture vector. Specifically, noise included in the face image can be a cause of random noise in the face posture vector. This random noise can be reduced by averaging processing. The averaged face posture vector has a smaller deviation from the true face direction than the face posture vector derived by the constraint condition method. In the following description, the result derived by the stereo method is referred to as “reference face direction” (reference face posture).
発明者らは、基準顔方向と視線との間の第1角度は、顔方向と基準顔方向と間の第2角度と関係があることを見出した。本実施形態の顔検出方法は、拘束条件法で導出した顔方向に対して、顔方向と視線とのずれに起因して生じる誤差を補正することにより、安定度が高く且つ正確な顔方向を導出する。具体的には、拘束条件法で導出した顔方向から、ステレオ法で導出した顔方向を推定する。 The inventors have found that the first angle between the reference face direction and the line of sight is related to the second angle between the face direction and the reference face direction. The face detection method according to the present embodiment corrects an error caused by the deviation between the face direction and the line of sight with respect to the face direction derived by the constraint condition method, thereby obtaining a highly stable and accurate face direction. To derive. Specifically, the face direction derived by the stereo method is estimated from the face direction derived by the constraint condition method.
具体的な原理について図5を用いて説明する。Gは視線であり、H1は拘束条件法で検出された顔方向であり、H2はステレオ法で検出された基準顔方向であるとする。視線Gと基準顔方向H2の間の角度は角度∠Gである。基準顔方向H2と顔方向H1との間の角度は角度∠Hである。 A specific principle will be described with reference to FIG. G is the line of sight, H 1 is the face direction detected by the constraint method, and H 2 is the reference face direction detected by the stereo method. The angle between the sight line G and the reference face direction H 2 is the angle ∠G. The angle between the reference face direction H 2 and the face direction H 1 is the angle ∠H.
図6(a)に示されるように、基準顔方向H2と視線Gが一致するときには、顔方向H1は、基準顔方向H2と一致する。一方、図6(b)に示されるように、基準顔方向H2が視線Gと一致しないときには、顔方向H1は、基準顔方向H2に対して偏る。ここで、新たな角度∠G’を定義する。角度∠G’は式(1)により示される。すなわち、角度∠G’は顔方向H1と視線Gとの間の角度であるともいえる。そして、角度∠G’と角度∠Hとの間には、下記式(2)により示される線形関係があると仮定する。ここで、式(2)における係数k1,k2は、対象者の顔方向H1と視線Gとの間の角度∠G’(第1角度)及び基準顔方向H2と顔方向H1の間の角度∠H(第2角度)の関係を規定する係数である。
まず、対象者の顔方向(頭部方向)と視線Gとのそれぞれをいろいろな方向へ向けながら角度∠G’と角度∠Hとを有するデータを収集する。それらデータは、図16に示されるように、横軸が角度∠G’であり縦軸が角度∠Hである二次元座標にプロットされる。角度∠G’と角度∠Hとは、式(2)の関係を有する。従って、例えば最小二乗法等を利用して近似式を算出することにより、係数k1,k2を求めることができる。そうすると、係数k1,k2によって決定された関数を利用して、角度∠G’から角度∠Hを算出することが可能になる。そして、角度∠Hと顔方向H1とを角度∠Hの定義に適用すると、真値に近い基準顔方向H2を推定できる。なお、角度∠Hが大きくなった場合には、非線形成分を考慮することが望ましい。その場合には、下記式(3)に示される非線形関係式を使用してもよい。
First, data having an angle ∠G ′ and an angle ∠H is collected while directing the face direction (head direction) of the subject and the line of sight G in various directions. As shown in FIG. 16, these data are plotted in two-dimensional coordinates in which the horizontal axis is the angle ∠G ′ and the vertical axis is the angle ∠H. The angle ∠G ′ and the angle ∠H have the relationship of Expression (2). Therefore, for example, the coefficients k 1 and k 2 can be obtained by calculating the approximate expression using the least square method or the like. Then, the angle ∠H can be calculated from the angle ∠G ′ using the function determined by the coefficients k 1 and k 2 . When applying the angle ∠H and the face direction H 1 in the definition of the angle ∠H, it can be estimated reference face direction H 2 close to the true value. When the angle ∠H increases, it is desirable to consider a nonlinear component. In that case, you may use the nonlinear relational expression shown by following formula (3).
なお、式(1)〜(3)は、X軸とY軸とにおいて、それぞれ独立に求めることが可能である。ただし、ここでいうX軸、Y軸とは、顔座標系における軸である。すなわち、式(1)〜(3)は、顔座標系の上で成立する。顔方向H1の検出にあたっては、まず、様々な方向へ視線Gと顔方向H1を向けて、それらの方向を計測する。この計測は、世界座標系(第1の座標系)を基準として行われる。次に、世界座標系を基準とした視線Gと顔方向H1を顔座標系(第2の座標系)に変換する。次に、顔座標系において上記関係式(1)〜(3)を利用して、補正された顔方向H1を算出する。そして、顔座標系における補正された顔方向H1を、世界座標系に基づくように座標変換する。これらの処理により、精度の良い顔方向H1が取得される。図2におけるZ軸は顔方向である。X軸はZ軸に直交する水平軸である。Y軸はZ軸に直交する垂直軸である。例えば、X軸に沿って顔方向が移動するということは、Y軸を周りに頭部が回転することを意味する。 Expressions (1) to (3) can be obtained independently for the X axis and the Y axis. However, the X-axis and Y-axis here are axes in the face coordinate system. That is, Expressions (1) to (3) are established on the face coordinate system. In the detection of the face direction H 1, first, towards the line of sight G and face direction H 1 in different directions, to measure their direction. This measurement is performed on the basis of the world coordinate system (first coordinate system). Then converted based on the world coordinate system to the gaze G and face direction H 1 face coordinate system (second coordinate system). Next, using the relational expressions (1) to (3) in the face coordinate system, calculates a corrected face direction H 1. Then, the face direction H 1 that is corrected in the face coordinate system, a coordinate conversion to be based on the world coordinate system. By these processes, accurate face direction H 1 is obtained. The Z axis in FIG. 2 is the face direction. The X axis is a horizontal axis orthogonal to the Z axis. The Y axis is a vertical axis orthogonal to the Z axis. For example, the movement of the face direction along the X axis means that the head rotates around the Y axis.
このように、顔座標系に変換した上での補正は、頭部を左右に傾けた時に、特に有効である。なぜならば、世界座標系で対象者が左右に視線を動かしても、顔座標系では、純粋にY軸周りの眼球回転だけでなく、X軸周りの眼球回転成分も含まれるためである。すなわち、頭蓋骨に対して視線が斜め方向に動くためである。また、人間の場合、正面を見た時に、2個の瞳孔に対して、鼻孔間中心が前方に突出している。そうすると、顔座標系を基準とした顔方向は対象者が正面と思っている方向よりも上方を向く。従って、この場合に、対象者が視線をX軸方向に動かしたとしても、顔座標系の上では、Y軸方向の成分が現れる。 Thus, the correction after conversion to the face coordinate system is particularly effective when the head is tilted to the left and right. This is because even if the subject moves his / her line of sight in the world coordinate system, the face coordinate system includes not only the eyeball rotation around the Y axis but also the eyeball rotation component around the X axis. That is, the line of sight moves in an oblique direction with respect to the skull. Further, in the case of a human, when looking at the front, the center between the nostrils protrudes forward with respect to the two pupils. If it does so, the face direction on the basis of a face coordinate system will face upwards rather than the direction which an object person thinks is a front. Therefore, in this case, even if the subject moves his / her line of sight in the X-axis direction, a component in the Y-axis direction appears on the face coordinate system.
上述したように、対象者が感じる正面に対して計測される顔正面(顔方向)は大きく上にずれている。従って、図6や図8で示されるように画面の中央に顔座標系を基準とした顔方向を向けるためには、頭部を大きく下に傾けることになる。これを解決するためには、顔方向(正面)の補正を行う。具体的には、注視点(視線)較正を行うにあたって、画面の中央に視標を提示し一点較正を行う。この一点較正を行うとき、対象者は予め画面の中央に顔の正面を向ける。この間に、世界座標系において、顔位置から画面中央へ向かう方向ベクトルを求める。ここで、顔位置は、一例として、重心や瞳孔間中点と規定することができる。なぜならば、視線も片眼毎ではなく、瞳孔間中点から画面中央へ直線と考えた方がよいためである。すなわち、起点を同じにする意味で理想的である。更に、このベクトルを顔座標系におけるベクトルに変換する。これにより、頭蓋骨に対する顔正面を意味する顔正面ベクトルが決定される。その後は、フレーム毎に、世界座標系における顔座標系の姿勢を求めて、それから顔座標系から世界座標系への座標変換式を求める。その座標変換式を利用して、先に求めた顔座標系における顔正面ベクトルを、顔座標系から世界座標系に変換すれば、顔方向ベクトルが求まる。この顔方向ベクトルの方向に顔位置を起点として直線を伸ばし、その直線と画面との交点を画面上の正面位置をすることができる。 As described above, the face front (face direction) measured with respect to the front felt by the subject is greatly shifted upward. Therefore, as shown in FIG. 6 and FIG. 8, in order to direct the face direction based on the face coordinate system to the center of the screen, the head is greatly inclined downward. In order to solve this, the face direction (front) is corrected. Specifically, when performing gazing point (line of sight) calibration, a target is presented at the center of the screen to perform one-point calibration. When performing this one-point calibration, the subject turns the front of the face to the center of the screen in advance. During this time, a direction vector from the face position toward the center of the screen is obtained in the world coordinate system. Here, the face position can be defined as, for example, the center of gravity or the mid-pupil midpoint. This is because it is better to consider the line of sight as a straight line from the mid-pupil midpoint to the center of the screen, not for each eye. That is, it is ideal in the sense that the starting points are the same. Further, this vector is converted into a vector in the face coordinate system. Thereby, the face front vector which means the face front with respect to the skull is determined. Thereafter, the posture of the face coordinate system in the world coordinate system is obtained for each frame, and then a coordinate conversion formula from the face coordinate system to the world coordinate system is obtained. If the face front vector in the previously obtained face coordinate system is converted from the face coordinate system to the world coordinate system using the coordinate conversion formula, the face direction vector can be obtained. A straight line can be extended starting from the face position in the direction of the face direction vector, and the intersection of the straight line and the screen can be the front position on the screen.
図7に示されるように、顔検出方法は、主要なステップとして、画像取得ステップS1と、前処理ステップS2と、関数導出ステップS3と、画像取得ステップS4と、前処理ステップS5と、顔姿勢導出ステップS6と、顔姿勢補正ステップS7と、を有する。顔検出方法では、関数導出ステップS3を予め実施し、関数導出ステップS3で導出された関数(式(2)参照)をもって顔姿勢導出ステップS6及び顔姿勢補正ステップS7を繰り返し実施する。なお、顔検出方法では、関数導出ステップS3、顔姿勢導出ステップS6、顔姿勢補正ステップS7をこの順で繰り返し実施してもよい。この場合には、処理を繰り返す毎に、関数が更新され、徐々に顔方向の検出精度が向上することになる。 As shown in FIG. 7, the face detection method includes, as main steps, an image acquisition step S1, a preprocessing step S2, a function derivation step S3, an image acquisition step S4, a preprocessing step S5, and a face posture. It has a derivation step S6 and a face posture correction step S7. In the face detection method, the function deriving step S3 is performed in advance, and the face posture deriving step S6 and the face posture correcting step S7 are repeatedly performed using the function derived in the function deriving step S3 (see Expression (2)). In the face detection method, the function deriving step S3, the face posture deriving step S6, and the face posture correcting step S7 may be repeated in this order. In this case, each time the process is repeated, the function is updated, and the detection accuracy of the face direction is gradually improved.
まず、画像取得ステップS1を実施する。画像取得ステップS1では、瞳孔用カメラ(撮像手段)10と鼻孔用カメラ20を制御して、複数の画像データ(顔画像)を取得する。画像データには、明瞳孔画像、暗瞳孔画像、鼻孔画像がある。画像取得ステップS1の詳細については、後述する。画像取得ステップS1の後に、前処理ステップS2を実施する。前処理ステップS2では、画像取得ステップS1で取得された画像データ(顔画像)を利用して、対象者Aの顔方向及び視線を導出する。ここで、前処理ステップS2は、角度∠G’と角度∠Hとを世界座標系(第1の座標系)において取得するステップS2aと、角度∠G’と角度∠Hとを顔座標系(第2の座標系)に座標変換するステップS2bとを含む。また、導出される顔方向は、ステレオ法により導出された結果と、拘束条件法により導出された結果とを含む。更に、導出される視線は、ステレオ法により導出された結果を含む。前処理ステップS2の詳細については、後述する。前処理ステップS2の後に、関数導出ステップS3を実施する。関数導出ステップS3では、前処理ステップS2で導出された顔方向及び視線を利用して、顔方向を補正するための関数(式(2)参照)を導出する。関数導出ステップS3は、上記式(2)に示された係数k1,k2を算出することにより関数(式(2))を決定するステップS3aを含む。式(2)に示されるように、関数は、係数k1,k2含む。関数を導出するとは、この係数k1,k2を決定することである。関数導出ステップS3の詳細については、後述する。
First, the image acquisition step S1 is performed. In the image acquisition step S1, the pupil camera (imaging means) 10 and the
以上の画像取得ステップS1、前処理ステップS2、関数導出ステップS3は、顔検出装置1の起動毎、又は、所望のタイミングで実行される。
The above image acquisition step S1, preprocessing step S2, and function derivation step S3 are executed every time the
次に、画像取得ステップS4を実施して画像データ(顔画像)を取得し、画像取得ステップS4の後に前処理ステップS5を実施する。続いて、前処理ステップS5の後に、顔姿勢導出ステップS6を実施する。顔姿勢導出ステップS6では、拘束条件法を利用して、顔方向を導出する。顔姿勢導出ステップS6では、特徴点間距離を拘束条件として利用する。この特徴点間距離は、予め取得された値を利用してもよいし、前処理ステップS2においてステレオ法を利用して算出した特徴点の三次元座標を利用してもよい。これは、視線検出(注視点検出)をするとき、1秒程度の注視をする間に同時に行うことができる。顔姿勢導出ステップS6の詳細については後述する。 Next, image acquisition step S4 is performed to acquire image data (face image), and preprocessing step S5 is performed after image acquisition step S4. Subsequently, after the preprocessing step S5, a face posture deriving step S6 is performed. In the face posture deriving step S6, the face direction is derived using the constraint condition method. In the face posture deriving step S6, the distance between feature points is used as a constraint condition. As the distance between the feature points, a value acquired in advance may be used, or the three-dimensional coordinates of the feature points calculated using the stereo method in the preprocessing step S2 may be used. This can be performed simultaneously during gaze detection for about 1 second when performing gaze detection (gaze point detection). Details of the face posture deriving step S6 will be described later.
顔姿勢導出ステップS6の後に、顔姿勢補正ステップS7を実施する。顔姿勢補正ステップS7では、関数と前処理ステップS2で検出された視線とを利用して、顔方向を補正する。顔姿勢補正ステップS7の詳細については、後述する。そして、再び画像取得ステップS4を実施する。これら画像取得ステップS4、前処理ステップS5、顔姿勢導出ステップS6、顔姿勢補正ステップS7を繰り返し実行する。 After the face posture deriving step S6, a face posture correcting step S7 is performed. In the face posture correction step S7, the face direction is corrected using the function and the line of sight detected in the preprocessing step S2. Details of the face posture correction step S7 will be described later. Then, the image acquisition step S4 is performed again. These image acquisition step S4, preprocessing step S5, face posture derivation step S6, and face posture correction step S7 are repeatedly executed.
この顔検出方法は、基準部位群における部位間の距離を拘束条件として利用する拘束条件法によって顔方向H1を導出する。従って、ランダムノイズの少ない安定した結果を得ることができる。そして、顔検出方法では、関数(式(2))を利用して顔方向H1を補正する。この関数は、対象者Aの視線Gと基準顔方向H2の間の第1角度、及び顔方向H1と基準顔方向H2の間の第2角度の関係を規定する係数k1,k2を含んでいるので、導出された顔方向H1を、基準顔方向H2に相当する結果に変換する。ここで、基準顔方向H2は、ステレオマッチングにより導出された結果であるので、真の顔方向に対する偏りが小さい。このため、ランダムノイズの少ない安定した顔方向H1が、真の顔方向に対する偏りが小さい顔方向に補正される。従って、顔検出における精度を向上することができる。 The face detection method derives a face direction H 1 by constraint method utilizing the distance between sites in the reference site group as a constraint condition. Therefore, a stable result with little random noise can be obtained. Then, in the face detecting method, to correct the face direction H 1 by using the function (equation (2)). This function is a coefficient k 1 , k that defines the relationship between the first angle between the line of sight G of the subject A and the reference face direction H 2 and the second angle between the face direction H 1 and the reference face direction H 2. 2 , the derived face direction H 1 is converted into a result corresponding to the reference face direction H 2 . The reference face direction H 2 are the results derived by the stereo matching, a small bias to the true face direction. Thus, less stable face direction H 1 of random noise is corrected with the deviation is small the face direction with respect to true face direction. Therefore, the accuracy in face detection can be improved.
また、顔検出方法によれば、拘束条件法により得られた顔方向H1を、フレーム毎に補正することができる。この顔検出方法により得られた顔方向は、拘束条件法が有する高い安定性と、ステレオ法が有する正確性とを有している。 Further, according to the face detection method, the face direction H 1 obtained by the constraint method, can be corrected for each frame. The face direction obtained by this face detection method has the high stability that the constraint method has and the accuracy that the stereo method has.
関数導出ステップS3は、係数k1,k2を導出するステップを含む。この関数導出ステップS3によれば、第1角度及び第2角度の関係を規定する係数k1,k2を含む関数(上記式(2))を導出することができる。 The function deriving step S3 includes a step of deriving the coefficients k 1 and k 2 . According to this function deriving step S3, it is possible to derive a function including the coefficients k 1 and k 2 that define the relationship between the first angle and the second angle (the above formula (2)).
関数導出ステップS3を1回実行した後に、顔姿勢導出ステップS6と顔姿勢補正ステップS7と、を繰り返し実行する。この方法では、顔姿勢導出ステップS6と、顔姿勢補正ステップS7を実行するときに、既に補正のための関数が得られている。従って、顔姿勢導出ステップS6と、顔姿勢補正ステップS7を実行し始めた直後から、顔検出における検出精度を向上することができる。 After the function derivation step S3 is executed once, the face posture derivation step S6 and the face posture correction step S7 are repeatedly executed. In this method, when executing the face posture deriving step S6 and the face posture correcting step S7, a function for correction has already been obtained. Accordingly, detection accuracy in face detection can be improved immediately after the start of the face posture deriving step S6 and the face posture correcting step S7.
顔検出方法では、関数導出ステップS3と前処理ステップS5と顔姿勢導出ステップS6と顔姿勢補正ステップS7と、この順で繰り返し実行することとしてもよい。この方法によれば、顔姿勢導出ステップS6と顔姿勢補正ステップS7を実行する毎に、関数導出ステップS3も実行される。関数導出ステップS3の繰り返しにより係数k1,k2が更新されて所定の値に収束する。従って、事前に関数を準備することなく、顔姿勢導出ステップS6と、顔姿勢補正ステップS7とを実行することができる。 In the face detection method, the function deriving step S3, the preprocessing step S5, the face posture deriving step S6, and the face posture correcting step S7 may be repeatedly executed in this order. According to this method, the function deriving step S3 is also executed every time the face posture deriving step S6 and the face posture correcting step S7 are performed. By repeating the function derivation step S3, the coefficients k 1 and k 2 are updated and converge to a predetermined value. Therefore, the face posture deriving step S6 and the face posture correcting step S7 can be executed without preparing a function in advance.
顔検出方法は、世界座標系を基準として取得された角度∠G’と角度∠Hとを顔座標系に座標変換した後に関数を決定し、得られた関数を世界座標系に座標変換する。この方法によれば、顔姿勢の検出精度を高めることができる。 In the face detection method, the angle ∠G ′ and the angle ∠H acquired with reference to the world coordinate system are coordinate-transformed into the face coordinate system, a function is determined, and the obtained function is coordinate-transformed into the world coordinate system. According to this method, the detection accuracy of the face posture can be increased.
<実施例>
顔検出方法における顔方向の補正効果を確認した。まず、ディスプレイ装置40の中心から75cm離間した位置に対象者Aの顎を固定する台を配置した。対象者は、この台に顎を載せて顔面をディスプレイ装置40に対して正対させた。この状態では、対象者Aの顔方向は、ディスプレイ装置40の中心に向かう方向である。この状態において、まず注視点の一点較正を実施した。次に、対象者Aは、ディスプレイ装置40上に表示した9個の視標TGに順次視線を向けた。各視標TGを注視する時間はおよそ1秒間である。図8(a)は、顔検出方法に係る補正を行わなかった場合の結果を示し、図8(a)は、顔検出方法に係る補正を行った場合の結果を示す。破線の丸印Cは、顔検出装置1によって検出された顔方向を示す。図8(a)に示されるように、補正を行わない場合、実際の顔方向は固定されているにも関わらず、導出される顔方向は、二点鎖線に示される領域D1の範囲でばらついた。具体的には、領域C1の範囲は、40mm〜50mm程度であった。一方、図8(b)に示されるように、補正を行った場合、二点鎖線に示される領域D2の範囲が縮小した。具体的には、領域C2の範囲は、10mm以下であった。従って、顔検出方法によれば、顔方向の誤差を低減できることが確認できた。
<Example>
The correction effect of the face direction in the face detection method was confirmed. First, a stand for fixing the jaw of the subject A was placed at a position 75 cm away from the center of the
以下、本実施形態に係る顔検出方法の具体的な形態、顔検出方法を実施するための顔検出装置1及び顔検出プログラムについて詳細に説明する。
Hereinafter, a specific form of the face detection method according to the present embodiment, the
<顔姿勢検出装置>
図1に示されるように、顔検出装置1は、ステレオカメラとして機能する一対の瞳孔用カメラ(撮像手段)10と、一対の鼻孔用カメラ20と、画像処理装置(処理手段)30とを備える。以下では、必要に応じて、一対の瞳孔用カメラ10を、対象者Aの左側にある左側瞳孔用カメラ10Lと、対象者Aの右側にある右側瞳孔用カメラ10Rとに区別する。また、一対の鼻孔用カメラ20を、対象者Aの左側にある左側鼻孔用カメラ20Lと、対象者Aの右側にある右側鼻孔用カメラ20Rとに区別する。本実施形態では、顔検出装置1は、対象者Aが見る対象であるディスプレイ装置40を更に備えるが、顔検出装置1の利用目的は上記のように限定されないので、対象者Aの視線の先にあるものはディスプレイ装置40に限定されず、例えば自動車のフロントガラスでもあり得る。従って、ディスプレイ装置40は顔検出装置1における必須の要素ではない。4台のカメラ10,20は何れも画像処理装置30と無線又は有線により接続され、各カメラ10,20と画像処理装置30との間で各種のデータ又は命令が送受信される。各カメラ10,20に対しては予めカメラ較正が行われる。
<Face posture detection device>
As shown in FIG. 1, the
瞳孔用カメラ10及び鼻孔用カメラ20は何れも対象者Aの顔を撮像する装置である。瞳孔用カメラ10は特に対象者Aの瞳孔及びその周辺を撮影するために用いられる。鼻孔用カメラ20は特に対象者Aの瞳孔、鼻孔、及びこれらの周辺を撮影するために用いられる。瞳孔用カメラ10は瞳孔光学系であり、鼻孔用カメラ20は鼻孔光学系である。本明細書では、瞳孔用カメラ10により得られる画像を瞳孔画像(明瞳孔画像または暗瞳孔画像)といい、鼻孔用カメラ20により得られる画像を鼻孔画像という。
Both the
瞳孔用カメラ10及び鼻孔用カメラ20は、対象者Aが眼鏡をかけているときの顔画像における反射光の写り込みを防止する目的で、対象者Aの顔より低い位置に設けられる。一対の瞳孔用カメラ10は水平方向に沿って所定の間隔をおいて配される。一対の鼻孔用カメラ20は、一対の瞳孔用カメラ10より低くかつ水平方向に沿って所定の間隔をおいて配される。鼻孔用カメラ20を瞳孔用カメラ10より下に配置するのは、対象者が顔を下に向けた場合でも鼻孔を検出できるようにするためである。水平方向に対する瞳孔用カメラ10及び鼻孔用カメラ20の仰角は、瞳孔の確実な検出と対象者Aの視野範囲の妨げの回避との双方を考慮して、例えば20度〜35度の範囲に設定される。あるいは、瞳孔用カメラ10の仰角が20度〜30度の範囲に設定され、鼻孔用カメラ20の仰角が25度〜35度程度の範囲に設定されてもよい。
The
本実施形態では、瞳孔用カメラ10及び鼻孔用カメラ20は、インターレーススキャン方式の一つであるNTSC方式のカメラである。NTSC方式では、1秒間に30枚得られる1フレームの画像データ(顔画像)は、奇数番目の水平画素ラインで構成される奇数フィールドと、偶数番目の水平画素ラインで構成される偶数フィールドから構成され、奇数フィールドの画像と偶数フィールドの画像とが1/60秒の間隔で交互に撮影されることで生成される。従って、一つのフレームは、一対の奇数フィールド及び偶数フィールドに相当する。瞳孔用カメラ10及び鼻孔用カメラ20はそれぞれ、画像処理装置30からの命令に応じて対象者Aを撮像し、画像データ(顔画像)を画像処理装置30に出力する。
In the present embodiment, the
瞳孔用カメラ10及び鼻孔用カメラ20は光源を備える。図9に示されるように、瞳孔用カメラ10及び鼻孔用カメラ20は、対物レンズ11が円形状の開口部12に収容され、開口部12の外側に光源13が設けられている。光源13は、対象者Aの顔に向けて照明光を照射するための機器であり、複数の発光素子13aと複数の発光素子13bとから成る。発光素子13aは、出力光の中心波長が850nmの半導体発光素子(LED)であり、開口部12の縁に沿って等間隔でリング状に配される。発光素子13bは、出力光の中心波長が940nmの半導体発光素子であり、発光素子13aの外側に等間隔でリング状に配される。従って、瞳孔用カメラ10の光軸から発光素子13bまでの距離は、該光軸から発光素子13aまでの距離よりも大きい。それぞれの発光素子13a,13bは、瞳孔用カメラ10の光軸に沿って照明光を出射するように設けられる。なお、光源13の配置は図2に示す構成に限定されず、カメラをピンホールモデルとみなすことができれば他の配置であってもよい。なお、鼻孔用カメラ20は、光源13を備えていなくてもよい。この場合には、鼻孔用カメラ20は、瞳孔用カメラ10の光源13により照らされた対象者Aの顔を撮影する。すなわち、鼻孔用カメラ20は光源13からの光を利用して撮影を行う。
The
鼻孔は後述する角膜反射に比べて寸法が大きいので、瞳孔用カメラ10より分解能が低いカメラを鼻孔用カメラ20として用いても鼻孔を検出することができる。すなわち、鼻孔用カメラ20の分解能は瞳孔用カメラ10の分解用カメラより低くてもよい。例えば、瞳孔用カメラ10の分解能が640ピクセル×480ピクセルであるのに対して、鼻孔用カメラ20の分解能が320ピクセル×240ピクセルであってもよい。
Since the nostrils are larger in size than the corneal reflection described later, the nostrils can be detected even if a camera having a lower resolution than the
画像処理装置30は、瞳孔用カメラ10及び鼻孔用カメラ20の制御と、対象者Aの視線及び顔方向の算出(検出)とを実行するコンピュータである。画像処理装置30は、据置型又は携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、画像処理装置30は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。
The
図10に示されるように、画像処理装置30は、CPU(プロセッサ)101と、主記憶部102と、補助記憶部103と、通信制御部104と、入力装置105と、出力装置106とを備える。CPU101は、オペレーティングシステムやアプリケーション・プログラムなどを実行する。主記憶部102は、ROM及びRAMで構成される。補助記憶部103は、ハードディスクやフラッシュメモリなどで構成される。通信制御部104は、ネットワークカードあるいは無線通信モジュールで構成される。入力装置105は、キーボードやマウスなどを含む。出力装置106は、ディスプレイやプリンタなどを含む。
As illustrated in FIG. 10, the
後述する画像処理装置30の各機能要素は、CPU101又は主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102又は補助記憶部103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102又は補助記憶部103内に格納される。
Each functional element of the
図11に示すように、画像処理装置30は機能的構成要素として画像取得部31、前処理部32、関数導出部33、顔姿勢導出部34及び顔姿勢補正部36を備える。画像取得部31は、瞳孔用カメラ10及び鼻孔用カメラ20の撮影タイミングと瞳孔用カメラ10の光源13の発光タイミングとを制御することで、瞳孔用カメラ10及び鼻孔用カメラ20から画像データ(顔画像)を取得する機能要素である。前処理部32は、画像データ(顔画像)に基づいて顔姿勢ベクトル及び視線を算出する機能要素である。前処理部32は、角度取得部32aと、座標変換部(第1の座標変換部)32bと、を有する。角度取得部32aは、角度∠G’及び角度∠Hを世界座標系において取得する。座標変換部32bは、世界座標系において取得された角度∠G’及び角度∠Hを、世界座標系とは異なる顔座標系に変換する。関数導出部33は、特徴点の三次元座標に基づいて顔方向を補正するための関数を導出する機能要素である。関数導出部33は、関数決定部33aを有する。関数決定部33aは、上記式(2)に示された係数k1,k2を算出する。顔姿勢導出部34は、拘束条件法を利用して顔方向を導出する機能要素である。顔姿勢補正部36は、顔姿勢導出部34により導出された顔方向を補正する機能要素である。顔姿勢補正部36は、第1の座標変換部36aと、角度取得部36bと、方向補正部36cと、第2の座標変換部36dとを有する。補正された顔方向の出力先は何ら限定されない。例えば、画像処理装置30は結果を画像、図形、又はテキストでモニタに表示してもよいし、メモリやデータベースなどの記憶装置に格納してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。
As shown in FIG. 11, the
この顔検出装置1は、上述した顔検出方法と同様の効果を得ることができる。すなわち、顔検出装置1は、基準部位群における部位間の距離を拘束条件として利用する拘束条件法によって顔方向H1を導出する。従って、ランダムノイズの少ない安定した結果を得ることができる。そして、顔検出装置では、関数(式(2))を利用して顔方向H1を補正する。この関数は、対象者Aの視線Gと基準顔方向H2の間の第1角度、及び顔方向H1と基準顔方向H2の間の第2角度の関係を規定する係数k1を含んでいるので、導出された顔方向H1を、基準顔方向H2に相当する結果に変換する。ここで、基準顔方向H2は、ステレオマッチングにより導出された結果であるので、真の顔方向に対する偏りが小さい。このため、ランダムノイズの少ない安定した顔方向H1が、真の顔方向に対する偏りが小さい顔方向に補正される。従って、顔検出における精度を向上することができる。
This
また、顔検出装置1は、2台以上の鼻孔用カメラ20を互いに離間させて配置しているので、顔方向H1の検出範囲を広げることができる。例えば、顔検出装置1は、鼻孔用カメラ20を正面にして各方向に±30度〜±40度の範囲で対象者Aの顔方向H1を検出できる。ここで、基準顔方向H2の検出用光学系(図1における右側瞳孔用カメラ10R、左側瞳孔用カメラ10L)は、例えば互いに30度程度離れているとする。この場合に、対象者Aから向かって左に15度のところに存在する左側瞳孔用カメラ10Lでは、対象者Aが右側に30度を超えた位置を注視したときには顔方向を検出できない(光学系を正面にして左右±45度の範囲で検出できる)。このような場合に、1枚の画像データ(顔画像)によって顔方向を導出できる拘束条件法が有利である。
The
以下、顔検出方法における、画像取得ステップS1、前処理ステップS2、関数導出ステップS3、画像取得ステップS4、前処理ステップS5、顔姿勢導出ステップS6、及び顔姿勢補正ステップS7の具体的態様について詳細に説明する。 Hereinafter, specific aspects of image acquisition step S1, preprocessing step S2, function derivation step S3, image acquisition step S4, preprocessing step S5, face posture derivation step S6, and face posture correction step S7 in the face detection method will be described in detail. Explained.
<画像取得ステップS1>
眼に入った光は網膜で乱反射し、反射光のうち瞳孔を通り抜けた光は強い指向性をもって光源へ戻る性質がある。カメラの開口部近くにある光源が発光した時にカメラを露光させると、網膜で反射した光の一部がその開口部に入るため、瞳孔が瞳孔周辺よりも明るく写った画像を取得することができる。この画像が明瞳孔画像である。これに対して、カメラの開口部から離れた位置にある光源が発光した時にカメラを露光させると、眼から戻ってきた光はカメラの開口部にほとんど戻らないため、瞳孔が暗く写った画像を取得することができる。この画像が暗瞳孔画像である。また、透過率が高い波長の光を眼に照射すると、網膜での光の反射が多くなるので瞳孔が明るく写り、透過率が低い波長の光を眼に照射すると、網膜での光の反射が少なくなるので瞳孔が暗く写る。
<Image acquisition step S1>
Light that enters the eye is diffusely reflected by the retina, and light that passes through the pupil of the reflected light has a property of returning to the light source with strong directivity. When the camera is exposed when a light source near the opening of the camera emits light, a part of the light reflected by the retina enters the opening, so an image in which the pupil appears brighter than the periphery of the pupil can be acquired. . This image is a bright pupil image. On the other hand, when the camera is exposed when a light source located far from the camera opening emits light, the light returned from the eye hardly returns to the camera opening. Can be acquired. This image is a dark pupil image. In addition, when light with a wavelength with high transmittance is irradiated on the eye, the reflection of light on the retina increases, so the pupil appears bright, and when light with a wavelength with low transmittance is irradiated on the eye, the light is reflected on the retina. The pupil will appear dark because it will decrease.
(明瞳孔画像と暗瞳孔画像の取得)
画像取得部31は、瞳孔用カメラ10の奇数フィールドに合わせて発光素子13aを点灯させて明瞳孔画像を撮影し、瞳孔用カメラ10の偶数フィールドに合わせて発光素子13aを点灯させて暗瞳孔画像を撮影する。画像取得部31は2個の瞳孔用カメラ10の間で作動タイミングをわずかにずらし、個々の瞳孔用カメラ10の露光時間はそのずらし時間以下に設定される。画像取得部31は、瞳孔用カメラ10の露光時間中に、対応する発光素子13a及び発光素子13bを交互に発光させることで、一方の瞳孔用カメラ10の光源13からの光が他方の瞳孔用カメラ10の画像に影響を与えないようにする(クロストークが起こらないようにする)。
(Acquisition of bright pupil image and dark pupil image)
The
画像取得部31は、これらの一連の制御により得られる明瞳孔画像及び暗瞳孔画像を取得する。得られる画像データは、奇数フィールド又は偶数フィールドのみに有効画素を有しているため、画像取得部31は、隣接する有効画素の画素ラインの輝度平均をそのライン間の画素値に埋め込むことによって、明瞳孔画像又は暗瞳孔画像を生成する。画像取得部31は明瞳孔画像及び暗瞳孔画像を前処理部32に出力する。
The
(鼻孔画像の取得)
画像取得部31は、光源13の点灯に同期させて鼻孔画像を撮影する。点灯される発光素子は、発光素子13a,13bの何れでもよい。画像取得部31は鼻孔画像を前処理部32に出力する。
(Acquisition of nostril images)
The
<前処理ステップS2>
前処理ステップS2は、瞳孔位置を検出するステップと、鼻孔を検出するステップと、ステレオ法による顔姿勢ベクトルの導出ステップと、拘束条件法による顔姿勢ベクトルの導出ステップと、視線の検出ステップと、を有する。
<Preprocessing step S2>
The preprocessing step S2 includes a step of detecting a pupil position, a step of detecting a nostril, a step of deriving a face posture vector by a stereo method, a step of deriving a face posture vector by a constraint condition method, and a step of detecting a gaze, Have
(瞳孔位置の検出)
前処理部32は、2画像の差分を取ることで差分画像を生成する。そして、前処理部32は差分画像から対象者Aにおける左右の瞳孔の位置を算出する。連続する2フィールドの一方は明瞳孔画像であり他方は暗瞳孔画像である。i番目のフィールドの画像が撮影されてから(i+1)番目のフィールドの画像が撮影されるまでの間に対象者Aの頭部が動かなければ、単純に明瞳孔画像及び暗瞳孔画像の差を取ることで、瞳孔部分が浮かび上がった差分画像を生成することができる。
(Detection of pupil position)
The preprocessing
ここで、前処理部32は、差分を取る前に、連続する2フィールドの画像のうち、先に得られた画像の位置を後から得られた画像の位置に合わせ(この処理を位置補正という)を実行してもよい。具体的には、前処理部32は、差分画像を得る前に明瞳孔画像及び暗瞳孔画像に対して位置補正を実行してもよい。i番目のフィールドの画像が撮影されてから(i+1)番目のフィールドの画像が撮影されるまでの間のわずかな時間に対象者Aの頭部が動くと、これら2画像の間で瞳孔の位置に偏りが生じ、その結果、良好な差分画像を得ることができない。従って、瞳孔用カメラ10及び鼻孔用カメラ20のフレームレートが高速ではない場合に、位置補正の適用が有効である。本実施形態での位置補正には、顔方向の予測に基づく位置補正と、その後に行われる、角膜反射に基づく位置補正の2種類がある。
Here, before taking the difference, the preprocessing
瞳孔検出の方法は前フィールド(i番目のフィールド)での瞳孔の検出結果(前回の瞳孔検出結果)によって下記の3種類に分類される。
(1)前フィールド(前回の瞳孔検出)で両瞳孔を検出できた場合。
(2)前フィールド(前回の瞳孔検出)で片方の瞳孔のみを検出できた場合。
(3)前フィールド(前回の瞳孔検出)で両瞳孔を検出できなかった場合。
The pupil detection methods are classified into the following three types according to the pupil detection result (previous pupil detection result) in the previous field (i-th field).
(1) When both pupils can be detected in the previous field (previous pupil detection).
(2) When only one pupil can be detected in the previous field (previous pupil detection).
(3) When both pupils cannot be detected in the previous field (previous pupil detection).
前フィールドで両瞳孔を検出できた場合には、前処理部32は瞳孔追跡により両瞳孔を決定し、左右の瞳孔の中心座標を算出する。まず、前処理部32は、予測瞳孔位置の三次元座標を、後述する式(6)を用いて撮像平面(瞳孔画像)上の二次元座標に変換する。また、前処理部32は、次フィールド((i+1)番目のフィールド)の瞳孔画像を画像取得部31から取得する。続いて、前処理部32は予測瞳孔位置の二次元座標を中心とする小ウィンドウ(例えば70ピクセル×70ピクセル)を次フィールドの瞳孔画像に設定する。一方、前フィールドの画像に対しては、前処理部32は既に検出されている二次元座標を中心とする小ウィンドウを設定する。続いて、前処理部32は前フィールドのウィンドウの位置を次フィールドのウィンドウの位置に合わせ、明瞳孔画像と暗瞳孔画像との差分を取る。続いて、前処理部32は、その処理で得られた差分画像に対してPタイル法によって決定された閾値で2値化を行った後、孤立点除去及びラベリングを行う。続いて、前処理部32は、瞳孔らしい面積、サイズ、面積比、正方形度、及び瞳孔特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔候補を選択する。そして、前処理部32は二つの瞳孔候補の関係が所定の関係にあるものを左右の瞳孔として決定し、画像データにおける左右の仮の瞳孔位置を求める。すなわち、前処理部32は、ピンホールモデルを用いて顔姿勢から予測された瞳孔の三次元座標を撮像平面に投影してから、位置補正を実行して差分画像を生成し、その差分画像に基づいて瞳孔を特定する。
If both pupils can be detected in the previous field, the preprocessing
前フィールドで片方の瞳孔のみ検出された場合には、前処理部32は、検出された方の瞳孔については、上記と同様の瞳孔追跡により瞳孔を決定し、仮の瞳孔位置を求める。一方、検出されなかった方の瞳孔については、前処理部32は検出された方の瞳孔の位置から所定の距離(例えば30ピクセル)だけ離れた位置に中ウィンドウ(例えば150ピクセル×60ピクセル)を設定し、その中ウィンドウについて差分画像を生成する。そして、前処理部32はその差分画像に対して、上記と同様の手順で瞳孔候補を選択する。そして、前処理部32は瞳孔候補の中で面積が最も大きいものを他方の仮の瞳孔位置として決定する。
When only one pupil is detected in the previous field, the preprocessing
前フィールドで両瞳孔を検出できなかった場合には、前処理部32は画像全体から瞳孔を探索する。具体的には、前処理部32は、前フィールドの画像と次フィールドの画像との差分を取ることで得た差分画像に対して、上記と同様の手順で瞳孔候補を選択する。そして、前処理部32は二つの瞳孔候補の関係が所定の関係にあるものを左右の瞳孔として決定し、画像データにおける左右の仮の瞳孔位置を求める。
If both pupils cannot be detected in the previous field, the preprocessing
続いて、前処理部32は角膜反射の位置を考慮して最終的な瞳孔位置を確定する。具体的には、前処理部32は、明瞳孔画像及び暗瞳孔画像のそれぞれに対して、仮の瞳孔位置を中心とした小ウィンドウを設定し、その小ウィンドウの範囲のみを高分解像度化した画像データを作成し、その画像データから角膜反射を検出する。前処理部32は、小ウィンドウ内において、Pタイル法による2値化とラベリングとを行い、形状や輝度平均などの情報から角膜反射候補を選択する。そして、前処理部32は選択した部分の中心座標に対し分離度フィルタを与え、分離度と輝度を乗算して得られる特徴量を求める。その特徴量が一定値以上であれば、前処理部32は小ウィンドウの中心座標を仮の角膜反射座標として検出し、二つの小ウィンドウの間での角膜反射の移動量を位置補正量として計算する。続いて、前処理部32は明瞳孔画像及び暗瞳孔画像の間で角膜反射点が一致するように、前フィールド(i番目のフィールド)の画像を、次フィールド((i+1)番目のフィールド)の画像に位置補正量だけずらした上で、これら2画像から差分画像を生成する。一方、角膜反射を検出できなかった場合には、前処理部32は位置補正を行うことなく2画像の差分を取ることで差分画像を生成する。
Subsequently, the preprocessing
続いて、前処理部32は差分画像から最終的な瞳孔位置を確定する。具体的には、前処理部32は、前フレームと輝度が大きく変化しないことを利用して、前フレームで検出された瞳孔の輝度平均を利用して、その平均輝度の半分の値を閾値として差分画像を2値化し、ラベリングを行う。続いて、前処理部32は、瞳孔らしい面積、サイズ、面積比、正方形度、及び瞳孔特徴量等の形状パラメータに基づいて、ラベルづけされた画素の連結成分の中から瞳孔候補を選択する。そして、前処理部32は、予測瞳孔位置の近くにある瞳孔候補が求めるべき瞳孔であると判定し、その瞳孔の中心座標を算出する。
Subsequently, the preprocessing
(鼻孔の検出)
前処理部32は、鼻孔があると推定される鼻孔画像内の位置にウィンドウを設定し、そのウィンドウ内を処理することで鼻孔を検出する。なお、前処理部32は、瞳孔の三次元位置に基づいて、鼻孔があると推定される鼻孔画像内の位置にウィンドウを設定してもよい。前処理部32は、鼻孔画像及び暗瞳孔画像から鼻孔を検出する。あるいは、前処理部32は、鼻孔画像から鼻孔を検出する。鼻孔検出の方法は前フィールドでの鼻孔の検出結果(前回の鼻孔検出の結果)によって下記の3種類に分類される。
(1)前フィールド(前回の鼻孔検出)で左右の鼻孔の双方を検出できなかった場合。
(2)前フィールド(前回の鼻孔検出)で左右の鼻孔の双方を検出できた場合。
(3)前フィールド(前回の鼻孔検出)で片方の鼻孔のみを検出できた場合。
(Detection of nostril)
The
(1) When both the left and right nostrils cannot be detected in the previous field (previous nostril detection).
(2) When both the left and right nostrils can be detected in the previous field (previous nostril detection).
(3) When only one nostril can be detected in the previous field (previous nostril detection).
前フィールドで左右の鼻孔の双方を検出できなかった場合には、前処理部32は瞳孔の位置に基づいて鼻孔画像内に所定の大きさの大ウィンドウを設定し、その大ウィンドウ内の輝度を反転させ、Pタイル法によって設定された閾値で2値化を行った後、孤立点除去、収縮処理、膨張処理、及びラベリングを行う。続いて、前処理部32はラベルづけされた画素の連結成分から、鼻孔らしい面積及び大ウィンドウ内での位置に基づいて鼻孔候補を選択する。続いて、前処理部32は、大ウィンドウの中心に最も近い鼻孔候補を第1鼻孔とし、その第1鼻孔との距離が最も近い鼻孔候補を第2鼻孔と決定する。そして、前処理部32はX座標に基づいて第1鼻孔及び第2鼻孔のどちらか一方を左鼻孔と認定し他方を右鼻孔と認定し、各鼻孔の中心座標を算出する。
If both the left and right nostrils cannot be detected in the previous field, the preprocessing
前フィールドで左右の鼻孔の双方を検出できた場合には、前処理部32は前フィールドの鼻孔位置からカルマンフィルタによって現在の処理対象フィールドにおける鼻孔位置を予測し、予測された鼻孔位置を中心とする小ウィンドウを設定する。小ウィンドウは大ウィンドウよりも小さい。そして、前処理部32は大ウィンドウに対する処理と同様に、小ウィンドウ内の輝度反転、Pタイル法による2値化、孤立点除去、収縮処理、膨張処理、ラベリング、鼻孔候補の選択、及び左右の鼻孔の認定を実行することで、各鼻孔の中心座標を算出する。
When both the left and right nostrils can be detected in the previous field, the preprocessing
前フィールドで片方の鼻孔のみ検出された場合には、前処理部32は鼻孔推定を行う。前処理部32は、対象者Aが鼻孔用カメラ20に真っ直ぐ向いているときの両瞳孔及び両鼻孔の座標を事前に保持しており、これらの座標に基づいて瞳孔間の距離と鼻孔間の距離との比と求める。続いて、前処理部32は、両瞳孔をつないだ直線と両鼻孔をつないだ直線が平行であるとの前提に立ち、二つの瞳孔座標と、検出できた一つの鼻孔座標と、求めた比とに基づいて、前フィールドで検出できなかった鼻孔座標を推定し、推定された鼻孔座標を中心に上記と同様の小ウィンドウを設定する。そして、前処理部32は小ウィンドウ内の輝度反転、Pタイル法による2値化、孤立点除去、収縮処理、膨張処理、ラベリング、鼻孔候補の選択、及び左右の鼻孔の認定を実行することで、各鼻孔の中心座標を算出する。
When only one nostril is detected in the previous field, the preprocessing
(ステレオ法による顔姿勢ベクトルの導出)
本実施形態では、ステレオ法によって導出された顔姿勢ベクトルを真の顔方向(基準顔方向H2)として取り扱う。ステレオ法とは、複数台のカメラによって撮像された画像データ(顔画像)から対象の三次元座標を復元する方法である。対象物は、瞳孔中心である。本実施形態では、瞳孔用カメラ10を用いて得た少なくとも2枚の顔画像にステレオ法を適用することによって、瞳孔中心の三次元座標を決定する。そして、このステレオ法によって得られた瞳孔中心の三次元座標を利用して、対象者Aの基準顔方向H2を示す顔姿勢ベクトルを算出する。すなわち、基準顔方向H2は、対象者Aの顔画像に基づいて、ステレオ法により導出される。
(Derivation of face posture vector by stereo method)
In the present embodiment, the face posture vector derived by the stereo method is handled as the true face direction (reference face direction H 2 ). The stereo method is a method for restoring the target three-dimensional coordinates from image data (face images) captured by a plurality of cameras. The object is the pupil center. In the present embodiment, the stereo method is applied to at least two face images obtained using the
具体的には、図12に示されるように、ステレオ法による瞳孔中心の三次元座標を決定には、世界座標系(XW,YW,ZW)、カメラ座標系(XC,YC,ZC)及び画像座標系(XI,YI)の3個の座標系を利用する。世界座標系は、複数のカメラ(例えば左側瞳孔用カメラ10L、右側瞳孔用カメラ10R)の間で共有する任意の点を規定する座標系である。特徴点の三次元座標は、世界座標系XWYWZWに基づく。世界座標系XWYWZWとカメラ座標系XCYCZCとの関係は、式(4)により示される。式(4)における回転行列Rと並進ベクトルTRは、カメラ較正により取得される定数である。前処理部32は式(4)に基づいて、世界座標系XWYWZWにおける瞳孔の位置を算出する。
続いて、前処理部32は特徴点の座標P0,P1,P2の三次元位置に基づいて顔方向を求める。図13に示すように、カメラ座標系XCYCZCに対して特徴点の座標P0,P1,P2及びそれらの重心Mを基準にした顔座標系xyzを定義する。このx軸、y軸、z軸は、顔座標系の原点が重心Mと一致し、顔平面がxy平面と一致し、かつz軸が法線ベクトルと一致するように設定される。また、重心Mが顔座標系xyzの原点と位置し、かつ鼻孔中点がy軸上にあって負値をとるように設定された状態を顔座標系xyzでの基準姿勢と定義する。
Subsequently, the preprocessing
前処理部32はステレオ法によって算出された各特徴点の座標P0,P1,P2の重心Mを通る平面の法線ベクトルを求める。この法線ベクトルは、対象者Aの基準顔方向H2を示す顔姿勢ベクトルVB=(nX,nY,nZ)である。
The preprocessing
(拘束条件法による顔姿勢ベクトルの導出)
顔検出装置1における撮像光学系は、図14に示すように焦点距離fのピンホールモデルと仮定することができる。ピンホールを原点ORとしたカメラ座標系(基準座標系XC−YC−ZCにおける鼻孔画像(撮像平面PL)上の右瞳孔、左瞳孔、左鼻孔、及び右鼻孔の中心点の二次元座標をそれぞれ、Q1(x1,y1)、Q2(x2,y2)、Q3(x3,y3)、及びQ4(x4,y4)とする。前処理部32は、これら4点の二次元座標から、両鼻孔の中点(鼻孔間中心)の座標(鼻孔間中心座標)P0、右瞳孔の座標P1、及び左瞳孔の座標P2を求める。ここで、Pn=(Xn,Yn,Zn)(n=0,1,2)である。
(Derivation of face posture vector by constraint method)
The imaging optical system in the
3個の特徴点(鼻孔間中心、左瞳孔及び右瞳孔)間を結んだ三角形の各辺の距離は、それらのうちの任意の1点をiとし、他の点をjとすると、点i,jの間の距離Lijで示される(式(5))。
ピンホールから各特徴点への位置ベクトルが求まれば、各特徴点に対応する撮像平面PL上の二次元位置は、カメラの焦点距離fを用いて式(6)で得られる。
また、ピンホールOから各特徴点へ向かう位置ベクトルに対応した単位ベクトルは式(7)により得られる。
各特徴点の位置ベクトルは定数an(n=0,1,2)を用いて式(8)で表される。
すると、式(9)が成立する。
これにより連立方程式(10)が得られる。
顔姿勢導出部34はこの連立方程式からa0,a1,a2を求め、その解を式(8)に適用することで位置ベクトルを求める。
If the position vector from the pinhole to each feature point is obtained, the two-dimensional position on the imaging plane PL corresponding to each feature point can be obtained by Expression (6) using the focal length f of the camera.
A unit vector corresponding to a position vector from the pinhole O toward each feature point is obtained by Expression (7).
The position vector of each feature point is expressed by equation (8) using constants a n (n = 0, 1, 2).
Then, Formula (9) is materialized.
Thereby, simultaneous equations (10) are obtained.
The face
続いて、前処理部32は特徴点の座標P0,P1,P2に基づいて顔方向を求める。図13に示すように、カメラ座標系XCYCZCに対して特徴点の座標P0,P1,P2及びそれらの重心Mを基準にした顔座標系xyzを定義する。このx軸、y軸、z軸は、顔座標系の原点が重心Mと一致し、顔平面がxy平面と一致し、かつz軸が法線ベクトルと一致するように設定される。また、重心Mが顔座標系xyzの原点と位置し、かつ鼻孔中点がy軸上にあって負値をとるように設定された状態を顔座標系xyzでの基準姿勢と定義する。
Subsequently, the preprocessing
前処理部32は各特徴点の座標P0,P1,P2の重心Mを通る撮像平面PLの法線ベクトルを求める。この法線ベクトルは、対象者Aの顔方向H1を示す顔姿勢ベクトルVF=(nX,nY,nZ)である。
The preprocessing
(視線の検出)
前処理部32は左右の瞳孔の三次元座標に基づいて視線を検出する。この瞳孔の三次元座標には、上記ステレオ法による顔姿勢ベクトルの導出と同様に、瞳孔用カメラ10を用いて得た少なくとも2枚の顔画像にステレオ法を適用することによって得られた瞳孔中心の三次元座標を利用することができる。すなわち、視線Gは、対象者Aの顔画像に基づいてステレオ法により導出される。図15に示されるように、瞳孔の三次元位置に基づいて、瞳孔用カメラ10の開口部12の中心を原点ORとし、その原点ORと瞳孔中心Pを結ぶ基準線ORPを法線とする仮想視点平面X’−Y’を考える。ここで、X’軸は、世界座標系のXw−Zw平面と仮想視点平面X’−Y’との交線に相当する。
(Gaze detection)
The preprocessing
前処理部32は、画像面SGにおける角膜反射点GRから瞳孔中心PまでのベクトルrGを算出し、そのベクトルrGを、距離OPから求められたカメラの拡大率を用いて実寸に換算したベクトルrに変換する。このとき、瞳孔用カメラ10をピンホールモデルと考え、角膜反射点GRと瞳孔中心Pとが、仮想視点平面X’−Y’と平行な平面上にあると仮定する。つまり、前処理部32は、仮想視点平面X’−Y’と平行であって瞳孔の三次元座標を含む平面上において、瞳孔中心Pと角膜反射点GRの相対座標をベクトルrとして算出し、このベクトルrは角膜反射点GRから瞳孔中心Pまでの実距離を表す。
前処理部32は、対象者Aの仮想視点平面X’−Y’上の注視点Tに関して、直線OTの水平軸X’に対する傾きφが、ベクトルrの画像面上の水平軸XGに対する傾きφ’と等しいと仮定する。更に、前処理部32は、対象者Aの視線ベクトル、すなわち、瞳孔中心Pと注視点Tとを結ぶ視線ベクトルPTと、基準線OPとのなす傾きθを、ゲイン値k2を含むパラメータを使った式(11)により計算する。
このような傾きφ,θの計算は、瞳孔中心Pの存在する平面上のベクトルrを仮想視点平面X’−Y’上で拡大したものがそのまま対象者Aの注視点に対応するとみなすことにより行われる。具体的には、対象者Aの視線ベクトルPTの基準線OPに対する傾きθは、瞳孔中心と角膜反射の距離|r|との間で線形関係を有すると仮定する。 Such inclinations φ and θ are calculated by assuming that the vector r on the plane where the pupil center P exists is enlarged on the virtual viewpoint plane X′-Y ′ as it corresponds to the gaze point of the subject A as it is. Done. Specifically, it is assumed that the inclination θ of the visual line vector PT of the subject A with respect to the reference line OP has a linear relationship between the pupil center and the corneal reflection distance | r |.
傾きと距離|r|とは線形近似できるという仮定、及び二つの傾きφ,φ’が等しいという仮定を利用することで、(θ,φ)と(|r|,φ’)とを一対一に対応させることができる。このとき、前処理部32は、瞳孔用カメラ10の開口部12の中心に設定された原点ORと、仮想視点平面X’−Y’上の注視点Tとを結ぶベクトルOTを式(12)により得る。なお、ベクトルOPは瞳孔用カメラ10から得られる。
最後に、前処理部32は視線ベクトルPTと視対象平面(ディスプレイ装置40)との交点である注視点Qを式(13)により得る
しかし、一般的にヒトの視軸(瞳孔中心および中心窩を通る軸)と光軸(角膜からレンズの中心へと延びる法線)との間には偏りがあり、対象者Aがカメラを注視した際にも角膜反射と瞳孔中心とは一致しない。そこで、これを補正する原点補正ベクトルr0を定義し、カメラ画像から実測した角膜反射−瞳孔中心ベクトルをr’とすると、ベクトルrはr=r’−r0で表されるので、式(11)は式(14)のように書き換えられる。
計測されたr’に対して原点補正を行うことで、(θ,φ)と(|r|,φ’)とを一対位置に対応させることができ、精度の高い注視点検出を行うことができる。このような補正は、当業者に周知である一点較正法を用いて実現可能である。 By performing the origin correction for the measured r ′, (θ, φ) and (| r |, φ ′) can be made to correspond to a pair of positions, and high-precision gaze point detection can be performed. it can. Such correction can be achieved using a single point calibration method well known to those skilled in the art.
<関数導出ステップS3>
関数導出部33は、式(2)における係数k1,k2を決定する。係数k1,k2の決定方法は次の通りである。まず、対象者Aは、顔方向と視線とを自由に動かす。この間に、視線Gと、顔方向H1と、基準顔方向H2とを取得する。そして、図16に示されるように、角度∠G’(第1角度)と角度∠H(第2角度)を二次元座標上にプロットする。これら角度∠G’と角度∠Hとは、世界座標系を基準として表現された角度である。ここで、角度∠G’と角度∠Hとを顔座標系に座標変換する。そして、関数決定部33aは、顔座標系を基準とした角度∠G’と角度∠Hを利用して、二次元座標におけるグラフの傾き(係数k1)および切片(係数k2)を算出する(ステップS3a)。これらの算出には、最小二乗法を利用することができる。これら係数k1,k2が決定されることにより、関数(式(2))が決定される。
<Function derivation step S3>
The
<画像取得ステップS4>
画像取得ステップS4では、上記画像取得ステップS1と同様の手法により、明瞳孔画像、暗瞳孔画像及び鼻孔画像を取得する。
<Image acquisition step S4>
In the image acquisition step S4, a bright pupil image, a dark pupil image, and a nostril image are acquired by the same method as in the image acquisition step S1.
<前処理ステップS5>
前処理ステップS5では、上記前処理ステップS2と同様の手法により、拘束条件法による顔方向H1を導出する。また、上記前処理ステップS2と同様の手法により、ステレオ法による視線Gを導出する。前処理ステップS5では、ステレオ法による基準顔方向H2は必要に応じて導出すればよい。
<Preprocessing step S5>
In the pretreatment step S5, in the same manner as the pre-processing step S2, deriving the face direction H 1 by constraint method. Further, the line of sight G by the stereo method is derived by the same method as in the preprocessing step S2. In the pretreatment step S5, the reference face direction H 2 by stereo method may be derived if necessary.
(拘束条件法による顔姿勢の導出:顔姿勢導出ステップS6)
顔姿勢導出ステップS6では、上記「拘束条件法による顔姿勢ベクトルの導出」と同様の手法により、顔方向H1を導出する。
(Derivation of face posture by constraint condition method: face posture deriving step S6)
In the face pose deriving step S6, in the same manner as "Derivation of face pose vector by constraints Method" above, we derive the face direction H 1.
<顔姿勢補正ステップS7>
顔姿勢補正部36は、式(2)と関数導出ステップS3で決定された係数k1,k2を利用して、顔方向H1を補正する。まず、第1の座標変換部36aは、フレーム毎に求まる世界座標系における視線Gと顔方向H1を顔座標系に変換し、顔座標系における視線Gと顔方向H1を求める(第1の座標変換ステップ:S7a)。次に、角度取得部36bは、顔座標系における視線Gと顔方向H1を利用して、顔座標系における角度∠G’(第1角度)を求めた後に、角度∠G’と、すでに求まっている係数k1,k2を含む記式(2)を用いて、顔座標系における角度∠Hを求める(角度取得ステップ:S7b)。次に、方向補正部36cは、この角度∠Hと顔座標系における顔方向H1から顔座標系における基準顔方向H2を求める(方向補正ステップ:S7c)。そして、第2の座標変換部36dは、顔座標系における基準顔方向H2を世界座標系における基準顔方向H2に変換する(第2の座標変換ステップ:S7d)。以上のステップS7a〜S7dにより、補正された顔方向H1を得る。
<Face posture correction step S7>
The face
[顔検出プログラム]
次に、顔検出装置1を実現するための顔検出プログラムを説明する。
[Face detection program]
Next, a face detection program for realizing the
図17に示されるように、顔検出プログラムP10は、メインモジュールP11、画像取得モジュールP12、前処理モジュールP13、関数導出モジュールP14、顔姿勢導出モジュールP15、及び顔姿勢補正モジュールP16、を備える。 As shown in FIG. 17, the face detection program P10 includes a main module P11, an image acquisition module P12, a preprocessing module P13, a function derivation module P14, a face posture derivation module P15, and a face posture correction module P16.
メインモジュールP11は、顔検出機能を統括的に制御する部分である。画像取得モジュールP12、前処理モジュールP13、関数導出モジュールP14、顔姿勢導出モジュールP15、及び顔姿勢補正モジュールP16を実行することにより実現される機能はそれぞれ、上記の画像取得部31、前処理部32、関数導出部33、顔姿勢導出部34、及び顔姿勢補正部36の機能と同様である。
The main module P11 is a part that comprehensively controls the face detection function. The functions realized by executing the image acquisition module P12, the preprocessing module P13, the function derivation module P14, the face posture derivation module P15, and the face posture correction module P16 are the
顔検出プログラムP10は、例えば、CD−ROMやDVD−ROM、半導体メモリなどの有形の記録媒体に固定的に記録された上で提供されてもよい。また、顔検出プログラムP10は、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。 The face detection program P10 may be provided after being fixedly recorded on a tangible recording medium such as a CD-ROM, DVD-ROM, or semiconductor memory. The face detection program P10 may be provided via a communication network as a data signal superimposed on a carrier wave.
1…顔検出装置、10…瞳孔用カメラ(撮像手段)、20…鼻孔用カメラ、30…画像処理装置(処理手段)、31…画像取得部、32…前処理部、33…関数導出部、34…顔姿勢導出部、36…顔姿勢補正部、H1…顔方向、H2…基準顔方向、S1,S4…画像取得ステップ、S2,S5…前処理ステップ、S3…関数導出ステップ、S6…顔姿勢導出ステップ、S7…顔姿勢補正ステップ。
DESCRIPTION OF
Claims (8)
前記顔姿勢を導出する顔姿勢導出ステップと、
前記関数導出ステップにおいて導出された前記関数を利用して、前記顔姿勢を補正する顔姿勢補正ステップと、を有し、
前記顔姿勢は、前記対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、前記対象者の顔画像において検出される前記基準部位群の二次元的位置とを利用して、前記基準部位群を含む平面の法線を算出することによって導出され、
前記視線及び前記基準顔姿勢は、少なくとも2枚の前記対象者の顔画像に基づいて、ステレオマッチングにより導出される、顔検出方法。 A function for deriving a function for correcting the face posture, including a coefficient that defines a first angle between the face posture and the line of sight of the subject and a second angle between the reference face posture and the face posture. A derivation step;
A face posture deriving step for deriving the face posture;
Using the function derived in the function deriving step to correct the face posture, and a face posture correcting step,
The face posture is detected in a distance between parts in a reference part group that is a combination of any one of the left pupil, right pupil, and right and left nostrils of the subject, and the face image of the subject. Using the two-dimensional position of the reference part group, it is derived by calculating the normal of the plane including the reference part group,
The face detection method, wherein the line of sight and the reference face posture are derived by stereo matching based on at least two face images of the subject.
前記顔姿勢を導出するステップと、
前記視線及び前記基準顔姿勢を導出するステップと、
前記第1角度及び前記第2角度に基づいて、前記係数を導出するステップと、を含む、請求項1に記載の顔検出方法。 The function derivation step includes:
Deriving the face posture;
Deriving the line of sight and the reference face posture;
The face detection method according to claim 1, further comprising: deriving the coefficient based on the first angle and the second angle.
第1の座標系に基づく前記視線と前記第1の座標系に基づく前記顔姿勢とを、前記第1の座標系とは異なる第2の座標系に基づくように座標変換するステップと、
前記第2の座標系に基づく前記視線と前記第2の座標系に基づく前記顔姿勢とを利用して、前記第2の座標系に基づく前記第1角度を取得し、当該第1角度と前記関数とを利用して、前記第2の座標系に基づく前記第2角度を取得するステップと、
前記第2の座標系に基づく前記第2角度を利用して、前記第2の座標系に基づく前記顔姿勢を補正するステップと、
補正された前記顔姿勢を前記第1の座標系に基づくように座標変換するステップと、を含む、請求項1〜4の何れか一項に記載の顔検出方法。 The face posture correction step includes
Transforming the line of sight based on the first coordinate system and the face posture based on the first coordinate system to be based on a second coordinate system different from the first coordinate system;
The first angle based on the second coordinate system is acquired using the line of sight based on the second coordinate system and the face posture based on the second coordinate system, and the first angle and the Using a function to obtain the second angle based on the second coordinate system;
Correcting the face posture based on the second coordinate system using the second angle based on the second coordinate system;
The face detection method according to claim 1, further comprising: transforming the corrected face posture based on the first coordinate system.
前記撮像手段で撮像された顔画像に基づいて、前記対象者の顔姿勢を導出する処理手段と、を備え、
前記処理手段は、
前記対象者の前記顔姿勢と視線との間の第1角度及び基準顔姿勢と前記顔姿勢の間の第2角度の関係を規定する係数を含み、前記顔姿勢を補正するための関数を導出する関数導出部と、
前記顔姿勢を導出する顔姿勢導出部と、
前記関数導出部において導出された前記関数を利用して、前記顔姿勢を補正する顔姿勢補正部と、を有し、
前記顔姿勢は、前記対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、前記対象者の顔画像において検出される前記基準部位群の二次元的位置とを利用して、前記基準部位群を含む平面の法線を算出することによって導出され、
前記視線及び前記基準顔姿勢は、少なくとも2枚の前記対象者の顔画像に基づいて、ステレオマッチングにより導出される、顔検出装置。 At least two imaging means for imaging the face of the subject;
Processing means for deriving the face posture of the subject based on the face image imaged by the imaging means,
The processing means includes
Deriving a function for correcting the face posture, including coefficients defining a first angle between the face posture and the line of sight of the subject and a second angle relationship between a reference face posture and the face posture. A function derivation unit for
A face posture deriving unit for deriving the face posture;
A face posture correcting unit that corrects the face posture using the function derived in the function deriving unit;
The face posture is detected in a distance between parts in a reference part group that is a combination of any one of the left pupil, right pupil, and right and left nostrils of the subject, and the face image of the subject. Using the two-dimensional position of the reference part group, it is derived by calculating the normal of the plane including the reference part group,
The face detection device, wherein the line of sight and the reference face posture are derived by stereo matching based on at least two face images of the subject.
第1の座標系に基づく前記視線と前記第1の座標系に基づく前記顔姿勢とを、前記第1の座標系とは異なる第2の座標系に基づくように座標変換する第1の座標変換部と、
前記第2の座標系に基づく前記視線と前記第2の座標系に基づく前記顔姿勢とを利用して、前記第2の座標系に基づく前記第1角度を取得し、当該第1角度と前記関数とを利用して、前記第2の座標系に基づく前記第2角度を取得する角度取得部と、
前記第2の座標系に基づく前記第2角度を利用して、前記第2の座標系に基づく前記顔姿勢を補正する方向補正部と、
補正された前記顔姿勢を前記第1の座標系に基づくように座標変換する第2の座標変換部と、を含む、請求項6に記載の顔検出装置。 The face posture correction unit
A first coordinate transformation that transforms the line of sight based on the first coordinate system and the face posture based on the first coordinate system so as to be based on a second coordinate system different from the first coordinate system; And
The first angle based on the second coordinate system is acquired using the line of sight based on the second coordinate system and the face posture based on the second coordinate system, and the first angle and the An angle acquisition unit that acquires the second angle based on the second coordinate system using a function;
A direction correction unit that corrects the face posture based on the second coordinate system using the second angle based on the second coordinate system;
The face detection apparatus according to claim 6, further comprising: a second coordinate conversion unit configured to perform coordinate conversion of the corrected face posture based on the first coordinate system.
対象者の顔姿勢と視線との間の第1角度及び基準顔姿勢と顔姿勢の間の第2角度の関係を規定する係数を含み、前記顔姿勢を補正するための関数を導出する関数導出部と、
前記顔姿勢を導出する顔姿勢導出部と、
前記関数導出部において導出された前記関数を利用して、前記顔姿勢を補正する顔姿勢補正部と、して機能させ、
前記顔姿勢は、前記対象者の左瞳孔、右瞳孔、及び左右の鼻孔の何れか一方の3つの組み合わせである基準部位群における部位間の距離と、前記対象者の顔画像において検出される前記基準部位群の二次元的位置とを利用して、前記基準部位群を含む平面の法線を算出することによって導出され、
前記視線及び前記基準顔姿勢は、少なくとも2枚の前記対象者の顔画像に基づいて、ステレオマッチングにより導出される、顔検出プログラム。 Computer
A function derivation that includes a coefficient that defines a relationship between a first angle between the face posture and the line of sight of the subject and a second angle between the reference face posture and the face posture, and derives a function for correcting the face posture. And
A face posture deriving unit for deriving the face posture;
Using the function derived in the function deriving unit, function as a face posture correcting unit that corrects the face posture,
The face posture is detected in a distance between parts in a reference part group that is a combination of any one of the left pupil, right pupil, and right and left nostrils of the subject, and the face image of the subject. Using the two-dimensional position of the reference part group, it is derived by calculating the normal of the plane including the reference part group,
The face detection program in which the line of sight and the reference face posture are derived by stereo matching based on at least two face images of the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014235232A JP6452235B2 (en) | 2014-11-20 | 2014-11-20 | Face detection method, face detection device, and face detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014235232A JP6452235B2 (en) | 2014-11-20 | 2014-11-20 | Face detection method, face detection device, and face detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016099759A true JP2016099759A (en) | 2016-05-30 |
JP6452235B2 JP6452235B2 (en) | 2019-01-16 |
Family
ID=56077108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014235232A Active JP6452235B2 (en) | 2014-11-20 | 2014-11-20 | Face detection method, face detection device, and face detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6452235B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101815697B1 (en) * | 2016-10-13 | 2018-01-05 | 주식회사 에스원 | Apparatus and method for discriminating fake face |
JP2019098024A (en) * | 2017-12-06 | 2019-06-24 | 国立大学法人静岡大学 | Image processing device and method |
JP2019121270A (en) * | 2018-01-10 | 2019-07-22 | 株式会社デンソー | Image synthesizer for vehicle |
CN110520905A (en) * | 2017-04-14 | 2019-11-29 | 韩国韩医学研究院 | Face posture apparatus for correcting and method |
CN113947799A (en) * | 2021-11-11 | 2022-01-18 | 石家庄学院 | Three-dimensional face data preprocessing method and equipment |
CN116030512A (en) * | 2022-08-04 | 2023-04-28 | 荣耀终端有限公司 | Gaze point detection method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005266868A (en) * | 2004-03-16 | 2005-09-29 | National Univ Corp Shizuoka Univ | A method to detect head direction using pupil and nostril |
JP2007026073A (en) * | 2005-07-15 | 2007-02-01 | National Univ Corp Shizuoka Univ | Face posture detection system |
JP2007271554A (en) * | 2006-03-31 | 2007-10-18 | National Univ Corp Shizuoka Univ | Face posture detection method |
-
2014
- 2014-11-20 JP JP2014235232A patent/JP6452235B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005266868A (en) * | 2004-03-16 | 2005-09-29 | National Univ Corp Shizuoka Univ | A method to detect head direction using pupil and nostril |
JP2007026073A (en) * | 2005-07-15 | 2007-02-01 | National Univ Corp Shizuoka Univ | Face posture detection system |
JP2007271554A (en) * | 2006-03-31 | 2007-10-18 | National Univ Corp Shizuoka Univ | Face posture detection method |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101815697B1 (en) * | 2016-10-13 | 2018-01-05 | 주식회사 에스원 | Apparatus and method for discriminating fake face |
CN110520905A (en) * | 2017-04-14 | 2019-11-29 | 韩国韩医学研究院 | Face posture apparatus for correcting and method |
CN110520905B (en) * | 2017-04-14 | 2023-06-20 | 韩国韩医学研究院 | Face posture correcting device and method |
JP2019098024A (en) * | 2017-12-06 | 2019-06-24 | 国立大学法人静岡大学 | Image processing device and method |
JP7046347B2 (en) | 2017-12-06 | 2022-04-04 | 国立大学法人静岡大学 | Image processing device and image processing method |
JP2019121270A (en) * | 2018-01-10 | 2019-07-22 | 株式会社デンソー | Image synthesizer for vehicle |
CN111566698A (en) * | 2018-01-10 | 2020-08-21 | 株式会社电装 | Image synthesis device for vehicle |
US11270440B2 (en) | 2018-01-10 | 2022-03-08 | Denso Corporation | Vehicular image synthesis apparatus |
CN113947799A (en) * | 2021-11-11 | 2022-01-18 | 石家庄学院 | Three-dimensional face data preprocessing method and equipment |
CN113947799B (en) * | 2021-11-11 | 2023-03-14 | 石家庄学院 | Three-dimensional face data preprocessing method and equipment |
CN116030512A (en) * | 2022-08-04 | 2023-04-28 | 荣耀终端有限公司 | Gaze point detection method and device |
CN116030512B (en) * | 2022-08-04 | 2023-10-31 | 荣耀终端有限公司 | Gaze point detection method and device |
Also Published As
Publication number | Publication date |
---|---|
JP6452235B2 (en) | 2019-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5858433B2 (en) | Gaze point detection method and gaze point detection device | |
US10902635B2 (en) | Line-of-sight detection device | |
JP5915981B2 (en) | Gaze point detection method and gaze point detection device | |
JP6548171B2 (en) | Pupil detection system, gaze detection system, pupil detection method, and pupil detection program | |
US20190147607A1 (en) | Systems and methods for gaze tracking from arbitrary viewpoints | |
JP6452235B2 (en) | Face detection method, face detection device, and face detection program | |
JP6631951B2 (en) | Eye gaze detection device and eye gaze detection method | |
JP6583734B2 (en) | Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face posture detection system, face posture detection Method and face posture detection program | |
JP2019000136A (en) | Gaze measurement apparatus and program | |
JP2016173313A (en) | Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program | |
JP6452236B2 (en) | Eyeball identification device and eyeball identification method | |
JP6288770B2 (en) | Face detection method, face detection system, and face detection program | |
JP6324119B2 (en) | Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program | |
JP6346018B2 (en) | Eye measurement system, eye detection system, eye measurement method, eye measurement program, eye detection method, and eye detection program | |
JP2018101211A (en) | On-vehicle device | |
JP5727969B2 (en) | Position estimation apparatus, method, and program | |
WO2016159255A1 (en) | Mouth region detection device and mouth region detection method | |
JP2017102731A (en) | Gaze detection device and gaze detection method | |
US20240095939A1 (en) | Information processing apparatus and information processing method | |
JP6468755B2 (en) | Feature point detection system, feature point detection method, and feature point detection program | |
Fujiyoshi et al. | Inside-out camera for acquiring 3D gaze points |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6452235 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |