JP5128454B2 - Wrinkle detection device, wrinkle detection method and program - Google Patents
Wrinkle detection device, wrinkle detection method and programInfo
- Publication number
- JP5128454B2 JP5128454B2 JP2008320898A JP2008320898A JP5128454B2 JP 5128454 B2 JP5128454 B2 JP 5128454B2 JP 2008320898 A JP2008320898 A JP 2008320898A JP 2008320898 A JP2008320898 A JP 2008320898A JP 5128454 B2 JP5128454 B2 JP 5128454B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- eyelid
- edge group
- face image
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 85
- 230000037303 wrinkles Effects 0.000 title claims description 77
- 210000000744 eyelid Anatomy 0.000 claims description 254
- 238000002372 labelling Methods 0.000 claims description 64
- 230000033001 locomotion Effects 0.000 claims description 37
- 230000008859 change Effects 0.000 claims description 33
- 238000003708 edge detection Methods 0.000 claims description 32
- 238000000034 method Methods 0.000 description 59
- 230000008569 process Effects 0.000 description 48
- 210000001508 eye Anatomy 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 6
- 201000005111 ocular hyperemia Diseases 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000037007 arousal Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、顔画像から瞼の位置を検出する瞼検出装置、瞼検出方法及びプログラムに関する。 The present invention relates to a wrinkle detection apparatus, a wrinkle detection method, and a program for detecting the position of a wrinkle from a face image.
顔画像に基づいて眼の状態を判定し、その人の視線の方向を計測したり、その人の覚醒度を推定する方法がある。眼の状態を判定するためには、顔画像の眼部を正確に検出することが必要である。 There are methods for determining the state of eyes based on a face image, measuring the direction of the person's line of sight, and estimating the degree of arousal of the person. In order to determine the eye state, it is necessary to accurately detect the eye part of the face image.
例えば、特許文献1には、運転者の顔画像から眼部(瞼)の位置を検出する技術が記載されている。特許文献1の技術は、顔画像のエッジ画像からエッジを抽出してラベリングし、ラベリングしたエッジのうち、面積(画素数)が所定値以下で、且つ、幅が所定値以上の上エッジのみを上瞼の特徴を有するエッジとして抽出する。そして、トラッキングウインドウ内に、抽出した上瞼の特徴を有するエッジの下に下瞼の特徴を有するエッジがあれば、その2つのエッジのペアを上下瞼候補として抽出し、テンプレートとマッチングをして相関を調べ、相関が高ければ上下瞼として検出することにより、精度よく眼部(瞼)の位置を検出することができる技術を開示している。 For example, Patent Document 1 describes a technique for detecting the position of an eye part (eyelid) from a driver's face image. The technique of Patent Document 1 extracts and labels edges from an edge image of a face image, and among the labeled edges, only the upper edge whose area (number of pixels) is equal to or smaller than a predetermined value and whose width is equal to or larger than a predetermined value. Extracted as an edge having the characteristics of the upper eyelid. Then, if there is an edge having the lower eyelid feature under the extracted edge having the upper eyelid feature in the tracking window, the pair of the two edges is extracted as the upper and lower eyelid candidates and matched with the template. A technique is disclosed in which the position of the eye part (eyelid) can be detected with high accuracy by examining the correlation and detecting it as a vertical eyelid if the correlation is high.
また、特許文献2には、所定の条件に適合する度合いに基づいて、顔画像の水平方向エッジと垂直方向エッジから上瞼候補と下瞼候補のエッジを検出する。そして、検出した上瞼候補と下瞼候補の組み合わせを比較し、上瞼候補と下瞼候補の関係が所定の条件に最も適合する組み合わせを上瞼および下瞼と判定することにより、精度良く上下瞼のペアを検出することができる技術を開示している。 Further, Patent Document 2 detects the upper eyelid candidate and the lower eyelid candidate edge from the horizontal edge and the vertical edge of the face image based on the degree of matching with a predetermined condition. Then, the combination of the detected upper eyelid candidate and the lower eyelid candidate is compared, and the combination that most closely matches the predetermined condition with the upper eyelid candidate and the lower eyelid candidate is determined to be the upper eyelid and the lower eyelid. A technique capable of detecting a pair of cocoons is disclosed.
また、特許文献3には、顔の動画像から鼻孔の位置を検索し、鼻孔位置から上瞼および下瞼を探索する領域を決定し、当該領域から上瞼と下瞼の候補となるエッジラインを抽出する。そして、抽出したエッジラインの内、上瞼の候補の重心が上下方向に移動し、下瞼の候補の重心が移動しないエッジラインを瞼と判別する技術を開示している。 Further, in Patent Document 3, the position of the nostril is searched from the moving image of the face, the region for searching the upper eyelid and the lower eyelid is determined from the nostril position, and the edge lines that are candidates for the upper eyelid and the lower eyelid are determined from the region. To extract. A technique is disclosed in which, among the extracted edge lines, the center of gravity of the upper eyelid candidate moves in the vertical direction, and the edge line where the center of gravity of the lower eyelid candidate does not move is determined as the eyelid.
特許文献1〜3の技術では、瞼に相当するエッジは相当の長さで連続しているものとされ、所定の長さ以下のエッジは瞼の候補として除外される。しかし、顔画像を撮影する光環境によっては、瞼に相当するエッジは必ずしも連続しているとは限らない。例えば、夜間に撮影した顔画像において赤目が発生した場合には、眼球の赤目発光により、瞼に相当するエッジは連続しないで途切れてしまう場合がある。このような場合、特許文献1〜3の技術では、途切れたエッジのそれぞれを異なる瞼候補としてラベリングし、その結果ラベリングした各エッジは長さが小さいためフィルタリングで消されてしまい、瞼として検出されない場合がある。 In the techniques of Patent Documents 1 to 3, the edge corresponding to the heel is assumed to be continuous with a considerable length, and an edge having a predetermined length or less is excluded as a heel candidate. However, depending on the light environment in which the face image is taken, the edge corresponding to the eyelid is not always continuous. For example, when red eyes occur in a face image photographed at night, the edges corresponding to eyelids may be interrupted without being continuous due to red-eye emission of the eyeballs. In such a case, in the techniques of Patent Documents 1 to 3, each broken edge is labeled as a different wrinkle candidate, and as a result, each labeled edge is erased by filtering because of its small length, and is not detected as a wrinkle. There is a case.
本発明は、上記実情に鑑みてなされたものであり、光環境の影響をうけないで、瞼を精度よく検出する瞼検出装置、瞼検出方法、および、プログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a wrinkle detection device, a wrinkle detection method, and a program that accurately detect wrinkles without being affected by the light environment.
上記目的を達成するため、本発明の第1の観点に係る瞼検出装置は、対象者の顔を連続的に撮影した複数の顔画像を取得する顔画像取得手段と、前記顔画像から瞼探索領域を検出する瞼探索領域検出手段と、前記瞼探索領域検出手段で検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出手段と、前記エッジ検出手段で検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリング手段と、前記エッジラベリング手段でラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与したそれぞれが互いに途切れている複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別手段と、前記同一ラベル判別手段で同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリング手段と、前記再ラベリング手段でラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別手段と、前記上瞼判別手段で判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別手段と、を備えることを特徴とする。
上記目的を達成するため、本発明の第2の観点に係る瞼検出装置は、対象者の顔を連続的に撮影した複数の顔画像を取得する顔画像取得手段と、前記顔画像から瞼探索領域を検出する瞼探索領域検出手段と、前記瞼探索領域検出手段で検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出手段と、前記エッジ検出手段で検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリング手段と、前記エッジラベリング手段でラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与した複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別手段と、前記同一ラベル判別手段で同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリング手段と、前記再ラベリング手段でラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別手段と、前記上瞼判別手段で判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別手段と、前記上瞼判別手段又は前記下瞼判別手段で判別された上瞼、下瞼に相当するエッジグループに所定の曲線をフィッティングし、フィッティングした曲線上の画素を、上瞼、下瞼に相当するエッジラインとして検出する瞼検出手段と、を備え、前記同一ラベル判別手段は、最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループの位置情報からテンプレートデータを作成し、作成したテンプレートデータを用いたパターンマッチングを最新の顔画像に対して行い、パターンマッチングの結果最も相関が高いと判別された最新の顔画像のエッジグループと、前記テンプレートデータの作成の元となった最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループとを、同一のエッジグループであると判別して対応付ける、エッジグループ対応付手段をさらに備え、前記エッジグループ対応付手段で対応付けたエッジグループを辿っていくことにより、エッジグループの経時的な動きの変化を判別する、ことを特徴とする。
To achieve the above object, a wrinkle detection device according to a first aspect of the present invention includes a face image acquisition unit that acquires a plurality of face images obtained by continuously capturing the face of a subject, and a wrinkle search from the face images.瞼 search area detection means for detecting an area, edge detection means for detecting edges that are candidates for upper and lower eyelids from the heel search area detected by the heel search area detection means, and edges detected by the edge detection means an edge labeling means for applying a label to each edge group is a set of connection to the, on the basis of the change in the movement over time of each edge group to which the label has been granted by the edge labeling unit, each imparted with label each other interrupted to determine the same edge group from among the plurality of edge groups have a same label discriminating means, e it is determined that it is the same with the same label determination means Among re-labeling means for assigning the same label to each other and edge groups that have been labeled by the re-labeling means, the edge groups that change from top to bottom and from bottom to top within a predetermined time An upper eyelid discriminating means for discriminating an edge group corresponding to the upper eyelid discriminating means, an edge group located in a predetermined area below the edge group corresponding to the upper eyelid discriminated by the upper eyelid discriminating means, an edge group corresponding to the lower eyelid And a lower eyelid discriminating means for discriminating.
In order to achieve the above object, a wrinkle detection device according to a second aspect of the present invention includes a face image acquisition unit that acquires a plurality of face images obtained by continuously photographing a subject's face, and a wrinkle search from the face image.瞼 search area detection means for detecting an area, edge detection means for detecting edges that are candidates for upper and lower eyelids from the heel search area detected by the heel search area detection means, and edges detected by the edge detection means An edge labeling unit that assigns a label to each edge group that is a set of connected to each other, and a plurality of edges to which a label is attached based on a change in movement over time of each edge group to which the label is attached by the edge labeling unit The same label discriminating means for discriminating the same edge group from the groups and the edge groups discriminated by the same label discriminating means as the same label group. Among the re-labeling means for applying the label and the edge groups already labeled by the re-labeling means, the edge group that changes from the upper side to the lower side and from the lower side to the upper side within a predetermined time is determined as the edge group corresponding to the upper eyelid. Upper eyelid discriminating means for discriminating an edge group located in a predetermined area below the edge group corresponding to the upper eyelid discriminated by the upper eyelid discriminating means as an edge group corresponding to the lower eyelid. A predetermined curve is fitted to the edge group corresponding to the upper eyelid and the lower eyelid determined by the upper eyelid determining means or the lower eyelid determining means, and the pixels on the fitted curve are equivalent to the upper eyelid and the lower eyelid. Wrinkle detecting means for detecting as an edge line, and the same label discriminating means is adapted to detect a face image photographed one time before the latest face image. Template data is created from the position information of the edge group, pattern matching using the created template data is performed on the latest face image, and the edge group of the latest face image determined to have the highest correlation as a result of pattern matching The edge group correspondence that distinguishes and associates the edge group of the face image photographed one time earlier than the latest face image from which the template data was created as the same edge group And a change in the movement of the edge group over time is determined by tracing the edge group associated with the edge group association means .
前記エッジラベリング手段は、前記エッジ検出手段で検出したエッジのうち所定画素数以上連結しないエッジを消去するエッジ消去手段を備えてもよい。 The edge labeling means may comprise edge erasing means for erasing edges that are not connected by a predetermined number or more of the edges detected by the edge detecting means.
前記同一ラベル判別手段は、最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループと、最新の顔画像のエッジグループとで、同一のエッジグループ同士を判別して対応付ける、エッジグループ対応付手段をさらに備え、前記エッジグループ対応付手段で対応付けたエッジグループを辿っていくことにより、エッジグループの経時的な動きの変化を判別してもよい。 The same label discriminating means discriminates and associates the same edge group between the edge group of the face image photographed one time before the latest face image and the edge group of the latest face image. An edge group associating unit may be further provided, and a change in the movement of the edge group over time may be determined by tracing the edge group associated with the edge group associating unit.
前記エッジグループ対応付手段は、最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループの位置情報からテンプレートデータを作成し、作成したテンプレートデータを用いたパターンマッチングを最新の顔画像に対して行い、パターンマッチングの結果最も相関が高いと判別された最新の顔画像のエッジグループが、前記テンプレートデータの作成の元となった最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループと同一のエッジグループであると判別してもよい。 The edge group associating means creates template data from edge group position information of a face image taken one temporally before the latest face image, and performs pattern matching using the created template data. The edge group of the latest face image that is determined to have the highest correlation as a result of pattern matching is performed one time before the latest face image from which the template data was created. You may discriminate | determine that it is the same edge group as the edge group of the image | photographed face image.
前記上瞼判別手段又は前記下瞼判別手段で判別された上瞼、下瞼に相当するエッジグループに所定の曲線をフィッティングし、フィッティングした曲線上の画素を、上瞼、下瞼に相当するエッジラインとして検出する瞼検出手段をさらに備えてもよい。 A predetermined curve is fitted to the edge group corresponding to the upper eyelid and the lower eyelid determined by the upper eyelid determining means or the lower eyelid determining means, and the pixels on the fitted curve are the edges corresponding to the upper eyelid and the lower eyelid. You may further provide the wrinkle detection means detected as a line.
前記上瞼判別手段は、前記再ラベリング手段でラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループと、該エッジグループにフィッティングさせた上瞼のテンプレートとなる曲線の近傍に位置するエッジグループとを上瞼に相当するエッジグループと判別してもよい。 The upper eyelid determining means includes an edge group that has been labeled by the re-labeling means, an edge group that changes from the upper side to the lower side and a lower side to the upper side within a predetermined time, and the upper eyelid that is fitted to the edge group. An edge group located in the vicinity of a curve serving as a template may be determined as an edge group corresponding to the upper eyelid.
上記目的を達成するため、本発明の第3の観点に係る瞼検出方法は、対象者の顔を連続的に撮影した複数の顔画像を取得する顔画像取得ステップと、前記顔画像から瞼探索領域を検出する瞼探索領域検出ステップと、前記瞼探索領域検出ステップで検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出ステップと、前記エッジ検出ステップで検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリングステップと、前記エッジラベリングステップでラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与したそれぞれが互いに途切れている複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別ステップと、前記同一ラベル判別ステップで同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリングステップと、前記再ラベリングステップでラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別ステップと、前記上瞼判別ステップで判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別ステップと、を備えることを特徴とする。
上記目的を達成するため、本発明の第4の観点に係る瞼検出方法は、対象者の顔を連続的に撮影した複数の顔画像を取得する顔画像取得ステップと、前記顔画像から瞼探索領域を検出する瞼探索領域検出ステップと、前記瞼探索領域検出ステップで検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出ステップと、前記エッジ検出ステップで検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリングステップと、前記エッジラベリングステップでラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与した複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別ステップと、前記同一ラベル判別ステップで同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリングステップと、前記再ラベリングステップでラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別ステップと、前記上瞼判別ステップで判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別ステップと、前記上瞼判別ステップ又は前記下瞼判別ステップで判別された上瞼、下瞼に相当するエッジグループに所定の曲線をフィッティングし、フィッティングした曲線上の画素を、上瞼、下瞼に相当するエッジラインとして検出する瞼検出ステップと、を備え、前記同一ラベル判別ステップは、最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループの位置情報からテンプレートデータを作成し、作成したテンプレートデータを用いたパターンマッチングを最新の顔画像に対して行い、パターンマッチングの結果最も相関が高いと判別された最新の顔画像のエッジグループと、前記テンプレートデータの作成の元となった最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループとを、同一のエッジグループであると判別して対応付ける、エッジグループ対応付ステップをさらに備え、前記エッジグループ対応付ステップで対応付けたエッジグループを辿っていくことにより、エッジグループの経時的な動きの変化を判別する、ことを特徴とする。
In order to achieve the above object, a wrinkle detection method according to a third aspect of the present invention includes a face image acquisition step of acquiring a plurality of face images obtained by continuously photographing a subject's face, and a wrinkle search from the face images.瞼 search region detection step for detecting a region, edge detection step for detecting edges that are candidates for upper eyelid and lower eyelid from the heel search region detected in the heel search region detection step, and edges detected in the edge detection step an edge labeling step of applying a label to each edge group is a set of connection to the said label edge labeling step is based on the change in movement over time of each edge group granted each imparted with label each other interrupted to determine the same edge group from among the plurality of edge groups have a same label determining step, the same label A re-labeling step that assigns the same label to edge groups that are determined to be the same in another step, and among the edge groups that have been labeled in the re-labeling step, from above and below and within a predetermined time from below An upper eyelid determining step for determining an edge group changing upward as an edge group corresponding to the upper eyelid, and an edge group located in a predetermined area below the edge group corresponding to the upper eyelid determined in the upper eyelid determining step. A lower eyelid determining step for determining an edge group corresponding to the lower eyelid.
In order to achieve the above object, a wrinkle detection method according to a fourth aspect of the present invention includes a face image acquisition step of acquiring a plurality of face images obtained by continuously photographing a subject's face, and a wrinkle search from the face images.瞼 search region detection step for detecting a region, edge detection step for detecting edges that are candidates for upper eyelid and lower eyelid from the heel search region detected in the heel search region detection step, and edges detected in the edge detection step An edge labeling step for assigning a label to each edge group that is a set of connected to each other, and a plurality of edges to which a label is attached based on a change in movement over time of each edge group to which the label is assigned in the edge labeling step In the same label discriminating step for discriminating the same edge group from the group, and in the same label discriminating step, it is determined that they are the same. Re-labeling step for assigning the same label to each edge group, and among the edge groups that have been labeled in the re-labeling step, the edge groups that change from top to bottom and from bottom to top within a predetermined time An upper eyelid determining step for determining an edge group corresponding to an eyelid, and an edge group located in a predetermined area below the edge group corresponding to the upper eyelid determined in the upper eyelid determining step as an edge group corresponding to the lower eyelid The lower eyelid determining step for determining, and the upper eyelid determining step or the upper eyelid determined in the lower eyelid determining step, fitting a predetermined curve to the edge group corresponding to the lower eyelid, the pixels on the fitted curve, A wrinkle detecting step for detecting an edge line corresponding to an upper eyelid and a lower eyelid, and the same In the bell discrimination step, template data is created from the position information of the edge group of the face image taken one temporally before the latest face image, and pattern matching using the created template data is made the latest face image. The edge group of the latest face image determined to have the highest correlation as a result of the pattern matching and the latest face image from which the template data was created were taken one temporally before It further comprises an edge group association step for discriminating and associating the edge group of the face image with the same edge group, and by tracing the edge group associated in the edge group association step, the edge group It is characterized by discriminating a change in the movement of the chronologically over time.
上記目的を達成するため、本発明の第5の観点に係るプログラムは、コンピュータを、対象者の顔を連続的に撮影した複数の顔画像を取得する顔画像取得手段、前記顔画像から瞼探索領域を検出する瞼探索領域検出手段、前記瞼探索領域検出手段で検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出手段、前記エッジ検出手段で検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリング手段、前記エッジラベリング手段でラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与したそれぞれが互いに途切れている複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別手段、前記同一ラベル判別手段で同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリング手段、前記再ラベリング手段でラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別手段、前記上瞼判別手段で判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別手段、として機能させることを特徴とする。
上記目的を達成するため、本発明の第6の観点に係るプログラムは、コンピュータを、対象者の顔を連続的に撮影した複数の顔画像を取得する顔画像取得手段、前記顔画像から瞼探索領域を検出する瞼探索領域検出手段、前記瞼探索領域検出手段で検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出手段、前記エッジ検出手段で検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリング手段、前記エッジラベリング手段でラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与した複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別手段、前記同一ラベル判別手段で同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリング手段、前記再ラベリング手段でラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別手段、前記上瞼判別手段で判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別手段、前記上瞼判別手段又は前記下瞼判別手段で判別された上瞼、下瞼に相当するエッジグループに所定の曲線をフィッティングし、フィッティングした曲線上の画素を、上瞼、下瞼に相当するエッジラインとして検出する瞼検出手段、として機能させ、前記同一ラベル判別手段は、最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループの位置情報からテンプレートデータを作成し、作成したテンプレートデータを用いたパターンマッチングを最新の顔画像に対して行い、パターンマッチングの結果最も相関が高いと判別された最新の顔画像のエッジグループと、前記テンプレートデータの作成の元となった最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループとを、同一のエッジグループであると判別して対応付ける、エッジグループ対応付手段をさらに備え、前記エッジグループ対応付手段で対応付けたエッジグループを辿っていくことにより、エッジグループの経時的な動きの変化を判別する、ことを特徴とする。
In order to achieve the above object, a program according to a fifth aspect of the present invention provides a computer, a face image acquisition unit that acquires a plurality of face images obtained by continuously photographing a subject's face, and a wrinkle search from the face images.瞼 search area detection means for detecting an area, edge detection means for detecting edges that are candidates for upper and lower eyelids from the heel search area detected by the heel search area detection means, and connection of edges detected by the edge detection means Edge labeling means for assigning a label to each edge group that is a set to be attached, and each of the assigned labels is discontinuous with each other based on a change in movement of each edge group to which the label is assigned by the edge labeling means over time The same label discriminating means for discriminating the same edge group from among a plurality of edge groups, and discriminating that the same label discriminating means is the same Among re-labeling means for assigning the same label to the edge groups, and among edge groups already labeled by the re-labeling means, the edge groups that change from top to bottom and from bottom to top within a predetermined time An upper eyelid discriminating means for discriminating an edge group corresponding to the upper eyelid discriminating means, and an edge group located in a predetermined region below the edge group corresponding to the upper eyelid discriminated by the upper eyelid discriminating means being discriminated as an edge group corresponding to the lower eyelid It is made to function as a lower arm discriminating means to perform.
In order to achieve the above object, a program according to a sixth aspect of the present invention provides a computer, a face image acquisition unit that acquires a plurality of face images obtained by continuously photographing a subject's face, and a wrinkle search from the face images.瞼 search area detection means for detecting an area, edge detection means for detecting edges that are candidates for upper and lower eyelids from the heel search area detected by the heel search area detection means, and connection of edges detected by the edge detection means An edge labeling unit that assigns a label to each edge group that is a set of the plurality of edge groups to which a label is attached based on a change in movement of each edge group that has been given a label by the edge labeling unit over time The same edge group from the same label discriminating means and the same label discriminating means, Among the edge groups that have been labeled by the re-labeling means, the edge groups that change from the upper side to the lower side and the lower side to the upper side within a predetermined time are determined as edge groups corresponding to the upper eyelid. An upper eyelid discriminating means for discriminating an edge group located in a predetermined area below the edge group corresponding to the upper eyelid determined by the upper eyelid discriminating means as an edge group corresponding to the lower eyelid, A predetermined curve is fitted to the edge group corresponding to the upper eyelid and the lower eyelid determined by the upper eyelid determining means or the lower eyelid determining means, and the pixels on the fitted curve are defined as edge lines corresponding to the upper eyelid and the lower eyelid. The same label discriminating means is a face photographed one time before the latest face image. Template data is created from the position information of the edge group of the image, pattern matching using the created template data is performed on the latest face image, and the latest face image determined to have the highest correlation as a result of pattern matching An edge group and an edge group of a face image photographed one time earlier than the latest face image from which the template data was created are identified as the same edge group and associated with each other It further comprises a group association means, and the change in the movement of the edge group over time is discriminated by tracing the edge group associated by the edge group association means.
本発明の瞼検出装置によれば、瞼に相当するエッジグループが途切れてしまっている場合でも、その経時的な動きの変化に基づいて、同一のラベルを付与する。そのため、光環境の影響をうけないで、瞼を精度よく検出することができる。 According to the wrinkle detection device of the present invention, even when an edge group corresponding to a wrinkle is interrupted, the same label is given based on the change in movement over time. Therefore, wrinkles can be accurately detected without being affected by the light environment.
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付し、その説明は繰り返さない。図1は、本発明の一実施の形態に係る瞼検出装置1の構成を示すブロック図である。本実施形態の瞼検出装置1は、運転者の顔を撮影して顔画像を生成するカメラ2と、運転者の顔を照明する照明光源3と、運転者の眼部を検出する瞼検出装置10と、瞼検出装置10に接続された表示装置4とを備える。なお、表示装置4は必須の構成要素ではなく、顔画像や検出結果及び判定結果等を表示する必要がなければ特に設ける必要はない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and description thereof will not be repeated. FIG. 1 is a block diagram showing a configuration of a wrinkle detection device 1 according to an embodiment of the present invention. The eyelid detection device 1 according to the present embodiment includes a camera 2 that captures a driver's face and generates a face image, an illumination light source 3 that illuminates the driver's face, and a eyelid detection device that detects the driver's eyes. 10 and a display device 4 connected to the wrinkle detection device 10. Note that the display device 4 is not an essential component, and is not particularly required if it is not necessary to display a face image, a detection result, a determination result, or the like.
カメラ2は、例えば、CCD(Charge Coupled Device)などでレンズの結像を電気信号に変換し、画素ごとにデジタル化した画像データを出力する。カメラ2は、例えば、運転者の顔の階調画像を撮像する。カメラ2によって生成される画像データは、運転者の顔だけでなく、その背景なども含まれている。 The camera 2 converts the lens image to an electrical signal using, for example, a CCD (Charge Coupled Device), and outputs digitized image data for each pixel. For example, the camera 2 captures a gradation image of the driver's face. The image data generated by the camera 2 includes not only the driver's face but also the background thereof.
表示装置4は、LCD(Liquid Crystal Display)又はCRT(Cathode Ray Tube)などから構成され、カメラ2で撮影された顔画像から生成されたエッジ画像などを表示する。なお、表示装置4は必ずしも備える必要はない。 The display device 4 includes an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube), and displays an edge image generated from a face image photographed by the camera 2. Note that the display device 4 is not necessarily provided.
瞼検出装置10は、カメラ2により取得された画像データを処理して顔の左右両端位置、上下位置、鼻孔位置を検出する。そして、検出したこれらの位置に基づいて、瞼を探策する領域(瞼探索領域)を設定する。そして、眼部探索領域から上下瞼を検出する。 The eyelid detection device 10 processes the image data acquired by the camera 2 to detect the left and right end positions, the vertical position, and the nostril position of the face. Then, based on these detected positions, a region for searching for wrinkles (a wrinkle search region) is set. Then, upper and lower eyelids are detected from the eye part search region.
図2は、瞼検出装置10の構成の一例を示すブロック図である。瞼検出装置10は、送受信部11と、画像メモリ12と、外部記憶部13と、制御部14と、主記憶部15と、表示制御部16と、光源制御部17と、を備える。送受信部11、画像メモリ12、外部記憶部13、制御部14、主記憶部15、表示制御部16及び光源制御部17はいずれも内部バス18を介して制御部14に接続されている。 FIG. 2 is a block diagram illustrating an example of the configuration of the eyelid detection device 10. The eyelid detection device 10 includes a transmission / reception unit 11, an image memory 12, an external storage unit 13, a control unit 14, a main storage unit 15, a display control unit 16, and a light source control unit 17. The transmission / reception unit 11, the image memory 12, the external storage unit 13, the control unit 14, the main storage unit 15, the display control unit 16, and the light source control unit 17 are all connected to the control unit 14 via the internal bus 18.
送受信部11は、モデム又は網終端装置、及びそれらと接続するシリアルインタフェース又はLAN(Local Area Network)インタフェースあるいはNTSCインタフェース等から構成されている。制御部14は、送受信部11を介して、カメラ2から画像データを入力する。画像メモリ12は、カメラ2により生成され、送受信部11を経由して入力された画像データを記憶する。 The transmission / reception unit 11 includes a modem or a network termination device, and a serial interface, a LAN (Local Area Network) interface, an NTSC interface, or the like connected thereto. The control unit 14 inputs image data from the camera 2 via the transmission / reception unit 11. The image memory 12 stores image data generated by the camera 2 and input via the transmission / reception unit 11.
外部記憶部13は、フラッシュメモリ、ハードディスク、DVD(Digital Versatile Disc)、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、制御部14に処理を行わせるためのプログラムを予め記憶し、また、制御部14の指示に従って、このプログラムのデータを制御部14に供給し、制御部14から供給されたデータを記憶する。なお、画像データは、外部記憶部13に格納されていてもよい。また、外部記憶部13には、後述する瞼探索処理で利用される、各種の判別のために使用される各種の閾値データや統計データ、および、テンプレートの定義データ等が記憶されている。 The external storage unit 13 includes a nonvolatile memory such as a flash memory, a hard disk, a DVD (Digital Versatile Disc), a DVD-RAM (Digital Versatile Disc Random Access Memory), a DVD-RW (Digital Versatile Disc ReWritable), and is controlled. A program for causing the unit 14 to perform processing is stored in advance, and data of the program is supplied to the control unit 14 according to an instruction from the control unit 14, and the data supplied from the control unit 14 is stored. Note that the image data may be stored in the external storage unit 13. The external storage unit 13 stores various threshold data and statistical data used for various determinations, template definition data, and the like, which are used in the eyelid search process described later.
また、外部記憶部13は、図3(A)、(B)に示すような、エッジ検出用の固定データである、水平方向エッジ検出用と垂直方向エッジ検出用ソーベルフィルタのオペレータを記憶する。本発明では、画像中で水平方向に輝度が明から暗、又は暗から明に変化する点の連なりを水平方向エッジという。水平方向エッジの点は概ね縦方向に連続するので、縦エッジともいう。また、垂直方向に輝度が明から暗、又は暗から明に変化する点の連なりを垂直方向エッジという。垂直方向エッジの点は概ね横方向に連続するので、横エッジともいう。 Further, the external storage unit 13 stores operators of horizontal edge detection and vertical edge detection Sobel filters, which are fixed data for edge detection as shown in FIGS. 3 (A) and 3 (B). . In the present invention, a series of points in the image where the luminance changes from light to dark or from dark to light in the horizontal direction is referred to as a horizontal edge. Since the points of the horizontal edge are generally continuous in the vertical direction, they are also called vertical edges. A series of points in which the luminance changes in the vertical direction from light to dark or from dark to light is called a vertical edge. Since the points of the vertical edges are generally continuous in the horizontal direction, they are also called horizontal edges.
図3(A)に示す水平方向エッジ(縦エッジ)検出用ソーベルフィルタは、図3(C)に示すような縦方向に連続する濃淡差の境界(縦エッジ)を抽出するためのオペレータである。図3(B)に示す垂直方向エッジ(横エッジ)検出用のソーベルフィルタは、図3(D)に示すような横方向に連続する濃淡差の境界(横エッジ)を抽出するためのオペレータである。 A horizontal edge (vertical edge) detection Sobel filter shown in FIG. 3A is an operator for extracting a boundary (vertical edge) of gradation differences continuous in the vertical direction as shown in FIG. is there. The Sobel filter for detecting a vertical edge (horizontal edge) shown in FIG. 3B is an operator for extracting a boundary (horizontal edge) of grayscale differences that are continuous in the horizontal direction as shown in FIG. It is.
図2に戻り、制御部14はCPU(Central Processing Unit)等を備え、瞼検出装置10全体の動作を制御する。また、制御部14は、外部記憶部13に記憶されているプログラムを実行することにより、顔画像から瞼を検出する処理(瞼検出処理)を行う。なお、瞼検出処理の詳細については後述する。 Returning to FIG. 2, the control unit 14 includes a CPU (Central Processing Unit) and the like, and controls the overall operation of the eyelid detection apparatus 10. Further, the control unit 14 executes a program stored in the external storage unit 13 to perform processing for detecting wrinkles from the face image (wrinkle detection processing). Details of the wrinkle detection process will be described later.
主記憶部15はRAM(Random-Access Memory)等から構成され、制御部14の作業領域として用いられる。 The main storage unit 15 includes a RAM (Random-Access Memory) and the like, and is used as a work area for the control unit 14.
表示制御部16は、制御部14の制御の下に、表示装置4を制御する。
光源制御部17は、制御部14の制御の下に、照明光源3の点灯・消灯を制御する。
The display control unit 16 controls the display device 4 under the control of the control unit 14.
The light source control unit 17 controls turning on / off of the illumination light source 3 under the control of the control unit 14.
続いて、瞼検出装置1の動作について説明する。なお、瞼検出装置1の動作は、制御部14がカメラ2、送受信部11、画像メモリ12、外部記憶部13及び主記憶部15と協働して行う。 Next, the operation of the wrinkle detection device 1 will be described. The operation of the eyelid detection device 1 is performed by the control unit 14 in cooperation with the camera 2, the transmission / reception unit 11, the image memory 12, the external storage unit 13, and the main storage unit 15.
コンピュータ内の制御部14は、例えば、内部タイマが一定時間を経過する度に、例えば、1/30秒毎に、内部割り込みを発生し、図4に示す瞼検出処理を実行する。 For example, the control unit 14 in the computer generates an internal interrupt every 1/30 seconds, for example, every time the internal timer elapses, and executes the eyelid detection process shown in FIG.
まず、制御部14は前処理を行い、ドライバーの顔画像を取り込み、縦エッジを強調した画像と横エッジを強調した画像とを生成する(ステップS100)。 First, the control unit 14 performs preprocessing, captures a driver's face image, and generates an image with an enhanced vertical edge and an image with an enhanced horizontal edge (step S100).
図5に前処理(ステップS100)の詳細を示す。
前処理が開始されると、先ず、制御部14は、カメラ2が撮影した対象者(ドライバー)の顔画像を送受信部11を介して取り込み、画像メモリ12に格納するキャプチャ処理を行う(ステップS110)。
FIG. 5 shows details of the preprocessing (step S100).
When the preprocessing is started, first, the control unit 14 performs a capture process of capturing the face image of the subject (driver) captured by the camera 2 via the transmission / reception unit 11 and storing it in the image memory 12 (step S110). ).
次に、制御部14は、座標変換処理を行い、画像メモリ12に格納した顔画像の画素を、後述するソーベルフィルタ処理が実行可能な程度に間引く処理を行う(ステップS120)。なお、この処理は高速化のために実施されるものであるため、必要に応じて実施すればよい。 Next, the control unit 14 performs a coordinate conversion process, and performs a process of thinning out the face image pixels stored in the image memory 12 to such an extent that a Sobel filter process described later can be performed (step S120). Since this process is performed for speeding up, it may be performed as necessary.
続いて制御部14は、外部記憶部13に格納されている縦エッジ検出用オペレータ(図3(A))を用いて座標変換後の顔画像を処理して、顔画像内の縦エッジを強調した画像を生成する。また、制御部14は、外部記憶部13に格納されている横エッジ検出用オペレータ(図3(B))を用いて座標変換後の顔画像を処理して、顔画像内の横エッジを強調した画像を生成する(ステップS130)。 以上で前処理は終了する。 Subsequently, the control unit 14 uses the vertical edge detection operator (FIG. 3A) stored in the external storage unit 13 to process the face image after coordinate conversion, and emphasizes the vertical edge in the face image. Generated image. In addition, the control unit 14 processes the face image after coordinate conversion using the horizontal edge detection operator (FIG. 3B) stored in the external storage unit 13 to emphasize the horizontal edge in the face image. The generated image is generated (step S130). This is the end of the preprocessing.
図4に戻り、前処理が終了すると、制御部14は、瞼の位置を探索するための領域を設定する瞼探索領域設定処理を実行する(ステップS200)。 Returning to FIG. 4, when the preprocessing is completed, the control unit 14 executes a wrinkle search region setting process for setting a region for searching the position of the wrinkle (step S <b> 200).
図6に瞼探索領域設定処理(ステップS200)の詳細を示す。
瞼探索領域設定処理が開始されると、制御部14は、顔画像から顔領域を検出する(ステップS210)。
例えば、制御部14は、顔画像から顔輪郭のエッジを算出する。あるいは、顔輪郭のパターンマッチングによって顔輪郭を抽出する。そして、制御部14は、抽出した顔輪郭の範囲で、上から眉のエッジ、および、下から口下のエッジを検出し、顔の左右端、および、眉上、口下位置とで囲まれる領域を顔領域として検出すればよい。
FIG. 6 shows details of the eyelid search area setting process (step S200).
When the eyelid search area setting process is started, the control unit 14 detects a face area from the face image (step S210).
For example, the control unit 14 calculates a face contour edge from the face image. Alternatively, the face contour is extracted by pattern matching of the face contour. Then, the control unit 14 detects the edge of the eyebrow from the top and the edge of the mouth from the bottom within the range of the extracted face contour, and is surrounded by the left and right edges of the face, and the upper and lower eyebrows positions. An area may be detected as a face area.
続いて制御部14は、統計的なデータに基づいて、検出した顔領域から鼻孔探索領域を設定する(ステップS220)。例えば、図7に示すように、縦幅H、横幅Wの顔領域FがステップS210の処理で検出された場合に、鼻孔探索領域として、縦a1・H、幅a2・Wの長方形の領域を、口下位置Mから上にa3・Hの位置で、横方向は顔領域Fの中央に、鼻孔探索領域Nとして設定すればよい。なお、a1、a2、a3は、鼻孔探索領域を検出するために、統計的な顔画像等から算出された定数である。 Subsequently, the control unit 14 sets a nostril search region from the detected face region based on statistical data (step S220). For example, as shown in FIG. 7, when a face area F having a height H and a width W is detected in the process of step S210, the nostril search area is a rectangular shape having a height a 1 · H and a width a 2 · W. area, at the position of a 3 · H on mouth under the position M, the horizontal direction in the center of the face region F, may be set as the nostril search region N. Note that a 1 , a 2 , and a 3 are constants calculated from a statistical face image or the like in order to detect the nostril search region.
図6に戻り、続いて制御部14は、顔画像の鼻孔探索領域内を走査して、鼻孔の位置を求める(ステップS230)。例えば、鼻孔のテンプレート画像データを予め準備しておき、そのテンプレートを用いて鼻孔探索領域内でマッチング処理を行い、鼻孔の位置を求めればよい。 Returning to FIG. 6, subsequently, the control unit 14 scans the nostril search region of the face image to obtain the position of the nostril (step S230). For example, template image data of the nostril is prepared in advance, matching processing is performed in the nostril search region using the template, and the position of the nostril is obtained.
続いて制御部14は、統計的なデータに基づいて、求めた鼻孔位置から瞼探索領域を設定する(ステップS240)。
例えば、図8に示すように、鼻孔の位置(重心位置)CnがステップS230で求められた場合に、鼻孔の重心位置Cnの上b1・Hから上の位置で、横方向は鼻孔の重心位置Cnを中心に間をb2・Wだけ離した位置の、縦b3・H、幅b4・Wの2つの長方形の領域を眼探索領域Eとして設定すればよい。なお、b1、b2、b3、b4、は、眼探索領域を検出するために、統計的な顔画像等から算出された定数である。以上で瞼探索領域設定処理は終了する。
Subsequently, the control unit 14 sets a wrinkle search region from the obtained nostril position based on statistical data (step S240).
For example, as shown in FIG. 8, when the position of the nostrils of the (barycentric position) Cn obtained in step S230, the in position above the upper b 1 · H of the center of gravity position Cn of the nostrils, the center of gravity of the lateral nostril locations away between b 2 · W only around the position Cn, vertical b 3 · H, two rectangular region having a width b 4 · W may be set as the eye search region E. Note that b 1 , b 2 , b 3 , and b 4 are constants calculated from a statistical face image or the like in order to detect an eye search region. Thus, the wrinkle search area setting process ends.
図4に戻り、続いて制御部14は、瞼探索領域から瞼に相当する候補のエッジを検出してラベリングする、エッジラベリング処理を実行する(ステップS300)。 Returning to FIG. 4, subsequently, the control unit 14 executes an edge labeling process of detecting and labeling candidate edges corresponding to the eyelid from the eyelid search region (step S300).
エッジラベリング処理(ステップS300)について、図9のフローチャートを用いて、以下詳細に説明する。 The edge labeling process (step S300) will be described in detail below using the flowchart of FIG.
エッジラベリング処理が開始されると、先ず、制御部14は、顔画像の瞼探索領域から、図3(B)に示す横エッジ検出用ソーベルフィルタを用いて、瞼探索領域内の横のエッジを抽出する(ステップS310)。なお、この際、瞼探索領域の上部から下部に向かって明るい画素から暗い画素に移る点(画素)をマイナスエッジ、暗い画素から明るい画素に移る点(画素)をプラスエッジとして、区別して抽出する。 When the edge labeling process is started, first, the control unit 14 uses the horizontal edge detection Sobel filter shown in FIG. 3B from the wrinkle search area of the face image to detect the horizontal edges in the wrinkle search area. Is extracted (step S310). At this time, a point (pixel) that moves from a bright pixel to a dark pixel from the top to the bottom of the haze search region is a negative edge, and a point (pixel) that moves from a dark pixel to a bright pixel is a positive edge. .
続いて制御部14は、横エッジを抽出したエッジ画像において、連結するエッジ毎にマイナスエッジとプラスエッジとを区別してグルーピングし、グルーピングしたエッジの集合(以下、エッジグループとする)に対してラベル(識別情報)を付与するラベリングを行う(ステップS320)。なお、このラベリングの際、所定画素数連結していないエッジは、ノイズとして消去してもよい。
以上で、エッジラベリング処理(ステップS300)は終了する。
Subsequently, in the edge image from which the horizontal edge is extracted, the control unit 14 distinguishes and groups the minus edge and the plus edge for each connected edge, and labels the grouped edge set (hereinafter referred to as an edge group). Labeling (identification information) is performed (step S320). In this labeling, edges that are not connected by a predetermined number of pixels may be erased as noise.
This completes the edge labeling process (step S300).
図4に戻り、エッジラベリング処理が終了すると、制御部14は、現在処理中の顔画像より、経時的に1つ前に撮影した顔画像(過去顔画像)の瞼探索領域で同様にラベリングした各エッジグループと、現在処理中の顔画像の瞼探索領域でラベリングした各エッジグループとで同一のもの同士を対応付けるエッジ対応付処理を行う(ステップS400)。 Returning to FIG. 4, when the edge labeling process is completed, the control unit 14 performs the same labeling in the eyelid search region of the face image (past face image) photographed immediately before the face image currently being processed. Edge association processing is performed in which each edge group is associated with the same edge group labeled in the eyelid search area of the currently processed face image (step S400).
エッジ対応付処理(ステップS400)の詳細について、図10を参照して説明する。
エッジ対応付処理が開始されると、制御部14は、外部記憶部13から、現在処理中の顔画像より経時的に1つ前に撮影した顔画像(過去顔画像)を取得する(ステップS410)。なお、この際、過去顔画像における、瞼探索領域の定義データや、エッジグループの位置情報等も同時に取得する。
Details of the edge association processing (step S400) will be described with reference to FIG.
When the edge association processing is started, the control unit 14 acquires from the external storage unit 13 a face image (past face image) taken immediately before the face image currently being processed (step S410). ). At this time, the wrinkle search area definition data, edge group position information, and the like in the past face image are also acquired at the same time.
続いて、制御部14は、過去顔画像において、ラベリングしたエッジグループの1つを選択する(ステップS420)。 Subsequently, the control unit 14 selects one of the labeled edge groups in the past face image (step S420).
続いて、制御部14は、選択したエッジグループを、X方向(水平方向)に所定画素幅ずつの領域に区切り、区切った領域毎に、エッジの位置情報をテンプレートデータとして取得する(ステップS430)。 Subsequently, the control unit 14 divides the selected edge group into regions each having a predetermined pixel width in the X direction (horizontal direction), and acquires edge position information as template data for each divided region (step S430). .
続いて、制御部14は、取得したテンプレートデータを用いて、現在の顔画像の瞼探索領域内のパターンマッチングを行い、テンプレートデータと最も相関の高いエッジグループを判別する(ステップS440)。 Subsequently, the control unit 14 performs pattern matching in the eyelid search region of the current face image using the acquired template data, and determines an edge group having the highest correlation with the template data (step S440).
そして、制御部14は、最も相関が高いと判別したエッジグループと、テンプレートデータの元となった過去顔画像のエッジグループとを、同一のエッジであるとして対応付ける(ステップS450)。この処理により、所定時間間隔で連続的に撮影された画像間で、同一のエッジグループ同士が対応付けられることとなる。そして、連続撮影された複数の画像の撮影順に、対応付けられたエッジグループを辿っていくことにより、エッジグループの経時的な動きの変化を調べることが可能となる。 Then, the control unit 14 associates the edge group determined to have the highest correlation with the edge group of the past face image that is the basis of the template data as the same edge (step S450). By this processing, the same edge groups are associated with each other between images continuously photographed at predetermined time intervals. Then, by tracing the associated edge group in the shooting order of a plurality of continuously shot images, it is possible to examine the change in the movement of the edge group over time.
続いて、制御部14は、過去顔画像において、ステップS420の選択をしていないエッジグループがあるか否かを判別する(ステップS460)。 Subsequently, the control unit 14 determines whether or not there is an edge group that has not been selected in Step S420 in the past face image (Step S460).
テンプレートデータを作成していないエッジグループがあると判別した場合(ステップS460;Yes)、制御部14は、過去顔画像からテンプレートデータを作成していないエッジグループを1つ選択して(ステップS420)、選択したエッジグループのテンプレートデータを取得し(ステップS430)、最も相関の高い現在の顔画像のエッジグループを判別して同一エッジとして対応付ける処理(ステップS440、S450)を繰り返す。 When it is determined that there is an edge group for which template data has not been created (step S460; Yes), the control unit 14 selects one edge group for which template data has not been created from the past face image (step S420). The template data of the selected edge group is acquired (step S430), and the process of determining the edge group of the current face image having the highest correlation and associating it with the same edge (steps S440 and S450) is repeated.
テンプレートデータを作成していないエッジグループがないと判別した場合(ステップS460;No)、制御部14は、エッジグループ毎に特徴点の経時的な動きの変化を調べ、動きの量、移動タイミングが近いエッジグループ同士を、同一のエッジグループとして、同一のラベルを再設定する、ラベリング移動処理を行う(ステップS470)。以上でエッジ対応付処理は終了する。 When it is determined that there is no edge group for which template data has not been created (step S460; No), the control unit 14 examines changes in the feature point over time for each edge group, and determines the amount of movement and the movement timing. Labeling movement processing for resetting the same label with the close edge groups as the same edge group is performed (step S470). This completes the edge association processing.
図4に戻り、エッジ対応付処理が終了すると、制御部14は、上瞼のエッジを検出する上瞼検出処理を実行する(ステップS500)。 Returning to FIG. 4, when the edge association processing ends, the control unit 14 executes the upper eyelid detection processing for detecting the upper eyelid edge (step S <b> 500).
具体的には、制御部14は、所定時間内に上方向から下方向に変化した後、下方向から上方向に動く(即ち、V字状に動く)プラスのエッジグループを特定して、特定したエッジグループを上瞼に相当するエッジとして検出する。 Specifically, the control unit 14 identifies and identifies a positive edge group that moves from the lower direction to the upper direction within a predetermined time and then moves from the lower direction to the upper direction (that is, moves in a V shape). The detected edge group is detected as an edge corresponding to the upper eyelid.
続いて、上瞼検出処理が終了すると、制御部14は、上瞼のエッジグループの下方に位置するマイナスのエッジグループを、下瞼に相当するエッジとして検出する(ステップS600)。以上で、瞼検出処理は終了する。 Subsequently, when the upper eyelid detection process ends, the control unit 14 detects a negative edge group located below the upper eyelid edge group as an edge corresponding to the lower eyelid (step S600). This is the end of the wrinkle detection process.
続いて、瞼検出処理について、具体例を挙げて説明する。 Next, the wrinkle detection process will be described with a specific example.
図11(A)は、瞼探索領域の瞼の画像を示したものである。図11(A)に示す瞼の画像は、撮影時の光環境により赤目現象が発生している。そのため、眼球の赤目発光により、上下瞼ラインの中央付近(眼球付近)の視認性が悪化している。 FIG. 11A shows an image of the eyelid in the eyelid search area. The eyelid image shown in FIG. 11A has a red-eye phenomenon due to the light environment at the time of photographing. Therefore, the visibility near the center of the upper and lower eyelid line (near the eyeball) is deteriorated due to red-eye emission of the eyeball.
図11(A)の画像をエッジラベリング処理(ステップS300)の処理対象とした場合、まず、横エッジラインの抽出(ステップS310)により、図11(A)に示す画像から、図11(B)に示すように横エッジが抽出される。なお、図11(B)においては、上方にプラスエッジ(図11(B)上では符号Aを付す)が、下方にマイナスエッジ(図11(B)上では符号Bを付す)が抽出されている。赤目発光のため、図11(B)のエッジ画像では、上瞼と下瞼に相当するエッジが中央部分で途切れてしまっている。 When the image of FIG. 11A is the processing target of the edge labeling process (step S300), first, by extracting the horizontal edge line (step S310), the image shown in FIG. A horizontal edge is extracted as shown in FIG. In FIG. 11B, a positive edge (labeled A on FIG. 11B) is extracted upward, and a negative edge (marked B on FIG. 11B) is extracted downward. Yes. Due to red-eye light emission, in the edge image of FIG. 11B, the edges corresponding to the upper eyelid and the lower eyelid are interrupted at the center portion.
続いて、ラベリング処理(ステップS320)により、図11(C)に示すように、上瞼に相当するプラスエッジのグループをG+1、G+2、下瞼に相当するマイナスエッジのグループをG−1、G−2、とラベル(識別情報)を付与する。なお、図11(C)では、所定数連結していないエッジは、ノイズとして消去している。 Subsequently, by the labeling process (step S320), as shown in FIG. 11C, the positive edge group corresponding to the upper eyelid is G + 1, G + 2, and the negative edge group corresponding to the lower eyelid is G-1, G -2, and a label (identification information). In FIG. 11C, a predetermined number of unconnected edges are eliminated as noise.
続いて、この図11(C)のラベリングしたエッジ画像を処理対象として、エッジ対応付処理(ステップS400)が行われた場合について説明する。 Next, the case where the edge association processing (step S400) is performed with the labeled edge image of FIG. 11C as a processing target will be described.
まず、図11(D)に示す過去顔画像を外部記憶部13から取得する(ステップS410)。図11(D)に示す過去顔画像では、プラスエッジグループにG+3、G+4、マイナスエッジグループにG−3、G−4とラベルが付与されている。 First, the past face image shown in FIG. 11D is acquired from the external storage unit 13 (step S410). In the past face image shown in FIG. 11D, labels of G + 3 and G + 4 are assigned to the plus edge group, and G-3 and G-4 are assigned to the minus edge group.
続いて、図11(D)に示す過去顔画像から、エッジグループG+3を選択し(ステップS420)、選択したエッジグループG+3を、図11(E)に示すように、X方向(水平方向)に1画素幅ずつの領域に区切り、各領域毎に、エッジの位置情報をテンプレートデータとして取得する(ステップS430)。なお、X方向に区切る画素幅は、1画素以外の所定の画素幅で区切ってもよい。 Subsequently, an edge group G + 3 is selected from the past face image shown in FIG. 11D (step S420), and the selected edge group G + 3 is moved in the X direction (horizontal direction) as shown in FIG. The image is divided into areas each having a pixel width, and edge position information is acquired as template data for each area (step S430). The pixel width divided in the X direction may be divided by a predetermined pixel width other than one pixel.
そして、図11(F)に示すように、取得したテンプレートデータを用いて、現在の顔画像の瞼探索領域内でパターンマッチングを行い、テンプレートデータと最も相関の高いエッジグループを判別する(ステップS440)。図11(F)の例では、テンプレートデータと最も相関の高いエッジグループはエッジグループG+1と判別される。 Then, as shown in FIG. 11F, using the acquired template data, pattern matching is performed within the eyelid search region of the current face image, and an edge group having the highest correlation with the template data is determined (step S440). ). In the example of FIG. 11F, the edge group having the highest correlation with the template data is determined as the edge group G + 1.
そして、この最も相関が高いと判別されたエッジグループG+1と、テンプレートデータの元となった過去顔画像のエッジグループG+3とを、同一のエッジグループとして対応付ける(ステップS450)。 Then, the edge group G + 1 determined to have the highest correlation is associated with the edge group G + 3 of the past face image that is the basis of the template data as the same edge group (step S450).
過去顔画像の他のエッジグループについても、同様にテンプレートデータを作成してパターンマッチングを行い、現在の顔画像のエッジグループの1つと対応付ける処理を行っていく。そして、最終的には、過去顔画像のエッジグループG+3、G+4、G−3、G−4は、現在の顔画像のエッジグループG+1、G+2、G−1、G−2のそれぞれと、同一のエッジであるものとして対応付けられる。 Similarly, for other edge groups of the past face image, template data is created, pattern matching is performed, and processing for associating with one of the edge groups of the current face image is performed. Finally, the edge groups G + 3, G + 4, G-3, and G-4 of the past face image are the same as the edge groups G + 1, G + 2, G-1, and G-2 of the current face image. Corresponding as being an edge.
続いて、制御部14は、エッジグループ毎に、特徴点の経時的な動きの変化を調べる。例えば、図12(A)は、鼻孔位置を原点としたY方向(高さ)の最大値を特徴点として、その時間変化を、エッジグループ毎に示した図である。なお、特徴点はこれに限らず、例えば、エッジグループのY方向の最低値や平均値、および、重心位置などを特徴点としてもよい。 Subsequently, the control unit 14 examines a change in the movement of the feature point over time for each edge group. For example, FIG. 12A is a diagram showing a time change for each edge group with the maximum value in the Y direction (height) with the nostril position as the origin as a feature point. Note that the feature points are not limited to this, and for example, the minimum value or average value in the Y direction of the edge group, the center of gravity position, and the like may be used as the feature points.
図12(A)からもわかるように、エッジグループG+1とG+2、および、エッジグループG−1とG−2が、動きの量、および、移動タイミングが近いため、それぞれ同一のエッジグループであると判別する。そして、図13(A)に示すように、エッジグループのラベルを再設定する(ステップS470)。すなわち、エッジグループG+2をエッジグループG+1に、エッジグループG−2をエッジグループG−1に、ラベルを再設定する。この処理により、赤目発光などの影響により途切れてしまったエッジグループであっても同一のものとしてラベリングされる。以上で、エッジ対応付処理(ステップS400)は終了する。 As can be seen from FIG. 12A, the edge groups G + 1 and G + 2 and the edge groups G-1 and G-2 are the same edge group because the movement amount and the movement timing are close to each other. Determine. Then, as shown in FIG. 13A, the label of the edge group is reset (step S470). That is, the edge group G + 2 is reset to the edge group G + 1, the edge group G-2 is reset to the edge group G-1, and the label is reset. With this process, even edge groups that have been interrupted due to the influence of red-eye emission or the like are labeled as the same group. This completes the edge association processing (step S400).
続いて、上瞼検出処理(ステップS500)が行われ、ステップS470の処理でラベルが再設定されたエッジ画像において、エッジグループ毎に、再度、図12(B)に示すように、経時的な動きの変化が調べられる。そして、図12(B)より、所定時間内に上方向から下方向に変化してから下方向から上方向に動く(即ち、V字状に動く)エッジグループG+1を上瞼に相当するエッジとして検出する。 Subsequently, the upper eyelid detection process (step S500) is performed, and in the edge image whose label is reset in the process of step S470, as shown in FIG. Changes in movement are examined. Then, from FIG. 12B, the edge group G + 1 that changes from the upper direction to the lower direction within a predetermined time and then moves from the lower direction to the upper direction (that is, moves in a V shape) is defined as an edge corresponding to the upper eyelid. To detect.
続いて、下瞼検出処理(ステップS600)が行われ、エッジグループG+1の下方の所定領域に位置するエッジグループG−1が下瞼として検出される(ステップS600)。最終的には、図13(B)に示すように、下瞼と上瞼に相当するエッジグループが判別される。以上で瞼検出処理は終了する。 Subsequently, the lower eyelid detection process (step S600) is performed, and the edge group G-1 located in a predetermined region below the edge group G + 1 is detected as the lower eyelid (step S600). Finally, as shown in FIG. 13B, edge groups corresponding to the lower eyelid and the upper eyelid are determined. Thus, the wrinkle detection process ends.
このように、本実施形態では、赤目現象等が発生して瞼に相当するエッジグループが途切れてしまっている場合でも、その経時的な動きの変化から同一のエッジグループを判別して同一にラベリングする。そして、このようにラベリングしたエッジグループの経時的な動きの変化から、上瞼に相当するエッジグループを検出して、検出した上瞼に相当するエッジグループの下方の所定領域から、下瞼に相当するエッジグループを検出する。従って、光環境の影響をうけないで、瞼を精度よく検出することが可能となる。 As described above, in the present embodiment, even when the red-eye phenomenon or the like occurs and the edge group corresponding to the eyelid is interrupted, the same edge group is discriminated from the change in the movement over time and the same labeling is performed. To do. Then, the edge group corresponding to the upper eyelid is detected from the change in the movement of the edge group thus labeled over time, and it corresponds to the lower eyelid from a predetermined area below the edge group corresponding to the detected upper eyelid. Detect the edge group to be used. Therefore, wrinkles can be accurately detected without being affected by the light environment.
なお、この発明は上記実施形態に限定されず、種々の変形及び応用が可能である。
例えば、本実施形態では、最初に鼻孔位置を検出し、検出した鼻孔位置を基準に瞼探索領域を求めたがこれに限らず、例えば、口位置などの他の特徴箇所を基準に鼻孔位置を求めてもよく、瞼探索領域を求める手法は公知のものを利用してよい。
In addition, this invention is not limited to the said embodiment, A various deformation | transformation and application are possible.
For example, in the present embodiment, the nostril position is first detected, and the wrinkle search area is obtained based on the detected nostril position. A known method may be used as a method for obtaining the eyelid search region.
また、上記実施形態で上瞼と下瞼に相当するエッジグループを判別した後に、図14に示すように、各瞼のエッジグループにベジェ曲線 、スプライン曲線、回帰曲線などの所定の曲線をフィッティングし、フィッティングした曲線上の画素を、上瞼、下瞼に相当するエッジラインとしてもよい。このようにすることで、光環境の影響によって途切れてしまったエッジラインが補完されることとなり、より鮮明な瞼のラインを検出することができる。 Further, after discriminating the edge groups corresponding to the upper eyelid and the lower eyelid in the above embodiment, as shown in FIG. 14, a predetermined curve such as a Bezier curve, a spline curve, or a regression curve is fitted to the edge group of each eyelid. The pixels on the fitted curve may be edge lines corresponding to the upper eyelid and the lower eyelid. By doing in this way, the edge line interrupted by the influence of the light environment is complemented, and a clearer wrinkle line can be detected.
また、上記実施形態では、ステップS500の上瞼検出処理において、V字状に動くプラスのエッジグループを特定して、特定したエッジグループを上瞼に相当するエッジとして検出した。しかし、上瞼の目尻と目頭の部分のエッジは、上瞼の他の部分のエッジよりも、眼の開閉の際に動きが少ない。そのため、上瞼検出処理において、目尻と目頭の部分ではエッジのV字状の動きを特定されず、上瞼に相当するエッジが検出されなくなってしまう可能性がある。 In the above embodiment, in the upper eyelid detection process in step S500, a positive edge group moving in a V shape is specified, and the specified edge group is detected as an edge corresponding to the upper eyelid. However, the edges of the upper eyelid and the upper part of the eyelid move less during the opening and closing of the eyes than the edges of other parts of the upper eyelid. For this reason, in the upper eyelid detection process, there is a possibility that the V-shaped movement of the edge is not specified at the corners of the eyes and the corners of the eyes, and the edge corresponding to the upper eyelid may not be detected.
この問題を解決するために、上瞼検出処理を、図15に示す手順で実施してもよい。
まず、制御部14は、プラスエッジの経時的動きを調べ、V字状に動くプラスのエッジグループを上瞼に相当するエッジグループとして特定する(ステップS510)。この処理は、上記実施形態の上瞼検出処理と同様である。
In order to solve this problem, the upper eyelid detection process may be performed according to the procedure shown in FIG.
First, the control unit 14 examines the movement of the plus edge over time, and identifies the plus edge group moving in a V shape as an edge group corresponding to the upper eyelid (step S510). This process is the same as the upper eyelid detection process of the above embodiment.
続いて、制御部14は、ステップS510で特定したエッジグループに、所定の統計的なデータなどから作成される上瞼エッジのテンプレートとなる曲線(テンプレート曲線)をフィッティングする(ステップS520)。そして、制御部14は、フィッティングした曲線の近傍に位置するプラスのエッジグループも、上瞼に相当するエッジグループとして検出する(ステップS530)。 Subsequently, the control unit 14 fits a curve (template curve) serving as a template for the upper eyelid edge created from predetermined statistical data or the like to the edge group specified in step S510 (step S520). Then, the control unit 14 also detects a positive edge group located in the vicinity of the fitted curve as an edge group corresponding to the upper eyelid (step S530).
上述の上瞼検出処理について、具体例を挙げて説明する。
例えば、図16(A)に示すような4つのプラスエッジグループC、D、E、Fが瞼検出領域にある場合を考える。まず、上述した上瞼検出処理が開始されると、この各エッジグループの経時的な動きが図16(B)に示すように調べられ、V字状に動くエッジグループD、Eのみが上瞼として特定される(ステップS510)。なお、エッジブループC、Fは、それぞれ目尻と目頭に相当するためV字状の動きが検出されず、この段階では上瞼とは特定されない。続いて、図16(C)に示すように、特定されたエッジグループD、Eに対してテンプレート曲線がフィッティングされ(ステップS520)、このテンプレート曲線の近傍に位置するエッジグループC、Fも、上瞼のエッジグループとして検出される(ステップS530)。まとめると、最終的には、図16(D)に示すように、プラスエッジグループC、D、E、Fの4つのエッジグループ全てがが上瞼として検出される。
従って、このような上瞼検出処理をすることで、経時的な動きの変化の少ない目尻や目頭等のエッジグループも、上瞼として検出され、瞼検出の精度をより向上させることが可能となる。
The above-described upper eyelid detection process will be described with a specific example.
For example, consider a case where four plus edge groups C, D, E, and F as shown in FIG. First, when the above-described upper eyelid detection process is started, the temporal movement of each edge group is examined as shown in FIG. 16B, and only the edge groups D and E moving in a V shape are upper eyelids. (Step S510). Note that the edge blocks C and F correspond to the corners of the eyes and the top of the eyes, respectively, so that V-shaped movement is not detected, and the upper eyelid is not specified at this stage. Subsequently, as shown in FIG. 16C, a template curve is fitted to the specified edge groups D and E (step S520), and the edge groups C and F located in the vicinity of the template curve are also It is detected as an edge group of the eyelid (step S530). In summary, finally, as shown in FIG. 16D, all four edge groups of plus edge groups C, D, E, and F are detected as upper eyelids.
Therefore, by performing such an upper eyelid detection process, an edge group such as the corner of the eye or the eye with little change in movement over time is also detected as an upper eyelid, and the accuracy of the eyelid detection can be further improved. .
その他、前記のハードウエア構成やフローチャートは一例であり、任意に変更及び修正が可能である。 In addition, the hardware configuration and the flowchart described above are merely examples, and can be arbitrarily changed and modified.
送受信部11、画像メモリ12、外部記憶部13、制御部14、及び、主記憶部15などから構成される瞼検出装置10の処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読みとり可能な記録媒体(フレキシブルディスク、CD-ROM、DVD-ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する瞼検出装置10を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで瞼検出装置10を構成してもよい。 The central part that performs processing of the eyelid detection device 10 including the transmission / reception unit 11, the image memory 12, the external storage unit 13, the control unit 14, the main storage unit 15, etc. This can be realized using a computer system. For example, a computer program for executing the above operation is stored and distributed on a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. Thus, the wrinkle detection device 10 that executes the above-described processing may be configured. Alternatively, the eyelid detection device 10 may be configured by storing the computer program in a storage device included in a server device on a communication network such as the Internet and downloading the computer program by a normal computer system.
また、瞼検出装置10の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。 Further, when the function of the eyelid detection device 10 is realized by sharing of an OS (operating system) and an application program, or by cooperation between the OS and the application program, only the application program portion is stored in a recording medium or a storage device. May be.
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。 It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS, Bulletin Board System) on a communication network, and the computer program distributed via the network. The computer program may be activated and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.
2 カメラ
3 照明光源
4 表示装置
10 瞼検出装置
11 送受信部
12 画像メモリ(顔画像記憶手段)
13 外部記憶部
14 制御部(瞼探索領域検出手段、エッジ検出手段、エッジラベリング手段、同一ラベル判別手段、再ラベリング手段、上瞼判別手段、下瞼判別手段)
15 主記憶部
16 表示制御部
17 光源制御部
18 内部バス
2 camera 3 illumination light source 4 display device 10 eyelid detection device 11 transmission / reception unit 12 image memory (face image storage means)
13 External Storage Unit 14 Control Unit (Wrinkle Search Area Detection Unit, Edge Detection Unit, Edge Labeling Unit, Same Label Discriminating Unit, Relabeling Unit, Upper Eyelid Discriminating Unit, Lower Eyelid Discriminating Unit)
15 Main Memory 16 Display Control Unit 17 Light Source Control Unit 18 Internal Bus
Claims (11)
前記顔画像から瞼探索領域を検出する瞼探索領域検出手段と、
前記瞼探索領域検出手段で検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出手段と、
前記エッジ検出手段で検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリング手段と、
前記エッジラベリング手段でラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与したそれぞれが互いに途切れている複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別手段と、
前記同一ラベル判別手段で同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリング手段と、
前記再ラベリング手段でラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別手段と、
前記上瞼判別手段で判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別手段と、
を備えることを特徴とする瞼検出装置。 Face image acquisition means for acquiring a plurality of face images obtained by continuously photographing the face of the subject;
A wrinkle search area detecting means for detecting a wrinkle search area from the face image;
Edge detection means for detecting edges that are candidates for upper eyelid and lower eyelid from the eyelid search area detected by the eyelid search area detection means;
Edge labeling means for assigning a label to each edge group that is a set of connected edges detected by the edge detection means;
The same edge group is identified from among a plurality of edge groups each having a label cut off from each other based on a change in movement of each edge group to which a label is assigned by the edge labeling means over time. Label discrimination means;
Re-labeling means for giving the same label to the edge groups determined to be the same by the same label determining means;
Of the edge groups that have been labeled by the re-labeling means, the upper eyelid determining means for determining an edge group that changes from the upper side to the lower side and from the lower side to the upper side within a predetermined time as an edge group corresponding to the upper eyelid,
Lower eyelid determining means for determining an edge group located in a predetermined region below the edge group corresponding to the upper eyelid determined by the upper eyelid determining means as an edge group corresponding to the lower eyelid;
A wrinkle detection device comprising:
最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループと、最新の顔画像のエッジグループとで、同一のエッジグループ同士を判別して対応付ける、エッジグループ対応付手段をさらに備え、
前記エッジグループ対応付手段で対応付けたエッジグループを辿っていくことにより、エッジグループの経時的な動きの変化を判別する、
ことを特徴とする請求項1に記載の瞼検出装置。 The same label discriminating means is
Edge group association means for discriminating and associating the same edge group between the edge group of the face image photographed one time before the latest face image and the edge group of the latest face image Prepared,
By tracing the edge group associated with the edge group association means, the change in the movement of the edge group over time is determined.
The wrinkle detection device according to claim 1 .
最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループの位置情報からテンプレートデータを作成し、
作成したテンプレートデータを用いたパターンマッチングを最新の顔画像に対して行い、
パターンマッチングの結果最も相関が高いと判別された最新の顔画像のエッジグループが、前記テンプレートデータの作成の元となった最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループと同一のエッジグループであると判別する、
ことを特徴とする請求項2に記載の瞼検出装置。 The edge group association means is
Create template data from the position information of the edge group of the face image taken one time before the latest face image,
Perform pattern matching using the created template data on the latest face image,
The edge group of the latest face image that has been determined to have the highest correlation as a result of pattern matching is the edge of the face image that was photographed one time before the latest face image from which the template data was created. It is determined that the edge group is the same as the group.
The wrinkle detection apparatus according to claim 2 .
ことを特徴とする請求項1乃至3の何れか1項に記載の瞼検出装置。 A predetermined curve is fitted to the edge group corresponding to the upper eyelid and the lower eyelid determined by the upper eyelid determining means or the lower eyelid determining means, and the pixels on the fitted curve are the edges corresponding to the upper eyelid and the lower eyelid. Further comprising wrinkle detection means for detecting as a line ,
The wrinkle detection device according to any one of claims 1 to 3 , wherein
前記顔画像から瞼探索領域を検出する瞼探索領域検出手段と、 A wrinkle search area detecting means for detecting a wrinkle search area from the face image;
前記瞼探索領域検出手段で検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出手段と、 Edge detection means for detecting edges that are candidates for upper eyelid and lower eyelid from the eyelid search area detected by the eyelid search area detection means;
前記エッジ検出手段で検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリング手段と、 Edge labeling means for assigning a label to each edge group that is a set of connected edges detected by the edge detection means;
前記エッジラベリング手段でラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与した複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別手段と、 The same label discriminating means for discriminating the same edge group from among a plurality of edge groups to which a label is attached based on a change in movement of each edge group to which a label is given by the edge labeling means with time.
前記同一ラベル判別手段で同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリング手段と、 Re-labeling means for giving the same label to the edge groups determined to be the same by the same label determining means;
前記再ラベリング手段でラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別手段と、 Of the edge groups that have been labeled by the re-labeling means, the upper eyelid determining means for determining an edge group that changes from the upper side to the lower side and from the lower side to the upper side within a predetermined time as an edge group corresponding to the upper eyelid,
前記上瞼判別手段で判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別手段と、 Lower eyelid determining means for determining an edge group located in a predetermined region below the edge group corresponding to the upper eyelid determined by the upper eyelid determining means as an edge group corresponding to the lower eyelid;
前記上瞼判別手段又は前記下瞼判別手段で判別された上瞼、下瞼に相当するエッジグループに所定の曲線をフィッティングし、フィッティングした曲線上の画素を、上瞼、下瞼に相当するエッジラインとして検出する瞼検出手段と、 A predetermined curve is fitted to the edge group corresponding to the upper eyelid and the lower eyelid determined by the upper eyelid determining means or the lower eyelid determining means, and the pixels on the fitted curve are the edges corresponding to the upper eyelid and the lower eyelid. Wrinkle detecting means for detecting as a line,
を備え、 With
前記同一ラベル判別手段は、 The same label discriminating means is
最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループの位置情報からテンプレートデータを作成し、作成したテンプレートデータを用いたパターンマッチングを最新の顔画像に対して行い、パターンマッチングの結果最も相関が高いと判別された最新の顔画像のエッジグループと、前記テンプレートデータの作成の元となった最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループとを、同一のエッジグループであると判別して対応付ける、エッジグループ対応付手段をさらに備え、 Template data is created from the edge group position information of the face image taken immediately before the latest face image, and pattern matching using the created template data is performed on the latest face image. The edge group of the latest face image determined to have the highest correlation as a result of the matching, and the edge group of the face image taken immediately before the latest face image from which the template data was created Is further provided with an edge group association means for identifying and associating with the same edge group,
前記エッジグループ対応付手段で対応付けたエッジグループを辿っていくことにより、エッジグループの経時的な動きの変化を判別する、 By following the edge group associated with the edge group association means, the change in the movement of the edge group over time is determined.
ことを特徴とする瞼検出装置。 A wrinkle detection device characterized by that.
ことを特徴とする請求項1乃至5の何れか1項に記載の瞼検出装置。 The edge labeling means includes edge erasing means for erasing edges that are not connected by a predetermined number of pixels or more among the edges detected by the edge detecting means.
The wrinkle detection device according to any one of claims 1 to 5, wherein
前記再ラベリング手段でラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループと、該エッジグループにフィッティングさせた上瞼のテンプレートとなる曲線の近傍に位置するエッジグループとを上瞼に相当するエッジグループと判別する、
ことを特徴とする請求項1乃至6の何れか1項に記載の瞼検出装置。 The upper eyelid determining means is
Among the edge groups that have been labeled by the re-labeling means, the edge groups that change from the top to the bottom and the bottom to the top within a predetermined time, and the vicinity of the curve that becomes the upper eyelid template fitted to the edge groups The edge group located is determined as the edge group corresponding to the upper eyelid,
The wrinkle detection device according to any one of claims 1 to 6 , wherein
前記顔画像から瞼探索領域を検出する瞼探索領域検出ステップと、
前記瞼探索領域検出ステップで検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出ステップと、
前記エッジ検出ステップで検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリングステップと、
前記エッジラベリングステップでラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与したそれぞれが互いに途切れている複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別ステップと、
前記同一ラベル判別ステップで同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリングステップと、
前記再ラベリングステップでラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別ステップと、
前記上瞼判別ステップで判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別ステップと、
を備えることを特徴とする瞼検出方法。 A face image acquisition step of acquiring a plurality of face images obtained by continuously photographing the face of the subject;
A wrinkle search area detecting step for detecting a wrinkle search area from the face image;
An edge detection step of detecting edges that are candidates for upper eyelid and lower eyelid from the eyelid search region detected in the eyelid search region detection step;
An edge labeling step for assigning a label to each edge group, which is a set of connected edges detected in the edge detection step;
Based on a change in movement of each edge group with a label in the edge labeling step over time, the same edge group is discriminated from among a plurality of edge groups each having a label interrupted. A label determination step;
Re-labeling step of assigning the same label to the edge groups determined to be the same in the same label determination step;
Of the edge groups that have been labeled in the re-labeling step, an upper eye determining step for determining an edge group that changes from the upper side to the lower side and from the lower side to the upper side within a predetermined time as an edge group corresponding to the upper eyelid,
A lower eyelid determining step for determining an edge group located in a predetermined region below the edge group corresponding to the upper eyelid determined in the upper eyelid determining step as an edge group corresponding to the lower eyelid;
A wrinkle detection method comprising:
前記顔画像から瞼探索領域を検出する瞼探索領域検出ステップと、 A wrinkle search area detecting step for detecting a wrinkle search area from the face image;
前記瞼探索領域検出ステップで検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出ステップと、 An edge detection step of detecting edges that are candidates for upper eyelid and lower eyelid from the eyelid search region detected in the eyelid search region detection step;
前記エッジ検出ステップで検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリングステップと、 An edge labeling step for assigning a label to each edge group, which is a set of connected edges detected in the edge detection step;
前記エッジラベリングステップでラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与した複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別ステップと、 The same label discrimination step for discriminating the same edge group from among a plurality of edge groups to which a label is attached based on a change in movement over time of each edge group to which a label is given in the edge labeling step;
前記同一ラベル判別ステップで同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリングステップと、 Re-labeling step of assigning the same label to the edge groups determined to be the same in the same label determination step;
前記再ラベリングステップでラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別ステップと、 Of the edge groups that have been labeled in the re-labeling step, an upper eye determining step for determining an edge group that changes from the upper side to the lower side and from the lower side to the upper side within a predetermined time as an edge group corresponding to the upper eyelid,
前記上瞼判別ステップで判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別ステップと、 A lower eyelid determining step for determining an edge group located in a predetermined region below the edge group corresponding to the upper eyelid determined in the upper eyelid determining step as an edge group corresponding to the lower eyelid;
前記上瞼判別ステップ又は前記下瞼判別ステップで判別された上瞼、下瞼に相当するエッジグループに所定の曲線をフィッティングし、フィッティングした曲線上の画素を、上瞼、下瞼に相当するエッジラインとして検出する瞼検出ステップと、 A predetermined curve is fitted to the edge group corresponding to the upper eyelid and the lower eyelid determined in the upper eyelid determining step or the lower eyelid determining step, and pixels on the fitted curve are set to the edges corresponding to the upper eyelid and the lower eyelid. A wrinkle detection step for detecting as a line;
を備え、 With
前記同一ラベル判別ステップは、 The same label discrimination step includes
最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループの位置情報からテンプレートデータを作成し、作成したテンプレートデータを用いたパターンマッチングを最新の顔画像に対して行い、パターンマッチングの結果最も相関が高いと判別された最新の顔画像のエッジグループと、前記テンプレートデータの作成の元となった最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループとを、同一のエッジグループであると判別して対応付ける、エッジグループ対応付ステップをさらに備え、 Template data is created from the edge group position information of the face image taken immediately before the latest face image, and pattern matching using the created template data is performed on the latest face image. The edge group of the latest face image determined to have the highest correlation as a result of the matching, and the edge group of the face image taken immediately before the latest face image from which the template data was created Are further provided with an edge group association step for identifying and associating them with the same edge group,
前記エッジグループ対応付ステップで対応付けたエッジグループを辿っていくことにより、エッジグループの経時的な動きの変化を判別する、 By following the edge group associated in the step of associating with the edge group, a change in the movement of the edge group over time is determined.
ことを特徴とする瞼検出方法。 A wrinkle detection method characterized by the above.
対象者の顔を連続的に撮影した複数の顔画像を取得する顔画像取得手段、
前記顔画像から瞼探索領域を検出する瞼探索領域検出手段、
前記瞼探索領域検出手段で検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出手段、
前記エッジ検出手段で検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリング手段、
前記エッジラベリング手段でラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与したそれぞれが互いに途切れている複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別手段、
前記同一ラベル判別手段で同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリング手段、
前記再ラベリング手段でラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別手段、
前記上瞼判別手段で判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別手段、
として機能させることを特徴とするプログラム。 Computer
Face image acquisition means for acquiring a plurality of face images obtained by continuously photographing the face of the subject;
A wrinkle search area detecting means for detecting a wrinkle search area from the face image;
Edge detection means for detecting edges that are candidates for upper eyelid and lower eyelid from the eyelid search area detected by the eyelid search area detection means;
Edge labeling means for assigning a label to each edge group which is a set of connected edges detected by the edge detection means;
The same edge group is identified from among a plurality of edge groups each having a label cut off from each other based on a change in movement of each edge group to which a label is assigned by the edge labeling means over time. Label discrimination means,
Re-labeling means for assigning the same label to edge groups determined to be the same by the same label determining means;
An upper eyelid discriminating means for discriminating, from among the edge groups already labeled by the relabeling means, an edge group that changes from the upper side to the lower side and from the lower side to the upper side within a predetermined time, as an edge group corresponding to the upper eyelid
Lower eyelid determining means for determining an edge group located in a predetermined region below the edge group corresponding to the upper eyelid determined by the upper eyelid determining means as an edge group corresponding to the lower eyelid;
A program characterized by functioning as
対象者の顔を連続的に撮影した複数の顔画像を取得する顔画像取得手段、 Face image acquisition means for acquiring a plurality of face images obtained by continuously photographing the face of the subject;
前記顔画像から瞼探索領域を検出する瞼探索領域検出手段、 A wrinkle search area detecting means for detecting a wrinkle search area from the face image;
前記瞼探索領域検出手段で検出した瞼探索領域から上瞼と下瞼の候補となるエッジを検出するエッジ検出手段、 Edge detection means for detecting edges that are candidates for upper eyelid and lower eyelid from the eyelid search area detected by the eyelid search area detection means;
前記エッジ検出手段で検出したエッジの連結する集合であるエッジグループ毎にラベルを付与するエッジラベリング手段、 Edge labeling means for assigning a label to each edge group which is a set of connected edges detected by the edge detection means;
前記エッジラベリング手段でラベルが付与された各エッジグループの経時的な動きの変化に基づいて、ラベルを付与した複数のエッジグループのなかから同一のエッジグループを判別する、同一ラベル判別手段、 Same label discriminating means for discriminating the same edge group from among a plurality of edge groups to which a label is attached based on a change in movement of each edge group to which a label is given by the edge labeling means with time.
前記同一ラベル判別手段で同一であると判別したエッジグループ同士に、同一のラベルを付与する再ラベリング手段、 Re-labeling means for assigning the same label to edge groups determined to be the same by the same label determining means;
前記再ラベリング手段でラベリング済みのエッジグループのうち、所定時間内に上方から下方、および、下方から上方に変化するエッジグループを上瞼に相当するエッジグループと判別する上瞼判別手段、 An upper eyelid discriminating means for discriminating, from among the edge groups already labeled by the relabeling means, an edge group that changes from the upper side to the lower side and from the lower side to the upper side within a predetermined time, as an edge group corresponding to the upper eyelid;
前記上瞼判別手段で判別した上瞼に相当するエッジグループの下方の所定の領域に位置するエッジグループを、下瞼に相当するエッジグループと判別する下瞼判別手段、 Lower eyelid determining means for determining an edge group located in a predetermined region below the edge group corresponding to the upper eyelid determined by the upper eyelid determining means as an edge group corresponding to the lower eyelid;
前記上瞼判別手段又は前記下瞼判別手段で判別された上瞼、下瞼に相当するエッジグループに所定の曲線をフィッティングし、フィッティングした曲線上の画素を、上瞼、下瞼に相当するエッジラインとして検出する瞼検出手段、 A predetermined curve is fitted to the edge group corresponding to the upper eyelid and the lower eyelid determined by the upper eyelid determining means or the lower eyelid determining means, and the pixels on the fitted curve are the edges corresponding to the upper eyelid and the lower eyelid. Wrinkle detection means for detecting as a line,
として機能させ、 Function as
前記同一ラベル判別手段は、 The same label discriminating means is
最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループの位置情報からテンプレートデータを作成し、作成したテンプレートデータを用いたパターンマッチングを最新の顔画像に対して行い、パターンマッチングの結果最も相関が高いと判別された最新の顔画像のエッジグループと、前記テンプレートデータの作成の元となった最新の顔画像より時間的に1つ前に撮影された顔画像のエッジグループとを、同一のエッジグループであると判別して対応付ける、エッジグループ対応付手段をさらに備え、 Template data is created from the edge group position information of the face image taken immediately before the latest face image, and pattern matching using the created template data is performed on the latest face image. The edge group of the latest face image determined to have the highest correlation as a result of the matching, and the edge group of the face image taken immediately before the latest face image from which the template data was created Is further provided with an edge group association means for identifying and associating with the same edge group,
前記エッジグループ対応付手段で対応付けたエッジグループを辿っていくことにより、エッジグループの経時的な動きの変化を判別する、 By following the edge group associated with the edge group association means, the change in the movement of the edge group over time is determined.
ことを特徴とするプログラム。 A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008320898A JP5128454B2 (en) | 2008-12-17 | 2008-12-17 | Wrinkle detection device, wrinkle detection method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008320898A JP5128454B2 (en) | 2008-12-17 | 2008-12-17 | Wrinkle detection device, wrinkle detection method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010146159A JP2010146159A (en) | 2010-07-01 |
JP5128454B2 true JP5128454B2 (en) | 2013-01-23 |
Family
ID=42566563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008320898A Active JP5128454B2 (en) | 2008-12-17 | 2008-12-17 | Wrinkle detection device, wrinkle detection method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5128454B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101141901B1 (en) | 2011-12-13 | 2012-07-12 | 한국 한의학 연구원 | Apparatus and method of detecting upper eyelid shape |
JP5999013B2 (en) * | 2013-04-12 | 2016-09-28 | 株式会社デンソー | Open eye state determination device |
WO2018134875A1 (en) * | 2017-01-17 | 2018-07-26 | 三菱電機株式会社 | Eyelid detection device, drowsiness determination device, and eyelid detection method |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0259976A (en) * | 1988-08-26 | 1990-02-28 | Matsushita Electric Works Ltd | Block integration processing method |
JP3576734B2 (en) * | 1997-01-22 | 2004-10-13 | 松下電器産業株式会社 | Moving object extraction device |
CN1120629C (en) * | 1997-02-06 | 2003-09-03 | 皇家菲利浦电子有限公司 | Image segmentation and object tracking method and corresponding system |
JP2000123188A (en) * | 1998-10-20 | 2000-04-28 | Toyota Motor Corp | Eye open / closed judgment device |
JP2000137792A (en) * | 1998-10-30 | 2000-05-16 | Toyota Motor Corp | Eye detection device |
JP2005004530A (en) * | 2003-06-12 | 2005-01-06 | Digital Fashion Ltd | Blink detection device, blink detection program and blink detection method |
JP4797761B2 (en) * | 2006-04-12 | 2011-10-19 | オムロン株式会社 | Movie display device |
JP4137969B2 (en) * | 2006-12-04 | 2008-08-20 | アイシン精機株式会社 | Eye detection device, eye detection method, and program |
JP4895847B2 (en) * | 2007-02-08 | 2012-03-14 | アイシン精機株式会社 | 瞼 Detection device and program |
JP4826506B2 (en) * | 2007-02-27 | 2011-11-30 | 日産自動車株式会社 | Gaze estimation device |
JP2008226189A (en) * | 2007-03-15 | 2008-09-25 | Aisin Seiki Co Ltd | Feature point detection apparatus and program |
-
2008
- 2008-12-17 JP JP2008320898A patent/JP5128454B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010146159A (en) | 2010-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4309926B2 (en) | Facial feature point detection apparatus, facial feature point detection method, and program | |
JP4845698B2 (en) | Eye detection device, eye detection method, and program | |
JP4137969B2 (en) | Eye detection device, eye detection method, and program | |
JP4307496B2 (en) | Facial part detection device and program | |
JP4895797B2 (en) | Wrinkle detection device, wrinkle detection method and program | |
JP6655878B2 (en) | Image recognition method and apparatus, program | |
EP3767520B1 (en) | Method, device, equipment and medium for locating center of target object region | |
JP4309927B2 (en) | Eyelid detection device and program | |
JP5661043B2 (en) | External light reflection determination device, line-of-sight detection device, and external light reflection determination method | |
JP2016085487A (en) | Information processing device, information processing method and computer program | |
JP2009240519A (en) | Eyelid opening level determination device and program | |
JP2018113660A (en) | Information processing device, information processing method, and system | |
JP5128454B2 (en) | Wrinkle detection device, wrinkle detection method and program | |
JP6798609B2 (en) | Video analysis device, video analysis method and program | |
JP2002269545A (en) | Face image processing method and face image processing device | |
KR20120049605A (en) | Apparatus and method for detecting center of pupil | |
JP4996943B2 (en) | Facial feature point detection apparatus, facial feature point detection method, and program | |
JP3963789B2 (en) | Eye detection device, eye detection program, recording medium for recording the program, and eye detection method | |
US20060010582A1 (en) | Chin detecting method, chin detecting system and chin detecting program for a chin of a human face | |
JP2019075051A (en) | Image processor | |
JP6539720B1 (en) | Image processing device | |
JP2004110543A (en) | Face image processing device and program | |
JP2008226189A (en) | Feature point detection apparatus and program | |
CN115731258A (en) | Moving object recognition method and shooting device | |
JP2000331172A (en) | Facial image processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110408 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121016 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121031 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5128454 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151109 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |