JP6202882B2 - Facial expression detection system and facial expression detection method - Google Patents
Facial expression detection system and facial expression detection method Download PDFInfo
- Publication number
- JP6202882B2 JP6202882B2 JP2013112410A JP2013112410A JP6202882B2 JP 6202882 B2 JP6202882 B2 JP 6202882B2 JP 2013112410 A JP2013112410 A JP 2013112410A JP 2013112410 A JP2013112410 A JP 2013112410A JP 6202882 B2 JP6202882 B2 JP 6202882B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- face
- facial expression
- position information
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、対象者の顔の画像から当該対象者の表情に関する情報を検出する表情検出システム及び表情検出方法の技術に関する。 The present invention relates to a technique for a facial expression detection system and a facial expression detection method for detecting information related to a facial expression of a subject from the face image of the subject.
従来、対象者の顔の画像から当該対象者の表情に関する情報を検出する表情検出システム及び表情検出方法の技術は公知となっている。例えば、特許文献1に記載の如くである。
2. Description of the Related Art Conventionally, techniques of a facial expression detection system and a facial expression detection method for detecting information related to a facial expression of a subject from the subject's facial image are known. For example, as described in
特許文献1に記載の技術では、人の表情の度合いを複数段階に分類した表情遷移マップ(データベース)が予め作成され、当該データベースとカメラで撮影された人(対象者)の実際の表情とを比較することによって、当該人の表情の度合いを判定することができる。
In the technique described in
しかし、このようなシステムで用いられるデータベースを作成する場合において、特に平常時の人の自然な表情のデータ(顔の器官の位置情報等)を取得するのは困難であった。なぜならば、人の表情のデータ収集を目的とする撮影の際に、当該人が意識的に、又は緊張等によって無意識的に表情を作ってしまい、必ずしも平常状態の自然な表情とはいえなくなる場合があるためである。 However, when creating a database used in such a system, it has been difficult to acquire natural facial expression data (face organ position information, etc.), particularly during normal times. This is because, when shooting for the purpose of collecting human facial expression data, the person consciously or unconsciously creates a facial expression due to tension, etc., and cannot always be said to be a natural facial expression. Because there is.
本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、平常時における対象者の顔の器官の位置情報を容易にかつ正確に取得することが可能な表情検出システム及び表情検出方法を提供することである。 The present invention has been made in view of the above situation, and the problem to be solved is facial expression detection capable of easily and accurately acquiring the position information of the organ of the face of the subject at normal times. A system and a facial expression detection method are provided.
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。 The problem to be solved by the present invention is as described above. Next, means for solving the problem will be described.
即ち、請求項1においては、対象者の顔を撮像することが可能な撮像手段と、前記対象者から視認可能な位置に配置される表示手段と、前記撮像手段によって撮像された前記対象者の顔の画像から当該対象者の個人情報を推定し、前記個人情報に基づいて前記対象者に応じた情報を前記表示手段に表示させ、前記表示手段に表示されている情報を視認している最中の前記対象者の顔の画像を前記撮像手段によって取得し、当該画像に基づいて平常時における前記対象者の顔の器官の位置情報である平常時位置情報を決定して、標準顔データベースとして記憶する制御手段と、を具備し、前記制御手段は、前記情報を視認している最中の前記対象者の顔の画像を取得する場合、当該対象者の顔の器官の位置情報を検出し、当該検出された位置情報に基づいて当該対象者の顔が前記撮像手段に対してどの程度傾いているかを判定し、当該対象者の顔が前記撮像手段に対して所定値以上傾いていない画像のみを取得し、当該画像についての前記検出された位置情報に基づいて前記平常時位置情報を決定するものである。
That is, in
請求項2においては、前記制御手段は、前記標準顔データベースを用いて、現在前記撮像手段によって撮像されている前記対象者が特定の表情を表出したことを検出するものである。 According to a second aspect of the present invention, the control means uses the standard face database to detect that the subject currently imaged by the imaging means has expressed a specific facial expression.
請求項3においては、前記制御手段は、予め記憶された複数の人の、平常時における顔の器官の位置情報に対する特定の表情をした時の顔の器官の位置情報の変位に関する特定表情データベースをさらに用いて、現在前記撮像手段によって撮像されている前記対象者が特定の表情を表出したことを検出するものである。 According to a third aspect of the present invention, the control means stores a specific facial expression database relating to displacement of positional information of the facial organs when a specific facial expression is obtained with respect to positional information of the facial organs during normal times for a plurality of prestored persons. Further, it is used to detect that the subject currently imaged by the imaging means has expressed a specific facial expression.
請求項4においては、前記特定の表情とは、前記対象者の不快感を示す表情であるものである。 According to a fourth aspect of the present invention, the specific facial expression is a facial expression that indicates the subject's discomfort.
請求項5においては、前記制御手段は、前記撮像手段によって取得された複数の画像における前記対象者の顔の器官の位置情報を正規化した後に、当該位置情報を平均するものである。 According to a fifth aspect of the present invention, the control means averages the position information after normalizing the position information of the organ of the subject's face in the plurality of images acquired by the imaging means .
請求項6においては、前記制御手段は、前記対象者が、それ以前に前記標準顔データベースを記憶されたことのある対象者と同一人物である場合、新たな当該対象者の標準顔データベースの記憶を行わないものである。 In the present invention, when the subject is the same person as the subject who has previously stored the standard face database , the control means stores a new standard face database of the subject. It is something that does not do .
請求項7においては、対象者の顔の画像から当該対象者の個人情報を推定し、前記個人情報に基づいて前記対象者に応じた情報を前記対象者に視認させ、前記情報を視認している最中の前記対象者の顔の画像を撮像手段により取得し、当該画像に基づいて平常時における前記対象者の顔の器官の位置情報である平常時位置情報を決定して、標準顔データベースとして取得し、前記標準顔データベースを用いて、前記対象者が特定の表情を表出したことを検出する表情検出方法であって、前記情報を視認している最中の前記対象者の顔の画像を取得する場合、当該対象者の顔の器官の位置情報を検出し、当該検出された位置情報に基づいて当該対象者の顔が前記撮像手段に対してどの程度傾いているかを判定し、当該対象者の顔が前記撮像手段に対して所定値以上傾いていない画像のみを取得し、当該画像についての前記検出された位置情報に基づいて前記平常時位置情報を決定するものである。 In claim 7, personal information of the target person is estimated from the face image of the target person, information corresponding to the target person is visually recognized based on the personal information, and the information is visually recognized. An image of the face of the subject in the middle is acquired by the imaging means, and normal position information, which is position information of the organ of the face of the subject in the normal state, is determined based on the image, and a standard face database And using the standard face database, the facial expression detection method for detecting that the subject has expressed a specific facial expression, wherein the face of the subject who is viewing the information is detected. When acquiring an image, it detects position information of the organ of the subject's face, determines how much the subject's face is inclined with respect to the imaging means based on the detected position information, The subject's face is the imaging means In which retrieves only image not tilted more than a predetermined value, determines the normal time position information based on the detected position information of the image against.
本発明の効果として、以下に示すような効果を奏する。 As effects of the present invention, the following effects can be obtained.
請求項1においては、平常時における対象者の顔の器官の位置情報(標準顔データベース)を容易にかつ正確に取得(作成)することができる。
また、撮像手段に対する対象者の顔の傾きが大きい画像を排除することで、より精度の高い標準顔データベースの作成が可能となる。
According to the first aspect, the position information (standard face database) of the organ of the subject's face in normal times can be obtained (created) easily and accurately.
Further, by eliminating images with a large inclination of the subject's face relative to the imaging means, it is possible to create a standard face database with higher accuracy.
請求項2においては、検出対称となる対象者固有のデータベース(特定の表情をした時の顔の器官の位置情報に関するデータベース等)を予め準備する必要がないため、当該データベースを作成するための労力を軽減することができる。 According to claim 2, since it is not necessary to prepare in advance a database unique to the subject to be detected symmetrically (such as a database related to positional information of facial organs when a specific facial expression is made), labor for creating the database Can be reduced.
請求項3においては、検出対称となる対象者固有の特定表情データベースを必要とせず、容易に不快感を示す表情を検出することができる。 According to the third aspect of the present invention, it is possible to easily detect an uncomfortable facial expression without requiring a specific facial expression database unique to the subject to be detected symmetrically.
請求項4においては、特定の表情の検出結果を、対象者の周囲の環境の制御(改善)等に利用することができる。 In the fourth aspect, the detection result of the specific facial expression can be used for control (improvement) of the environment around the subject.
請求項5においては、各画像における対象者の顔の器官の位置情報を正規化することで、より精度の高い標準顔データベースの作成が可能となる。 According to the fifth aspect of the present invention, it is possible to create a standard face database with higher accuracy by normalizing the position information of the organ of the face of the subject in each image .
請求項6においては、以前に標準顔データベースが記憶されている対象者については、再度標準顔データベースを記憶させる処理を省略することができ、表情検出システム全体の処理の効率化を図ることができる。 According to the sixth aspect of the present invention, for the subject who has previously stored the standard face database, the process of storing the standard face database again can be omitted, and the processing efficiency of the entire facial expression detection system can be improved. .
請求項7においては、平常時における対象者の顔の器官の位置情報(標準顔データベース)を容易にかつ正確に取得(作成)することができる。また、検出対称となる対象者固有のデータベースを予め準備することなく特定の表情を検出することができ、当該データベースを作成するための労力を軽減することができる。
According to the seventh aspect, the position information (standard face database) of the organ of the subject's face in the normal time can be obtained (created) easily and accurately. Further, it is possible to detect a specific facial expression without preparing a database unique to the subject who is symmetrical to the detection in advance, and it is possible to reduce labor for creating the database .
以下では必要に応じて、図中に示した矢印に従って、上下方向及び左右方向を定義して説明を行う。 In the following description, the vertical direction and the horizontal direction are defined according to the arrows shown in the drawings as necessary.
以下では、図1を用いて、本実施形態に係る表情検出システム10の構成について説明する。
Below, the structure of the facial
表情検出システム10は、対象者20の顔の画像から当該対象者の表情に関する情報(本実施形態においては、対象者20が特定の表情を表出する頻度)を検出するものである。表情検出システム10は、主としてカメラ11、モニター12及び制御装置13を具備する。
The facial
カメラ11は、本発明に係る撮像手段の一実施形態である。カメラ11は、対象者20の顔を撮像するものである。カメラ11は、着席している対象者20の正面に配置され、当該対象者20の顔を常時撮像することができる。
The camera 11 is an embodiment of the imaging means according to the present invention. The camera 11 images the face of the
モニター12は、本発明に係る表示手段の一実施形態である。モニター12は、画像や文章等の種々の情報を表示することが可能なものである。モニター12は、着席している対象者20の正面(カメラ11の下方)に配置され、対象者20は当該モニター12に表示される情報を視認することができる。
The
制御装置13は、種々の情報に基づいて所定の演算処理や記憶等を行うものである。制御装置13は、RAMやROM等の記憶部、CPU等の演算処理部等により構成される。
制御装置13はカメラ11に接続され、当該カメラ11が撮像した画像データを取得することができる。
制御装置13はモニター12に接続され、当該モニター12に任意の情報を表示させることができる。
The
The
The
上述の如く構成された表情検出システム10は、対象者20の表情に関する情報を検出することができる。より具体的には、表情検出システム10は、対象者20が特定の表情(本実施形態においては、「瞬き」及び「顔しかめ」)を表出する頻度を検出することができる。以下では図2から図7までを用いて、当該表情検出システム10による当該検出の様子(表情検出方法)について説明する。
The facial
ステップS101において、制御装置13は、カメラ11の前に着席している検出の対象となる対象者20を認識する。
具体的には、制御装置13は、カメラ11によって撮像された対象者20の顔の画像から当該対象者20を認識する。この処理は、市販のプログラム等を用いて行うことができる。
制御装置13は、当該ステップS101の処理を行った後、ステップS102に移行する。
In step S <b> 101, the
Specifically, the
After performing the processing of step S101, the
ステップS102において、制御装置13は、ステップS101で認識した対象者20が初めて認識した対象者であるか否かを判定する。
制御装置13は、ステップS101で認識した対象者20が初めて認識した対象者である(これまでに認識したことがない対象者である)と判定した場合、ステップS103に移行する。
制御装置13は、ステップS101で認識した対象者20が始めて認識した対象者ではない(これまでに認識したことがある対象者である)と判定した場合、ステップS107に移行する。
In step S102, the
When the
When the
ステップS103において、制御装置13は、対象者20の個人情報を推定する。この処理は、市販のプログラム等を用いて行うことができる。
ここで「個人情報」とは、対象者20の顔から推定可能な個人に関するあらゆる情報を含むものとする。本実施形態においては、「個人情報」として対象者20の性別及び年齢を用いるものとする。すなわち制御装置13は、対象者20の性別及び年齢を推定する。
制御装置13は、当該ステップS103の処理を行った後、ステップS104に移行する。
In step S <b> 103, the
Here, the “personal information” includes all information related to individuals that can be estimated from the face of the subject 20. In the present embodiment, the gender and age of the subject 20 are used as “personal information”. That is, the
After performing the process of step S103, the
ステップS104において、制御装置13は、ステップS103において推定された性別及び年齢の人(対象者20)が興味を持ち易い情報をモニター12に表示させる。
具体的には、制御装置13は予め性別及び年齢(年代)ごとにそれぞれ興味を持ち易いと思われる情報をデータベース(以下、これを「情報データベース」と記す)として記憶している。
ここで「情報」とは、モニター12に表示させることが可能な画像(広告画像等の静止画や動画)や文章などあらゆる情報を含むものとする。
制御装置13は、ステップS103において推定された性別及び年齢に基づいて、前記情報データベースから対象者20が興味を持ち易いと思われる情報を抽出し、モニター12に表示させる。
制御装置13は、当該ステップS104の処理を行った後、ステップS105に移行する。
In step S104, the
Specifically, the
Here, the “information” includes all kinds of information such as images (still images such as advertisement images and moving images) and sentences that can be displayed on the
Based on the gender and age estimated in step S103, the
After performing the process of step S104, the
ステップS105において、制御装置13は、対象者20の顔の画像をカメラ11によって複数撮像し、当該複数の画像における対象者20の顔の器官の位置情報を取得する。以下、当該ステップS105の処理についてより詳細に説明する。
In step S <b> 105, the
図4に示すステップS201において、制御装置13は、ステップS104において興味のある情報が表示されたモニター12を視認(注視)している対象者20の顔の画像をカメラ11によって撮像して取得する。このように興味のある情報を注視している対象者20の表情は、喜怒哀楽が目立って表出していない平常時の自然な表情であると考えられる。
制御装置13は、当該ステップS201の処理を行った後、ステップS202に移行する。
In step S201 shown in FIG. 4, the
After performing the processing of step S201, the
ステップS202において、制御装置13は、ステップS201において取得した画像に現された対象者20の顔の器官(目E、眉B、鼻N)を座標に変換して記憶する。
具体的には、図5に示すように、取得した各画像データに現された対象者20の顔のうち、右目Eの最も内側に位置する端部の点を点P1と、右目Eの上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P2と、右目Eの下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P3と、右眉Bの最も内側に位置する端部の点を点P4と、左目Eの最も内側に位置する端部の点を点P5と、左目Eの上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P6と、左目Eの下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P7と、左眉Bの最も内側に位置する端部の点を点P8と、鼻Nの最も下に位置する端部の点を点P9と、それぞれ決定する。そして制御装置13は、当該決定された座標を一旦記憶する。
当該座標化(点P1から点P9までの決定)は、制御装置13に予め記憶されたプログラムによって実行される。
制御装置13は、当該ステップS202の処理を行った後、ステップS203に移行する。
In step S202, the
Specifically, as shown in FIG. 5, among the faces of the subject 20 shown in the acquired image data, the end point located on the innermost side of the right eye E is the point P1 and the upper point of the right eye E. A point located on the eyelid (more specifically, a point at the end of the upper eyelid that is located at the top) is a point P2 and a point located on the lower eyelid of the right eye E (more specifically, the lower eyelid Of the right eyebrow B, the innermost end point of the right eyebrow B, the innermost end point of the right eyebrow B, and the left eye E of the innermost end point of the left eye E as the point P5. , A point located on the upper eyelid of the left eye E (more specifically, an end point located at the top of the upper eyelid) and a point located on the lower eyelid of the left eye E (more specifically) Is the point at the end of the lower eyelid that is located at the lowermost end), the point P8 is the point at the innermost end of the left eyebrow B, and the outermost point of the nose N. The point at the end which is positioned below the point P9, respectively determined. Then, the
The coordinate conversion (determination from the point P1 to the point P9) is executed by a program stored in advance in the
After performing the process of step S202, the
ステップS203において、制御装置13は、ステップS201において取得した画像に現された対象者20の顔がデータとして許容できない(データとして一定の精度が確保できないおそれがある)程に大きく傾いているか否かを判定する。
具体的には、制御装置13は、ステップS202において取得した座標に基づいて、対象者20の顔がカメラ11に対して真正面(図6(a)参照)の位置から左右(図6(b)参照)及び上下(図6(c)参照)にどの程度の角度だけ傾いているかを判定する。
そして制御装置13は、左右に傾いている角度及び上下に傾いている角度のうち少なくとも一方が、予め任意に定められた閾値以上である場合には、対象者20の顔がデータとして許容できない程に大きく傾いていると判定する。
In step S203, the
Specifically, based on the coordinates acquired in step S202, the
The
制御装置13は、ステップS203において、対象者20の顔がデータとして許容できない程に大きく傾いていると判定した場合、ステップS204に移行する。
制御装置13は、対象者20の顔がデータとして許容できない程に大きく傾いてはいないと判定した場合、ステップS205に移行する。
If the
When the
ステップS204において、制御装置13は、対象者20の顔がデータとして許容できない程に大きく傾いている(ステップS203参照)と判定された画像から変換された座標データ(ステップS202)を削除する。
制御装置13は、当該ステップS204の処理を行った後、再度ステップS201に移行する。
In step S204, the
After performing the process of step S204, the
ステップS203から移行したステップS205において、制御装置13は、取得した画像に現された対象者20の顔の器官の座標を正規化する。
具体的には、ステップS203において対象者20の顔が大きく傾いていないと判定されたデータであっても、多少なりとも顔が傾いている可能性がある。そこで制御装置13は、ホモグラフィ変換やアフィン変換等を用いて対象者20の顔の傾きが座標に与える影響、すなわち測定誤差を打ち消すように、当該座標を正規化する。
制御装置13は、ステップS205の処理を行った後、ステップS206に移行する。
In step S205 transferred from step S203, the
Specifically, even if it is data that is determined in step S203 that the face of the subject 20 is not greatly inclined, the face may be inclined somewhat. Therefore, the
After performing the process of step S205, the
ステップS206において、制御装置13は、ステップS201において取得した画像を5次元の位置情報(距離情報)に変換して記憶する。
具体的には、図7に示すように、制御装置13は、正規化された画像の座標を、5つの距離情報、すなわち(1)点P1から点P4までの距離、(2)点P5から点P8までの距離、(3)点P4から点P8までの距離、(4)点P2から点P3までの距離、及び(5)点P6から点P7までの距離、に変換する。そして制御装置13は、当該変換された5次元の位置情報を記憶する。
ステップS206の処理を行った後、制御装置13はステップS207に移行する。
In step S206, the
Specifically, as shown in FIG. 7, the
After performing the process of step S206, the
ステップS207において、制御装置13は、ステップS206において記憶した位置情報が所定の個数(例えば、50個)に達したか否かを判定する。
ここで、「所定の個数」は予め任意に設定することができる値であり、後述するステップS106において平均された5次元の位置情報を精度良く算出できる程度の値に設定されることが望ましい。
制御装置13は、記憶した位置情報が所定の個数に達したと判定した場合、ステップS208に移行する。
制御装置13は、記憶した位置情報が所定の個数に達していないと判定した場合、ステップS201に移行する。すなわち、所定の個数の位置情報を記憶するまでステップS201からステップS206までの処理を繰り返す。
In step S207, the
Here, the “predetermined number” is a value that can be arbitrarily set in advance, and is desirably set to a value that can accurately calculate the five-dimensional position information averaged in step S106 described later.
When it is determined that the stored position information has reached a predetermined number, the
When it is determined that the stored position information has not reached the predetermined number, the
ステップS208において、制御装置13は、対象者20が興味を持ち易い情報のモニター12への表示を終了する。
制御装置13は、当該ステップS208の処理を行った後、ステップS105の処理を終了して図2に示すステップS106に移行する。
In step S208, the
After performing the process of step S208, the
図2に示すステップS106において、制御装置13は、ステップS105において取得した複数の5次元の位置情報をそれぞれ平均して、平均された5次元の位置情報を標準顔データベースとして記憶する。
この標準顔データベースは、対象者20が興味のある情報(モニター12)を視認している最中の顔の表情に基づいて作成されたものであるため、当該対象者20の平常時の顔の器官の位置情報を示している。
制御装置13は、当該ステップS106の処理を行った後、図3に示すステップS108及びステップS109に移行する。
In step S106 shown in FIG. 2, the
Since this standard face database is created based on facial expressions while the subject 20 is viewing information of interest (the monitor 12), the normal face database of the subject 20 is displayed. The position information of the organ is shown.
After performing the process of step S106, the
一方、ステップS102から移行したステップS107において、制御装置13は、以前対象者20を認識した際に作成した当該対象者20の標準顔データベースを読み出す。
すなわち制御装置13は、対象者20が以前認識したことのある人であると判定した場合(ステップS102)、以前作成した当該対象者20の標準顔データベースを読み出すことで、標準顔データベースを作成する処理(ステップS103からステップS106まで)を省略することができる。
制御装置13は、当該ステップS107の処理を行った後、図3に示すステップS108及びステップS109に移行する。
On the other hand, in step S107 transferred from step S102, the
That is, when it is determined that the
After performing the processing of step S107, the
図3に示すステップS108において、制御装置13は、カメラ11によって顔を撮像されている対象者20が瞬きをしたことを検出する。
具体的には、制御装置13は、現在撮像している対象者20の顔の画像から、5次元の位置情報のうち、前記(4)点P2から点P3までの距離、及び(5)点P6から点P7までの距離、すなわち左右の目Eの開き具合(開閉度)に関する位置情報を常時検出する。以下では、当該2つの位置情報を単に「実際の目の位置情報」と記す。
そして、当該実際の目の位置情報を標準顔データベースの位置情報と常時比較し、実際の目の位置情報が標準顔データベースの位置情報に対して所定の値だけ小さくなった場合、対象者20が瞬きをしたと判断する。
制御装置13は、当該ステップS108の処理を行った後(具体的には、所定時間の間、ステップS108の処理(瞬きの検出)を継続して行った後)、ステップS110に移行する。
In step S <b> 108 shown in FIG. 3, the
Specifically, the
Then, when the actual eye position information is constantly compared with the position information of the standard face database and the actual eye position information is smaller than the position information of the standard face database, the subject 20 Judging that you blinked.
After performing the process of step S108 (specifically, after continuously performing the process of step S108 (detection of blinking) for a predetermined time), the
図3に示すステップS109において、制御装置13は、カメラ11によって顔を撮像されている対象者20が顔をしかめたこと(顔しかめ)を検出する。
具体的には、制御装置13は、複数の人の、平常時における顔の器官の5次元の位置情報(前述(図7参照)と同様に5次元に変換されたもの)、実際に顔をしかめたときの顔の器官の5次元の位置情報、及び当該2つの位置情報の差(変位)を、予め特定表情データベースとして取得(記憶)している。
ここで、当該「複数の人」には、対象者20が含まれていなくても良い。
そして制御装置13は、当該特定表情データベースを訓練データとして、人が顔をしかめたか否かを識別する識別機能を作成している。当該識別機能としては、サポートベクターマシンの多項式カーネル法等を用いることができる。
そして制御装置13は、現在撮像している対象者20の顔の画像から5次元の位置情報を常時検出し、当該位置情報及び前記標準顔データベースを前記識別機能にかけ、対象者20が顔をしかめたか否かを判定する。
制御装置13は、当該ステップS109の処理を行った後(具体的には、所定時間の間、ステップS109の処理(顔しかめの検出)を継続して行った後)、ステップS110に移行する。
In step S109 illustrated in FIG. 3, the
Specifically, the
Here, the
Then, the
Then, the
After performing the process of step S109 (specifically, after continuing the process of step S109 (detection of frowning) for a predetermined time), the
ステップS110において、制御装置13は、対象者20による瞬き及び顔しかめの表出の頻度を検出する。
具体的には、制御装置13は、ステップS108及びステップS109において検出した対象者20による瞬き及び顔しかめの単位時間当たりの回数(周波数)、すなわち頻度を算出して記憶する。
In step S <b> 110, the
Specifically, the
ここで、瞬きや顔しかめの表情は、本発明に係る特定の表情の一例であり、対象者20の不快感を示す表情である。例えば、対象者20が瞬きや顔しかめを頻繁にしている場合、照明が強くてまぶしい等の不快感を表しているものと考えられる。 Here, the expression of blinking or frowning is an example of a specific expression according to the present invention, and is an expression indicating discomfort of the subject 20. For example, when the subject 20 frequently blinks and frowns, it is considered that the subject 20 exhibits discomfort such as strong illumination and dazzling.
以上のようにして表情検出システム10によって検出された対象者20による特定の表情(瞬き及び顔しかめ)の表出の頻度についてのデータは、種々の目的に利用することが可能である。例えば、当該表出の頻度に応じて対象者20が感じているまぶしさや暗さを推定し、それに合わせて照明やブラインド、カーテンの開閉などを制御すること、レストランなどで当該表出の頻度に応じて顧客の満足度を推定し、マーケティングや接客に当該満足度に関するデータを活用すること、困っている人を推定し、御用聞き(声かけ)を円滑に行うこと、等が可能である。
Data regarding the frequency of expression of specific facial expressions (blinks and frowning) by the subject 20 detected by the facial
当該表情検出システム10は、対象者20個人のデータベースを事前に作成する必要がなく、不特定多数の人(対象者)に適用することができるため、幅広い用途(例えば、不特定多数の人が来店する店舗等)に利用することができる。また、予め特定の対象者20に適用することが分かっている場合であっても、事前に当該対象者20個人のデータベースを作成する作業が不要であるため、当該表情検出システム10を容易に利用することができる。
Since the facial
以上の如く、本実施形態に係る表情検出システム10は、
対象者20の顔を撮像することが可能なカメラ11(撮像手段)と、
対象者20から視認可能な位置に配置されるモニター12(表示手段)と、
カメラ11によって撮像された対象者20の顔の画像から当該対象者20の個人情報(性別及び年齢)を推定し(ステップS103)、前記個人情報に基づいて対象者20に応じた情報をモニター12に表示させ(ステップS104)、モニター12に表示されている情報を視認している最中の対象者20の顔の画像をカメラ11によって取得し(ステップS201)、当該画像に基づいて平常時における対象者20の顔の器官の位置情報を決定して(ステップS106)、標準顔データベースとして記憶する制御装置13(制御手段)と、
を具備するものである。
このように構成することにより、平常時における対象者20の顔の器官の位置情報(標準顔データベース)を容易にかつ正確に取得(作成)することができる。
すなわち、対象者20に応じた情報をモニター12に表示させることで、当該対象者20が自然に当該情報(モニター12)を視認している顔の画像を取得することができ、ひいては平常時の表情における対象者20の顔の器官の位置情報を容易にかつ正確に取得することができる。
As described above, the facial
A camera 11 (imaging means) capable of imaging the face of the subject 20,
A monitor 12 (display means) disposed at a position visible from the subject 20;
The personal information (gender and age) of the subject 20 is estimated from the face image of the subject 20 captured by the camera 11 (step S103), and information corresponding to the subject 20 is monitored 12 based on the personal information. (Step S104), the camera 11 acquires an image of the face of the
It comprises.
With this configuration, position information (standard face database) of the organ of the face of the subject 20 at normal times can be acquired (created) easily and accurately.
That is, by displaying information corresponding to the subject 20 on the
また、制御装置13は、
前記標準顔データベースを用いて、現在カメラ11によって撮像されている対象者20が特定の表情を表出したことを検出する(ステップS108及びステップS109)ものである。
このように構成することにより、検出対称となる対象者20固有のデータベース(特定の表情をした時の顔の器官の位置情報に関するデータベース等)を予め準備する必要がないため、当該データベースを作成するための労力を軽減することができる。
また、現在カメラ11によって撮像されている対象者20が特定の表情を表出したことを検出するために必要な標準顔データベースは容易に作成することができるため、表情検出システム10全体のデータベース作成のための労力を軽減することができる。
In addition, the
Using the standard face database, it is detected that the subject 20 currently captured by the camera 11 has expressed a specific facial expression (step S108 and step S109).
By configuring in this way, it is not necessary to prepare in advance a database unique to the subject 20 that is to be detected symmetrically (such as a database related to positional information of facial organs when a specific facial expression is made), so that the database is created. Can be reduced.
In addition, since the standard face database necessary for detecting that the subject 20 currently captured by the camera 11 has expressed a specific facial expression can be easily created, the database creation of the entire facial
また、制御装置13は、
予め記憶された複数の人の、平常時における顔の器官の位置情報に対する特定の表情をした時の顔の器官の位置情報の変位に関する特定表情データベースをさらに用いて、現在カメラ11によって撮像されている対象者20が特定の表情を表出したことを検出する(ステップS109)ものである。
このように構成することにより、検出対称となる対象者20固有のデータベースを予め準備する必要がなく、容易に特定の表情を検出することができる。
In addition, the
A specific facial expression database relating to the displacement of facial organ position information when a specific facial expression of facial organ position information of a plurality of people is stored in a normal state is further captured by the current camera 11. It is detected that the subject 20 presents a specific facial expression (step S109).
By comprising in this way, it is not necessary to prepare the database specific to the subject 20 to be detected symmetrically, and a specific facial expression can be easily detected.
また、前記特定の表情とは、
対象者20の不快感を示す表情である。
このように構成することにより、特定の表情の検出結果を、対象者20の周囲の環境の制御(改善)等に利用することができる。
The specific facial expression is
It is a facial expression which shows the subject 20's discomfort.
With this configuration, the detection result of a specific facial expression can be used for control (improvement) of the environment around the subject 20 and the like.
制御装置13は、
前記情報を視認している最中の対象者20の顔の画像を取得する場合、当該対象者20の顔がカメラ11に対して所定値以上傾いていない画像のみを取得する(ステップS204等)ものである。
このように構成することにより、カメラ11に対する対象者20の顔の傾きが大きい画像を排除することで、より精度の高い標準顔データベースの作成が可能となる。
The
When acquiring an image of the face of the
By configuring in this way, it is possible to create a standard face database with higher accuracy by eliminating images with a large inclination of the face of the subject 20 with respect to the camera 11.
制御装置13は、
カメラ11によって取得された複数の画像における対象者20の顔の器官の位置情報を正規化した後に(ステップS205)、当該位置情報を平均するものである。
このように構成することにより、各画像における対象者20の顔の器官の位置情報を正規化することで、より精度の高い標準顔データベースの作成が可能となる。
The
After normalizing the position information of the organ of the face of the subject 20 in the plurality of images acquired by the camera 11 (step S205), the position information is averaged.
With this configuration, it is possible to create a standard face database with higher accuracy by normalizing the position information of the facial organs of the subject 20 in each image.
制御装置13は、
対象者20が、それ以前に前記標準顔データベースを記憶されたことのある対象者20と同一人物である場合、新たな当該対象者20の標準顔データベースの記憶を行わない(ステップS107等)ものである。
このように構成することにより、以前に標準顔データベースが記憶されている対象者20については、再度標準顔データベースを記憶させる処理を省略することができ、表情検出システム10全体の処理の効率化を図ることができる。
The
When the
With this configuration, the process of storing the standard face database again can be omitted for the subject 20 who has previously stored the standard face database, and the processing of the entire facial
また、本実施形態に係る表情検出方法は、
対象者20の顔の画像から当該対象者20の個人情報を推定し、
前記個人情報に基づいて対象者20に応じた情報を対象者20に視認させ、
前記情報を視認している最中の対象者20の顔の画像を取得し、
当該画像に基づいて平常時における対象者20の顔の器官の位置情報を決定して、標準顔データベースとして取得し、
前記標準顔データベースを用いて、対象者20が特定の表情を表出したことを検出するものである。
このように構成することにより、平常時における対象者20の顔の器官の位置情報(標準顔データベース)を容易にかつ正確に取得(作成)することができる。また、検出対称となる対象者20固有のデータベースを予め準備することなく特定の表情を検出することができ、当該データベースを作成するための労力を軽減することができる。
In addition, the facial expression detection method according to this embodiment includes:
Estimating the personal information of the subject 20 from the face image of the subject 20,
Based on the personal information, let the subject 20 visually recognize information corresponding to the subject 20,
Obtaining an image of the face of the subject 20 who is viewing the information;
Determine the position information of the organ of the face of the subject 20 in normal time based on the image, and obtain as a standard face database,
The standard face database is used to detect that the subject 20 has expressed a specific facial expression.
With this configuration, position information (standard face database) of the organ of the face of the subject 20 at normal times can be acquired (created) easily and accurately. Further, it is possible to detect a specific facial expression without preparing a database specific to the subject 20 to be detected symmetrically in advance, and it is possible to reduce labor for creating the database.
なお、本実施形態では、本発明に係る撮像手段としてカメラ11を用いたが、本発明に係る制御に必要な情報を取得できるものであれば、種々の撮像手段(例えば、表示手段(モニター12)に一体化(内蔵)されたもの等)を用いることが可能である。 In the present embodiment, the camera 11 is used as the imaging unit according to the present invention. However, as long as the information necessary for the control according to the present invention can be acquired, various imaging units (for example, display unit (monitor 12) are used. And the like (integrated (built-in)) can be used.
また、本実施形態では、本発明に係る表示手段としてモニター12を用いたが、本発明に係る情報を表示できるものであれば、種々の表示手段(例えば、パソコンのモニターや、表示手段と入力手段が一体化されたタッチパネル等)を用いることが可能である。
In this embodiment, the
また、本実施形態では、本発明に係る制御手段として制御装置13を用いたが、本発明に係る制御を行うことができるものであれば、種々の制御手段(例えば、市販のパソコンや、複数台の制御装置を組み合わせたもの等)を用いることが可能である。
In the present embodiment, the
また、本実施形態では、対象者20の不快感を示す表情を、特定の表情として例示したが、本発明は不快感を示す表情に限らず、その他の表情(喜怒哀楽を示す表情)にも適用することが可能である。 Further, in the present embodiment, the facial expression showing the uncomfortable feeling of the subject 20 is exemplified as the specific facial expression, but the present invention is not limited to the facial expression showing the unpleasant feeling but other facial expressions (facial expressions showing emotions). Can also be applied.
また、本実施形態では、制御装置13は、図2のステップS101において市販のプログラム等を用いて対象者20を認識するものとしたが、例えば上述の顔の器官の座標(図4のステップS205)や5次元の位置情報(ステップS206)を用いて対象者20を認識する構成とすることも可能である。
In the present embodiment, the
また、本実施形態では、制御装置13は、図4のステップS203においてステップS202で取得した座標に基づいて対象者20の顔の傾きを判定するものとしたが、その他の座標や対象者20の顔の特徴から傾きを判定する構成とすることも可能である。
In the present embodiment, the
また、本実施形態では、制御装置13は、図4のステップS201において一旦画像を取得した後で、当該画像の中から顔が大きく傾いている画像を削除する(ステップS203及びステップS204)構成としたが、ステップS201において画像を取得する時点で顔の傾きを算出し、顔が大きく傾いている画像をはじめから取得しない構成とすることも可能である。
In the present embodiment, the
以下では、図8から図10までを用いて、上述の表情検出システム10を、実験設備として設置された部屋30内に存在する対象者20が周囲の環境(本実施形態においては、特に照明環境)に対してどの程度不快であるか(不快度)を推定する不快度推定システム100として応用した例について説明する。
なお、当該不快度推定システム100は表情検出システム10の応用例の一つであり、表情検出システム10はその他の種々のシステムに応用可能である。
In the following, the facial
The discomfort
図8に示す不快度推定システム100は、主としてカメラ11、モニター12、天井照明14、窓照明15、不快度測定ダイヤル16、及び制御装置13を具備する。
なお、不快度推定システム100のうち、カメラ11及びモニター12の構成は上述の表情検出システム10と略同一であるため、説明を省略する。
The discomfort
Note that, in the discomfort
天井照明14は、部屋30の室内空間の照明器具である。天井照明14は、部屋30の天井であって、対象者20の上方に配置される。天井照明14による照度は変更可能となるように構成される。 The ceiling lighting 14 is a lighting device for the indoor space of the room 30. The ceiling lighting 14 is a ceiling of the room 30 and is disposed above the subject 20. The illumination by the ceiling lighting 14 is configured to be changeable.
窓照明15は、部屋30に設けられた窓を擬似的に再現するための照明器具である。窓照明15は、部屋30の側壁面であって、対象者20の正面に配置される。窓照明15の輝度は変更可能となるように構成される。窓照明15を発光させることにより、部屋30に設けられた窓から太陽光が差し込む状態を擬似的に再現することができる。
The
不快度測定ダイヤル16は、対象者20がどの程度不快であるか(不快度)を測定するためのものである。不快度測定ダイヤル16はダイヤル式のスイッチにより構成され、対象者20の手が届く範囲に配置される。不快度測定ダイヤル16には所定の数値範囲で不快度を表す目盛が付されている。対象者20は、不快度測定ダイヤル16が指し示す数値(目盛)が、自らが感じた不快の程度に応じた値となるように当該不快度測定ダイヤル16を操作する。 The discomfort level measurement dial 16 is for measuring how much the subject 20 is uncomfortable (discomfort level). The discomfort measurement dial 16 is constituted by a dial-type switch, and is disposed in a range that can be reached by the subject 20. The discomfort level measurement dial 16 is provided with a scale indicating the discomfort level within a predetermined numerical range. The subject 20 operates the discomfort measurement dial 16 so that the numerical value (scale) indicated by the discomfort measurement dial 16 becomes a value corresponding to the degree of discomfort felt by the subject 20.
制御装置13は天井照明14に接続され、当該天井照明14による照度が任意の照度となるように制御することができる。制御装置13は自ら天井照明14の照度を制御しているため、別途センサ等を用いるまでもなく当該天井照明14による照度を検出することができる。
また、制御装置13は窓照明15に接続され、当該窓照明15の輝度が任意の輝度となるように制御することができる。制御装置13は自ら窓照明15の照度を制御しているため、別途センサ等を用いるまでもなく当該窓照明15の輝度を検出することができる。
また、制御装置13は不快度測定ダイヤル16に接続され、当該不快度測定ダイヤル16が指し示す数値(目盛)を検出することができる。
The
Further, the
The
以下では、図9及び図10を用いて、不快度推定システム100による対象者20の不快度を推定する方法について説明する。
Below, the method of estimating the discomfort degree of the subject 20 by the discomfort
不快度推定システム100が具備する制御装置13には、図9に示すように構築されたベイジアンネットワーク(Bayesian Network)が予め記憶され、当該ベイジアンネットワークを利用して対象者20の不快度が推定される。ベイジアンネットワークとは、複数の変数間の因果関係を非循環有向グラフで表すと共に、個々の変数の関係を条件付き確率で表す確率推論のモデルである。図中の矢印の始点側のノードが原因を、終点側のノードが結果を、それぞれ表している。また、原因が結果に及ぼす影響の度合いは、条件付き確率で定量化される。
The
図9に示すように、本実施形態に係るベイジアンネットワークは、顔しかめ認識頻度ノードN101と、顔しかめ表出頻度ノードN102と、まばたき認識頻度ノードN201と、まばたき表出頻度ノードN202と、照度(天井)変化前ノードN301と、輝度(窓)変化前ノードN401と、照度(天井)変化後ノードN501と、輝度(窓)変化後ノードN601と、不快度ノードN701と、により構築される。 As shown in FIG. 9, the Bayesian network according to the present embodiment includes a frown recognition frequency node N101, a frown expression frequency node N102, a blink recognition frequency node N201, a blink expression frequency node N202, and illuminance ( It is constructed by a node N301 before changing the ceiling), a node N401 before changing luminance (window), a node N501 after changing illuminance (ceiling), a node N601 after changing luminance (window), and a discomfort node N701.
本実施形態に係るベイジアンネットワークは、制御装置13によって天井照明14及び窓照明15を制御することで対象者20に対して複数パターンの照明変化(天井照明14による照度、及び窓照明15の輝度の大きな変化)を与える学習実験の結果に基づいて構築され、当該制御装置13に記憶される。具体的には、当該学習実験に基づいて上記各ノードの確率(事前確率又は条件付き確率)が求められ、制御装置13に記憶される。
In the Bayesian network according to the present embodiment, the
以下では、本実施形態に係るベイジアンネットワークの各ノードについて説明する。 Below, each node of the Bayesian network which concerns on this embodiment is demonstrated.
顔しかめ認識頻度ノードN101は、対象者20の顔しかめの頻度を表すノードである。当該対象者20の顔しかめ(顔をしかめたか否か)は、前述の如く制御装置13により検出される(図2のステップS109参照)。前記学習実験において、対象者20が顔をしかめたか否かが制御装置13により検出される(図2のステップS109)と共に、当該対象者20の顔しかめの頻度(顔しかめの周波数)が算出される(図2のステップS110)。当該顔しかめの頻度は複数の数値範囲に分類され、顔しかめの頻度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
The frown recognition frequency node N101 is a node that represents the frown frequency of the subject 20. The face fraud of the subject 20 (whether or not the face is frowned) is detected by the
顔しかめ表出頻度ノードN102は、実際の対象者20の顔しかめの頻度を表すノードである。前記学習実験において、実際に対象者20が顔をしかめたか否かが目視等により確認されると共に、当該実際の対象者20の顔しかめの頻度(顔しかめの周波数)が算出される。
ここで、前記学習実験においては、例えば図10に示すように、顔をしかめていない状態の表情(図10(a))に対して、目Eを細めたり(図10(b))、眉Bを寄せて目Eを細めたり(図10(c))、眉Bを寄せて目Eを細め、かつ口Mを横にひいたり(図10(d))した場合に、対象者20が顔をしかめたと判断される。
算出された実際の顔しかめの頻度は複数の数値範囲に分類され、顔しかめ認識頻度ノードN101を原因とする当該実際の顔しかめの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置13に記憶される。
The frowning expression frequency node N102 is a node that represents the fringing frequency of the
Here, in the learning experiment, for example, as shown in FIG. 10, the eye E is narrowed (FIG. 10 (b)) with respect to a facial expression (FIG. 10 (a)) in which the face is not frustrated, When the
The calculated frequency of frowning is classified into a plurality of numerical ranges, and the probability (conditional probability) that the frequency of the actual frowning caused by the face fraud recognition frequency node N101 is included in each numerical range is as follows: It is stored in the
まばたき認識頻度ノードN201は、対象者20のまばたきの頻度を表すノードである。当該対象者20のまばたきは、前述の如く制御装置13により検出される(図2のステップS108参照)。前記学習実験において、対象者20がまばたきをしたか否かが制御装置13により検出される(図2のステップS108)と共に、当該対象者20のまばたきの頻度(まばたきの周波数)が算出される(図2のステップS110)。当該まばたきの頻度は複数の数値範囲に分類され、まばたきの頻度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
The blink recognition frequency node N201 is a node that represents the blink frequency of the subject 20. The blink of the subject 20 is detected by the
まばたき表出頻度ノードN202は、実際の対象者20のまばたきの頻度を表すノードである。前記学習実験において、実際に対象者20がまばたきをしたか否かが目視等により確認されると共に、当該実際の対象者20のまばたきの頻度(まばたきの周波数)が算出される。当該実際のまばたきの頻度は複数の数値範囲に分類され、まばたき認識頻度ノードN201を原因とする当該実際のまばたきの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置13に記憶される。
The blinking expression frequency node N202 is a node that represents the blinking frequency of the
照度(天井)変化前ノードN301は、天井照明14による照度が大きく変化する前の照度を表すノードである。当該照度は、制御装置13により検出される。前記学習実験において、天井照明14による照度が大きく変化する前の照度は複数の数値範囲に分類され、当該大きく変化する前の照度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
The illuminance (ceiling) pre-change node N301 is a node that represents the illuminance before the illuminance by the ceiling illumination 14 changes significantly. The illuminance is detected by the
輝度(窓)変化前ノードN401は、窓照明15の輝度が大きく変化する前の輝度を表すノードである。当該輝度は、制御装置13により検出される。前記学習実験において、窓照明15の輝度が大きく変化する前の輝度は複数の数値範囲に分類され、当該大きく変化する前の輝度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
The node N401 before change in luminance (window) is a node representing the luminance before the luminance of the
照度(天井)変化後ノードN501は、天井照明14による照度が大きく変化した後の照度を表すノードである。当該照度は、制御装置13により検出される。前記学習実験において、天井照明14による照度が大きく変化した後の照度は複数の数値範囲に分類され、当該大きく変化した後の照度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
The illuminance (ceiling) post-change node N501 is a node representing the illuminance after the illuminance by the ceiling illumination 14 has changed significantly. The illuminance is detected by the
輝度(窓)変化後ノードN601は、窓照明15の輝度が大きく変化した後の輝度を表すノードである。当該輝度は、制御装置13により検出される。前記学習実験において、窓照明15の輝度が大きく変化した後の輝度は複数の数値範囲に分類され、当該大きく変化した後の輝度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。
The post-change luminance (window) node N601 is a node representing the luminance after the luminance of the
不快度ノードN701は、対象者20がどの程度不快であるか(不快度)を表すノードである。前記学習実験において、実際に対象者20がどの程度不快であるか(不快度)が測定される。具体的には、前記学習実験において、天井照明14による照度及び窓照明15の輝度が大きく変化した際に、対象者20が操作した不快度測定ダイヤル16の数値(目盛)を制御装置13が検出することにより、当該対象者20がどの程度不快であるか(不快度)を測定することができる。当該測定された不快度は複数の数値範囲に分類され、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601を原因とする当該測定された不快度が各数値範囲に含まれる確率(条件付き確率)が、制御装置13に記憶される。
The discomfort level node N701 is a node representing how much the subject 20 is uncomfortable (discomfort level). In the learning experiment, how much the subject 20 is actually uncomfortable (discomfort level) is measured. Specifically, in the learning experiment, the
以上の如く、前記学習実験によって事前に構築されたベイジアンネットワークを用いて、部屋30の室内空間の環境が変化した(具体的には、天井照明14による照度及び窓照明15の輝度が大きく変化した)際の対象者20の不快度を、確率論として推定することができる。
As described above, the environment of the indoor space of the room 30 has changed using the Bayesian network constructed in advance by the learning experiment (specifically, the illuminance by the ceiling lighting 14 and the brightness of the
具体的には、まず、部屋30の天井照明14による照度及び窓照明15の輝度が変化した際に、制御装置13によって当該変化に関する情報を検出する。すなわち、制御装置13は、天井照明14による照度が大きく変化する前の照度(照度(天井)変化前ノードN301)、窓照明15の輝度が大きく変化する前の輝度(輝度(窓)変化前ノードN401)、天井照明14による照度が大きく変化した後の照度(照度(天井)変化後ノードN501)及び窓照明15の輝度が大きく変化した後の輝度(輝度(窓)変化後ノードN601)を検出する。
Specifically, first, when the illuminance by the ceiling illumination 14 in the room 30 and the brightness of the
また、部屋30の室内空間の環境(天井照明14による照度及び窓照明15の輝度)が変化した際に対象者20が発する不快な表情を制御装置13によって検出する。すなわち、制御装置13は、部屋30の室内空間の環境が変化した際の対象者20の顔しかめ及びまばたきを検出する(図2のステップS108及びステップS109参照)。
In addition, the
次に、制御装置13によって、検出された対象者20が表出する不快な表情の頻度(周波数)を算出する。すなわち、制御装置13は、検出された対象者20の顔しかめの頻度(顔しかめ認識頻度ノードN101)、及び前記まばたき検出手段によって検出された対象者20のまばたきの頻度(まばたき認識頻度ノードN201)を算出する(図2のステップS110参照)。
Next, the
そして、制御装置13は、上記各ノード(顔しかめ認識頻度ノードN101、まばたき認識頻度ノードN201、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601)の条件を用いて、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202及び不快度ノードN701の条件付き確率から対象者20の不快度がとり得る複数の値(数値範囲)及びそれぞれの確率を算出する。制御装置13は、対象者20の不快度がとり得る複数の値それぞれに、当該値となる確率を掛け合わせ、さらにそれらを合算した数値を、対象者20の不快度として推定する。
Then, the
このように、本実施形態に係る不快度推定システム100は、環境変化に関する情報に加えて対象者20が発する不快な表情の頻度を用いるため、当該対象者20の不快度を精度良く推定することができる。このようにして推定された対象者20の不快度は、種々の目的に利用することが可能である。
As described above, the discomfort
なお、本実施形態(応用例)においては、実験設備として設置された部屋30を例にして説明したが、本発明はこれに限るものではなく、日常生活において使用している部屋を用いて上述の不快度の推定を行うことも可能である。 In the present embodiment (application example), the room 30 installed as experimental equipment has been described as an example. However, the present invention is not limited to this, and the above-described room is used in daily life. It is also possible to estimate the degree of discomfort.
また、本実施形態においては窓照明15を用いたが、本発明はこれに限るものではなく、通常の窓(部屋30の外部の光が入ってくる窓)と当該窓の輝度を検出するセンサを用いて上述の不快度の推定を行うことも可能である。
Further, although the
また、本実施形態においては、照明環境(天井照明14による照度、及び窓照明15の輝度)の変化に対する不快度を推定するものとしたが、その他の環境変化(例えば、温度の変化、湿度の変化等)に対する不快度を推定することも可能である。 In the present embodiment, the degree of discomfort with respect to changes in the lighting environment (illuminance by the ceiling lighting 14 and the brightness of the window lighting 15) is estimated, but other environmental changes (for example, temperature changes, humidity It is also possible to estimate the degree of discomfort with respect to changes.
10 表情検出システム
11 カメラ(撮像手段)
12 モニター(表示手段)
13 制御装置(制御手段)
20 対象者
10 facial expression detection system 11 camera (imaging means)
12 Monitor (display means)
13 Control device (control means)
20 Target people
Claims (7)
前記対象者から視認可能な位置に配置される表示手段と、
前記撮像手段によって撮像された前記対象者の顔の画像から当該対象者の個人情報を推定し、前記個人情報に基づいて前記対象者に応じた情報を前記表示手段に表示させ、前記表示手段に表示されている情報を視認している最中の前記対象者の顔の画像を前記撮像手段によって取得し、当該画像に基づいて平常時における前記対象者の顔の器官の位置情報である平常時位置情報を決定して、標準顔データベースとして記憶する制御手段と、
を具備し、
前記制御手段は、
前記情報を視認している最中の前記対象者の顔の画像を取得する場合、当該対象者の顔の器官の位置情報を検出し、当該検出された位置情報に基づいて当該対象者の顔が前記撮像手段に対してどの程度傾いているかを判定し、当該対象者の顔が前記撮像手段に対して所定値以上傾いていない画像のみを取得し、当該画像についての前記検出された位置情報に基づいて前記平常時位置情報を決定することを特徴とする、
表情検出システム。 Imaging means capable of imaging the face of the subject;
Display means arranged at a position visible from the subject;
The personal information of the target person is estimated from the face image of the target person imaged by the imaging means, information corresponding to the target person is displayed on the display means based on the personal information, and the display means An image of the face of the subject person who is viewing the displayed information is acquired by the imaging means, and the normal position is the position information of the organ of the face of the subject person in the normal state based on the image. Control means for determining position information and storing it as a standard face database;
Equipped with,
The control means includes
When acquiring an image of the face of the target person who is visually recognizing the information, the position information of the organ of the target person's face is detected, and the face of the target person is detected based on the detected position information. Is determined with respect to the imaging unit, and only the image in which the target person's face is not inclined more than a predetermined value with respect to the imaging unit is acquired, and the detected position information about the image is acquired. The normal position information is determined based on
Facial expression detection system.
前記標準顔データベースを用いて、現在前記撮像手段によって撮像されている前記対象者が特定の表情を表出したことを検出することを特徴とする、
請求項1に記載の表情検出システム。 The control means includes
Using the standard face database to detect that the subject currently imaged by the imaging means expresses a specific facial expression,
The facial expression detection system according to claim 1.
予め記憶された複数の人の、平常時における顔の器官の位置情報に対する特定の表情をした時の顔の器官の位置情報の変位に関する特定表情データベースをさらに用いて、現在前記撮像手段によって撮像されている前記対象者が特定の表情を表出したことを検出することを特徴とする、
請求項2に記載の表情検出システム。 The control means includes
A specific facial expression database relating to the displacement of facial organ position information when a specific facial expression with respect to facial organ positional information of a plurality of people in normal times is stored is further captured by the imaging means. Detecting that the subject is exposed to a specific facial expression,
The facial expression detection system according to claim 2.
前記対象者の不快感を示す表情であることを特徴とする、
請求項2又は請求項3に記載の表情検出システム。 The specific facial expression is
It is a facial expression showing discomfort of the subject,
The facial expression detection system according to claim 2 or claim 3.
前記撮像手段によって取得された複数の画像における前記対象者の顔の器官の位置情報を正規化した後に、当該位置情報を平均することを特徴とする、
請求項1から請求項4までのいずれか一項に記載の表情検出システム。 The control means includes
After normalizing the position information of the organ of the subject's face in the plurality of images acquired by the imaging means, the position information is averaged ,
The facial expression detection system according to any one of claims 1 to 4.
前記対象者が、それ以前に前記標準顔データベースを記憶されたことのある対象者と同一人物である場合、新たな当該対象者の標準顔データベースの記憶を行わないことを特徴とする、
請求項1から請求項5までのいずれか一項に記載の表情検出システム。 The control means includes
When the subject is the same person as the subject who has previously stored the standard face database, the new standard face database of the subject is not stored .
The facial expression detection system according to any one of claims 1 to 5.
前記個人情報に基づいて前記対象者に応じた情報を前記対象者に視認させ、
前記情報を視認している最中の前記対象者の顔の画像を撮像手段により取得し、
当該画像に基づいて平常時における前記対象者の顔の器官の位置情報である平常時位置情報を決定して、標準顔データベースとして取得し、
前記標準顔データベースを用いて、前記対象者が特定の表情を表出したことを検出する表情検出方法であって、
前記情報を視認している最中の前記対象者の顔の画像を取得する場合、当該対象者の顔の器官の位置情報を検出し、当該検出された位置情報に基づいて当該対象者の顔が前記撮像手段に対してどの程度傾いているかを判定し、当該対象者の顔が前記撮像手段に対して所定値以上傾いていない画像のみを取得し、当該画像についての前記検出された位置情報に基づいて前記平常時位置情報を決定することを特徴とする、
表情検出方法。 Estimate the subject ’s personal information from the subject ’s face image,
Based on the personal information, let the subject visually recognize information corresponding to the subject,
An image of the face of the subject who is viewing the information is acquired by an imaging unit,
Determine the normal position information that is the position information of the organ of the subject's face in normal time based on the image, and obtain as a standard face database,
A facial expression detection method for detecting that the subject has expressed a specific facial expression using the standard face database,
When acquiring an image of the face of the target person who is visually recognizing the information, the position information of the organ of the target person's face is detected, and the face of the target person is detected based on the detected position information. Is determined with respect to the imaging unit, and only the image in which the target person's face is not inclined more than a predetermined value with respect to the imaging unit is acquired, and the detected position information about the image is acquired. The normal position information is determined based on
Expression detection method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013112410A JP6202882B2 (en) | 2013-05-28 | 2013-05-28 | Facial expression detection system and facial expression detection method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2013112410A JP6202882B2 (en) | 2013-05-28 | 2013-05-28 | Facial expression detection system and facial expression detection method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2014232958A JP2014232958A (en) | 2014-12-11 |
| JP6202882B2 true JP6202882B2 (en) | 2017-09-27 |
Family
ID=52126123
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2013112410A Active JP6202882B2 (en) | 2013-05-28 | 2013-05-28 | Facial expression detection system and facial expression detection method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6202882B2 (en) |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004274519A (en) * | 2003-03-11 | 2004-09-30 | Casio Comput Co Ltd | Incoming call answering system, mobile phone with incoming call answering function and program |
| JP4315148B2 (en) * | 2005-11-25 | 2009-08-19 | 株式会社ニコン | Electronic camera |
| JP2008009728A (en) * | 2006-06-29 | 2008-01-17 | Ritsumeikan | Facial expression recognition method and facial expression recognition apparatus |
| JP4999570B2 (en) * | 2007-06-18 | 2012-08-15 | キヤノン株式会社 | Facial expression recognition apparatus and method, and imaging apparatus |
| JP2009163422A (en) * | 2007-12-28 | 2009-07-23 | Canon Inc | Image processing apparatus, image processing method, and image processing program |
| JP5106355B2 (en) * | 2008-11-13 | 2012-12-26 | キヤノン株式会社 | Facial expression determination device, control method thereof, imaging device, and program |
| JP5550114B2 (en) * | 2010-09-07 | 2014-07-16 | 埼玉日本電気株式会社 | Imaging device |
-
2013
- 2013-05-28 JP JP2013112410A patent/JP6202882B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2014232958A (en) | 2014-12-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5863423B2 (en) | Information processing apparatus, information processing method, and program | |
| CN106562792B (en) | Control method of information prompting device and information prompting device | |
| KR102640420B1 (en) | Operation Method for activation of Home robot device and Home robot device supporting the same | |
| JP4876687B2 (en) | Attention level measuring device and attention level measuring system | |
| KR102092931B1 (en) | Method for eye-tracking and user terminal for executing the same | |
| US20150086110A1 (en) | Person attribute estimation system and learning-use data generation device | |
| JPWO2018051944A1 (en) | People flow estimation device, people flow estimation method and program | |
| JP2019087257A (en) | System and method for guiding social interactions | |
| KR20140104661A (en) | Method and apparatus for user interface using gaze interaction | |
| JP7306152B2 (en) | Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method, and emotion estimation system | |
| Cvetkoska et al. | Smart mirror E-health assistant—Posture analyze algorithm proposed model for upright posture | |
| JP6109288B2 (en) | Information processing apparatus, information processing method, and program | |
| CN110582781A (en) | Gaze tracking system and method | |
| JP2011081486A (en) | Coordinate image generating device, coordinate image generating method, and program | |
| KR20190067433A (en) | Method for providing text-reading based reward advertisement service and user terminal for executing the same | |
| JP2019126657A (en) | Detection device and detection program | |
| de Belen et al. | Integrating mixed reality and internet of things as an assistive technology for elderly people living in a smart home | |
| JP5016959B2 (en) | Visibility determination device | |
| JP6651086B1 (en) | Image analysis program, information processing terminal, and image analysis system | |
| JP5910249B2 (en) | Interaction device and interaction control program | |
| JP6359253B2 (en) | Emotion extraction method, emotion extraction program, emotion extraction device, and building design method | |
| KR102477231B1 (en) | Apparatus and method for detecting interest in gazed objects | |
| JP6075982B2 (en) | Face frown detection system and face frown detection method | |
| JP2018205534A (en) | Display control apparatus, display control method, and program | |
| JP6202882B2 (en) | Facial expression detection system and facial expression detection method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160520 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170130 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170207 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170330 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170822 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170829 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6202882 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |