[go: up one dir, main page]

JP6202882B2 - Facial expression detection system and facial expression detection method - Google Patents

Facial expression detection system and facial expression detection method Download PDF

Info

Publication number
JP6202882B2
JP6202882B2 JP2013112410A JP2013112410A JP6202882B2 JP 6202882 B2 JP6202882 B2 JP 6202882B2 JP 2013112410 A JP2013112410 A JP 2013112410A JP 2013112410 A JP2013112410 A JP 2013112410A JP 6202882 B2 JP6202882 B2 JP 6202882B2
Authority
JP
Japan
Prior art keywords
subject
face
facial expression
position information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013112410A
Other languages
Japanese (ja)
Other versions
JP2014232958A (en
Inventor
泰史 菅野
泰史 菅野
亜矢子 伊東
亜矢子 伊東
瑞基 本間
瑞基 本間
井上 博之
博之 井上
康夫 高橋
康夫 高橋
竜太 西田
竜太 西田
昭啓 小池
昭啓 小池
五月 加藤
五月 加藤
康宏 大竹
康宏 大竹
裕樹 松本
裕樹 松本
稔 浅田
稔 浅田
石黒 浩
浩 石黒
儀雄 岩井
儀雄 岩井
紀子 池本
紀子 池本
謙典 北村
謙典 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
University of Osaka NUC
Original Assignee
Osaka University NUC
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Daiwa House Industry Co Ltd filed Critical Osaka University NUC
Priority to JP2013112410A priority Critical patent/JP6202882B2/en
Publication of JP2014232958A publication Critical patent/JP2014232958A/en
Application granted granted Critical
Publication of JP6202882B2 publication Critical patent/JP6202882B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、対象者の顔の画像から当該対象者の表情に関する情報を検出する表情検出システム及び表情検出方法の技術に関する。   The present invention relates to a technique for a facial expression detection system and a facial expression detection method for detecting information related to a facial expression of a subject from the face image of the subject.

従来、対象者の顔の画像から当該対象者の表情に関する情報を検出する表情検出システム及び表情検出方法の技術は公知となっている。例えば、特許文献1に記載の如くである。   2. Description of the Related Art Conventionally, techniques of a facial expression detection system and a facial expression detection method for detecting information related to a facial expression of a subject from the subject's facial image are known. For example, as described in Patent Document 1.

特許文献1に記載の技術では、人の表情の度合いを複数段階に分類した表情遷移マップ(データベース)が予め作成され、当該データベースとカメラで撮影された人(対象者)の実際の表情とを比較することによって、当該人の表情の度合いを判定することができる。   In the technique described in Patent Document 1, a facial expression transition map (database) in which the degree of human facial expression is classified into a plurality of stages is created in advance, and the database and the actual facial expression of the person (subject) photographed by the camera are used. By comparing, the degree of facial expression of the person can be determined.

しかし、このようなシステムで用いられるデータベースを作成する場合において、特に平常時の人の自然な表情のデータ(顔の器官の位置情報等)を取得するのは困難であった。なぜならば、人の表情のデータ収集を目的とする撮影の際に、当該人が意識的に、又は緊張等によって無意識的に表情を作ってしまい、必ずしも平常状態の自然な表情とはいえなくなる場合があるためである。   However, when creating a database used in such a system, it has been difficult to acquire natural facial expression data (face organ position information, etc.), particularly during normal times. This is because, when shooting for the purpose of collecting human facial expression data, the person consciously or unconsciously creates a facial expression due to tension, etc., and cannot always be said to be a natural facial expression. Because there is.

特開2001−43345号公報JP 2001-43345 A

本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、平常時における対象者の顔の器官の位置情報を容易にかつ正確に取得することが可能な表情検出システム及び表情検出方法を提供することである。   The present invention has been made in view of the above situation, and the problem to be solved is facial expression detection capable of easily and accurately acquiring the position information of the organ of the face of the subject at normal times. A system and a facial expression detection method are provided.

本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。   The problem to be solved by the present invention is as described above. Next, means for solving the problem will be described.

即ち、請求項1においては、対象者の顔を撮像することが可能な撮像手段と、前記対象者から視認可能な位置に配置される表示手段と、前記撮像手段によって撮像された前記対象者の顔の画像から当該対象者の個人情報を推定し、前記個人情報に基づいて前記対象者に応じた情報を前記表示手段に表示させ、前記表示手段に表示されている情報を視認している最中の前記対象者の顔の画像を前記撮像手段によって取得し、当該画像に基づいて平常時における前記対象者の顔の器官の位置情報である平常時位置情報を決定して、標準顔データベースとして記憶する制御手段と、を具備し、前記制御手段は、前記情報を視認している最中の前記対象者の顔の画像を取得する場合、当該対象者の顔の器官の位置情報を検出し、当該検出された位置情報に基づいて当該対象者の顔が前記撮像手段に対してどの程度傾いているかを判定し、当該対象者の顔が前記撮像手段に対して所定値以上傾いていない画像のみを取得し、当該画像についての前記検出された位置情報に基づいて前記平常時位置情報を決定するものである。 That is, in claim 1, an imaging unit capable of imaging the subject's face, a display unit disposed at a position visible from the subject, and the subject imaged by the imaging unit. The personal information of the subject person is estimated from the face image, information corresponding to the subject person is displayed on the display means based on the personal information, and the information displayed on the display means is visually recognized. An image of the target person's face is acquired by the imaging means, and normal position information that is position information of the organ of the target person's face is determined based on the image as a standard face database Control means for storing, and when the control means obtains an image of the face of the subject who is viewing the information, the control means detects position information of the organ of the subject's face. , The detected location information To determine how much the subject's face is inclined with respect to the imaging means, and obtain only an image in which the subject's face is not inclined more than a predetermined value with respect to the imaging means. The normal position information is determined on the basis of the detected position information for the.

請求項2においては、前記制御手段は、前記標準顔データベースを用いて、現在前記撮像手段によって撮像されている前記対象者が特定の表情を表出したことを検出するものである。   According to a second aspect of the present invention, the control means uses the standard face database to detect that the subject currently imaged by the imaging means has expressed a specific facial expression.

請求項3においては、前記制御手段は、予め記憶された複数の人の、平常時における顔の器官の位置情報に対する特定の表情をした時の顔の器官の位置情報の変位に関する特定表情データベースをさらに用いて、現在前記撮像手段によって撮像されている前記対象者が特定の表情を表出したことを検出するものである。   According to a third aspect of the present invention, the control means stores a specific facial expression database relating to displacement of positional information of the facial organs when a specific facial expression is obtained with respect to positional information of the facial organs during normal times for a plurality of prestored persons. Further, it is used to detect that the subject currently imaged by the imaging means has expressed a specific facial expression.

請求項4においては、前記特定の表情とは、前記対象者の不快感を示す表情であるものである。   According to a fourth aspect of the present invention, the specific facial expression is a facial expression that indicates the subject's discomfort.

請求項5においては、前記制御手段は、前記撮像手段によって取得された複数の画像における前記対象者の顔の器官の位置情報を正規化した後に、当該位置情報を平均するものである。 According to a fifth aspect of the present invention, the control means averages the position information after normalizing the position information of the organ of the subject's face in the plurality of images acquired by the imaging means .

請求項6においては、前記制御手段は、前記対象者が、それ以前に前記標準顔データベースを記憶されたことのある対象者と同一人物である場合、新たな当該対象者の標準顔データベースの記憶を行わないものである。 In the present invention, when the subject is the same person as the subject who has previously stored the standard face database , the control means stores a new standard face database of the subject. It is something that does not do .

請求項7においては、対象者の顔の画像から当該対象者の個人情報を推定し、前記個人情報に基づいて前記対象者に応じた情報を前記対象者に視認させ、前記情報を視認している最中の前記対象者の顔の画像を撮像手段により取得し、当該画像に基づいて平常時における前記対象者の顔の器官の位置情報である平常時位置情報を決定して、標準顔データベースとして取得し、前記標準顔データベースを用いて、前記対象者が特定の表情を表出したことを検出する表情検出方法であって、前記情報を視認している最中の前記対象者の顔の画像を取得する場合、当該対象者の顔の器官の位置情報を検出し、当該検出された位置情報に基づいて当該対象者の顔が前記撮像手段に対してどの程度傾いているかを判定し、当該対象者の顔が前記撮像手段に対して所定値以上傾いていない画像のみを取得し、当該画像についての前記検出された位置情報に基づいて前記平常時位置情報を決定するものである。 In claim 7, personal information of the target person is estimated from the face image of the target person, information corresponding to the target person is visually recognized based on the personal information, and the information is visually recognized. An image of the face of the subject in the middle is acquired by the imaging means, and normal position information, which is position information of the organ of the face of the subject in the normal state, is determined based on the image, and a standard face database And using the standard face database, the facial expression detection method for detecting that the subject has expressed a specific facial expression, wherein the face of the subject who is viewing the information is detected. When acquiring an image, it detects position information of the organ of the subject's face, determines how much the subject's face is inclined with respect to the imaging means based on the detected position information, The subject's face is the imaging means In which retrieves only image not tilted more than a predetermined value, determines the normal time position information based on the detected position information of the image against.

本発明の効果として、以下に示すような効果を奏する。   As effects of the present invention, the following effects can be obtained.

請求項1においては、平常時における対象者の顔の器官の位置情報(標準顔データベース)を容易にかつ正確に取得(作成)することができる。
また、撮像手段に対する対象者の顔の傾きが大きい画像を排除することで、より精度の高い標準顔データベースの作成が可能となる。
According to the first aspect, the position information (standard face database) of the organ of the subject's face in normal times can be obtained (created) easily and accurately.
Further, by eliminating images with a large inclination of the subject's face relative to the imaging means, it is possible to create a standard face database with higher accuracy.

請求項2においては、検出対称となる対象者固有のデータベース(特定の表情をした時の顔の器官の位置情報に関するデータベース等)を予め準備する必要がないため、当該データベースを作成するための労力を軽減することができる。   According to claim 2, since it is not necessary to prepare in advance a database unique to the subject to be detected symmetrically (such as a database related to positional information of facial organs when a specific facial expression is made), labor for creating the database Can be reduced.

請求項3においては、検出対称となる対象者固有の特定表情データベースを必要とせず、容易に不快感を示す表情を検出することができる。   According to the third aspect of the present invention, it is possible to easily detect an uncomfortable facial expression without requiring a specific facial expression database unique to the subject to be detected symmetrically.

請求項4においては、特定の表情の検出結果を、対象者の周囲の環境の制御(改善)等に利用することができる。   In the fourth aspect, the detection result of the specific facial expression can be used for control (improvement) of the environment around the subject.

請求項5においては、各画像における対象者の顔の器官の位置情報を正規化することで、より精度の高い標準顔データベースの作成が可能となる。 According to the fifth aspect of the present invention, it is possible to create a standard face database with higher accuracy by normalizing the position information of the organ of the face of the subject in each image .

請求項6においては、以前に標準顔データベースが記憶されている対象者については、再度標準顔データベースを記憶させる処理を省略することができ、表情検出システム全体の処理の効率化を図ることができる。 According to the sixth aspect of the present invention, for the subject who has previously stored the standard face database, the process of storing the standard face database again can be omitted, and the processing efficiency of the entire facial expression detection system can be improved. .

請求項7においては、平常時における対象者の顔の器官の位置情報(標準顔データベース)を容易にかつ正確に取得(作成)することができる。また、検出対称となる対象者固有のデータベースを予め準備することなく特定の表情を検出することができ、当該データベースを作成するための労力を軽減することができる。
According to the seventh aspect, the position information (standard face database) of the organ of the subject's face in the normal time can be obtained (created) easily and accurately. Further, it is possible to detect a specific facial expression without preparing a database unique to the subject who is symmetrical to the detection in advance, and it is possible to reduce labor for creating the database .

本発明の一実施形態に係る表情検出システムの構成を示した概略図。Schematic which showed the structure of the facial expression detection system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る表情検出方法を示したフロー図。The flowchart which showed the facial expression detection method which concerns on one Embodiment of this invention. 同じく、フロー図。Similarly, a flow diagram. 図2におけるステップS105の処理を示したフロー図。The flowchart which showed the process of step S105 in FIG. 顔の器官を座標に変換する様子を示した模式図。The schematic diagram which showed a mode that the organ of the face was converted into a coordinate. (a)顔がカメラの真正面を向いている状態を示した模式図。(b)同じく、大きく左方に傾いている状態を示した模式図。(c)同じく、大きく下方に傾いている状態を示した模式図。(A) The schematic diagram which showed the state in which the face is facing the front of the camera. (B) The schematic diagram which showed the state inclined largely to the left similarly. (C) The schematic diagram which showed the state inclined largely downward similarly. 座標を距離情報に変換する様子を示した模式図。The schematic diagram which showed a mode that a coordinate was converted into distance information. 応用例である不快度推定システムの構成を示した概略図。Schematic which showed the structure of the discomfort degree estimation system which is an application example. ベイジアンネットワークの構成を示した図。The figure which showed the structure of the Bayesian network. 目視による顔しかめの判断基準を示した図。The figure which showed the judgment standard of the grimace by visual observation.

以下では必要に応じて、図中に示した矢印に従って、上下方向及び左右方向を定義して説明を行う。   In the following description, the vertical direction and the horizontal direction are defined according to the arrows shown in the drawings as necessary.

以下では、図1を用いて、本実施形態に係る表情検出システム10の構成について説明する。   Below, the structure of the facial expression detection system 10 which concerns on this embodiment is demonstrated using FIG.

表情検出システム10は、対象者20の顔の画像から当該対象者の表情に関する情報(本実施形態においては、対象者20が特定の表情を表出する頻度)を検出するものである。表情検出システム10は、主としてカメラ11、モニター12及び制御装置13を具備する。   The facial expression detection system 10 detects information relating to the facial expression of the subject person (in the present embodiment, the frequency with which the subject person 20 expresses a specific facial expression) from the face image of the subject person 20. The facial expression detection system 10 mainly includes a camera 11, a monitor 12, and a control device 13.

カメラ11は、本発明に係る撮像手段の一実施形態である。カメラ11は、対象者20の顔を撮像するものである。カメラ11は、着席している対象者20の正面に配置され、当該対象者20の顔を常時撮像することができる。   The camera 11 is an embodiment of the imaging means according to the present invention. The camera 11 images the face of the subject 20. The camera 11 is arranged in front of the seated subject 20 and can always capture the face of the subject 20.

モニター12は、本発明に係る表示手段の一実施形態である。モニター12は、画像や文章等の種々の情報を表示することが可能なものである。モニター12は、着席している対象者20の正面(カメラ11の下方)に配置され、対象者20は当該モニター12に表示される情報を視認することができる。   The monitor 12 is an embodiment of the display means according to the present invention. The monitor 12 is capable of displaying various information such as images and sentences. The monitor 12 is disposed in front of the seated subject 20 (below the camera 11), and the subject 20 can visually recognize the information displayed on the monitor 12.

制御装置13は、種々の情報に基づいて所定の演算処理や記憶等を行うものである。制御装置13は、RAMやROM等の記憶部、CPU等の演算処理部等により構成される。
制御装置13はカメラ11に接続され、当該カメラ11が撮像した画像データを取得することができる。
制御装置13はモニター12に接続され、当該モニター12に任意の情報を表示させることができる。
The control device 13 performs predetermined arithmetic processing, storage, and the like based on various information. The control device 13 includes a storage unit such as a RAM and a ROM, an arithmetic processing unit such as a CPU, and the like.
The control device 13 is connected to the camera 11 and can acquire image data captured by the camera 11.
The control device 13 is connected to the monitor 12 and can display arbitrary information on the monitor 12.

上述の如く構成された表情検出システム10は、対象者20の表情に関する情報を検出することができる。より具体的には、表情検出システム10は、対象者20が特定の表情(本実施形態においては、「瞬き」及び「顔しかめ」)を表出する頻度を検出することができる。以下では図2から図7までを用いて、当該表情検出システム10による当該検出の様子(表情検出方法)について説明する。   The facial expression detection system 10 configured as described above can detect information related to the facial expression of the subject 20. More specifically, the facial expression detection system 10 can detect the frequency with which the subject 20 expresses a specific facial expression (in the present embodiment, “blink” and “face frown”). Hereinafter, the detection state (expression detection method) by the expression detection system 10 will be described with reference to FIGS. 2 to 7.

ステップS101において、制御装置13は、カメラ11の前に着席している検出の対象となる対象者20を認識する。
具体的には、制御装置13は、カメラ11によって撮像された対象者20の顔の画像から当該対象者20を認識する。この処理は、市販のプログラム等を用いて行うことができる。
制御装置13は、当該ステップS101の処理を行った後、ステップS102に移行する。
In step S <b> 101, the control device 13 recognizes the target person 20 as a detection target sitting in front of the camera 11.
Specifically, the control device 13 recognizes the target person 20 from the face image of the target person 20 captured by the camera 11. This process can be performed using a commercially available program or the like.
After performing the processing of step S101, the control device 13 proceeds to step S102.

ステップS102において、制御装置13は、ステップS101で認識した対象者20が初めて認識した対象者であるか否かを判定する。
制御装置13は、ステップS101で認識した対象者20が初めて認識した対象者である(これまでに認識したことがない対象者である)と判定した場合、ステップS103に移行する。
制御装置13は、ステップS101で認識した対象者20が始めて認識した対象者ではない(これまでに認識したことがある対象者である)と判定した場合、ステップS107に移行する。
In step S102, the control device 13 determines whether or not the subject 20 recognized in step S101 is the subject recognized for the first time.
When the control device 13 determines that the target person 20 recognized in step S101 is the first target person recognized (a target person who has not been recognized so far), the control device 13 proceeds to step S103.
When the control device 13 determines that the target person 20 recognized in step S101 is not the first target person recognized (the target person has been recognized so far), the control device 13 proceeds to step S107.

ステップS103において、制御装置13は、対象者20の個人情報を推定する。この処理は、市販のプログラム等を用いて行うことができる。
ここで「個人情報」とは、対象者20の顔から推定可能な個人に関するあらゆる情報を含むものとする。本実施形態においては、「個人情報」として対象者20の性別及び年齢を用いるものとする。すなわち制御装置13は、対象者20の性別及び年齢を推定する。
制御装置13は、当該ステップS103の処理を行った後、ステップS104に移行する。
In step S <b> 103, the control device 13 estimates the personal information of the target person 20. This process can be performed using a commercially available program or the like.
Here, the “personal information” includes all information related to individuals that can be estimated from the face of the subject 20. In the present embodiment, the gender and age of the subject 20 are used as “personal information”. That is, the control device 13 estimates the gender and age of the subject 20.
After performing the process of step S103, the control device 13 proceeds to step S104.

ステップS104において、制御装置13は、ステップS103において推定された性別及び年齢の人(対象者20)が興味を持ち易い情報をモニター12に表示させる。
具体的には、制御装置13は予め性別及び年齢(年代)ごとにそれぞれ興味を持ち易いと思われる情報をデータベース(以下、これを「情報データベース」と記す)として記憶している。
ここで「情報」とは、モニター12に表示させることが可能な画像(広告画像等の静止画や動画)や文章などあらゆる情報を含むものとする。
制御装置13は、ステップS103において推定された性別及び年齢に基づいて、前記情報データベースから対象者20が興味を持ち易いと思われる情報を抽出し、モニター12に表示させる。
制御装置13は、当該ステップS104の処理を行った後、ステップS105に移行する。
In step S104, the control device 13 causes the monitor 12 to display information that is likely to be of interest to the person of the gender and age estimated in step S103 (target person 20).
Specifically, the control device 13 stores in advance information that is likely to be interesting for each sex and age (age) as a database (hereinafter referred to as “information database”).
Here, the “information” includes all kinds of information such as images (still images such as advertisement images and moving images) and sentences that can be displayed on the monitor 12.
Based on the gender and age estimated in step S103, the control device 13 extracts information that the subject 20 is likely to be interested from the information database, and displays the information on the monitor 12.
After performing the process of step S104, the control device 13 proceeds to step S105.

ステップS105において、制御装置13は、対象者20の顔の画像をカメラ11によって複数撮像し、当該複数の画像における対象者20の顔の器官の位置情報を取得する。以下、当該ステップS105の処理についてより詳細に説明する。   In step S <b> 105, the control device 13 takes a plurality of images of the face of the subject 20 with the camera 11, and acquires position information of the organ of the face of the subject 20 in the plurality of images. Hereinafter, the process of step S105 will be described in more detail.

図4に示すステップS201において、制御装置13は、ステップS104において興味のある情報が表示されたモニター12を視認(注視)している対象者20の顔の画像をカメラ11によって撮像して取得する。このように興味のある情報を注視している対象者20の表情は、喜怒哀楽が目立って表出していない平常時の自然な表情であると考えられる。
制御装置13は、当該ステップS201の処理を行った後、ステップS202に移行する。
In step S201 shown in FIG. 4, the control device 13 captures and acquires an image of the face of the subject 20 who is viewing (gazing) the monitor 12 on which the information of interest is displayed in step S104. . Thus, it is considered that the facial expression of the subject 20 gazing at the information of interest is a normal natural expression in which emotions are not conspicuously expressed.
After performing the processing of step S201, the control device 13 proceeds to step S202.

ステップS202において、制御装置13は、ステップS201において取得した画像に現された対象者20の顔の器官(目E、眉B、鼻N)を座標に変換して記憶する。
具体的には、図5に示すように、取得した各画像データに現された対象者20の顔のうち、右目Eの最も内側に位置する端部の点を点P1と、右目Eの上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P2と、右目Eの下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P3と、右眉Bの最も内側に位置する端部の点を点P4と、左目Eの最も内側に位置する端部の点を点P5と、左目Eの上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P6と、左目Eの下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P7と、左眉Bの最も内側に位置する端部の点を点P8と、鼻Nの最も下に位置する端部の点を点P9と、それぞれ決定する。そして制御装置13は、当該決定された座標を一旦記憶する。
当該座標化(点P1から点P9までの決定)は、制御装置13に予め記憶されたプログラムによって実行される。
制御装置13は、当該ステップS202の処理を行った後、ステップS203に移行する。
In step S202, the control device 13 converts the facial organs (eyes E, eyebrows B, nose N) of the subject 20 shown in the image acquired in step S201 into coordinates and stores them.
Specifically, as shown in FIG. 5, among the faces of the subject 20 shown in the acquired image data, the end point located on the innermost side of the right eye E is the point P1 and the upper point of the right eye E. A point located on the eyelid (more specifically, a point at the end of the upper eyelid that is located at the top) is a point P2 and a point located on the lower eyelid of the right eye E (more specifically, the lower eyelid Of the right eyebrow B, the innermost end point of the right eyebrow B, the innermost end point of the right eyebrow B, and the left eye E of the innermost end point of the left eye E as the point P5. , A point located on the upper eyelid of the left eye E (more specifically, an end point located at the top of the upper eyelid) and a point located on the lower eyelid of the left eye E (more specifically) Is the point at the end of the lower eyelid that is located at the lowermost end), the point P8 is the point at the innermost end of the left eyebrow B, and the outermost point of the nose N. The point at the end which is positioned below the point P9, respectively determined. Then, the control device 13 temporarily stores the determined coordinates.
The coordinate conversion (determination from the point P1 to the point P9) is executed by a program stored in advance in the control device 13.
After performing the process of step S202, the control device 13 proceeds to step S203.

ステップS203において、制御装置13は、ステップS201において取得した画像に現された対象者20の顔がデータとして許容できない(データとして一定の精度が確保できないおそれがある)程に大きく傾いているか否かを判定する。
具体的には、制御装置13は、ステップS202において取得した座標に基づいて、対象者20の顔がカメラ11に対して真正面(図6(a)参照)の位置から左右(図6(b)参照)及び上下(図6(c)参照)にどの程度の角度だけ傾いているかを判定する。
そして制御装置13は、左右に傾いている角度及び上下に傾いている角度のうち少なくとも一方が、予め任意に定められた閾値以上である場合には、対象者20の顔がデータとして許容できない程に大きく傾いていると判定する。
In step S203, the control device 13 determines whether or not the face of the subject 20 shown in the image acquired in step S201 is tilted to such an extent that the face cannot be accepted as data (a certain accuracy may not be secured as data). Determine.
Specifically, based on the coordinates acquired in step S202, the control device 13 moves left and right (FIG. 6B) from the position where the face of the subject 20 is directly in front of the camera 11 (see FIG. 6A). (See FIG. 6) and the vertical angle (see FIG. 6C) is determined.
The control device 13 determines that the face of the subject 20 is unacceptable as data when at least one of the angle tilted left and right and the angle tilted up and down is equal to or greater than a predetermined threshold value. It is judged that it is greatly inclined to.

制御装置13は、ステップS203において、対象者20の顔がデータとして許容できない程に大きく傾いていると判定した場合、ステップS204に移行する。
制御装置13は、対象者20の顔がデータとして許容できない程に大きく傾いてはいないと判定した場合、ステップS205に移行する。
If the control device 13 determines in step S203 that the face of the subject 20 is tilted so much that it cannot be accepted as data, the control device 13 proceeds to step S204.
When the control device 13 determines that the face of the subject 20 is not tilted so much as unacceptable as data, the control device 13 proceeds to step S205.

ステップS204において、制御装置13は、対象者20の顔がデータとして許容できない程に大きく傾いている(ステップS203参照)と判定された画像から変換された座標データ(ステップS202)を削除する。
制御装置13は、当該ステップS204の処理を行った後、再度ステップS201に移行する。
In step S204, the control device 13 deletes the coordinate data (step S202) converted from the image determined that the face of the subject 20 is tilted so much that it is not acceptable as data (see step S203).
After performing the process of step S204, the control device 13 proceeds to step S201 again.

ステップS203から移行したステップS205において、制御装置13は、取得した画像に現された対象者20の顔の器官の座標を正規化する。
具体的には、ステップS203において対象者20の顔が大きく傾いていないと判定されたデータであっても、多少なりとも顔が傾いている可能性がある。そこで制御装置13は、ホモグラフィ変換やアフィン変換等を用いて対象者20の顔の傾きが座標に与える影響、すなわち測定誤差を打ち消すように、当該座標を正規化する。
制御装置13は、ステップS205の処理を行った後、ステップS206に移行する。
In step S205 transferred from step S203, the control device 13 normalizes the coordinates of the facial organ of the subject 20 shown in the acquired image.
Specifically, even if it is data that is determined in step S203 that the face of the subject 20 is not greatly inclined, the face may be inclined somewhat. Therefore, the control device 13 normalizes the coordinates so as to cancel the influence of the inclination of the face of the subject 20 on the coordinates, that is, the measurement error, using homography transformation, affine transformation, or the like.
After performing the process of step S205, the control device 13 proceeds to step S206.

ステップS206において、制御装置13は、ステップS201において取得した画像を5次元の位置情報(距離情報)に変換して記憶する。
具体的には、図7に示すように、制御装置13は、正規化された画像の座標を、5つの距離情報、すなわち(1)点P1から点P4までの距離、(2)点P5から点P8までの距離、(3)点P4から点P8までの距離、(4)点P2から点P3までの距離、及び(5)点P6から点P7までの距離、に変換する。そして制御装置13は、当該変換された5次元の位置情報を記憶する。
ステップS206の処理を行った後、制御装置13はステップS207に移行する。
In step S206, the control device 13 converts the image acquired in step S201 into five-dimensional position information (distance information) and stores it.
Specifically, as shown in FIG. 7, the control device 13 determines the coordinates of the normalized image from five pieces of distance information, that is, (1) the distance from the point P1 to the point P4, and (2) from the point P5. The distance is converted into a distance from the point P8, (3) a distance from the point P4 to the point P8, (4) a distance from the point P2 to the point P3, and (5) a distance from the point P6 to the point P7. Then, the control device 13 stores the converted five-dimensional position information.
After performing the process of step S206, the control device 13 proceeds to step S207.

ステップS207において、制御装置13は、ステップS206において記憶した位置情報が所定の個数(例えば、50個)に達したか否かを判定する。
ここで、「所定の個数」は予め任意に設定することができる値であり、後述するステップS106において平均された5次元の位置情報を精度良く算出できる程度の値に設定されることが望ましい。
制御装置13は、記憶した位置情報が所定の個数に達したと判定した場合、ステップS208に移行する。
制御装置13は、記憶した位置情報が所定の個数に達していないと判定した場合、ステップS201に移行する。すなわち、所定の個数の位置情報を記憶するまでステップS201からステップS206までの処理を繰り返す。
In step S207, the control device 13 determines whether or not the position information stored in step S206 has reached a predetermined number (for example, 50).
Here, the “predetermined number” is a value that can be arbitrarily set in advance, and is desirably set to a value that can accurately calculate the five-dimensional position information averaged in step S106 described later.
When it is determined that the stored position information has reached a predetermined number, the control device 13 proceeds to step S208.
When it is determined that the stored position information has not reached the predetermined number, the control device 13 proceeds to step S201. That is, the processes from step S201 to step S206 are repeated until a predetermined number of pieces of position information are stored.

ステップS208において、制御装置13は、対象者20が興味を持ち易い情報のモニター12への表示を終了する。
制御装置13は、当該ステップS208の処理を行った後、ステップS105の処理を終了して図2に示すステップS106に移行する。
In step S208, the control device 13 ends the display on the monitor 12 of information that the subject 20 is likely to be interested in.
After performing the process of step S208, the control device 13 ends the process of step S105 and proceeds to step S106 shown in FIG.

図2に示すステップS106において、制御装置13は、ステップS105において取得した複数の5次元の位置情報をそれぞれ平均して、平均された5次元の位置情報を標準顔データベースとして記憶する。
この標準顔データベースは、対象者20が興味のある情報(モニター12)を視認している最中の顔の表情に基づいて作成されたものであるため、当該対象者20の平常時の顔の器官の位置情報を示している。
制御装置13は、当該ステップS106の処理を行った後、図3に示すステップS108及びステップS109に移行する。
In step S106 shown in FIG. 2, the control device 13 averages each of the plurality of 5-dimensional position information acquired in step S105, and stores the averaged 5-dimensional position information as a standard face database.
Since this standard face database is created based on facial expressions while the subject 20 is viewing information of interest (the monitor 12), the normal face database of the subject 20 is displayed. The position information of the organ is shown.
After performing the process of step S106, the control device 13 proceeds to step S108 and step S109 shown in FIG.

一方、ステップS102から移行したステップS107において、制御装置13は、以前対象者20を認識した際に作成した当該対象者20の標準顔データベースを読み出す。
すなわち制御装置13は、対象者20が以前認識したことのある人であると判定した場合(ステップS102)、以前作成した当該対象者20の標準顔データベースを読み出すことで、標準顔データベースを作成する処理(ステップS103からステップS106まで)を省略することができる。
制御装置13は、当該ステップS107の処理を行った後、図3に示すステップS108及びステップS109に移行する。
On the other hand, in step S107 transferred from step S102, the control device 13 reads the standard face database of the subject 20 that was created when the subject 20 was previously recognized.
That is, when it is determined that the target person 20 is a person who has been recognized before (step S102), the control device 13 creates a standard face database by reading out the standard face database of the target person 20 previously created. The process (from step S103 to step S106) can be omitted.
After performing the processing of step S107, the control device 13 proceeds to step S108 and step S109 shown in FIG.

図3に示すステップS108において、制御装置13は、カメラ11によって顔を撮像されている対象者20が瞬きをしたことを検出する。
具体的には、制御装置13は、現在撮像している対象者20の顔の画像から、5次元の位置情報のうち、前記(4)点P2から点P3までの距離、及び(5)点P6から点P7までの距離、すなわち左右の目Eの開き具合(開閉度)に関する位置情報を常時検出する。以下では、当該2つの位置情報を単に「実際の目の位置情報」と記す。
そして、当該実際の目の位置情報を標準顔データベースの位置情報と常時比較し、実際の目の位置情報が標準顔データベースの位置情報に対して所定の値だけ小さくなった場合、対象者20が瞬きをしたと判断する。
制御装置13は、当該ステップS108の処理を行った後(具体的には、所定時間の間、ステップS108の処理(瞬きの検出)を継続して行った後)、ステップS110に移行する。
In step S <b> 108 shown in FIG. 3, the control device 13 detects that the subject 20 whose face is being imaged by the camera 11 blinks.
Specifically, the control device 13 determines (4) the distance from the point P2 to the point P3 and (5) the point in the five-dimensional position information from the face image of the subject 20 currently captured. Position information regarding the distance from P6 to point P7, that is, the degree of opening (opening / closing degree) of the left and right eyes E is always detected. Hereinafter, the two pieces of position information are simply referred to as “actual eye position information”.
Then, when the actual eye position information is constantly compared with the position information of the standard face database and the actual eye position information is smaller than the position information of the standard face database, the subject 20 Judging that you blinked.
After performing the process of step S108 (specifically, after continuously performing the process of step S108 (detection of blinking) for a predetermined time), the control device 13 proceeds to step S110.

図3に示すステップS109において、制御装置13は、カメラ11によって顔を撮像されている対象者20が顔をしかめたこと(顔しかめ)を検出する。
具体的には、制御装置13は、複数の人の、平常時における顔の器官の5次元の位置情報(前述(図7参照)と同様に5次元に変換されたもの)、実際に顔をしかめたときの顔の器官の5次元の位置情報、及び当該2つの位置情報の差(変位)を、予め特定表情データベースとして取得(記憶)している。
ここで、当該「複数の人」には、対象者20が含まれていなくても良い。
そして制御装置13は、当該特定表情データベースを訓練データとして、人が顔をしかめたか否かを識別する識別機能を作成している。当該識別機能としては、サポートベクターマシンの多項式カーネル法等を用いることができる。
そして制御装置13は、現在撮像している対象者20の顔の画像から5次元の位置情報を常時検出し、当該位置情報及び前記標準顔データベースを前記識別機能にかけ、対象者20が顔をしかめたか否かを判定する。
制御装置13は、当該ステップS109の処理を行った後(具体的には、所定時間の間、ステップS109の処理(顔しかめの検出)を継続して行った後)、ステップS110に移行する。
In step S109 illustrated in FIG. 3, the control device 13 detects that the subject 20 whose face has been imaged by the camera 11 has frowned (face frowning).
Specifically, the control device 13 detects the face information of a plurality of people in the normal position of the facial organ (converted to five dimensions in the same manner as described above (see FIG. 7)), The five-dimensional position information of the facial organ at the time of the frowning and the difference (displacement) between the two pieces of position information are acquired (stored) in advance as a specific facial expression database.
Here, the subject person 20 may not be included in the “plurality of people”.
Then, the control device 13 creates an identification function for identifying whether or not a person has frowned using the specific facial expression database as training data. As the identification function, a support vector machine polynomial kernel method or the like can be used.
Then, the control device 13 always detects five-dimensional position information from the face image of the subject 20 currently being imaged, applies the position information and the standard face database to the identification function, and the subject 20 frowns. It is determined whether or not.
After performing the process of step S109 (specifically, after continuing the process of step S109 (detection of frowning) for a predetermined time), the control device 13 proceeds to step S110.

ステップS110において、制御装置13は、対象者20による瞬き及び顔しかめの表出の頻度を検出する。
具体的には、制御装置13は、ステップS108及びステップS109において検出した対象者20による瞬き及び顔しかめの単位時間当たりの回数(周波数)、すなわち頻度を算出して記憶する。
In step S <b> 110, the control device 13 detects the frequency of blinking and frowning expression by the subject 20.
Specifically, the control device 13 calculates and stores the number of times (frequency) per unit time of blinking and frowning by the subject 20 detected in step S108 and step S109, that is, the frequency.

ここで、瞬きや顔しかめの表情は、本発明に係る特定の表情の一例であり、対象者20の不快感を示す表情である。例えば、対象者20が瞬きや顔しかめを頻繁にしている場合、照明が強くてまぶしい等の不快感を表しているものと考えられる。   Here, the expression of blinking or frowning is an example of a specific expression according to the present invention, and is an expression indicating discomfort of the subject 20. For example, when the subject 20 frequently blinks and frowns, it is considered that the subject 20 exhibits discomfort such as strong illumination and dazzling.

以上のようにして表情検出システム10によって検出された対象者20による特定の表情(瞬き及び顔しかめ)の表出の頻度についてのデータは、種々の目的に利用することが可能である。例えば、当該表出の頻度に応じて対象者20が感じているまぶしさや暗さを推定し、それに合わせて照明やブラインド、カーテンの開閉などを制御すること、レストランなどで当該表出の頻度に応じて顧客の満足度を推定し、マーケティングや接客に当該満足度に関するデータを活用すること、困っている人を推定し、御用聞き(声かけ)を円滑に行うこと、等が可能である。   Data regarding the frequency of expression of specific facial expressions (blinks and frowning) by the subject 20 detected by the facial expression detection system 10 as described above can be used for various purposes. For example, the glare or darkness that the subject 20 feels is estimated according to the frequency of the expression, and the lighting, blinds, curtain opening / closing, etc. are controlled accordingly, and the frequency of the expression at the restaurant, etc. Accordingly, it is possible to estimate customer satisfaction and utilize data related to the satisfaction for marketing and customer service, to estimate a person in need, and to smoothly listen (voice).

当該表情検出システム10は、対象者20個人のデータベースを事前に作成する必要がなく、不特定多数の人(対象者)に適用することができるため、幅広い用途(例えば、不特定多数の人が来店する店舗等)に利用することができる。また、予め特定の対象者20に適用することが分かっている場合であっても、事前に当該対象者20個人のデータベースを作成する作業が不要であるため、当該表情検出システム10を容易に利用することができる。   Since the facial expression detection system 10 does not need to create a database of 20 target persons in advance and can be applied to an unspecified number of persons (target persons), it can be used for a wide range of applications (for example, an unspecified number of persons). It can be used for a store to visit). Further, even if it is known to apply to a specific target person 20 in advance, it is not necessary to create a database of the target person 20 in advance, so that the facial expression detection system 10 can be easily used. can do.

以上の如く、本実施形態に係る表情検出システム10は、
対象者20の顔を撮像することが可能なカメラ11(撮像手段)と、
対象者20から視認可能な位置に配置されるモニター12(表示手段)と、
カメラ11によって撮像された対象者20の顔の画像から当該対象者20の個人情報(性別及び年齢)を推定し(ステップS103)、前記個人情報に基づいて対象者20に応じた情報をモニター12に表示させ(ステップS104)、モニター12に表示されている情報を視認している最中の対象者20の顔の画像をカメラ11によって取得し(ステップS201)、当該画像に基づいて平常時における対象者20の顔の器官の位置情報を決定して(ステップS106)、標準顔データベースとして記憶する制御装置13(制御手段)と、
を具備するものである。
このように構成することにより、平常時における対象者20の顔の器官の位置情報(標準顔データベース)を容易にかつ正確に取得(作成)することができる。
すなわち、対象者20に応じた情報をモニター12に表示させることで、当該対象者20が自然に当該情報(モニター12)を視認している顔の画像を取得することができ、ひいては平常時の表情における対象者20の顔の器官の位置情報を容易にかつ正確に取得することができる。
As described above, the facial expression detection system 10 according to the present embodiment is
A camera 11 (imaging means) capable of imaging the face of the subject 20,
A monitor 12 (display means) disposed at a position visible from the subject 20;
The personal information (gender and age) of the subject 20 is estimated from the face image of the subject 20 captured by the camera 11 (step S103), and information corresponding to the subject 20 is monitored 12 based on the personal information. (Step S104), the camera 11 acquires an image of the face of the target person 20 who is viewing the information displayed on the monitor 12 (step S201), and based on the image, Control device 13 (control means) for determining position information of the organ of the face of the subject 20 (step S106) and storing it as a standard face database;
It comprises.
With this configuration, position information (standard face database) of the organ of the face of the subject 20 at normal times can be acquired (created) easily and accurately.
That is, by displaying information corresponding to the subject 20 on the monitor 12, an image of the face that the subject 20 is naturally viewing the information (the monitor 12) can be acquired. The position information of the facial organ of the subject 20 in the facial expression can be acquired easily and accurately.

また、制御装置13は、
前記標準顔データベースを用いて、現在カメラ11によって撮像されている対象者20が特定の表情を表出したことを検出する(ステップS108及びステップS109)ものである。
このように構成することにより、検出対称となる対象者20固有のデータベース(特定の表情をした時の顔の器官の位置情報に関するデータベース等)を予め準備する必要がないため、当該データベースを作成するための労力を軽減することができる。
また、現在カメラ11によって撮像されている対象者20が特定の表情を表出したことを検出するために必要な標準顔データベースは容易に作成することができるため、表情検出システム10全体のデータベース作成のための労力を軽減することができる。
In addition, the control device 13
Using the standard face database, it is detected that the subject 20 currently captured by the camera 11 has expressed a specific facial expression (step S108 and step S109).
By configuring in this way, it is not necessary to prepare in advance a database unique to the subject 20 that is to be detected symmetrically (such as a database related to positional information of facial organs when a specific facial expression is made), so that the database is created. Can be reduced.
In addition, since the standard face database necessary for detecting that the subject 20 currently captured by the camera 11 has expressed a specific facial expression can be easily created, the database creation of the entire facial expression detection system 10 is created. Can reduce the labor for.

また、制御装置13は、
予め記憶された複数の人の、平常時における顔の器官の位置情報に対する特定の表情をした時の顔の器官の位置情報の変位に関する特定表情データベースをさらに用いて、現在カメラ11によって撮像されている対象者20が特定の表情を表出したことを検出する(ステップS109)ものである。
このように構成することにより、検出対称となる対象者20固有のデータベースを予め準備する必要がなく、容易に特定の表情を検出することができる。
In addition, the control device 13
A specific facial expression database relating to the displacement of facial organ position information when a specific facial expression of facial organ position information of a plurality of people is stored in a normal state is further captured by the current camera 11. It is detected that the subject 20 presents a specific facial expression (step S109).
By comprising in this way, it is not necessary to prepare the database specific to the subject 20 to be detected symmetrically, and a specific facial expression can be easily detected.

また、前記特定の表情とは、
対象者20の不快感を示す表情である。
このように構成することにより、特定の表情の検出結果を、対象者20の周囲の環境の制御(改善)等に利用することができる。
The specific facial expression is
It is a facial expression which shows the subject 20's discomfort.
With this configuration, the detection result of a specific facial expression can be used for control (improvement) of the environment around the subject 20 and the like.

制御装置13は、
前記情報を視認している最中の対象者20の顔の画像を取得する場合、当該対象者20の顔がカメラ11に対して所定値以上傾いていない画像のみを取得する(ステップS204等)ものである。
このように構成することにより、カメラ11に対する対象者20の顔の傾きが大きい画像を排除することで、より精度の高い標準顔データベースの作成が可能となる。
The control device 13
When acquiring an image of the face of the target person 20 who is viewing the information, only an image in which the face of the target person 20 is not inclined more than a predetermined value with respect to the camera 11 is acquired (step S204, etc.). Is.
By configuring in this way, it is possible to create a standard face database with higher accuracy by eliminating images with a large inclination of the face of the subject 20 with respect to the camera 11.

制御装置13は、
カメラ11によって取得された複数の画像における対象者20の顔の器官の位置情報を正規化した後に(ステップS205)、当該位置情報を平均するものである。
このように構成することにより、各画像における対象者20の顔の器官の位置情報を正規化することで、より精度の高い標準顔データベースの作成が可能となる。
The control device 13
After normalizing the position information of the organ of the face of the subject 20 in the plurality of images acquired by the camera 11 (step S205), the position information is averaged.
With this configuration, it is possible to create a standard face database with higher accuracy by normalizing the position information of the facial organs of the subject 20 in each image.

制御装置13は、
対象者20が、それ以前に前記標準顔データベースを記憶されたことのある対象者20と同一人物である場合、新たな当該対象者20の標準顔データベースの記憶を行わない(ステップS107等)ものである。
このように構成することにより、以前に標準顔データベースが記憶されている対象者20については、再度標準顔データベースを記憶させる処理を省略することができ、表情検出システム10全体の処理の効率化を図ることができる。
The control device 13
When the target person 20 is the same person as the target person 20 who has previously stored the standard face database, the new standard face database of the target person 20 is not stored (step S107, etc.) It is.
With this configuration, the process of storing the standard face database again can be omitted for the subject 20 who has previously stored the standard face database, and the processing of the entire facial expression detection system 10 can be made more efficient. Can be planned.

また、本実施形態に係る表情検出方法は、
対象者20の顔の画像から当該対象者20の個人情報を推定し、
前記個人情報に基づいて対象者20に応じた情報を対象者20に視認させ、
前記情報を視認している最中の対象者20の顔の画像を取得し、
当該画像に基づいて平常時における対象者20の顔の器官の位置情報を決定して、標準顔データベースとして取得し、
前記標準顔データベースを用いて、対象者20が特定の表情を表出したことを検出するものである。
このように構成することにより、平常時における対象者20の顔の器官の位置情報(標準顔データベース)を容易にかつ正確に取得(作成)することができる。また、検出対称となる対象者20固有のデータベースを予め準備することなく特定の表情を検出することができ、当該データベースを作成するための労力を軽減することができる。
In addition, the facial expression detection method according to this embodiment includes:
Estimating the personal information of the subject 20 from the face image of the subject 20,
Based on the personal information, let the subject 20 visually recognize information corresponding to the subject 20,
Obtaining an image of the face of the subject 20 who is viewing the information;
Determine the position information of the organ of the face of the subject 20 in normal time based on the image, and obtain as a standard face database,
The standard face database is used to detect that the subject 20 has expressed a specific facial expression.
With this configuration, position information (standard face database) of the organ of the face of the subject 20 at normal times can be acquired (created) easily and accurately. Further, it is possible to detect a specific facial expression without preparing a database specific to the subject 20 to be detected symmetrically in advance, and it is possible to reduce labor for creating the database.

なお、本実施形態では、本発明に係る撮像手段としてカメラ11を用いたが、本発明に係る制御に必要な情報を取得できるものであれば、種々の撮像手段(例えば、表示手段(モニター12)に一体化(内蔵)されたもの等)を用いることが可能である。   In the present embodiment, the camera 11 is used as the imaging unit according to the present invention. However, as long as the information necessary for the control according to the present invention can be acquired, various imaging units (for example, display unit (monitor 12) are used. And the like (integrated (built-in)) can be used.

また、本実施形態では、本発明に係る表示手段としてモニター12を用いたが、本発明に係る情報を表示できるものであれば、種々の表示手段(例えば、パソコンのモニターや、表示手段と入力手段が一体化されたタッチパネル等)を用いることが可能である。   In this embodiment, the monitor 12 is used as the display means according to the present invention. However, various display means (for example, a personal computer monitor or a display means and an input) can be used as long as the information according to the present invention can be displayed. It is possible to use a touch panel in which means are integrated.

また、本実施形態では、本発明に係る制御手段として制御装置13を用いたが、本発明に係る制御を行うことができるものであれば、種々の制御手段(例えば、市販のパソコンや、複数台の制御装置を組み合わせたもの等)を用いることが可能である。   In the present embodiment, the control device 13 is used as the control means according to the present invention. However, various control means (for example, a commercially available personal computer, a plurality of computers, etc.) can be used as long as the control according to the present invention can be performed. It is possible to use a combination of control devices of a table.

また、本実施形態では、対象者20の不快感を示す表情を、特定の表情として例示したが、本発明は不快感を示す表情に限らず、その他の表情(喜怒哀楽を示す表情)にも適用することが可能である。   Further, in the present embodiment, the facial expression showing the uncomfortable feeling of the subject 20 is exemplified as the specific facial expression, but the present invention is not limited to the facial expression showing the unpleasant feeling but other facial expressions (facial expressions showing emotions). Can also be applied.

また、本実施形態では、制御装置13は、図2のステップS101において市販のプログラム等を用いて対象者20を認識するものとしたが、例えば上述の顔の器官の座標(図4のステップS205)や5次元の位置情報(ステップS206)を用いて対象者20を認識する構成とすることも可能である。   In the present embodiment, the control device 13 recognizes the subject 20 using a commercially available program or the like in step S101 in FIG. 2, but for example, the coordinates of the facial organs described above (step S205 in FIG. 4). ) Or five-dimensional position information (step S206), the target person 20 can be recognized.

また、本実施形態では、制御装置13は、図4のステップS203においてステップS202で取得した座標に基づいて対象者20の顔の傾きを判定するものとしたが、その他の座標や対象者20の顔の特徴から傾きを判定する構成とすることも可能である。   In the present embodiment, the control device 13 determines the inclination of the face of the subject 20 based on the coordinates acquired in step S202 in step S203 of FIG. It is also possible to adopt a configuration in which the inclination is determined from the facial features.

また、本実施形態では、制御装置13は、図4のステップS201において一旦画像を取得した後で、当該画像の中から顔が大きく傾いている画像を削除する(ステップS203及びステップS204)構成としたが、ステップS201において画像を取得する時点で顔の傾きを算出し、顔が大きく傾いている画像をはじめから取得しない構成とすることも可能である。   In the present embodiment, the control device 13 once acquires an image in step S201 in FIG. 4 and then deletes an image whose face is greatly inclined from the image (step S203 and step S204). However, it is also possible to calculate the inclination of the face at the time of acquiring the image in step S201, and not to acquire an image in which the face is greatly inclined from the beginning.

以下では、図8から図10までを用いて、上述の表情検出システム10を、実験設備として設置された部屋30内に存在する対象者20が周囲の環境(本実施形態においては、特に照明環境)に対してどの程度不快であるか(不快度)を推定する不快度推定システム100として応用した例について説明する。
なお、当該不快度推定システム100は表情検出システム10の応用例の一つであり、表情検出システム10はその他の種々のシステムに応用可能である。
In the following, the facial expression detection system 10 described above is used in FIG. 8 to FIG. 10 in the surrounding environment (in this embodiment, particularly the lighting environment) An example of application as a discomfort level estimation system 100 that estimates how much discomfort (discomfort level) will be described.
The discomfort level estimation system 100 is one application example of the facial expression detection system 10, and the facial expression detection system 10 can be applied to other various systems.

図8に示す不快度推定システム100は、主としてカメラ11、モニター12、天井照明14、窓照明15、不快度測定ダイヤル16、及び制御装置13を具備する。
なお、不快度推定システム100のうち、カメラ11及びモニター12の構成は上述の表情検出システム10と略同一であるため、説明を省略する。
The discomfort level estimation system 100 shown in FIG. 8 mainly includes a camera 11, a monitor 12, a ceiling light 14, a window light 15, a discomfort level measurement dial 16, and a control device 13.
Note that, in the discomfort level estimation system 100, the configuration of the camera 11 and the monitor 12 is substantially the same as that of the facial expression detection system 10 described above, and thus the description thereof is omitted.

天井照明14は、部屋30の室内空間の照明器具である。天井照明14は、部屋30の天井であって、対象者20の上方に配置される。天井照明14による照度は変更可能となるように構成される。   The ceiling lighting 14 is a lighting device for the indoor space of the room 30. The ceiling lighting 14 is a ceiling of the room 30 and is disposed above the subject 20. The illumination by the ceiling lighting 14 is configured to be changeable.

窓照明15は、部屋30に設けられた窓を擬似的に再現するための照明器具である。窓照明15は、部屋30の側壁面であって、対象者20の正面に配置される。窓照明15の輝度は変更可能となるように構成される。窓照明15を発光させることにより、部屋30に設けられた窓から太陽光が差し込む状態を擬似的に再現することができる。   The window lighting 15 is a lighting fixture for reproducing a window provided in the room 30 in a pseudo manner. The window illumination 15 is disposed on the side wall surface of the room 30 and in front of the subject 20. The brightness of the window illumination 15 is configured to be changeable. By causing the window illumination 15 to emit light, a state in which sunlight is inserted from a window provided in the room 30 can be simulated.

不快度測定ダイヤル16は、対象者20がどの程度不快であるか(不快度)を測定するためのものである。不快度測定ダイヤル16はダイヤル式のスイッチにより構成され、対象者20の手が届く範囲に配置される。不快度測定ダイヤル16には所定の数値範囲で不快度を表す目盛が付されている。対象者20は、不快度測定ダイヤル16が指し示す数値(目盛)が、自らが感じた不快の程度に応じた値となるように当該不快度測定ダイヤル16を操作する。   The discomfort level measurement dial 16 is for measuring how much the subject 20 is uncomfortable (discomfort level). The discomfort measurement dial 16 is constituted by a dial-type switch, and is disposed in a range that can be reached by the subject 20. The discomfort level measurement dial 16 is provided with a scale indicating the discomfort level within a predetermined numerical range. The subject 20 operates the discomfort measurement dial 16 so that the numerical value (scale) indicated by the discomfort measurement dial 16 becomes a value corresponding to the degree of discomfort felt by the subject 20.

制御装置13は天井照明14に接続され、当該天井照明14による照度が任意の照度となるように制御することができる。制御装置13は自ら天井照明14の照度を制御しているため、別途センサ等を用いるまでもなく当該天井照明14による照度を検出することができる。
また、制御装置13は窓照明15に接続され、当該窓照明15の輝度が任意の輝度となるように制御することができる。制御装置13は自ら窓照明15の照度を制御しているため、別途センサ等を用いるまでもなく当該窓照明15の輝度を検出することができる。
また、制御装置13は不快度測定ダイヤル16に接続され、当該不快度測定ダイヤル16が指し示す数値(目盛)を検出することができる。
The control device 13 is connected to the ceiling lighting 14 and can control the illuminance by the ceiling lighting 14 to be an arbitrary illuminance. Since the control device 13 controls the illuminance of the ceiling illumination 14 itself, it is possible to detect the illuminance by the ceiling illumination 14 without using a separate sensor or the like.
Further, the control device 13 is connected to the window illumination 15 and can control the luminance of the window illumination 15 to be an arbitrary luminance. Since the control device 13 controls the illuminance of the window illumination 15 by itself, it is possible to detect the brightness of the window illumination 15 without using a separate sensor or the like.
The control device 13 is connected to the discomfort level measurement dial 16 and can detect a numerical value (scale) indicated by the discomfort level measurement dial 16.

以下では、図9及び図10を用いて、不快度推定システム100による対象者20の不快度を推定する方法について説明する。   Below, the method of estimating the discomfort degree of the subject 20 by the discomfort degree estimation system 100 is demonstrated using FIG.9 and FIG.10.

不快度推定システム100が具備する制御装置13には、図9に示すように構築されたベイジアンネットワーク(Bayesian Network)が予め記憶され、当該ベイジアンネットワークを利用して対象者20の不快度が推定される。ベイジアンネットワークとは、複数の変数間の因果関係を非循環有向グラフで表すと共に、個々の変数の関係を条件付き確率で表す確率推論のモデルである。図中の矢印の始点側のノードが原因を、終点側のノードが結果を、それぞれ表している。また、原因が結果に及ぼす影響の度合いは、条件付き確率で定量化される。   The controller 13 included in the discomfort level estimation system 100 stores a Bayesian network constructed as shown in FIG. 9 in advance, and the discomfort level of the target person 20 is estimated using the Bayesian network. The A Bayesian network is a model of probabilistic reasoning in which a causal relationship between a plurality of variables is represented by an acyclic directed graph and a relationship between individual variables is represented by a conditional probability. In the figure, the node on the start point side of the arrow indicates the cause, and the node on the end point side indicates the result. Also, the degree of influence of the cause on the result is quantified with a conditional probability.

図9に示すように、本実施形態に係るベイジアンネットワークは、顔しかめ認識頻度ノードN101と、顔しかめ表出頻度ノードN102と、まばたき認識頻度ノードN201と、まばたき表出頻度ノードN202と、照度(天井)変化前ノードN301と、輝度(窓)変化前ノードN401と、照度(天井)変化後ノードN501と、輝度(窓)変化後ノードN601と、不快度ノードN701と、により構築される。   As shown in FIG. 9, the Bayesian network according to the present embodiment includes a frown recognition frequency node N101, a frown expression frequency node N102, a blink recognition frequency node N201, a blink expression frequency node N202, and illuminance ( It is constructed by a node N301 before changing the ceiling), a node N401 before changing luminance (window), a node N501 after changing illuminance (ceiling), a node N601 after changing luminance (window), and a discomfort node N701.

本実施形態に係るベイジアンネットワークは、制御装置13によって天井照明14及び窓照明15を制御することで対象者20に対して複数パターンの照明変化(天井照明14による照度、及び窓照明15の輝度の大きな変化)を与える学習実験の結果に基づいて構築され、当該制御装置13に記憶される。具体的には、当該学習実験に基づいて上記各ノードの確率(事前確率又は条件付き確率)が求められ、制御装置13に記憶される。   In the Bayesian network according to the present embodiment, the control device 13 controls the ceiling lighting 14 and the window lighting 15 to change the illumination change in a plurality of patterns for the subject 20 (the illuminance by the ceiling lighting 14 and the luminance of the window lighting 15). It is constructed based on the result of a learning experiment that gives a large change) and is stored in the control device 13. Specifically, the probability (prior probability or conditional probability) of each node is obtained based on the learning experiment and stored in the control device 13.

以下では、本実施形態に係るベイジアンネットワークの各ノードについて説明する。   Below, each node of the Bayesian network which concerns on this embodiment is demonstrated.

顔しかめ認識頻度ノードN101は、対象者20の顔しかめの頻度を表すノードである。当該対象者20の顔しかめ(顔をしかめたか否か)は、前述の如く制御装置13により検出される(図2のステップS109参照)。前記学習実験において、対象者20が顔をしかめたか否かが制御装置13により検出される(図2のステップS109)と共に、当該対象者20の顔しかめの頻度(顔しかめの周波数)が算出される(図2のステップS110)。当該顔しかめの頻度は複数の数値範囲に分類され、顔しかめの頻度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。   The frown recognition frequency node N101 is a node that represents the frown frequency of the subject 20. The face fraud of the subject 20 (whether or not the face is frowned) is detected by the control device 13 as described above (see step S109 in FIG. 2). In the learning experiment, it is detected by the control device 13 whether or not the subject 20 is frowning (step S109 in FIG. 2), and the frequency of frowning of the subject 20 (frequing frequency) is calculated. (Step S110 in FIG. 2). The fraud frequency is classified into a plurality of numerical ranges, and the probability (prior probability) that the fraud frequency is included in each numerical range is stored in the control device 13.

顔しかめ表出頻度ノードN102は、実際の対象者20の顔しかめの頻度を表すノードである。前記学習実験において、実際に対象者20が顔をしかめたか否かが目視等により確認されると共に、当該実際の対象者20の顔しかめの頻度(顔しかめの周波数)が算出される。
ここで、前記学習実験においては、例えば図10に示すように、顔をしかめていない状態の表情(図10(a))に対して、目Eを細めたり(図10(b))、眉Bを寄せて目Eを細めたり(図10(c))、眉Bを寄せて目Eを細め、かつ口Mを横にひいたり(図10(d))した場合に、対象者20が顔をしかめたと判断される。
算出された実際の顔しかめの頻度は複数の数値範囲に分類され、顔しかめ認識頻度ノードN101を原因とする当該実際の顔しかめの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置13に記憶される。
The frowning expression frequency node N102 is a node that represents the fringing frequency of the actual subject 20. In the learning experiment, whether or not the subject 20 actually frowns is confirmed by visual observation or the like, and the frequency of frowning (frequing frequency) of the actual subject 20 is calculated.
Here, in the learning experiment, for example, as shown in FIG. 10, the eye E is narrowed (FIG. 10 (b)) with respect to a facial expression (FIG. 10 (a)) in which the face is not frustrated, When the eye 20 is narrowed by bringing B close (FIG. 10C), the eye E is narrowed by pulling the eyebrow B, and the mouth M is pulled sideways (FIG. 10D), the subject 20 Judged to be frowned.
The calculated frequency of frowning is classified into a plurality of numerical ranges, and the probability (conditional probability) that the frequency of the actual frowning caused by the face fraud recognition frequency node N101 is included in each numerical range is as follows: It is stored in the control device 13.

まばたき認識頻度ノードN201は、対象者20のまばたきの頻度を表すノードである。当該対象者20のまばたきは、前述の如く制御装置13により検出される(図2のステップS108参照)。前記学習実験において、対象者20がまばたきをしたか否かが制御装置13により検出される(図2のステップS108)と共に、当該対象者20のまばたきの頻度(まばたきの周波数)が算出される(図2のステップS110)。当該まばたきの頻度は複数の数値範囲に分類され、まばたきの頻度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。   The blink recognition frequency node N201 is a node that represents the blink frequency of the subject 20. The blink of the subject 20 is detected by the control device 13 as described above (see step S108 in FIG. 2). In the learning experiment, whether or not the subject 20 blinks is detected by the control device 13 (step S108 in FIG. 2), and the blink frequency (blink frequency) of the subject 20 is calculated ( Step S110 in FIG. The blinking frequency is classified into a plurality of numerical ranges, and the probability that the blinking frequency is included in each numerical range (prior probability) is stored in the control device 13.

まばたき表出頻度ノードN202は、実際の対象者20のまばたきの頻度を表すノードである。前記学習実験において、実際に対象者20がまばたきをしたか否かが目視等により確認されると共に、当該実際の対象者20のまばたきの頻度(まばたきの周波数)が算出される。当該実際のまばたきの頻度は複数の数値範囲に分類され、まばたき認識頻度ノードN201を原因とする当該実際のまばたきの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置13に記憶される。   The blinking expression frequency node N202 is a node that represents the blinking frequency of the actual subject 20. In the learning experiment, whether or not the subject 20 actually blinks is confirmed by visual observation or the like, and the blink frequency (blink frequency) of the actual subject 20 is calculated. The actual blink frequency is classified into a plurality of numerical ranges, and the probability (conditional probability) that the actual blink frequency caused by the blink recognition frequency node N201 is included in each numerical range is stored in the control device 13. Is done.

照度(天井)変化前ノードN301は、天井照明14による照度が大きく変化する前の照度を表すノードである。当該照度は、制御装置13により検出される。前記学習実験において、天井照明14による照度が大きく変化する前の照度は複数の数値範囲に分類され、当該大きく変化する前の照度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。   The illuminance (ceiling) pre-change node N301 is a node that represents the illuminance before the illuminance by the ceiling illumination 14 changes significantly. The illuminance is detected by the control device 13. In the learning experiment, the illuminance before the illuminance due to the ceiling lighting 14 changes greatly is classified into a plurality of numerical ranges, and the probability (prior probability) that the illuminance before the large change is included in each numerical range is given to the control device 13. Remembered.

輝度(窓)変化前ノードN401は、窓照明15の輝度が大きく変化する前の輝度を表すノードである。当該輝度は、制御装置13により検出される。前記学習実験において、窓照明15の輝度が大きく変化する前の輝度は複数の数値範囲に分類され、当該大きく変化する前の輝度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。   The node N401 before change in luminance (window) is a node representing the luminance before the luminance of the window illumination 15 changes greatly. The brightness is detected by the control device 13. In the learning experiment, the luminance before the luminance of the window illumination 15 changes greatly is classified into a plurality of numerical ranges, and the probability (prior probability) that the luminance before the luminance changes is included in each numerical range is given to the control device 13. Remembered.

照度(天井)変化後ノードN501は、天井照明14による照度が大きく変化した後の照度を表すノードである。当該照度は、制御装置13により検出される。前記学習実験において、天井照明14による照度が大きく変化した後の照度は複数の数値範囲に分類され、当該大きく変化した後の照度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。   The illuminance (ceiling) post-change node N501 is a node representing the illuminance after the illuminance by the ceiling illumination 14 has changed significantly. The illuminance is detected by the control device 13. In the learning experiment, the illuminance after the illuminance due to the ceiling illumination 14 is greatly changed is classified into a plurality of numerical ranges, and the probability (prior probability) that the illuminance after the significant change is included in each numerical range is given to the control device 13. Remembered.

輝度(窓)変化後ノードN601は、窓照明15の輝度が大きく変化した後の輝度を表すノードである。当該輝度は、制御装置13により検出される。前記学習実験において、窓照明15の輝度が大きく変化した後の輝度は複数の数値範囲に分類され、当該大きく変化した後の輝度が各数値範囲に含まれる確率(事前確率)が制御装置13に記憶される。   The post-change luminance (window) node N601 is a node representing the luminance after the luminance of the window illumination 15 has changed significantly. The brightness is detected by the control device 13. In the learning experiment, the luminance after the luminance of the window illumination 15 is greatly changed is classified into a plurality of numerical ranges, and the probability (prior probability) that the luminance after the large change is included in each numerical range is given to the control device 13. Remembered.

不快度ノードN701は、対象者20がどの程度不快であるか(不快度)を表すノードである。前記学習実験において、実際に対象者20がどの程度不快であるか(不快度)が測定される。具体的には、前記学習実験において、天井照明14による照度及び窓照明15の輝度が大きく変化した際に、対象者20が操作した不快度測定ダイヤル16の数値(目盛)を制御装置13が検出することにより、当該対象者20がどの程度不快であるか(不快度)を測定することができる。当該測定された不快度は複数の数値範囲に分類され、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601を原因とする当該測定された不快度が各数値範囲に含まれる確率(条件付き確率)が、制御装置13に記憶される。   The discomfort level node N701 is a node representing how much the subject 20 is uncomfortable (discomfort level). In the learning experiment, how much the subject 20 is actually uncomfortable (discomfort level) is measured. Specifically, in the learning experiment, the control device 13 detects the numerical value (scale) of the discomfort degree measurement dial 16 operated by the subject 20 when the illuminance by the ceiling illumination 14 and the brightness of the window illumination 15 change greatly. By doing so, it is possible to measure how unpleasant the subject 20 is (discomfort level). The measured discomfort level is classified into a plurality of numerical ranges, such as a frowning expression frequency node N102, a blinking expression frequency node N202, an illuminance (ceiling) pre-change node N301, a luminance (window) pre-change node N401, and an illuminance ( A probability (conditional probability) that the measured discomfort level caused by the node N501 after change and the node N601 after change in luminance (window) is included in each numerical range is stored in the control device 13.

以上の如く、前記学習実験によって事前に構築されたベイジアンネットワークを用いて、部屋30の室内空間の環境が変化した(具体的には、天井照明14による照度及び窓照明15の輝度が大きく変化した)際の対象者20の不快度を、確率論として推定することができる。   As described above, the environment of the indoor space of the room 30 has changed using the Bayesian network constructed in advance by the learning experiment (specifically, the illuminance by the ceiling lighting 14 and the brightness of the window lighting 15 have changed greatly). ) Can be estimated as probability theory.

具体的には、まず、部屋30の天井照明14による照度及び窓照明15の輝度が変化した際に、制御装置13によって当該変化に関する情報を検出する。すなわち、制御装置13は、天井照明14による照度が大きく変化する前の照度(照度(天井)変化前ノードN301)、窓照明15の輝度が大きく変化する前の輝度(輝度(窓)変化前ノードN401)、天井照明14による照度が大きく変化した後の照度(照度(天井)変化後ノードN501)及び窓照明15の輝度が大きく変化した後の輝度(輝度(窓)変化後ノードN601)を検出する。   Specifically, first, when the illuminance by the ceiling illumination 14 in the room 30 and the brightness of the window illumination 15 change, the control device 13 detects information regarding the change. That is, the control device 13 determines the illuminance (illuminance (ceiling) pre-change node N301) before the illuminance by the ceiling illumination 14 changes significantly, and the luminance (luminance (window) pre-change node before the luminance of the window illumination 15 changes significantly. N401), the illuminance after the illuminance by the ceiling illumination 14 changes significantly (node N501 after the illuminance (ceiling) change) and the luminance after the luminance of the window illumination 15 changes greatly (node N601 after the change in luminance (window)). To do.

また、部屋30の室内空間の環境(天井照明14による照度及び窓照明15の輝度)が変化した際に対象者20が発する不快な表情を制御装置13によって検出する。すなわち、制御装置13は、部屋30の室内空間の環境が変化した際の対象者20の顔しかめ及びまばたきを検出する(図2のステップS108及びステップS109参照)。   In addition, the control device 13 detects an unpleasant facial expression that the subject 20 emits when the environment of the indoor space of the room 30 (illuminance by the ceiling lighting 14 and brightness of the window lighting 15) changes. In other words, the control device 13 detects the frowning and blinking of the subject 20 when the environment of the indoor space of the room 30 changes (see step S108 and step S109 in FIG. 2).

次に、制御装置13によって、検出された対象者20が表出する不快な表情の頻度(周波数)を算出する。すなわち、制御装置13は、検出された対象者20の顔しかめの頻度(顔しかめ認識頻度ノードN101)、及び前記まばたき検出手段によって検出された対象者20のまばたきの頻度(まばたき認識頻度ノードN201)を算出する(図2のステップS110参照)。   Next, the control device 13 calculates the frequency (frequency) of an unpleasant facial expression that the detected subject 20 expresses. That is, the control device 13 detects the frequency of frowning of the subject 20 (face fraud recognition frequency node N101) and the frequency of blinking of the subject 20 detected by the blink detection means (blink recognition frequency node N201). Is calculated (see step S110 in FIG. 2).

そして、制御装置13は、上記各ノード(顔しかめ認識頻度ノードN101、まばたき認識頻度ノードN201、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601)の条件を用いて、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202及び不快度ノードN701の条件付き確率から対象者20の不快度がとり得る複数の値(数値範囲)及びそれぞれの確率を算出する。制御装置13は、対象者20の不快度がとり得る複数の値それぞれに、当該値となる確率を掛け合わせ、さらにそれらを合算した数値を、対象者20の不快度として推定する。   Then, the control device 13 performs the above-described nodes (face freckled recognition frequency node N101, blink recognition frequency node N201, node before illumination (ceiling) change N301, node before luminance (window) change N401, and node after illumination (ceiling) change N501. And the discomfort degree of the subject 20 can be taken from the conditional probabilities of the frowning expression frequency node N102, the blinking expression frequency node N202, and the discomfort degree node N701 using the condition of the brightness (window) changed node N601). Value (numerical range) and respective probabilities are calculated. The control device 13 multiplies each of a plurality of values that can be taken by the subject 20 as the degree of discomfort, and estimates a numerical value obtained by adding them as the degree of discomfort of the subject 20.

このように、本実施形態に係る不快度推定システム100は、環境変化に関する情報に加えて対象者20が発する不快な表情の頻度を用いるため、当該対象者20の不快度を精度良く推定することができる。このようにして推定された対象者20の不快度は、種々の目的に利用することが可能である。   As described above, the discomfort degree estimation system 100 according to the present embodiment uses the frequency of the unpleasant facial expression generated by the subject 20 in addition to the information related to the environmental change, and therefore accurately estimates the discomfort degree of the subject 20. Can do. The degree of discomfort of the subject 20 estimated in this way can be used for various purposes.

なお、本実施形態(応用例)においては、実験設備として設置された部屋30を例にして説明したが、本発明はこれに限るものではなく、日常生活において使用している部屋を用いて上述の不快度の推定を行うことも可能である。   In the present embodiment (application example), the room 30 installed as experimental equipment has been described as an example. However, the present invention is not limited to this, and the above-described room is used in daily life. It is also possible to estimate the degree of discomfort.

また、本実施形態においては窓照明15を用いたが、本発明はこれに限るものではなく、通常の窓(部屋30の外部の光が入ってくる窓)と当該窓の輝度を検出するセンサを用いて上述の不快度の推定を行うことも可能である。   Further, although the window illumination 15 is used in the present embodiment, the present invention is not limited to this, and a normal window (a window through which light outside the room 30 enters) and a sensor for detecting the luminance of the window It is also possible to estimate the degree of discomfort described above using.

また、本実施形態においては、照明環境(天井照明14による照度、及び窓照明15の輝度)の変化に対する不快度を推定するものとしたが、その他の環境変化(例えば、温度の変化、湿度の変化等)に対する不快度を推定することも可能である。   In the present embodiment, the degree of discomfort with respect to changes in the lighting environment (illuminance by the ceiling lighting 14 and the brightness of the window lighting 15) is estimated, but other environmental changes (for example, temperature changes, humidity It is also possible to estimate the degree of discomfort with respect to changes.

10 表情検出システム
11 カメラ(撮像手段)
12 モニター(表示手段)
13 制御装置(制御手段)
20 対象者
10 facial expression detection system 11 camera (imaging means)
12 Monitor (display means)
13 Control device (control means)
20 Target people

Claims (7)

対象者の顔を撮像することが可能な撮像手段と、
前記対象者から視認可能な位置に配置される表示手段と、
前記撮像手段によって撮像された前記対象者の顔の画像から当該対象者の個人情報を推定し、前記個人情報に基づいて前記対象者に応じた情報を前記表示手段に表示させ、前記表示手段に表示されている情報を視認している最中の前記対象者の顔の画像を前記撮像手段によって取得し、当該画像に基づいて平常時における前記対象者の顔の器官の位置情報である平常時位置情報を決定して、標準顔データベースとして記憶する制御手段と、
を具備し、
前記制御手段は、
前記情報を視認している最中の前記対象者の顔の画像を取得する場合、当該対象者の顔の器官の位置情報を検出し、当該検出された位置情報に基づいて当該対象者の顔が前記撮像手段に対してどの程度傾いているかを判定し、当該対象者の顔が前記撮像手段に対して所定値以上傾いていない画像のみを取得し、当該画像についての前記検出された位置情報に基づいて前記平常時位置情報を決定することを特徴とする、
表情検出システム。
Imaging means capable of imaging the face of the subject;
Display means arranged at a position visible from the subject;
The personal information of the target person is estimated from the face image of the target person imaged by the imaging means, information corresponding to the target person is displayed on the display means based on the personal information, and the display means An image of the face of the subject person who is viewing the displayed information is acquired by the imaging means, and the normal position is the position information of the organ of the face of the subject person in the normal state based on the image. Control means for determining position information and storing it as a standard face database;
Equipped with,
The control means includes
When acquiring an image of the face of the target person who is visually recognizing the information, the position information of the organ of the target person's face is detected, and the face of the target person is detected based on the detected position information. Is determined with respect to the imaging unit, and only the image in which the target person's face is not inclined more than a predetermined value with respect to the imaging unit is acquired, and the detected position information about the image is acquired. The normal position information is determined based on
Facial expression detection system.
前記制御手段は、
前記標準顔データベースを用いて、現在前記撮像手段によって撮像されている前記対象者が特定の表情を表出したことを検出することを特徴とする、
請求項1に記載の表情検出システム。
The control means includes
Using the standard face database to detect that the subject currently imaged by the imaging means expresses a specific facial expression,
The facial expression detection system according to claim 1.
前記制御手段は、
予め記憶された複数の人の、平常時における顔の器官の位置情報に対する特定の表情をした時の顔の器官の位置情報の変位に関する特定表情データベースをさらに用いて、現在前記撮像手段によって撮像されている前記対象者が特定の表情を表出したことを検出することを特徴とする、
請求項2に記載の表情検出システム。
The control means includes
A specific facial expression database relating to the displacement of facial organ position information when a specific facial expression with respect to facial organ positional information of a plurality of people in normal times is stored is further captured by the imaging means. Detecting that the subject is exposed to a specific facial expression,
The facial expression detection system according to claim 2.
前記特定の表情とは、
前記対象者の不快感を示す表情であることを特徴とする、
請求項2又は請求項3に記載の表情検出システム。
The specific facial expression is
It is a facial expression showing discomfort of the subject,
The facial expression detection system according to claim 2 or claim 3.
前記制御手段は、
前記撮像手段によって取得された複数の画像における前記対象者の顔の器官の位置情報を正規化した後に、当該位置情報を平均することを特徴とする、
請求項1から請求項4までのいずれか一項に記載の表情検出システム。
The control means includes
After normalizing the position information of the organ of the subject's face in the plurality of images acquired by the imaging means, the position information is averaged ,
The facial expression detection system according to any one of claims 1 to 4.
前記制御手段は、
前記対象者が、それ以前に前記標準顔データベースを記憶されたことのある対象者と同一人物である場合、新たな当該対象者の標準顔データベースの記憶を行わないことを特徴とする、
請求項1から請求項5までのいずれか一項に記載の表情検出システム。
The control means includes
When the subject is the same person as the subject who has previously stored the standard face database, the new standard face database of the subject is not stored .
The facial expression detection system according to any one of claims 1 to 5.
対象者の顔の画像から当該対象者の個人情報を推定し、
前記個人情報に基づいて前記対象者に応じた情報を前記対象者に視認させ、
前記情報を視認している最中の前記対象者の顔の画像を撮像手段により取得し、
当該画像に基づいて平常時における前記対象者の顔の器官の位置情報である平常時位置情報を決定して、標準顔データベースとして取得し、
前記標準顔データベースを用いて、前記対象者が特定の表情を表出したことを検出する表情検出方法であって、
前記情報を視認している最中の前記対象者の顔の画像を取得する場合、当該対象者の顔の器官の位置情報を検出し、当該検出された位置情報に基づいて当該対象者の顔が前記撮像手段に対してどの程度傾いているかを判定し、当該対象者の顔が前記撮像手段に対して所定値以上傾いていない画像のみを取得し、当該画像についての前記検出された位置情報に基づいて前記平常時位置情報を決定することを特徴とする、
表情検出方法。
Estimate the subject ’s personal information from the subject ’s face image,
Based on the personal information, let the subject visually recognize information corresponding to the subject,
An image of the face of the subject who is viewing the information is acquired by an imaging unit,
Determine the normal position information that is the position information of the organ of the subject's face in normal time based on the image, and obtain as a standard face database,
A facial expression detection method for detecting that the subject has expressed a specific facial expression using the standard face database,
When acquiring an image of the face of the target person who is visually recognizing the information, the position information of the organ of the target person's face is detected, and the face of the target person is detected based on the detected position information. Is determined with respect to the imaging unit, and only the image in which the target person's face is not inclined more than a predetermined value with respect to the imaging unit is acquired, and the detected position information about the image is acquired. The normal position information is determined based on
Expression detection method.
JP2013112410A 2013-05-28 2013-05-28 Facial expression detection system and facial expression detection method Active JP6202882B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013112410A JP6202882B2 (en) 2013-05-28 2013-05-28 Facial expression detection system and facial expression detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013112410A JP6202882B2 (en) 2013-05-28 2013-05-28 Facial expression detection system and facial expression detection method

Publications (2)

Publication Number Publication Date
JP2014232958A JP2014232958A (en) 2014-12-11
JP6202882B2 true JP6202882B2 (en) 2017-09-27

Family

ID=52126123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013112410A Active JP6202882B2 (en) 2013-05-28 2013-05-28 Facial expression detection system and facial expression detection method

Country Status (1)

Country Link
JP (1) JP6202882B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004274519A (en) * 2003-03-11 2004-09-30 Casio Comput Co Ltd Incoming call answering system, mobile phone with incoming call answering function and program
JP4315148B2 (en) * 2005-11-25 2009-08-19 株式会社ニコン Electronic camera
JP2008009728A (en) * 2006-06-29 2008-01-17 Ritsumeikan Facial expression recognition method and facial expression recognition apparatus
JP4999570B2 (en) * 2007-06-18 2012-08-15 キヤノン株式会社 Facial expression recognition apparatus and method, and imaging apparatus
JP2009163422A (en) * 2007-12-28 2009-07-23 Canon Inc Image processing apparatus, image processing method, and image processing program
JP5106355B2 (en) * 2008-11-13 2012-12-26 キヤノン株式会社 Facial expression determination device, control method thereof, imaging device, and program
JP5550114B2 (en) * 2010-09-07 2014-07-16 埼玉日本電気株式会社 Imaging device

Also Published As

Publication number Publication date
JP2014232958A (en) 2014-12-11

Similar Documents

Publication Publication Date Title
JP5863423B2 (en) Information processing apparatus, information processing method, and program
CN106562792B (en) Control method of information prompting device and information prompting device
KR102640420B1 (en) Operation Method for activation of Home robot device and Home robot device supporting the same
JP4876687B2 (en) Attention level measuring device and attention level measuring system
KR102092931B1 (en) Method for eye-tracking and user terminal for executing the same
US20150086110A1 (en) Person attribute estimation system and learning-use data generation device
JPWO2018051944A1 (en) People flow estimation device, people flow estimation method and program
JP2019087257A (en) System and method for guiding social interactions
KR20140104661A (en) Method and apparatus for user interface using gaze interaction
JP7306152B2 (en) Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method, and emotion estimation system
Cvetkoska et al. Smart mirror E-health assistant—Posture analyze algorithm proposed model for upright posture
JP6109288B2 (en) Information processing apparatus, information processing method, and program
CN110582781A (en) Gaze tracking system and method
JP2011081486A (en) Coordinate image generating device, coordinate image generating method, and program
KR20190067433A (en) Method for providing text-reading based reward advertisement service and user terminal for executing the same
JP2019126657A (en) Detection device and detection program
de Belen et al. Integrating mixed reality and internet of things as an assistive technology for elderly people living in a smart home
JP5016959B2 (en) Visibility determination device
JP6651086B1 (en) Image analysis program, information processing terminal, and image analysis system
JP5910249B2 (en) Interaction device and interaction control program
JP6359253B2 (en) Emotion extraction method, emotion extraction program, emotion extraction device, and building design method
KR102477231B1 (en) Apparatus and method for detecting interest in gazed objects
JP6075982B2 (en) Face frown detection system and face frown detection method
JP2018205534A (en) Display control apparatus, display control method, and program
JP6202882B2 (en) Facial expression detection system and facial expression detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170829

R150 Certificate of patent or registration of utility model

Ref document number: 6202882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250