[go: up one dir, main page]

JP6710440B1 - Makeup evaluation device, makeup evaluation system, and makeup evaluation method - Google Patents

Makeup evaluation device, makeup evaluation system, and makeup evaluation method Download PDF

Info

Publication number
JP6710440B1
JP6710440B1 JP2019130759A JP2019130759A JP6710440B1 JP 6710440 B1 JP6710440 B1 JP 6710440B1 JP 2019130759 A JP2019130759 A JP 2019130759A JP 2019130759 A JP2019130759 A JP 2019130759A JP 6710440 B1 JP6710440 B1 JP 6710440B1
Authority
JP
Japan
Prior art keywords
makeup
image data
face
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019130759A
Other languages
Japanese (ja)
Other versions
JP2021015527A (en
Inventor
太丞 岡田
太丞 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2019130759A priority Critical patent/JP6710440B1/en
Application granted granted Critical
Publication of JP6710440B1 publication Critical patent/JP6710440B1/en
Publication of JP2021015527A publication Critical patent/JP2021015527A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】視覚障がい者が自身の顔に化粧を施す場合に使用可能な化粧評価装置、化粧評価システム、および化粧評価方法を提供する。
【解決手段】評価部43は、参考画像データ61、化粧前画像データ63、および比較画像データ65に基づいて、使用者に施された化粧の出来映えを評価する。評価部43は、主として、抽出部43aと、第1演算部43bと、有無判断部43cと、第2演算部43dと、仕上判断部43eと、を有する。
【選択図】図1
PROBLEM TO BE SOLVED: To provide a makeup evaluation apparatus, a makeup evaluation system, and a makeup evaluation method which can be used when a visually impaired person applies makeup to his or her face.
An evaluation unit 43 evaluates the quality of makeup applied to a user based on reference image data 61, pre-makeup image data 63, and comparison image data 65. The evaluation unit 43 mainly includes an extraction unit 43a, a first calculation unit 43b, a presence/absence determination unit 43c, a second calculation unit 43d, and a finish determination unit 43e.
[Selection diagram] Figure 1

Description

本発明は、化粧評価装置、化粧評価システム、および化粧評価方法に関する。 The present invention relates to a makeup evaluation device, a makeup evaluation system, and a makeup evaluation method.

従来、第1の画像(ユーザ画像)と第2の画像(モデル画像)とに基づいて、メイクアップの仕方をユーザに提示するメイクアップ支援装置が、知られている(例えば、特許文献1)。 BACKGROUND ART Conventionally, a makeup assisting apparatus that presents a user with a makeup method based on a first image (user image) and a second image (model image) is known (for example, Patent Document 1). ..

特許第5991536号公報Japanese Patent No. 5991536

しかし、化粧をする者が視覚障がい者の場合、特許文献1のメイクアップ支援装置を用いても、自身の顔に正しく化粧を施すことができない。 However, if the person applying the makeup is a visually impaired person, the makeup cannot be correctly applied to his/her face even if the makeup assisting device of Patent Document 1 is used.

そこで、本発明では、視覚障がい者が自身の顔に化粧を施す場合に使用可能な化粧評価装置、化粧評価システム、および化粧評価方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a makeup evaluation apparatus, a makeup evaluation system, and a makeup evaluation method that can be used when a visually handicapped person applies makeup to his or her face.

上記の課題を解決するため、請求項1の発明は、化粧評価装置であって、使用者の顔画像を撮像可能とされた撮像部と、少なくとも前記使用者の顔画像データ、すなわち、前記使用者の顔に参考となる化粧が施された状態で、前記使用者の顔が予め撮像された参考画像データと、化粧前の前記使用者の顔が前記撮像部により撮像された化粧前画像データと、前記化粧前画像データの撮像に続いて前記撮像部により撮像された顔画像データであって、前記使用者の顔の少なくとも一部に化粧が施された状態で、前記使用者の顔が撮像された比較画像データとを記憶可能とされた記憶部と、前記参考画像データと、前記化粧前画像データと、前記比較画像データと、に基づいて、前記使用者に施された化粧の出来映えを評価する評価部と、前記使用者に対して所望の情報を報知する報知部とを備え、前記使用者の顔に含まれる各顔要素のうち、所望の出来映えを満たす化粧が施されていない一又は複数の顔要素が、注目要素とされる場合、前記評価部は、前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれから、各顔要素の存在領域に対応する画像データを抽出可能とされた抽出部と、前記化粧前画像データおよび前記比較画像データから前記注目要素に対応する存在領域を、それぞれ第1および第2領域として、前記抽出部により抽出させた上で、前記第1および第2領域のそれぞれに含まれる画像データを用いることにより、前記注目要素に含まれる各顔要素について第1指標値を演算する第1演算部と、前記注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、前記第1演算部で演算された第1指標値のうち、対応するものに基づいて実行するように構成された有無判断部と、前記有無判断部により前記注目要素に含まれる顔要素のうち化粧が施されていると判断された化粧済要素について、前記比較画像データおよび前記参考画像データから前記化粧済要素に対応する存在領域を、それぞれ第3および第4領域として、前記抽出部により抽出させた上で、前記第3および第4領域のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する第2演算部と、前記化粧済要素に含まれる各顔要素の出来映えの判断を、前記第2演算部で演算された第2指標値のうち、対応するものに基づいて実行するように構成された仕上判断部とを有し、前記報知部は、前記仕上判断部の判断結果を前記使用者に報知することを特徴とする。 In order to solve the above problems, the invention of claim 1 is a makeup evaluation apparatus, comprising an imaging unit capable of capturing a face image of a user, and at least face image data of the user, that is, the use. Reference image data in which the user's face is previously imaged in a state where the face of the user is applied with reference makeup, and pre-makeup image data in which the user's face before makeup is imaged by the imaging unit. And face image data captured by the image capturing unit subsequent to capturing of the pre-makeup image data, where the user's face is in a state where makeup is applied to at least a part of the user's face. The appearance of the makeup applied to the user based on the storage unit capable of storing the captured comparison image data, the reference image data, the pre-makeup image data, and the comparison image data. And a notifying unit for notifying the user of desired information, and among the facial elements included in the user's face, makeup that satisfies the desired finish is not applied. image one or more of the face elements, as the element of interest, the evaluation unit, the reference image data, the decorative image data before, and from each of the comparison image data, corresponding to the existing area of each face element After extracting the extraction unit capable of extracting data and the existing regions corresponding to the element of interest from the pre-makeup image data and the comparison image data as the first and second regions, respectively, by the extraction unit. , A first calculation unit that calculates a first index value for each face element included in the attention element by using image data included in each of the first and second regions, and each included in the attention element. A presence/absence determining unit configured to execute a determination as to whether or not makeup is applied to the face element based on a corresponding one of the first index values calculated by the first calculating unit; For the makeup-finished element determined by the presence/absence determining unit that the makeup is applied among the face elements included in the attention element, the existence area corresponding to the makeup-finished element from the comparison image data and the reference image data is set, By using the image data included in each of the third and fourth regions after being extracted by the extraction unit as the third and fourth regions, respectively, The second calculation unit that calculates two index values and the determination of the workability of each face element included in the makeup element are based on the corresponding one of the second index values calculated by the second calculation unit. Configured to run The finishing determination unit is provided, and the notification unit notifies the user of the determination result of the finishing determination unit.

また、請求項2の発明は、請求項1に記載の化粧評価装置において、前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれは、撮像された画像を左右反転したものであることを特徴とする。 Further, the invention of claim 2 is the makeup evaluation apparatus according to claim 1, wherein each of the reference image data, the pre-makeup image data, and the comparison image data is obtained by horizontally reversing a captured image. It is characterized by being.

また、請求項3の発明は、請求項1または請求項2に記載の化粧評価装置において、前記撮像部により撮像された顔画像が、前記比較画像データとして前記記憶部に新たに記憶されたときに、前記評価部は、前記使用者に施された化粧の出来映えを評価することを特徴とする。 The invention of claim 3 is the makeup evaluation apparatus according to claim 1 or 2, wherein the face image captured by the image capturing unit is newly stored in the storage unit as the comparison image data. In addition, the evaluation unit evaluates the quality of makeup applied to the user.

また、請求項4の発明は、請求項1または請求項2に記載の化粧評価装置において、前記撮像部により撮像された顔画像によって、前記記憶部に記憶された前記比較画像データが更新されたときに、前記評価部は、前記使用者に施された化粧の出来映えを評価することを特徴とする。 Further, in the invention of claim 4, in the makeup evaluation apparatus according to claim 1 or 2, the comparison image data stored in the storage unit is updated by the face image captured by the imaging unit. At this time, the evaluation unit evaluates the quality of the makeup applied to the user.

また、請求項5の発明は、請求項1から請求項4のいずれかに記載の化粧評価装置において、前記注目要素に含まれる少なくとも1つの顔要素について化粧が完了したと前記評価部により判断される場合、該顔要素について化粧が完了したことを示す完了情報を、前記記憶部に記憶された第1データベースに登録する登録部、をさらに備え、前記第1データベースは、各顔要素に対応するレコードを含む、前記第1データベースに含まれる各レコードは、少なくとも、対応する顔要素の化粧を施す順番を示すシーケンス情報と、対応する顔要素を識別するための顔要素情報と、対応する顔要素の化粧が完了したか否かを示す完了情報とを格納可能とされており、前記報知部は、前記第1データベースに登録された各レコードのシーケンス情報、顔要素情報、および完了情報に基づいて、次に化粧すべき顔要素を前記使用者に対して報知することを特徴とする。 According to a fifth aspect of the present invention, in the makeup evaluation apparatus according to any one of the first to fourth aspects, the evaluation unit determines that the makeup is completed for at least one face element included in the attention element. In the case of the face element, a registration unit that registers completion information indicating that makeup is completed for the face element in the first database stored in the storage unit, and the first database corresponds to each face element. Each record included in the first database including a record includes at least sequence information indicating a makeup order of the corresponding face element, face element information for identifying the corresponding face element, and corresponding face element. And the completion information indicating whether or not makeup is completed, and the notification unit is based on the sequence information, face element information, and completion information of each record registered in the first database. The next feature is to inform the user of a facial element to be applied next.

また、請求項6の発明は、請求項5に記載の化粧評価装置において、前記仕上判断部による判断結果が報知された後に、前記使用者からの指示を受け付け可能な入力部、をさらに備え、前記記憶部に記憶された前記比較画像データは、前記入力部からの指示に応じ、前記撮像部により撮像された顔画像によって更新されることを特徴とする。 Further, the invention of claim 6 is the makeup evaluation apparatus according to claim 5, further comprising an input unit capable of receiving an instruction from the user after the result of the determination by the finish determination unit is notified, The comparison image data stored in the storage unit is updated with a face image captured by the image capturing unit in response to an instruction from the input unit.

また、請求項7の発明は、請求項5に記載の化粧評価装置において、前記仕上判断部の判断結果が所望範囲のときに、前記登録部は、前記第1データベースの対応するレコードに、前記完了情報を登録することを特徴とする。 Further, in the invention of claim 7, in the makeup evaluation apparatus according to claim 5, when the judgment result of the finishing judgment part is within a desired range, the registration part stores the corresponding record in the first database in the corresponding record. It is characterized by registering completion information.

また、請求項8の発明は、化粧評価システムであって、端末と、情報処理装置とを備え、前記端末は、使用者の顔画像を撮像可能とされた撮像部と、前記使用者に対して所望の情報を報知する報知部とを有し、前記情報処理装置は、少なくとも前記使用者の顔画像データ、すなわち、前記使用者の顔に参考となる化粧が施された状態で、前記使用者の顔が撮像された参考画像データと、化粧前の前記使用者の顔が前記撮像部により撮像された化粧前画像データと、前記化粧前画像の撮像に続いて前記撮像部により撮像された顔画像データであって、前記使用者の顔の少なくとも一部に化粧が施された状態で、前記使用者の顔が撮像された比較画像データとを記憶可能とされた記憶部と、前記参考画像データと、前記化粧前画像データと、前記比較画像データと、に基づいて、前記使用者に施された化粧の出来映えを評価する評価部とを有し、前記使用者の顔に含まれる各顔要素のうち、所望の出来映えを満たす化粧が施されていない一又は複数の顔要素が、注目要素とされる場合、前記情報処理装置の前記評価部は、前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれから、各顔要素の存在領域に対応する画像データを抽出可能とされた抽出部と、前記化粧前画像データおよび前記比較画像データから前記注目要素に対応する存在領域を、それぞれ第1および第2領域として、前記抽出部により抽出させた上で、前記第1および第2領域のそれぞれに含まれる画像データを用いることにより、前記注目要素に含まれる各顔要素について第1指標値を演算する第1演算部と、前記注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、前記第1演算部で演算された第1指標値のうち、対応するものに基づいて実行するように構成された有無判断部と、前記有無判断部により前記注目要素に含まれる顔要素のうち化粧が施されていると判断された化粧済要素について、前記比較画像データおよび前記参考画像データから前記化粧済要素に対応する存在領域を、それぞれ第3および第4領域として、前記抽出部により抽出させた上で、前記第3および第4領域のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する第2演算部と、前記化粧済要素に含まれる各顔要素の出来映えの判断を、前記第2演算部で演算された第2指標値のうち、対応するものに基づいて実行するように構成された仕上判断部とを有し、前記仕上判断部の判断結果を受信した前記端末の前記報知部は、該判断結果を前記使用者に報知することを特徴とする。 Further, the invention of claim 8 is a makeup evaluation system, comprising a terminal and an information processing device, wherein the terminal provides an image pickup unit capable of picking up a face image of the user, and And a notification unit for notifying desired information, wherein the information processing apparatus uses at least the face image data of the user, that is, the face with a reference makeup applied to the user. Image data of the person's face captured, pre-makeup image data of the user's face before makeup captured by the image capturing unit, and image capturing by the image capturing unit subsequent to capturing the pre-makeup image. A storage unit capable of storing face image data, and comparative image data in which at least a part of the face of the user is applied with makeup, and the reference The image data, the pre-makeup image data, and the comparison image data, and based on the comparison image data, has an evaluation unit for evaluating the quality of the makeup applied to the user, each included in the face of the user of the face elements, when one or a plurality of faces elements cosmetic that satisfies the desired workmanship has not been subjected to, are noted element, the evaluation unit of the information processing apparatus, the reference image data, the decorative front image An extraction unit capable of extracting image data corresponding to the existence area of each face element from each of the data and the comparison image data, and an existence corresponding to the attention element from the pre-makeup image data and the comparison image data. By extracting the regions as the first and second regions by the extraction unit and using the image data included in each of the first and second regions, each face element included in the attention element is obtained. With respect to the first index value calculated by the first calculation section, and a determination as to whether or not makeup has been applied to each face element included in the attention element. Of these, the presence/absence determination unit configured to be executed based on the corresponding one, and the makeup element determined to have makeup applied to the facial elements included in the attention element by the presence/absence determination unit, The presence areas corresponding to the makeup-finished element are extracted from the comparison image data and the reference image data as the third and fourth areas, respectively, by the extraction unit, and then extracted into the third and fourth areas, respectively. By using the included image data, the second calculation unit that calculates the second index value for each face element included in the makeup element, and the determination of the workability of each face element included in the makeup element are performed as described above. The second calculated by the second calculation unit Of the two index values, a finish judging unit configured to execute based on the corresponding one, the notification unit of the terminal having received the judgment result of the finish judging unit It is characterized by notifying the user.

また、請求項9の発明は、請求項8に記載の化粧評価システムにおいて、前記参考画像データ、前記化粧前画像データ、および比較画像データのそれぞれは、撮像された画像を左右反転したものであることを特徴とする。 According to the invention of claim 9, in the makeup evaluation system according to claim 8, each of the reference image data, the pre-makeup image data, and the comparison image data is obtained by horizontally reversing a captured image. It is characterized by

また、請求項10の発明は、請求項8または請求項9に記載の化粧評価システムにおいて、前記情報処理装置は、前記注目要素に含まれる少なくとも1つの顔要素について化粧が完了したと前記評価部により判断される場合、該顔要素について化粧が完了したことを示す完了情報を、前記記憶部に記憶された第1データベースに登録する登録部、をさらに備え、前記第1データベースは、各顔要素に対応するレコードを含む、前記第1データベースに含まれる各レコードは、少なくとも、対応する顔要素の化粧を施す順番を示すシーケンス情報と、対応する顔要素を識別するための顔要素情報と、対応する顔要素の化粧が完了したか否かを示す完了情報とを格納可能とされており、前記報知部は、前記第1データベースに登録された各レコードのシーケンス情報、顔要素情報、および完了情報に基づいて、次に化粧すべき顔要素を前記使用者に対して報知することを特徴とする。 The invention of claim 10 is the makeup evaluation system according to claim 8 or 9, wherein the information processing device determines that the makeup is completed for at least one face element included in the attention element. When the determination is made according to the above, a registration unit that registers completion information indicating that makeup is completed for the face element in the first database stored in the storage unit is further provided, and the first database stores each face element. Each record included in the first database including a record corresponding to, at least sequence information indicating the order of applying makeup to the corresponding face element, face element information for identifying the corresponding face element, and Completion information indicating whether or not makeup of the face element has been completed can be stored, and the notification unit includes sequence information of each record registered in the first database, face element information, and completion information. It is characterized in that the user is informed of the facial element to be applied next based on the above.

また、請求項11の発明は、請求項10に記載の化粧評価システムにおいて、前記端末は、前記仕上判断部による判断結果が報知された後に、前記使用者からの指示を受け付け可能な入力部、をさらに備え、前記記憶部に記憶された前記比較画像データは、前記入力部からの指示に応じ、前記撮像部により撮像された顔画像によって更新されることを特徴とする。 Further, the invention of claim 11 is the makeup evaluation system according to claim 10, wherein the terminal is an input unit capable of accepting an instruction from the user after the determination result by the finish determination unit is notified. The comparison image data stored in the storage unit is updated by the face image captured by the image capturing unit in response to an instruction from the input unit.

また、請求項12の発明は、化粧評価方法であって、(a)参考画像データと、化粧前画像データと、比較画像データと、に基づいて、使用者に施された化粧の出来映えを評価する工程と、(b)前記使用者に対して所望の情報を報知する工程とを備え、前記使用者の顔に含まれる各顔要素のうち、所望の出来映えを満たす化粧が施されていない一又は複数の顔要素が、注目要素とされる場合、前記参考画像データは、前記使用者の顔に参考となる化粧が施された状態で、前記使用者の顔が撮像された顔画像データであり、前記化粧前画像データは、化粧前の前記使用者の顔が撮像部により撮像された顔画像データであり、比較画像データは、前記化粧前画像の撮像に続いて前記撮像部により撮像された顔画像データであって、前記使用者の顔の少なくとも一部に化粧が施された状態で、前記使用者の顔が撮像されたものであり、前記工程(a)は、(a-1)前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれから、各顔要素の存在領域に対応する画像データを抽出する工程と、(a-2)前記化粧前画像データおよび前記比較画像データから前記注目要素に対応する存在領域を、それぞれ第1および第2領域として、前記工程(a-1)により抽出した上で、前記第1および第2領域のそれぞれに含まれる画像データを用いることにより、前記注目要素に含まれる各顔要素について第1指標値を演算する工程と、(a-3)前記注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、前記工程(a-2)で演算した第1指標値のうち、対応するものに基づいて実行する工程と、(a-4)前記有無判断部により前記注目要素に含まれる顔要素のうち化粧が施されていると判断された化粧済要素について、前記比較画像データおよび前記参考画像データから前記化粧済要素に対応する存在領域を、それぞれ第3および第4領域として、前記工程(a-1)により抽出した上で、前記第3および第4領域のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する工程と、(a-5)前記化粧済要素に含まれる各顔要素の出来映えの判断を、前記工程(a-4)で演算した第2指標値のうち、対応するものに基づいて実行する工程とを有し、前記工程(b)は、前記報知部は、前記工程(a-5)の判断結果を前記使用者に報知することを特徴とする。 A twelfth aspect of the present invention is a makeup evaluation method, wherein the appearance of makeup applied to a user is evaluated based on (a) reference image data, pre-makeup image data, and comparative image data. And (b) informing the user of desired information, wherein one of the facial elements included in the face of the user is not covered with makeup that satisfies the desired finish. or more face elements, as the element of interest, the reference image data in a state where the decorative is applied as a reference face of the user, the face of the user in the face image data captured Yes, the pre-makeup image data is face image data in which the face of the user before makeup is imaged by the imaging unit, and the comparison image data is captured by the imaging unit subsequent to the imaging of the pre-makeup image. Face image data, wherein at least a part of the face of the user is applied makeup, the face of the user is imaged, and the step (a) includes (a-1 ) From each of the reference image data, the pre-makeup image data, and the comparative image data, a step of extracting image data corresponding to the existence region of each face element, (a-2) the pre-makeup image data and the Image data included in each of the first and second regions after extracting existing regions corresponding to the element of interest from the comparison image data as the first and second regions respectively in the step (a-1) By calculating the first index value for each face element included in the target element, and (a-3) determining whether or not makeup is applied to each face element included in the target element Of the first index values calculated in the step (a-2) based on the corresponding one, and (a-4) the face element included in the attention element by the presence/absence determining unit. With respect to the makeup-applied elements determined to have been applied with makeup, the presence areas corresponding to the makeup-applied elements from the comparison image data and the reference image data are defined as the third and fourth areas, respectively, and the step (a- Calculating the second index value for each face element included in the makeup-finished element by using the image data included in each of the third and fourth regions after being extracted in (1); -5) a step of performing a workability determination of each face element included in the makeup element based on a corresponding one of the second index values calculated in the step (a-4), In the step (b), the notification unit uses the judgment result of the step (a-5) in the use. It is characterized by notifying the user.

請求項1から請求項12に記載の発明によれば、参考画像データ、化粧前画像データ、および比較画像データを用いることによって、視覚を用いることなく、使用者に施された化粧の出来映えを評価することができる。そのため、視覚障がい者であっても自身の顔に良好に化粧を施すことができる。 According to the first to twelfth aspects of the present invention, by using the reference image data, the pre-makeup image data, and the comparison image data, the appearance of makeup applied to the user can be evaluated without using the visual sense. can do. Therefore, even a visually handicapped person can apply makeup well to his or her face.

特に、請求項2および請求項9に記載の発明において、参考画像データ、化粧前画像データ、および比較画像データのそれぞれは、撮像された画像を左右反転したものとされている。すなわち、各画像データに含まれる各顔要素は、鏡に映った顔画像と同様な配置となる。そのため、使用者は、顔を鏡に映した場合と同様の感覚で、化粧をすることができる。 In particular, in the inventions described in claims 2 and 9, the reference image data, the pre-makeup image data, and the comparison image data are each obtained by horizontally reversing the captured image. That is, each face element included in each image data has the same arrangement as the face image reflected in the mirror. Therefore, the user can apply makeup with the same feeling as when the face is reflected in the mirror.

本発明の第1の実施の形態における化粧評価装置の構成の一例を示すブロック図である。It is a block diagram showing an example of composition of a makeup evaluation device in a 1st embodiment of the present invention. 参考画像データを説明するための図である。It is a figure for explaining reference image data. 化粧前画像データを説明するための図である。It is a figure for demonstrating the image data before makeup. 比較画像データを説明するための図である。It is a figure for demonstrating comparative image data. 化粧評価に用いられる各顔画像データを説明するための図である。It is a figure for demonstrating each face image data used for makeup evaluation. 化粧評価に用いられる各顔画像データを説明するための図である。It is a figure for demonstrating each face image data used for makeup evaluation. 化粧評価に用いられる各顔画像データを説明するための図である。It is a figure for demonstrating each face image data used for makeup evaluation. 第1データベースのデータ構造の一例を説明するための図である。It is a figure for demonstrating an example of the data structure of a 1st database. 化粧評価手順を示すフローチャートである。It is a flow chart which shows a makeup evaluation procedure. 第1データベースのデータ構造の一例を説明するための図である。It is a figure for demonstrating an example of the data structure of a 1st database. 本発明の第2の実施の形態における化粧評価システムを説明するためのブロック図である。It is a block diagram for demonstrating the makeup|decoration evaluation system in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における端末を説明するためのブロック図である。It is a block diagram for demonstrating the terminal in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における情報処理装置を説明するためのブロック図である。It is a block diagram for explaining an information processor in a 2nd embodiment of the present invention. 本発明の第3の実施の形態における化粧評価システムを説明するためのブロック図である。It is a block diagram for demonstrating the makeup|decoration evaluation system in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における端末を説明するためのブロック図である。It is a block diagram for demonstrating the terminal in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における情報処理装置を説明するためのブロック図である。It is a block diagram for demonstrating the information processing apparatus in the 3rd Embodiment of this invention.

以下、図面を参照しつつ本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<1.第1の実施の形態>
<1.1.化粧評価装置の構成>
図1は、本発明の第1の実施の形態における化粧評価装置40の構成の一例を示すブロック図である。図2から図4は、それぞれ参考画像データ61、化粧前画像データ63、および比較画像データ65を説明するための図である。
<1. First Embodiment>
<1.1. Structure of makeup evaluation device>
FIG. 1 is a block diagram showing an example of the configuration of a makeup evaluation apparatus 40 according to the first embodiment of the present invention. 2 to 4 are diagrams for explaining the reference image data 61, the pre-makeup image data 63, and the comparison image data 65, respectively.

ここで、化粧評価装置40は、使用者(視覚障がい者を含む)の顔に施された化粧を評価するための装置である。化粧評価装置40は、いわゆるパーソナルコンピュータやワークステーションにより構成された電子計算機、または、いわゆるスマートフォン(Smartphone)やタブレット端末のような携帯端末により構成されている。 Here, the makeup evaluation device 40 is a device for evaluating makeup applied to the face of a user (including a visually impaired person). The makeup evaluation apparatus 40 is composed of an electronic computer including a so-called personal computer or a workstation, or a mobile terminal such as a so-called smartphone (Smartphone) or a tablet terminal.

図1に示すように、化粧評価装置40は、主として、CPU41と、大容量記憶部51と、RAM52と、ROM53と、表示部54と、通信処理部55と、入力部56と、撮像部57と、を有している。また、CPU41、大容量記憶部51、RAM52、ROM53、通信処理部55、表示処理部58、および入出力処理部59は、バス41aを介して電気的に接続されている。 As shown in FIG. 1, the makeup evaluation apparatus 40 mainly includes a CPU 41, a large-capacity storage unit 51, a RAM 52, a ROM 53, a display unit 54, a communication processing unit 55, an input unit 56, and an imaging unit 57. And have. Further, the CPU 41, the mass storage unit 51, the RAM 52, the ROM 53, the communication processing unit 55, the display processing unit 58, and the input/output processing unit 59 are electrically connected via the bus 41a.

撮像部57は、いわゆるCCD(Charge Coupled Device)センサやCMOS(Complementary MOS)センサを撮像素子とするカメラにより構成されている。撮像部57は、使用者の顔画像を撮像可能とされている。 The imaging unit 57 is configured by a camera having a so-called CCD (Charge Coupled Device) sensor or CMOS (Complementary MOS) sensor as an imaging element. The image capturing unit 57 is capable of capturing a face image of the user.

大容量記憶部51は、シリコンディスクドライブやハードディスクドライブ等のようにRAM52と比較して記憶容量の大きな素子により構成された記憶部であり、必要に応じてRAM52との間でデータの授受を行う。 The large-capacity storage unit 51 is a storage unit configured by an element having a larger storage capacity than the RAM 52, such as a silicon disk drive or a hard disk drive, and exchanges data with the RAM 52 as necessary. ..

RAM52は、いわゆる揮発性の記憶部により構成されている。RAM52は、CPU41の演算で使用されるデータ(少なくとも、使用者の顔画像データである参考画像データ61、化粧前画像データ63、および比較画像データ65、並びに第1データベース70等)を記憶可能とされている。 The RAM 52 includes a so-called volatile storage unit. The RAM 52 is capable of storing data (at least reference image data 61 which is face image data of the user, pre-makeup image data 63, comparison image data 65, the first database 70, etc.) used in the calculation of the CPU 41. Has been done.

ここで、参考画像データ61は、使用者の顔に参考となる化粧が施された状態(例えば、化粧品会社の美容部員の方が使用者の顔に化粧を施した状態)で、使用者の顔が予め撮像された顔画像データである(図2参照)。また、化粧前画像データ63は、化粧前の使用者の顔が撮像部57により撮像された顔画像データである(図3参照)。 Here, the reference image data 61 is a state in which the user's face is applied with a makeup that serves as a reference (for example, a beauty company member of a cosmetics company applies makeup to the user's face). This is face image data in which a face is imaged in advance (see FIG. 2). The pre-makeup image data 63 is face image data in which the face of the user before makeup is captured by the image capturing unit 57 (see FIG. 3 ).

また、比較画像データ65は、化粧前画像データ63の撮像に続いて、撮像部57により撮像された顔画像データである(図4参照)。この顔画像データには、使用者の顔の少なくとも一部に化粧が施された状態で、使用者の顔が撮像されている。 Further, the comparison image data 65 is face image data captured by the image capturing unit 57 after capturing the pre-makeup image data 63 (see FIG. 4 ). In this face image data, the face of the user is imaged with at least a part of the face of the user having makeup applied.

さらに、参考画像データ61、化粧前画像データ63、および比較画像データ65は、撮像部57により撮像された画像を左右反転したものが用いられても良い。すなわち、各画像データに含まれる各顔要素は、鏡に映った顔画像と同様な配置となる。例えば、図2の場合、顔要素91が左眉に、顔要素92が右眉に、それぞれ対応する。 Further, as the reference image data 61, the pre-makeup image data 63, and the comparison image data 65, those obtained by horizontally reversing the image captured by the image capturing unit 57 may be used. That is, each face element included in each image data has the same arrangement as the face image reflected in the mirror. For example, in the case of FIG. 2, the face element 91 corresponds to the left eyebrow, and the face element 92 corresponds to the right eyebrow.

ROM53は、いわゆる不揮発性メモリにより構成されている。ROM53には、例えば、プログラム53aが格納されている。なお、RAM52およびROM53としては、読み書き自在の不揮発性メモリであるフラッシュメモリが使用されてもよい。 The ROM 53 is composed of a so-called non-volatile memory. A program 53a is stored in the ROM 53, for example. As the RAM 52 and the ROM 53, a flash memory which is a readable/writable non-volatile memory may be used.

CPU41は、ROM53のプログラム53aに従った動作制御やデータ処理を実行する。また、図1中のCPU41内に記載されているブロック(それぞれ符号43(43a〜43e)、45、46が付与されている)に対応する演算機能は、CPU41により実現される。なお、各ブロック42〜46に対応する演算機能については後述する。 The CPU 41 executes operation control and data processing according to the program 53a of the ROM 53. Further, the CPU 41 implements the arithmetic function corresponding to the blocks described in the CPU 41 in FIG. 1 (reference numerals 43 (43a to 43e), 45, and 46 are given respectively). The arithmetic functions corresponding to the blocks 42 to 46 will be described later.

入力部56は、例えば、キーパッド、キーボード、またはマウスのような入力機器である。これにより、化粧評価装置40の使用者は、表示部54の表示内容に基づいた入力作業を行う(例えば、使用者からの指示を受け付ける)ことができる。 The input unit 56 is an input device such as a keypad, a keyboard, or a mouse. Thereby, the user of the makeup evaluation apparatus 40 can perform the input work based on the display content of the display unit 54 (for example, receive an instruction from the user).

表示部54は、いわゆる液晶ディスプレイ、プラズマディスプレイ、または有機EL(Electro Luminescence)ディスプレイにより構成された表示機器であり、画面に文字や画像等を表示する。表示処理部58は、ビデオコントローラにより構成されており、信号線58aを介して表示部54と電気的に接続されている。したがって、表示処理部58により描画処理が実行されると、表示部54の画面には文字や図形等が表示される。 The display unit 54 is a display device including a so-called liquid crystal display, a plasma display, or an organic EL (Electro Luminescence) display, and displays characters and images on the screen. The display processing unit 58 is composed of a video controller, and is electrically connected to the display unit 54 via a signal line 58a. Therefore, when the drawing processing is executed by the display processing unit 58, characters and figures are displayed on the screen of the display unit 54.

通信処理部55は、CPU41からの指令に従い、ネットワーク9を介して接続された外部装置との間で、データの送受信を実行する。入出力処理部59は、化粧評価装置40と、化粧評価装置40に接続された外部機器との間のデータ授受に使用される。図1に示すように、入出力処理部59は、信号線59aを介して、入力部56と電気的に接続されている。これにより、化粧評価装置40のCPU41は、入力部56からの入力情報を受け付けることができる。 The communication processing unit 55 executes data transmission/reception with an external device connected via the network 9 in accordance with a command from the CPU 41. The input/output processing unit 59 is used for exchanging data between the makeup evaluation apparatus 40 and an external device connected to the makeup evaluation apparatus 40. As shown in FIG. 1, the input/output processing unit 59 is electrically connected to the input unit 56 via the signal line 59a. Thereby, the CPU 41 of the makeup evaluation apparatus 40 can receive the input information from the input unit 56.

<1.2.化粧評価装置のCPUにより実現される演算機能>
図5から図7のそれぞれは、化粧評価に用いられる各顔画像データ61、63、65を説明するための図である。図8は、第1データベース70のデータ構造の一例を説明するための図である。ここでは、図1、および図5から図8を参照しつつ、評価部43、報知部45、および登録部46に対応する機能を説明する。
<1.2. Calculation function realized by CPU of makeup evaluation device>
Each of FIG. 5 to FIG. 7 is a diagram for explaining each face image data 61, 63, 65 used for makeup evaluation. FIG. 8 is a diagram for explaining an example of the data structure of the first database 70. Here, the functions corresponding to the evaluation unit 43, the notification unit 45, and the registration unit 46 will be described with reference to FIGS. 1 and 5 to 8.

評価部43は、参考画像データ61、化粧前画像データ63、および比較画像データ65に基づいて、使用者に施された化粧の出来映えを評価する。図1に示すように、評価部43は、主として、抽出部43aと、第1演算部43bと、有無判断部43cと、第2演算部43dと、仕上判断部43eと、を有する。 The evaluation unit 43 evaluates the quality of makeup applied to the user based on the reference image data 61, the pre-makeup image data 63, and the comparison image data 65. As shown in FIG. 1, the evaluation unit 43 mainly includes an extraction unit 43a, a first calculation unit 43b, a presence determination unit 43c, a second calculation unit 43d, and a finish determination unit 43e.

なお、説明の都合上、本実施の形態では、参考画像データ61、化粧前画像データ63、および比較画像データ65では、顔要素91〜95のみを化粧の出来映え評価の対象とする。 Note that, for convenience of description, in the present embodiment, in the reference image data 61, the pre-makeup image data 63, and the comparison image data 65, only the face elements 91 to 95 are subjected to makeup workability evaluation.

抽出部43aは、参考画像データ61、化粧前画像データ63、および比較画像データ65のそれぞれから、各顔要素91〜95を存在領域に対応する画像データを抽出可能とされている。 The extraction unit 43a is capable of extracting image data corresponding to the presence regions of the face elements 91 to 95 from each of the reference image data 61, the pre-makeup image data 63, and the comparison image data 65.

例えば、(一の)顔要素91(左眉)が注目要素とされる場合、参考画像データ61からは存在領域91aに対応する画像データが、化粧前画像データ63からは存在領域91bに対応する画像データが、比較画像データ65からは存在領域91cに対応する画像データが、それぞれ抽出される。 For example, when the (one) face element 91 (left eyebrow) is the target element, the image data corresponding to the existing area 91a from the reference image data 61 and the existing area 91b from the pre-makeup image data 63. Image data corresponding to the existing area 91c is extracted from the comparison image data 65.

また、顔要素92(右眉)が注目要素とされる場合、参考画像データ61からは存在領域92aに対応する画像データが、化粧前画像データ63からは存在領域92bに対応する画像データが、比較画像データ65からは存在領域92cに対応する画像データが、それぞれ抽出される。 Further, when the face element 92 (right eyebrow) is the attention element, the image data corresponding to the existing area 92a from the reference image data 61, the image data corresponding to the existing area 92b from the pre-makeup image data 63, Image data corresponding to the existing area 92c is extracted from the comparison image data 65.

また、顔要素95(唇付近)が注目要素とされる場合、参考画像データ61からは存在領域95aに対応する画像データが、化粧前画像データ63からは存在領域95bに対応する画像データが、比較画像データ65からは存在領域95cに対応する画像データが、それぞれ抽出される。 Further, when the face element 95 (near the lips) is the attention element, the image data corresponding to the existing area 95a from the reference image data 61, the image data corresponding to the existing area 95b from the pre-makeup image data 63, Image data corresponding to the existing area 95c is extracted from the comparison image data 65.

さらに、複数の顔要素93(アイラインが引かれる左瞼付近)、および顔要素94(アイラインが引かれる右瞼付近)が注目要素とされる場合、参考画像データ61からは存在領域93a、94aに対応する画像データが、化粧前画像データ63からは存在領域93b、94bに対応する画像データが、比較画像データ65からは存在領域93c、94cに対応する画像データが、それぞれ抽出される。 Further, when a plurality of face elements 93 (near the left eyelid where the eyeline is drawn) and a face element 94 (near the right eyelid where the eyeline is drawn) are the attention elements, the existence area 93a from the reference image data 61, The image data corresponding to 94a is extracted from the pre-makeup image data 63, the image data corresponding to the existing regions 93b and 94b, and the comparative image data 65 is extracted from the image data corresponding to the existing regions 93c and 94c.

第1演算部43bは、化粧前画像データ63および比較画像データ65から注目要素に対応する存在領域を、抽出部43aにより抽出させる。また、第1演算部43bは、抽出された領域(第1および第2領域)のぞれぞれに含まれる画像データを用いることにより、注目要素に含まれる各顔要素についての第1指標値を演算する。 The first calculation unit 43b causes the extraction unit 43a to extract the existing area corresponding to the element of interest from the pre-makeup image data 63 and the comparison image data 65. In addition, the first calculation unit 43b uses the image data included in each of the extracted regions (first and second regions) to determine the first index value for each face element included in the attention element. Is calculated.

例えば、(一の)顔要素91が注目要素とされる場合、第1演算部43bは、化粧前画像データ63からは存在領域91b(第1領域)に対応する画像データを、比較画像データ65からは存在領域91c(第2領域)に対応する画像データを、それぞれ抽出部43aにより抽出させる。 For example, when the (one) face element 91 is set as the element of interest, the first calculation unit 43b converts the image data corresponding to the existing area 91b (first area) from the pre-makeup image data 63 into the comparison image data 65. The image data corresponding to the existing area 91c (second area) is extracted by the extraction unit 43a.

そして、第1演算部43bは、存在領域91b(第1領域)に対応する画像データと、存在領域91c(第2領域)に対応する画像データと、について、対応画素における濃度値の差分を合算したもの(差分合算値)を、顔要素91の第1指標値として演算する。 Then, the first calculation unit 43b sums up the differences in the density values of the corresponding pixels for the image data corresponding to the existing area 91b (first area) and the image data corresponding to the existing area 91c (second area). The sum (difference summed value) is calculated as the first index value of the face element 91.

また、複数の顔要素93、94が注目要素とされる場合、第1演算部43bは、化粧前画像データ63からは存在領域93b、94bに対応する画像データを、比較画像データ65からは存在領域93c、94cに対応する画像データを、それぞれ抽出部43aにより抽出させる。 When a plurality of face elements 93 and 94 are set as the attention element, the first calculation unit 43b includes the image data corresponding to the existing areas 93b and 94b in the pre-makeup image data 63 and the existence in the comparison image data 65. The image data corresponding to the areas 93c and 94c are extracted by the extraction unit 43a.

そして、第1演算部43bは、存在領域93b(第1領域)に対応する画像データと、存在領域93c(第2領域)に対応する画像データと、について、対応画素における濃度値の差分を合算したものを、顔要素93の第1指標値として演算する。 Then, the first calculation unit 43b sums up the differences in the density values of the corresponding pixels for the image data corresponding to the existing area 93b (first area) and the image data corresponding to the existing area 93c (second area). The calculated result is calculated as the first index value of the face element 93.

また同様に、第1演算部43bは、存在領域94b(第1領域)に対応する画像データと、存在領域94c(第2領域)に対応する画像データと、について、対応画素における濃度値の差分を合算したものを、顔要素94の第1指標値として演算する。 Similarly, the first calculation unit 43b causes the difference in the density values of the corresponding pixels between the image data corresponding to the existing area 94b (first area) and the image data corresponding to the existing area 94c (second area). Is calculated as the first index value of the face element 94.

有無判断部43cは、注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、第1演算部43bで演算された第1指標値のうち、対応するものに基づいて実行するように構成されている。 The presence/absence determining unit 43c determines whether or not makeup is applied to each face element included in the target element based on the corresponding one of the first index values calculated by the first calculating unit 43b. Is configured to.

例えば、(一の)顔要素91が注目要素とされる場合、有無判断部43cは、顔要素91に対応する第1指標値(差分合算値)が所定値以上となるときに、顔要素91に化粧が施されていると判断する。 For example, when the (one) face element 91 is the target element, the presence/absence determining unit 43c determines that the face element 91 is present when the first index value (difference summed value) corresponding to the face element 91 is equal to or greater than a predetermined value. It is judged that the makeup is applied to.

また、複数の顔要素93、94が注目要素とされる場合、有無判断部43cは、各顔要素93、94について、化粧有無の判断を実行する。すなわち、顔要素93に対応する第1指標値(差分合算値)が所定値以上となるとき、有無判断部43cは、顔要素93に化粧が施されていると判断する。また同様に、顔要素94に対応する第1指標値(差分合算値)が所定値以上となるとき、有無判断部43cは、顔要素94に化粧が施されていると判断する。 In addition, when a plurality of face elements 93 and 94 are set as attention elements, the presence/absence determination unit 43c determines whether or not makeup is applied to each of the face elements 93 and 94. That is, when the first index value (difference summed value) corresponding to the face element 93 is equal to or greater than the predetermined value, the presence/absence determining unit 43c determines that the face element 93 is being makeupd. Similarly, when the first index value (difference summed value) corresponding to the face element 94 is greater than or equal to a predetermined value, the presence/absence determining unit 43c determines that the face element 94 is being makeupd.

第2演算部43dは、注目要素に含まれる顔要素のうち化粧が施されていると有無判断部43cにより判断された化粧済要素について、比較画像データ65および参考画像データ61から、この化粧済要素に対応する存在領域を、抽出部43aにより抽出させる。 The second calculation unit 43d determines, from the comparison image data 65 and the reference image data 61, the makeup applied to the makeup-completed element determined by the presence/absence determination unit 43c among the facial elements included in the attention element, from the comparison image data 65. The extraction unit 43a extracts the existing area corresponding to the element.

また、第2演算部43dは、抽出された領域(第3および第4領域)のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する。 Further, the second calculator 43d calculates the second index value for each face element included in the makeup element by using the image data included in each of the extracted areas (third and fourth areas). To do.

例えば、(一の)顔要素91が化粧済要素とされる場合、第2演算部43dは、比較画像データ65からは存在領域91c(第3領域)に対応する画像データを、参考画像データ61からは存在領域91a(第4領域)に対応する画像データを、それぞれ抽出部43aにより抽出させる。 For example, when the (one) face element 91 is the makeup-applied element, the second calculation unit 43d uses the comparison image data 65 to convert the image data corresponding to the existing area 91c (third area) into the reference image data 61. The image data corresponding to the existing area 91a (fourth area) is extracted by the extraction unit 43a.

そして、第2演算部43dは、存在領域91c(第3領域)に対応する画像データと、存在領域91a(第4領域)に対応する画像データと、についての相関係数(共分散を各画像データの標準偏差で割ったもの)を、顔要素91の第2指標値として演算する。 Then, the second calculation unit 43d determines the correlation coefficient (covariance of each image with respect to the image data corresponding to the existing area 91c (third area) and the image data corresponding to the existing area 91a (fourth area). A value obtained by dividing the data by the standard deviation of the data) is calculated as the second index value of the face element 91.

また、複数の顔要素93、94が化粧済要素とされる場合、第2演算部43dは、
比較画像データ65からは存在領域93c、94cに対応する画像データを、参考画像データ61からは存在領域93a、94aに対応する画像データを、それぞれ抽出部43aにより抽出させる。
When the plurality of face elements 93 and 94 are made-up elements, the second calculation unit 43d
The extraction unit 43a causes the comparison image data 65 to extract image data corresponding to the existing regions 93c and 94c, and the reference image data 61 to extract image data corresponding to the existing regions 93a and 94a.

そして、第2演算部43dは、存在領域93c(第3領域)に対応する画像データと、存在領域93a(第4領域)に対応する画像データと、についての相関係数を、顔要素93の第2指標値として演算する。また同様に、第2演算部43dは、存在領域94c(第3領域)に対応する画像データと、存在領域94a(第4領域)に対応する画像データと、についての相関係数を、顔要素94の第2指標値として演算する。 Then, the second calculation unit 43d calculates the correlation coefficient of the image data corresponding to the existing area 93c (third area) and the image data corresponding to the existing area 93a (fourth area) of the face element 93. It is calculated as the second index value. Similarly, the second calculation unit 43d determines the correlation coefficient between the image data corresponding to the existing area 94c (third area) and the image data corresponding to the existing area 94a (fourth area) as the face element. It is calculated as the second index value of 94.

仕上判断部43eは、化粧済要素に含まれる各顔要素の出来映えの判断を、第2演算部43dで演算された第2指標値のうち、対応するものに基づいて実行するように構成されている。 The finish determination unit 43e is configured to perform the determination of the workability of each face element included in the makeup element based on the corresponding one of the second index values calculated by the second calculation unit 43d. There is.

例えば、(一の)顔要素91が化粧済要素とされる場合、仕上判断部43eは、顔要素91に対応する第2指標値(相関係数)が所定値以上となるときに、顔要素91に所望の出来映えを満たす化粧が施されていると判断する。 For example, when the (one) face element 91 is set as a makeup element, the finish determination unit 43e determines that the face element 91 has a second index value (correlation coefficient) equal to or larger than a predetermined value when the face element 91 is a makeup element. It is judged that the makeup for 91 is applied with the desired finish.

また、複数の顔要素93、94が化粧済要素とされる場合、仕上判断部43eは、各顔要素93、94について、出来映えの判断を実行する。すなわち、顔要素93に対応する第2指標値(相関係数)が所定値以上となるとき、仕上判断部43eは、顔要素93に所望の出来映えを満たす化粧が施されていると判断する。また同様に、顔要素94に対応する第2指標値(相関係数)が所定値以上となるとき、仕上判断部43eは、顔要素93に所望の出来映えを満たす化粧が施されていると判断する。 Further, when the plurality of face elements 93, 94 are made-up elements, the finish determination unit 43e executes a workability determination for each face element 93, 94. That is, when the second index value (correlation coefficient) corresponding to the face element 93 is equal to or larger than the predetermined value, the finish determination unit 43e determines that the face element 93 is covered with makeup that satisfies the desired finish. Similarly, when the second index value (correlation coefficient) corresponding to the face element 94 is greater than or equal to a predetermined value, the finish determination unit 43e determines that the face element 93 is covered with makeup that satisfies the desired finish. To do.

ここで、第1データベース70について説明する。第1データベース70は、各顔要素91〜95に対して化粧を施す順番を示すシーケンス情報を、対応する顔要素91〜95と関連付けて格納可能なデータ群であり、RAM52(図1参照)に記憶可能とされている。図8に示すように、第1データベース70、主として、「識別ID71」、「顔要素情報72」、および「完了フラグ73」の各フィールド(列)を有している。 Here, the first database 70 will be described. The first database 70 is a data group that can store sequence information indicating the order in which makeup is applied to the face elements 91 to 95 in association with the corresponding face elements 91 to 95, and is stored in the RAM 52 (see FIG. 1). It is memorable. As shown in FIG. 8, the first database 70 mainly includes fields (columns) of "identification ID 71", "face element information 72", and "completion flag 73".

「識別ID71」フィールドには、第1データベース70に登録されている各レコード(各行)を一意に識別するための値が、格納されている。「顔要素情報72」には、各顔要素を識別するための文字列が、格納されている。 A value for uniquely identifying each record (each row) registered in the first database 70 is stored in the “identification ID 71” field. A character string for identifying each face element is stored in the "face element information 72".

ここで、「識別ID71」の値が昇順となるように各レコードがソートされている場合、「顔要素情報72」フィールドの並びが、各顔要素の化粧順となる。例えば、本実施の形態の場合、図8に示すように、顔要素91(左眉)、顔要素92(右眉)、顔要素93(アイラインが引かれる左瞼付近)、顔要素94(アイラインが引かれる右瞼付近)、および顔要素95(唇付近)が予め設定された化粧順である。 Here, when the records are sorted so that the value of the "identification ID 71" is in ascending order, the arrangement of the "face element information 72" field is the makeup order of each face element. For example, in the case of the present embodiment, as shown in FIG. 8, a face element 91 (left eyebrow), a face element 92 (right eyebrow), a face element 93 (near the left eyelid where the eyeline is drawn), a face element 94 ( The vicinity of the right eyelid where the eyeline is drawn) and the face element 95 (near the lips) are the makeup order set in advance.

「完了フラグ73」は、対応する顔要素に所望の出来映えを満たす化粧が施されているか否かを示すフラグである。本実施の形態において、化粧開始時には、すべてのレコードの「完了フラグ73」に「FALSE」値が設定される。また、対応する顔要素に対して所望の出来映えを満たす化粧が施されていると仕上判断部43eにより判断される場合、対応するレコードの「完了フラグ73」に「TRUE」値が設定される。このように、「完了フラグ73」は、各顔要素に対する化粧が完了したか否かを示す完了情報として用いることができる。 The “completion flag 73” is a flag indicating whether or not makeup corresponding to a desired finish is applied to the corresponding face element. In the present embodiment, at the start of makeup, the “FALSE” value is set in the “completion flag 73” of all records. In addition, when the finish determination unit 43e determines that the corresponding face element is covered with makeup that satisfies the desired appearance, the "TRUE" value is set in the "completion flag 73" of the corresponding record. In this way, the “completion flag 73” can be used as completion information indicating whether or not makeup on each face element is completed.

このように、第1データベース70は、各顔要素に対応するレコードを含む。また、第1データベース70に含まれる各レコードは、少なくとも、
(1)対応する顔要素の化粧を施す順番を示す識別ID71(シーケンス情報)と、
(2)対応する顔要素を識別するための顔要素情報72と、
(3)対応する顔要素の化粧が完了したか否かを示す完了フラグ73(完了情報)と、
を格納可能とされている。
As described above, the first database 70 includes records corresponding to each face element. Further, each record included in the first database 70 is at least
(1) Identification ID 71 (sequence information) indicating the order of applying makeup to the corresponding face element,
(2) Face element information 72 for identifying the corresponding face element,
(3) A completion flag 73 (completion information) indicating whether or not makeup of the corresponding face element is completed,
Can be stored.

報知部45は、使用者に対して所望の情報を報知する。例えば、報知部45は、仕上判断部43eの判断結果を、音声、振動、および/または、表示部54への表示を用いることによって、使用者に報知しても良い。 The notification unit 45 notifies the user of desired information. For example, the notification unit 45 may notify the user of the determination result of the finish determination unit 43e by using voice, vibration, and/or display on the display unit 54.

すなわち、注目要素のうちの一部について、所望の出来映えを満たす化粧が施されていると判断される場合、報知部45は、例えば、出来映えが良いと判断された顔要素の名称、および出来映えが所望のレベル達していない顔要素の名称、を使用者に報知する。 That is, when it is determined that the makeup that satisfies the desired workmanship is applied to some of the attention elements, the notification unit 45 outputs, for example, the name of the face element for which the workability is determined to be good and the workability. The user is informed of the name of the face element that has not reached the desired level.

登録部46は、注目要素(より具体的には、化粧済要素)に含まれる少なくとも1つの顔要素について化粧が完了したと評価部43により判断される場合に、この顔要素について化粧が完了したことを示す完了情報を第1データベース70に登録する。 When the evaluation unit 43 determines that makeup has been completed for at least one face element included in the element of interest (more specifically, a makeup element), the registration unit 46 has completed makeup for this face element. The completion information indicating that is registered in the first database 70.

例えば、登録部46は、仕上判断部43eの判断結果が所望範囲(例えば、第2指標値が所定値以上)となるときに、第1データベース70に含まれる対応レコードの「完了フラグ73」を「FALSE」値から「TRUE」値に変更する。 For example, the registration unit 46 sets the “completion flag 73” of the corresponding record included in the first database 70 when the determination result of the finish determination unit 43e is in the desired range (for example, the second index value is equal to or larger than the predetermined value). Change the "FALSE" value to the "TRUE" value.

これにより、報知部45は、第1データベース70に登録された各レコードの識別ID71、顔要素情報72、および完了フラグ73に基づいて、次に化粧すべき顔要素を使用者に対して報知することができる。 As a result, the notification unit 45 notifies the user of the next facial element to apply makeup based on the identification ID 71, the facial element information 72, and the completion flag 73 of each record registered in the first database 70. be able to.

例えば、第1データベース70の各レコードの値が図8のようになっている場合、報知部45は、第1データベース70から、(1)「完了フラグ73」=「FALSE」、かつ、(2)「識別ID71」値が最小となるレコードを抽出する。 そして、報知部45は、抽出されたレコードの顔要素情報72を読み取ることによって、次に顔要素92を化粧すべき旨を使用者に報知する。 For example, when the value of each record in the first database 70 is as shown in FIG. 8, the notification unit 45 determines (1) “completion flag 73”=“FALSE” from the first database 70 and (2 ) A record having the smallest “identification ID 71” value is extracted. Then, the notification unit 45 notifies the user that the face element 92 should be put on next by reading the face element information 72 of the extracted record.

<1.3.化粧評価の手順>
図9は、化粧評価手順を示すフローチャートである。図10は、第1データベース70のデータ構造の一例を説明するための図である。ここでは、図5から図10を参照しつつ、化粧評価装置40を用いた化粧の評価手順を説明する。
<1.3. Makeup evaluation procedure>
FIG. 9 is a flowchart showing a makeup evaluation procedure. FIG. 10 is a diagram for explaining an example of the data structure of the first database 70. Here, a makeup evaluation procedure using the makeup evaluation apparatus 40 will be described with reference to FIGS. 5 to 10.

まず、本判定手順では、RAM52(記憶部)に記憶された比較画像データ65の格納状況が監視される(S101)。そして、
(1)撮像部57により撮像された顔画像が、比較画像データ65としてRAM52に新たに記憶されたとき、または、
(2)撮像部57により撮像された顔画像によって、RAM52に記憶された比較画像データ65が更新されたとき、
評価部43は、ステップS102からS106に従って、使用者に施された化粧の出来映えを評価する。例えば、撮像部57により顔画像が撮像され、RAM52の比較画像データ65が図7に示すものに更新された場合、ステップS102に進む。
First, in this determination procedure, the storage status of the comparison image data 65 stored in the RAM 52 (storage unit) is monitored (S101). And
(1) When the face image captured by the image capturing unit 57 is newly stored in the RAM 52 as the comparison image data 65, or
(2) When the comparison image data 65 stored in the RAM 52 is updated by the face image captured by the image capturing unit 57,
The evaluation unit 43 evaluates the quality of the makeup applied to the user according to steps S102 to S106. For example, when the face image is captured by the image capturing unit 57 and the comparison image data 65 in the RAM 52 is updated to that shown in FIG. 7, the process proceeds to step S102.

ステップS102の抽出処理では、第1データベース70に含まれる各レコードの「完了フラグ73」が参照されるとともに、参照された各レコードの「完了フラグ73」に基づいて、注目要素が抽出される(S102)。 In the extraction process of step S102, the “completion flag 73” of each record included in the first database 70 is referred to, and the element of interest is extracted based on the “completion flag 73” of each referred record ( S102).

例えば、図8の場合、「完了フラグ73」=「FALSE」となるレコード(「識別ID71」=「2」から「5」となるレコード)が抽出される。そして、各顔要素のうち、抽出レコードに対応するもの(「顔要素情報72」=「顔要素92」から「顔要素95」となるもの)が、注目要素として抽出される。 For example, in the case of FIG. 8, a record with “completion flag 73”=“FALSE” (a record with “identification ID 71”=“2” to “5”) is extracted. Then, of each face element, the one corresponding to the extracted record (“face element information 72”=“face element 92” to “face element 95”) is extracted as the element of interest.

続いて、第1演算部43bによって、注目要素に含まれる各顔要素の第1指標値を演算されるとともに(S103)、有無判断部43cによって、注目要素に含まれる各顔要素に化粧が施されているか否かの判断がなされる(S104)。 Subsequently, the first calculation unit 43b calculates the first index value of each face element included in the target element (S103), and the presence/absence determination unit 43c applies makeup to each face element included in the target element. It is determined whether or not it has been performed (S104).

ここで、有無判断部43cによって、注目要素に含まれるいずれの顔要素についても化粧が施されていないと判断される場合(例えば、第1指標値が差分合算値の場合、演算された全ての第1指標値が所定値未満となるとき:S104)、注目要素に含まれるいずれの顔要素にも化粧が施されていないと判断してステップS108に進む。 Here, when it is determined by the presence/absence determining unit 43c that no makeup is applied to any face element included in the target element (for example, when the first index value is a sum of differences, all calculated values are calculated). When the first index value is less than the predetermined value: S104), it is determined that none of the face elements included in the target element has makeup applied, and the process proceeds to step S108.

これに対して、注目要素のうちの少なくとも1つの顔要素に化粧が施されていると判断される場合(S104)、第2演算部43dによって、化粧済要素に含まれる各顔要素の第2指標値が演算されるとともに(S105)、仕上判断部43eによって、化粧済要素に含まれる各顔要素の化粧が完了しているか否かの判断がなされる(S106)。 On the other hand, if it is determined that makeup is applied to at least one face element of the attention elements (S104), the second calculation unit 43d determines whether the face elements included in the makeup elements are the second face elements. While the index value is calculated (S105), the finish determination unit 43e determines whether makeup of each face element included in the makeup-finished element is completed (S106).

ここで、仕上判断部43eによって、化粧済要素に含まれるいずれの顔要素についても化粧が完了していないと判断される場合(例えば、第2指標値が相関係数の場合、演算された全ての第2指標値が所定値未満となるとき:S106)、化粧済要素に含まれるいずれの顔要素にも化粧が完了していないと判断してステップS108に進む。 Here, when the finish determination unit 43e determines that the makeup is not completed for any face element included in the makeup-completed element (for example, when the second index value is a correlation coefficient, all the calculated When the second index value of is less than the predetermined value: S106), it is determined that makeup has not been completed on any face element included in the makeup-finished element, and the process proceeds to step S108.

これに対して、化粧済要素のうちの少なくとも1つの顔要素について、この顔要素に施された化粧の出来映えが良いと判断される場合(S106)、第1データベース70に含まれるレコードのうち対応するものに完了情報が登録された後(S107)、ステップS108に進む。 On the other hand, if it is determined that the makeup applied to at least one face element of the makeup-applied elements is good (S106), the correspondence among the records included in the first database 70 is determined. After the completion information is registered in the item to be processed (S107), the process proceeds to step S108.

例えば、図7および図8の場合において、既に顔要素91の化粧が完了している状態で、新たに顔要素93の化粧が完了していると判断される場合、登録部46は、第1データベース70に含まれるレコードのうち、「識別ID71」=「3」となるレコードを抽出するとともに、抽出されたレコードの「完了フラグ73」を「FALSE」値から「TRUE」値に変更する(図10参照)。 For example, in the case of FIG. 7 and FIG. 8, when it is determined that makeup of the face element 93 is newly completed in a state where makeup of the face element 91 has already been completed, the registration unit 46 causes the first Of the records included in the database 70, the record with “identification ID 71”=“3” is extracted, and the “completion flag 73” of the extracted record is changed from the “FALSE” value to the “TRUE” value (FIG. 10).

ステップS108では、報知部45によって、ステップS104の注目要素に含まれる各顔要素、またはステップS106の化粧済要素に含まれる各顔要素の化粧状況が報知される。 In step S108, the notification unit 45 notifies the makeup status of each face element included in the target element of step S104 or each face element included in the makeup-finished element of step S106.

例えば、ステップS104において、注目要素に含まれるいずれの顔要素についても化粧が施されていないと判断された場合、報知部45は、
(1)「完了フラグ73」=「FALSE」に対応する各顔要素(図8の場合、顔要素92〜顔要素95)について化粧が施されていないこと、および、
(2)次に化粧すべき顔要素(図8の場合、顔要素92)、
を使用者に対して報知する。
For example, in step S104, when it is determined that makeup has not been applied to any face element included in the attention element, the notification unit 45
(1) Each face element (face element 92 to face element 95 in FIG. 8) corresponding to “completion flag 73”=“FALSE” is not applied with makeup, and
(2) The face element to be applied next (face element 92 in FIG. 8),
Is notified to the user.

また、ステップS106において、化粧済要素に含まれるいずれの顔要素についても化粧が完了していない(所望の出来映えを満たす化粧が施されていない)と判断された場合、報知部45は、
(1)化粧済要素に含まれる全ての顔要素に施された化粧を落とすこと、および、
(2)次に化粧すべき顔要素(図8の場合、顔要素92)、
を使用者に対して報知する。
In addition, in step S106, when it is determined that the makeup is not completed for any face element included in the makeup-completed element (the makeup that satisfies the desired finish is not applied), the notification unit 45
(1) Removing makeup applied to all face elements included in the makeup element, and
(2) The face element to be applied next (face element 92 in FIG. 8),
Is notified to the user.

さらに、ステップS106において、化粧済要素に含まれる顔要素のうち少なくとも1つの要素の化粧が完了していないと判断された場合、報知部45は、
(1)上述の少なくとも1つの要素(以下、「未完要素」と称する)に施された化粧を落とすこと、および、
(2)次に化粧すべき顔要素、
を使用者に対して報知する。
Furthermore, in step S106, when it is determined that the makeup of at least one element of the face elements included in the makeup element is not completed, the notification unit 45
(1) Removing makeup applied to at least one element (hereinafter, referred to as “unfinished element”), and
(2) Face element to be applied next,
Is notified to the user.

なお、ステップS106において、化粧済要素に含まれる顔要素のうち少なくとも1つの要素の化粧が完了していないと判断された場合、次に化粧すべき顔要素は、顔要素を登録部46により更新された第1データベース70に基づいて選択される。 In addition, in step S106, when it is determined that the makeup of at least one of the face elements included in the makeup element is not completed, the face element to be makeup next is updated by the registration unit 46. The selected first database 70 is selected.

そして、ステップS109において、顔要素の一部について化粧が完了していないと判断される場合(すなわち、第1データベース70に含まれる一部のレコードの「完了フラグ73」が「FALSE」となっている場合)、ステップS101に戻る。この場合、RAM52に記憶された比較画像データ65は、入力部56からの指示に応じ、撮像部57により撮像された顔画像によって、更新されても良い。 Then, in step S109, when it is determined that the makeup is not completed for a part of the face elements (that is, the “completion flag 73” of some records included in the first database 70 is “FALSE”. If yes), the process returns to step S101. In this case, the comparison image data 65 stored in the RAM 52 may be updated with the face image captured by the image capturing unit 57 in accordance with an instruction from the input unit 56.

これに対して、ステップS109において、全ての顔要素の化粧が完了していると判断される場合(すなわち、第1データベース70に含まれる全てのレコードの「完了フラグ73」が「TRUE」となっている場合)、化粧評価を終了する。 On the other hand, in step S109, when it is determined that the makeup of all the face elements is completed (that is, the “completion flag 73” of all the records included in the first database 70 becomes “TRUE”. If so), the makeup evaluation is completed.

<1.4.第1の実施の形態の化粧評価装置の利点>
以上のように、第1の実施の形態の化粧評価装置40では、参考画像データ61、化粧前画像データ63、および比較画像データ65を用いることによって、視覚を用いることなく、使用者に施された化粧の出来映えを評価することができる。そのため、視覚障がい者であっても自身の顔に良好に化粧を施すことができる。
<1.4. Advantages of the makeup evaluation apparatus according to the first embodiment>
As described above, in the makeup evaluation apparatus 40 according to the first embodiment, the reference image data 61, the pre-makeup image data 63, and the comparison image data 65 are used to apply to the user without using the visual sense. You can evaluate the quality of makeup. Therefore, even a visually handicapped person can apply makeup well to his or her face.

また、第1の実施の形態の化粧評価装置40において、参考画像データ61、化粧前画像データ63、および比較画像データ65のそれぞれは、撮像された画像を左右反転したものとすることができる。すなわち、各画像データに含まれる各顔要素は、鏡に映った顔画像と同様な配置となる。そのため、使用者は、自身の顔を鏡に映した場合と同様の感覚で、化粧をすることができる。 Further, in the makeup evaluation apparatus 40 according to the first embodiment, each of the reference image data 61, the pre-makeup image data 63, and the comparison image data 65 can be obtained by horizontally reversing the captured image. That is, each face element included in each image data has the same arrangement as the face image reflected in the mirror. Therefore, the user can apply makeup with the same feeling as when the user's face is reflected in the mirror.

<2.第2の実施の形態>
次に、本発明の第2の実施の形態について説明する。第1および第2の実施の形態の化粧評価装置40および化粧評価システム100は、同様な機能を実現する点で共通する。また、化粧評価装置40で実現される機能が、端末110および情報処理装置140のいずれかで実現される点で相違する。そこで、以下では、この相違点を中心に説明する。
<2. Second Embodiment>
Next, a second embodiment of the present invention will be described. The makeup evaluation apparatus 40 and the makeup evaluation system 100 according to the first and second embodiments are common in that they realize similar functions. Further, the functions realized by makeup evaluation apparatus 40 are different in that they are realized by either terminal 110 or information processing apparatus 140. Therefore, the difference will be mainly described below.

なお、化粧評価装置40および化粧評価システム100で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。 The same components in the makeup evaluation apparatus 40 and makeup evaluation system 100 are designated by the same reference numerals, and the components designated by the same reference numerals have already been described in the first embodiment. Therefore, the description is omitted in this embodiment.

<2.1.化粧評価システムの構成>
図11から図13は、それぞれ本発明の第2の実施の形態における化粧評価システム100、端末110、および情報処理装置140の構成の一例を示すブロック図である。化粧評価システム100の使用者(視覚障がい者を含む)は、このシステム100を用いることによって、自身の顔に施された化粧を評価することができる。図11に示すように、化粧評価システム100は、主として、一又は複数の端末110(110a、110b)と、情報処理装置140と、を有している。
<2.1. Structure of makeup evaluation system>
11 to 13 are block diagrams each showing an example of a configuration of the makeup evaluation system 100, the terminal 110, and the information processing device 140 according to the second embodiment of the present invention. A user of the makeup evaluation system 100 (including a visually impaired person) can evaluate makeup applied to his/her face by using this system 100. As illustrated in FIG. 11, the makeup evaluation system 100 mainly includes one or a plurality of terminals 110 (110a and 110b) and an information processing device 140.

端末110は、いわゆるスマートフォン(Smartphone)やタブレット端末のような携帯端末により構成されている。図11に示すように、端末110は、ネットワーク9を介し情報処理装置140と接続されている。なお、端末110の詳細な構成については、後述する。 The terminal 110 is configured by a mobile terminal such as a so-called smartphone (Smartphone) or a tablet terminal. As shown in FIG. 11, the terminal 110 is connected to the information processing apparatus 140 via the network 9. The detailed configuration of the terminal 110 will be described later.

情報処理装置140は、いわゆるパーソナルコンピュータやワークステーションにより構成された電子計算機であり、端末110から送信された画像データに従い、所望の処理を実行する。なお、情報処理装置140の詳細な構成については、後述する。 The information processing device 140 is an electronic computer configured by a so-called personal computer or workstation, and executes desired processing according to the image data transmitted from the terminal 110. The detailed configuration of the information processing device 140 will be described later.

<2.2.端末の構成>
図12は、端末110の構成の一例を示す図である。図12に示すように、端末110は、主として、CPU111と、RAM122と、ROM123と、通信処理部125と、タッチパネル部126と、撮像部127と、を有している。また、CPU111、RAM122、ROM123、通信処理部125、表示処理部128、および入出力処理部129は、バス111aを介して電気的に接続されている。
<2.2. Device configuration>
FIG. 12 is a diagram showing an example of the configuration of the terminal 110. As shown in FIG. 12, the terminal 110 mainly includes a CPU 111, a RAM 122, a ROM 123, a communication processing unit 125, a touch panel unit 126, and an imaging unit 127. The CPU 111, the RAM 122, the ROM 123, the communication processing unit 125, the display processing unit 128, and the input/output processing unit 129 are electrically connected via the bus 111a.

RAM122は、いわゆる揮発性の記憶部により構成されている。RAM122には、CPU111の演算で使用されるデータが格納可能とされている。ROM123は、いわゆる不揮発性メモリにより構成されている。ROM123には、例えば、プログラム123aが格納されている。なお、RAM122およびROM123としては、読み書き自在の不揮発性メモリであるフラッシュメモリが使用されてもよい。 The RAM 122 includes a so-called volatile storage unit. The RAM 122 can store data used in the calculation of the CPU 111. The ROM 123 is composed of a so-called non-volatile memory. A program 123a is stored in the ROM 123, for example. As the RAM 122 and the ROM 123, a flash memory which is a readable/writable non-volatile memory may be used.

CPU111は、ROM123のプログラム123aに従った動作制御やデータ処理を実行する。また、図12中のCPU111内に記載されている報知部114は、報知部45と同様な演算機能であり、CPU111により実現される。 The CPU 111 executes operation control and data processing according to the program 123a of the ROM 123. Further, the notification unit 114 described in the CPU 111 in FIG. 12 has the same calculation function as the notification unit 45, and is realized by the CPU 111.

通信処理部125は、CPU111からの指令に従い、ネットワーク9を介して接続された情報処理装置140との間で、データの送受信を実行する。タッチパネル部126は、例えば、液晶ディスプレイのような「表示機器」としての機能と、指や専用のペンで画面に触れることによって画面上の位置を指定できる「タッチパネル」としての機能と、を有している。 The communication processing unit 125 executes data transmission/reception with the information processing device 140 connected via the network 9 in accordance with a command from the CPU 111. The touch panel unit 126 has, for example, a function as a “display device” such as a liquid crystal display and a function as a “touch panel” that can specify a position on the screen by touching the screen with a finger or a dedicated pen. ing.

撮像部127は、撮像部57と同様に、いわゆるCCDセンサやCMOSセンサを撮像素子とするカメラにより構成されている。これにより、撮像部127は、使用者の顔画像を撮像可能とされている。 The image capturing unit 127, like the image capturing unit 57, is configured by a camera having a so-called CCD sensor or CMOS sensor as an image capturing element. As a result, the image capturing unit 127 can capture a face image of the user.

表示処理部128は、表示処理部38と同様に、ビデオコントローラにより構成されており、信号線128aを介してタッチパネル部126と電気的に接続されている。したがって、表示処理部128により描画処理が実行されると、タッチパネル部126の画面には文字や図形等が表示される。 Similar to the display processing unit 38, the display processing unit 128 includes a video controller and is electrically connected to the touch panel unit 126 via a signal line 128a. Therefore, when the drawing processing is executed by the display processing unit 128, characters and figures are displayed on the screen of the touch panel unit 126.

入出力処理部129は、端末110と、端末110の外部機器との間のデータ授受に使用される。図12に示すように、入出力処理部129は、信号線129aを介して、タッチパネル部126および撮像部127と電気的に接続されている。これにより、端末110のCPU111は、タッチパネル部126の画面上の位置情報を取得できる。 The input/output processing unit 129 is used for exchanging data between the terminal 110 and an external device of the terminal 110. As shown in FIG. 12, the input/output processing unit 129 is electrically connected to the touch panel unit 126 and the imaging unit 127 via the signal line 129a. As a result, the CPU 111 of the terminal 110 can acquire position information on the screen of the touch panel unit 126.

<2.3.情報処理装置の構成>
図13に示すように、情報処理装置140は、主として、CPU141と、大容量記憶部51と、RAM52と、ROM53と、表示部54と、通信処理部55と、入力部56と、撮像部57と、を有している。また、CPU141、大容量記憶部51、RAM52、ROM53、通信処理部55、表示処理部58、および入出力処理部59は、バス41aを介して電気的に接続されている。
<2.3. Configuration of information processing device>
As shown in FIG. 13, the information processing apparatus 140 mainly includes a CPU 141, a large-capacity storage unit 51, a RAM 52, a ROM 53, a display unit 54, a communication processing unit 55, an input unit 56, and an imaging unit 57. And have. The CPU 141, the mass storage unit 51, the RAM 52, the ROM 53, the communication processing unit 55, the display processing unit 58, and the input/output processing unit 59 are electrically connected via the bus 41a.

CPU141は、ROM123のプログラム123aに従った動作制御やデータ処理を実行する。また、図13中のCPU141内に記載されているブロック(それぞれ符号43(43a〜43e)、45、46が付与されている)に対応する演算機能は、CPU141により実現される。 The CPU 141 executes operation control and data processing according to the program 123a of the ROM 123. The CPU 141 implements the arithmetic function corresponding to the blocks described in the CPU 141 in FIG. 13 (reference numerals 43 (43a to 43e), 45, and 46 are given respectively).

<2.4.第2の実施の形態の化粧評価システムの利点>
以上のように、第2の実施の形態の化粧評価システム100では、第1の実施の形態の化粧評価装置40と同様に、参考画像データ61、化粧前画像データ63、および比較画像データ65を用いることによって、視覚を用いることなく、使用者に施された化粧の出来映えを評価することができる。そのため、視覚障がい者であっても自身の顔に良好に化粧を施すことができる。
<2.4. Advantages of Makeup Evaluation System of Second Embodiment>
As described above, in the makeup evaluation system 100 of the second embodiment, similar to the makeup evaluation apparatus 40 of the first embodiment, the reference image data 61, the pre-makeup image data 63, and the comparison image data 65 are acquired. By using it, it is possible to evaluate the quality of makeup applied to the user without using the visual sense. Therefore, even a visually handicapped person can apply makeup well to his or her face.

<3.第3の実施の形態>
次に、本発明の第3の実施の形態について説明する。第2および第3の実施の形態の化粧評価システム100、200は、対応するRAM52、252、およびRAM122、222に格納されるデータが異なる点を除いては、同様な構成を有する。そこで、以下では、この相違点を中心に説明する。
<3. Third Embodiment>
Next, a third embodiment of the present invention will be described. The makeup evaluation systems 100 and 200 of the second and third embodiments have the same configuration except that the data stored in the corresponding RAMs 52 and 252 and the RAMs 122 and 222 are different. Therefore, the difference will be mainly described below.

なお、化粧評価システム100、200で同様な構成要素には、同一符号が付されており、この同一符号が付された構成要素は、第1および第2の実施の形態で説明済みである。そのため、本実施の形態では説明を省略する。 The same components in makeup evaluation systems 100 and 200 are designated by the same reference numerals, and the components designated by the same reference numerals have already been described in the first and second embodiments. Therefore, the description is omitted in this embodiment.

図14から図16は、それぞれ本発明の第3の実施の形態における化粧評価システム200、端末210、および情報処理装置240の構成の一例を示すブロック図である。図14に示すように、化粧評価システム200は、主として、一又は複数の端末210(210a、210b)と、情報処理装置240と、を有している。 14 to 16 are block diagrams each showing an example of the configuration of makeup evaluation system 200, terminal 210, and information processing device 240 according to the third embodiment of the present invention. As shown in FIG. 14, the makeup evaluation system 200 mainly includes one or a plurality of terminals 210 (210a, 210b) and an information processing device 240.

図15は、端末210の構成の一例を示すブロック図である。図15に示すように、端末210は、主として、CPU111と、RAM222と、ROM123と、通信処理部125と、タッチパネル部126と、撮像部127と、を有している。また、CPU111、RAM222、ROM123、通信処理部125、表示処理部128、および入出力処理部129は、バス111aを介して電気的に接続されている。 FIG. 15 is a block diagram showing an example of the configuration of the terminal 210. As shown in FIG. 15, the terminal 210 mainly includes a CPU 111, a RAM 222, a ROM 123, a communication processing unit 125, a touch panel unit 126, and an imaging unit 127. Further, the CPU 111, the RAM 222, the ROM 123, the communication processing unit 125, the display processing unit 128, and the input/output processing unit 129 are electrically connected via the bus 111a.

RAM222は、RAM122と同様に、いわゆる揮発性の記憶部により構成されている。RAM222は、CPU111の演算で使用されるデータ(少なくとも、使用者の顔画像データである化粧前画像データ63および比較画像データ65、並びに第1データベース70等)を記憶可能とされている。 The RAM 222 includes a so-called volatile storage unit, like the RAM 122. The RAM 222 is capable of storing data (at least the pre-makeup image data 63 and the comparison image data 65, which are the face image data of the user, the first database 70, etc.) used in the calculation of the CPU 111.

図16は、情報処理装置240の構成の一例を示すブロック図である。図16に示すように、情報処理装置240は、主として、CPU141と、大容量記憶部51と、RAM252と、ROM53と、表示部54と、通信処理部55と、入力部56と、撮像部57と、を有している。また、CPU141、大容量記憶部51、RAM252、ROM53、通信処理部55、表示処理部58、および入出力処理部59は、バス41aを介して電気的に接続されている。 FIG. 16 is a block diagram showing an example of the configuration of the information processing device 240. As illustrated in FIG. 16, the information processing device 240 mainly includes the CPU 141, the large-capacity storage unit 51, the RAM 252, the ROM 53, the display unit 54, the communication processing unit 55, the input unit 56, and the imaging unit 57. And have. Further, the CPU 141, the mass storage unit 51, the RAM 252, the ROM 53, the communication processing unit 55, the display processing unit 58, and the input/output processing unit 59 are electrically connected via the bus 41a.

RAM252は、RAM52と同様に、いわゆる揮発性の記憶部により構成されている。RAM252は、CPU141の演算で使用されるデータ(少なくとも、使用者の顔画像データである参考画像データ61等)を記憶可能とされている。 The RAM 252 includes a so-called volatile storage unit, like the RAM 52. The RAM 252 is capable of storing data (at least the reference image data 61, which is the user's face image data) used in the calculation of the CPU 141.

以上のように、第3の実施の形態の化粧評価システム200では、第2の実施の形態の化粧評価システム100と同様に、参考画像データ61、化粧前画像データ63、および比較画像データ65を用いることによって、視覚を用いることなく、使用者に施された化粧の出来映えを評価することができる。そのため、視覚障がい者であっても自身の顔に良好に化粧を施すことができる。 As described above, in the makeup evaluation system 200 according to the third embodiment, similar to the makeup evaluation system 100 according to the second embodiment, the reference image data 61, the pre-makeup image data 63, and the comparative image data 65 are acquired. By using it, it is possible to evaluate the quality of makeup applied to the user without using the visual sense. Therefore, even a visually handicapped person can apply makeup well to his or her face.

<4.変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
<4. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments and various modifications can be made.

(1)第1から第3の形態における評価部43は、CPU41(図1参照)、CPU141(図13、図16参照)によりソフトウェア的に実現されるものとして説明したが、これに限定されるものでない。例えば、評価部43の機能は、電子回路等のハードウェアによって実現されてもよい。 (1) The evaluation unit 43 in the first to third modes has been described as being realized by software by the CPU 41 (see FIG. 1) and the CPU 141 (see FIG. 13 and FIG. 16), but is not limited thereto. Not a thing. For example, the function of the evaluation unit 43 may be realized by hardware such as an electronic circuit.

40 化粧評価装置
100、200 化粧評価システム
110 端末
140 情報処理装置
40 makeup evaluation device 100, 200 makeup evaluation system 110 terminal 140 information processing device

Claims (12)

化粧評価装置であって、
(a) 使用者の顔画像を撮像可能とされた撮像部と、
(b) 少なくとも前記使用者の顔画像データ、すなわち、
(b-1) 前記使用者の顔に参考となる化粧が施された状態で、前記使用者の顔が予め撮像された参考画像データと、
(b-2) 化粧前の前記使用者の顔が前記撮像部により撮像された化粧前画像データと、
(b-3) 前記化粧前画像データの撮像に続いて前記撮像部により撮像された顔画像データであって、前記使用者の顔の少なくとも一部に化粧が施された状態で、前記使用者の顔が撮像された比較画像データと、
を記憶可能とされた記憶部と、
(c) 前記参考画像データと、前記化粧前画像データと、前記比較画像データと、に基づいて、前記使用者に施された化粧の出来映えを評価する評価部と、
(d) 前記使用者に対して所望の情報を報知する報知部と、
を備え、
前記使用者の顔に含まれる各顔要素のうち、所望の出来映えを満たす化粧が施されていない一又は複数の顔要素が、注目要素とされる場合
前記評価部は、
(c-1) 前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれから、各顔要素の存在領域に対応する画像データを抽出可能とされた抽出部と、
(c-2) 前記化粧前画像データおよび前記比較画像データから前記注目要素に対応する存在領域を、それぞれ第1および第2領域として、前記抽出部により抽出させた上で、
前記第1および第2領域のそれぞれに含まれる画像データを用いることにより、前記注目要素に含まれる各顔要素について第1指標値を演算する第1演算部と、
(c-3) 前記注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、前記第1演算部で演算された第1指標値のうち、対応するものに基づいて実行するように構成された有無判断部と、
(c-4) 前記有無判断部により前記注目要素に含まれる顔要素のうち化粧が施されていると判断された化粧済要素について、
前記比較画像データおよび前記参考画像データから前記化粧済要素に対応する存在領域を、それぞれ第3および第4領域として、前記抽出部により抽出させた上で、
前記第3および第4領域のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する第2演算部と、
(c-5) 前記化粧済要素に含まれる各顔要素の出来映えの判断を、前記第2演算部で演算された第2指標値のうち、対応するものに基づいて実行するように構成された仕上判断部と、
を有し、
前記報知部は、前記仕上判断部の判断結果を前記使用者に報知することを特徴とする化粧評価装置。
A makeup evaluation device,
(a) an image pickup unit capable of picking up a face image of the user,
(b) At least the face image data of the user, that is,
(b-1) in a state where the reference makeup is applied to the user's face, and reference image data in which the user's face is imaged in advance,
(b-2) pre-makeup image data in which the face of the user before makeup is imaged by the imaging unit,
(b-3) face image data captured by the image capturing unit after capturing the pre-makeup image data, wherein the user is in a state where makeup is applied to at least a part of the user's face. Comparative image data of the face of
A storage unit capable of storing
(c) based on the reference image data, the pre-makeup image data, and the comparison image data, an evaluation unit that evaluates the quality of makeup applied to the user,
(d) a notification unit that notifies the user of desired information,
Equipped with
The case of each face element in the face of the user, one or a plurality of faces elements cosmetic that satisfies the desired workmanship has not been subjected to, are noted element,
The evaluation unit is
(c-1) From each of the reference image data, the pre-makeup image data, and the comparison image data, an extraction unit capable of extracting image data corresponding to the existence region of each face element,
(c-2) After the presence area corresponding to the element of interest is extracted as the first and second areas from the pre-makeup image data and the comparison image data by the extraction unit, respectively,
A first calculation unit that calculates a first index value for each face element included in the target element by using image data included in each of the first and second regions;
(c-3) Whether or not makeup is applied to each face element included in the element of interest is determined based on the corresponding one of the first index values calculated by the first calculator. A presence determination unit configured to
(c-4) With respect to the makeup-finished element which is determined by the presence/absence determining unit that the makeup is applied among the face elements included in the attention element,
After extracting the existing regions corresponding to the makeup-finished element from the comparison image data and the reference image data as the third and fourth regions, respectively, by the extraction unit,
A second calculation unit that calculates a second index value for each face element included in the makeup-finished element by using image data included in each of the third and fourth areas;
(c-5) It is configured to execute the determination of the workability of each face element included in the makeup element based on the corresponding one of the second index values calculated by the second calculation unit. A finishing judgment section,
Have
The makeup evaluation device, wherein the notification unit notifies the user of the determination result of the finish determination unit.
請求項1に記載の化粧評価装置において、
前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれは、撮像された画像を左右反転したものであることを特徴とする化粧評価装置。
The makeup evaluation apparatus according to claim 1,
The makeup evaluation apparatus, wherein each of the reference image data, the pre-makeup image data, and the comparison image data is obtained by horizontally reversing a captured image.
請求項1または請求項2に記載の化粧評価装置において、
前記撮像部により撮像された顔画像が、前記比較画像データとして前記記憶部に新たに記憶されたときに、前記評価部は、前記使用者に施された化粧の出来映えを評価することを特徴とする化粧評価装置。
The makeup evaluation apparatus according to claim 1 or 2,
When the face image captured by the image capturing unit is newly stored in the storage unit as the comparison image data, the evaluation unit evaluates the quality of makeup applied to the user. Makeup evaluation device.
請求項1または請求項2に記載の化粧評価装置において、
前記撮像部により撮像された顔画像によって、前記記憶部に記憶された前記比較画像データが更新されたときに、前記評価部は、前記使用者に施された化粧の出来映えを評価することを特徴とする化粧評価装置。
The makeup evaluation apparatus according to claim 1 or 2,
When the comparison image data stored in the storage unit is updated by the face image captured by the image capturing unit, the evaluation unit evaluates the quality of makeup applied to the user. Makeup evaluation device.
請求項1から請求項4のいずれかに記載の化粧評価装置において、
(e) 前記注目要素に含まれる少なくとも1つの顔要素について化粧が完了したと前記評価部により判断される場合、該顔要素について化粧が完了したことを示す完了情報を、前記記憶部に記憶された第1データベースに登録する登録部、
をさらに備え、
前記第1データベースは、各顔要素に対応するレコードを含む、
前記第1データベースに含まれる各レコードは、少なくとも、
対応する顔要素の化粧を施す順番を示すシーケンス情報と、
対応する顔要素を識別するための顔要素情報と、
対応する顔要素の化粧が完了したか否かを示す完了情報と、
を格納可能とされており、
前記報知部は、前記第1データベースに登録された各レコードのシーケンス情報、顔要素情報、および完了情報に基づいて、次に化粧すべき顔要素を前記使用者に対して報知することを特徴とする化粧評価装置。
The makeup evaluation apparatus according to any one of claims 1 to 4,
(e) When the evaluation unit determines that makeup has been completed for at least one face element included in the attention element, completion information indicating that makeup has been completed for the face element is stored in the storage unit. Registration unit to register in the first database,
Further equipped with,
The first database includes a record corresponding to each face element,
Each record included in the first database is at least
Sequence information indicating the order of applying makeup to the corresponding face element,
Face element information for identifying the corresponding face element,
Completion information indicating whether makeup of the corresponding face element is completed,
It is possible to store
The notifying unit notifies the user of a facial element to be applied next based on the sequence information, the facial element information, and the completion information of each record registered in the first database. Makeup evaluation device.
請求項5に記載の化粧評価装置において、
(f) 前記仕上判断部による判断結果が報知された後に、前記使用者からの指示を受け付け可能な入力部、
をさらに備え、
前記記憶部に記憶された前記比較画像データは、前記入力部からの指示に応じ、前記撮像部により撮像された顔画像によって更新されることを特徴とする化粧評価装置。
The makeup evaluation apparatus according to claim 5,
(f) an input unit capable of accepting an instruction from the user after being notified of the determination result by the finish determination unit,
Further equipped with,
The makeup evaluation apparatus, wherein the comparison image data stored in the storage unit is updated by a face image captured by the image capturing unit according to an instruction from the input unit.
請求項5に記載の化粧評価装置において、
前記仕上判断部の判断結果が所望範囲のときに、前記登録部は、前記第1データベースの対応するレコードに、前記完了情報を登録することを特徴とする化粧評価装置。
The makeup evaluation apparatus according to claim 5,
The makeup|decoration evaluation apparatus characterized by the said registration part registering the said completion information in the corresponding record of the said 1st database, when the judgment result of the said finish judgment part is a desired range.
化粧評価システムであって、
(a) 端末と、
(b) 情報処理装置と、
を備え、
前記端末は、
(a-1) 使用者の顔画像を撮像可能とされた撮像部と、
(a-2) 前記使用者に対して所望の情報を報知する報知部と、
を有し、
前記情報処理装置は、
(b-1) 少なくとも前記使用者の顔画像データ、すなわち、
前記使用者の顔に参考となる化粧が施された状態で、前記使用者の顔が撮像された参考画像データと、
化粧前の前記使用者の顔が前記撮像部により撮像された化粧前画像データと、
前記化粧前画像の撮像に続いて前記撮像部により撮像された顔画像データであって、前記使用者の顔の少なくとも一部に化粧が施された状態で、前記使用者の顔が撮像された比較画像データと、
を記憶可能とされた記憶部と、
(b-2) 前記参考画像データと、前記化粧前画像データと、前記比較画像データと、に基づいて、前記使用者に施された化粧の出来映えを評価する評価部と、
を有し、
前記使用者の顔に含まれる各顔要素のうち、所望の出来映えを満たす化粧が施されていない一又は複数の顔要素が、注目要素とされる場合
前記情報処理装置の前記評価部は、
前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれから、各顔要素の存在領域に対応する画像データを抽出可能とされた抽出部と、
前記化粧前画像データおよび前記比較画像データから前記注目要素に対応する存在領域を、それぞれ第1および第2領域として、前記抽出部により抽出させた上で、
前記第1および第2領域のそれぞれに含まれる画像データを用いることにより、前記注目要素に含まれる各顔要素について第1指標値を演算する第1演算部と、
前記注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、前記第1演算部で演算された第1指標値のうち、対応するものに基づいて実行するように構成された有無判断部と、
前記有無判断部により前記注目要素に含まれる顔要素のうち化粧が施されていると判断された化粧済要素について、
前記比較画像データおよび前記参考画像データから前記化粧済要素に対応する存在領域を、それぞれ第3および第4領域として、前記抽出部により抽出させた上で、
前記第3および第4領域のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する第2演算部と、
前記化粧済要素に含まれる各顔要素の出来映えの判断を、前記第2演算部で演算された第2指標値のうち、対応するものに基づいて実行するように構成された仕上判断部と、
を有し、
前記仕上判断部の判断結果を受信した前記端末の前記報知部は、該判断結果を前記使用者に報知することを特徴とする化粧評価システム。
A makeup evaluation system,
(a) a terminal,
(b) an information processing device,
Equipped with
The terminal is
(a-1) an image pickup unit capable of picking up a face image of the user,
(a-2) an informing unit for informing the user of desired information,
Have
The information processing device,
(b-1) at least the face image data of the user, that is,
Reference image data in which the face of the user is imaged in a state where the reference makeup is applied to the face of the user,
Before-makeup image data in which the face of the user before makeup is imaged by the imaging unit,
Face image data captured by the image capturing unit subsequent to capturing of the pre-makeup image, wherein the user's face is captured with makeup applied to at least a part of the user's face. Comparison image data,
A storage unit capable of storing
(b-2) based on the reference image data, the pre-makeup image data, and the comparison image data, an evaluation unit for evaluating the quality of makeup applied to the user,
Have
The case of each face element in the face of the user, one or a plurality of faces elements cosmetic that satisfies the desired workmanship has not been subjected to, are noted element,
The evaluation unit of the information processing device,
From each of the reference image data, the pre-makeup image data, and the comparison image data, an extraction unit capable of extracting image data corresponding to the existence region of each face element,
After extracting the existing regions corresponding to the element of interest from the pre-makeup image data and the comparison image data as the first and second regions, respectively, by the extraction unit,
A first calculation unit that calculates a first index value for each face element included in the target element by using image data included in each of the first and second regions;
It is configured to perform a determination as to whether or not makeup is applied to each face element included in the attention element, based on a corresponding one of the first index values calculated by the first calculation unit. The presence/absence determination unit,
With respect to the makeup-finished element which is determined by the presence/absence determining unit that the makeup is applied among the face elements included in the attention element,
After extracting the existing regions corresponding to the makeup-finished element from the comparison image data and the reference image data as the third and fourth regions, respectively, by the extraction unit,
A second calculation unit that calculates a second index value for each face element included in the makeup-finished element by using image data included in each of the third and fourth areas;
A finish determination unit configured to execute the determination of the workability of each face element included in the makeup element based on the corresponding one of the second index values calculated by the second calculation unit;
Have
The makeup evaluation system, wherein the notification unit of the terminal that receives the determination result of the finish determination unit notifies the user of the determination result.
請求項8に記載の化粧評価システムにおいて、
前記参考画像データ、前記化粧前画像データ、および比較画像データのそれぞれは、撮像された画像を左右反転したものであることを特徴とする化粧評価システム。
The makeup evaluation system according to claim 8,
The makeup evaluation system, wherein each of the reference image data, the pre-makeup image data, and the comparison image data is obtained by horizontally reversing a captured image.
請求項8または請求項9に記載の化粧評価システムにおいて、
前記情報処理装置は、
(b-3) 前記注目要素に含まれる少なくとも1つの顔要素について化粧が完了したと前記評価部により判断される場合、該顔要素について化粧が完了したことを示す完了情報を、前記記憶部に記憶された第1データベースに登録する登録部、
をさらに備え、
前記第1データベースは、各顔要素に対応するレコードを含む、
前記第1データベースに含まれる各レコードは、少なくとも、
対応する顔要素の化粧を施す順番を示すシーケンス情報と、
対応する顔要素を識別するための顔要素情報と、
対応する顔要素の化粧が完了したか否かを示す完了情報と、
を格納可能とされており、
前記報知部は、前記第1データベースに登録された各レコードのシーケンス情報、顔要素情報、および完了情報に基づいて、次に化粧すべき顔要素を前記使用者に対して報知することを特徴とする化粧評価システム。
In the makeup evaluation system according to claim 8 or 9,
The information processing device,
(b-3) When the evaluation unit determines that makeup has been completed for at least one face element included in the attention element, completion information indicating that makeup has been completed for the face element is stored in the storage unit. A registration unit for registering in the stored first database,
Further equipped with,
The first database includes a record corresponding to each face element,
Each record included in the first database is at least
Sequence information indicating the order of applying makeup to the corresponding face element,
Face element information for identifying the corresponding face element,
Completion information indicating whether makeup of the corresponding face element is completed,
It is possible to store
The notifying unit notifies the user of a facial element to be applied next based on the sequence information, the facial element information, and the completion information of each record registered in the first database. Makeup evaluation system.
請求項10に記載の化粧評価システムにおいて、
前記端末は、
(a-3) 前記仕上判断部による判断結果が報知された後に、前記使用者からの指示を受け付け可能な入力部、
をさらに備え、
前記記憶部に記憶された前記比較画像データは、前記入力部からの指示に応じ、前記撮像部により撮像された顔画像によって更新されることを特徴とする化粧評価システム。
The makeup evaluation system according to claim 10,
The terminal is
(a-3) an input unit capable of receiving an instruction from the user after the determination result by the finish determination unit is notified,
Further equipped with,
The makeup evaluation system, wherein the comparison image data stored in the storage unit is updated by a face image captured by the image capturing unit in response to an instruction from the input unit.
化粧評価方法であって、
(a) 参考画像データと、化粧前画像データと、比較画像データと、に基づいて、使用者に施された化粧の出来映えを評価する工程と、
(b) 前記使用者に対して所望の情報を報知する工程と、
を備え、
前記使用者の顔に含まれる各顔要素のうち、所望の出来映えを満たす化粧が施されていない一又は複数の顔要素が、注目要素とされる場合
前記参考画像データは、前記使用者の顔に参考となる化粧が施された状態で、前記使用者の顔が撮像された顔画像データであり、
前記化粧前画像データは、化粧前の前記使用者の顔が撮像部により撮像された顔画像データであり、
比較画像データは、前記化粧前画像の撮像に続いて前記撮像部により撮像された顔画像データであって、前記使用者の顔の少なくとも一部に化粧が施された状態で、前記使用者の顔が撮像されたものであり、
前記工程(a)は、
(a-1) 前記参考画像データ、前記化粧前画像データ、および前記比較画像データのそれぞれから、各顔要素の存在領域に対応する画像データを抽出する工程と、
(a-2) 前記化粧前画像データおよび前記比較画像データから前記注目要素に対応する存在領域を、それぞれ第1および第2領域として、前記工程(a-1)により抽出した上で、
前記第1および第2領域のそれぞれに含まれる画像データを用いることにより、前記注目要素に含まれる各顔要素について第1指標値を演算する工程と、
(a-3) 前記注目要素に含まれる各顔要素に化粧が施されているか否かの判断を、前記工程(a-2)で演算した第1指標値のうち、対応するものに基づいて実行する工程と、
(a-4) 前記有無判断部により前記注目要素に含まれる顔要素のうち化粧が施されていると判断された化粧済要素について、
前記比較画像データおよび前記参考画像データから前記化粧済要素に対応する存在領域を、それぞれ第3および第4領域として、前記工程(a-1)により抽出した上で、
前記第3および第4領域のそれぞれに含まれる画像データを用いることにより、化粧済要素に含まれる各顔要素についての第2指標値を演算する工程と、
(a-5) 前記化粧済要素に含まれる各顔要素の出来映えの判断を、前記工程(a-4)で演算した第2指標値のうち、対応するものに基づいて実行する工程と、
を有し、
前記工程(b)は、前記報知部は、前記工程(a-5)の判断結果を前記使用者に報知することを特徴とする化粧評価方法。
A makeup evaluation method,
(a) a step of evaluating the quality of makeup applied to the user based on the reference image data, the pre-makeup image data, and the comparison image data,
(b) informing the user of desired information,
Equipped with
The case of each face element in the face of the user, one or a plurality of faces elements cosmetic that satisfies the desired workmanship has not been subjected to, are noted element,
The reference image data is face image data in which the face of the user is imaged in a state where the reference makeup is applied to the face of the user,
The pre-makeup image data is face image data in which the face of the user before makeup is imaged by an imaging unit,
The comparison image data is face image data captured by the image capturing unit after capturing the pre-makeup image, and in a state where makeup is applied to at least a part of the face of the user, The face was captured,
The step (a) is
(a-1) From each of the reference image data, the pre-makeup image data, and the comparison image data, a step of extracting image data corresponding to the existence region of each face element,
(a-2) After extracting the existing areas corresponding to the element of interest from the pre-makeup image data and the comparison image data as the first and second areas, respectively, in the step (a-1),
Calculating a first index value for each face element included in the target element by using image data included in each of the first and second regions;
(a-3) Based on the corresponding one of the first index values calculated in the step (a-2), it is determined whether or not makeup is applied to each face element included in the attention element. The steps to perform,
(a-4) With respect to the makeup-finished element which is determined by the presence/absence determining unit that the makeup is applied among the face elements included in the attention element,
After extracting existing regions corresponding to the makeup-finished element from the comparative image data and the reference image data as the third and fourth regions, respectively, by the step (a-1),
Calculating the second index value for each face element included in the makeup element by using the image data included in each of the third and fourth regions;
(a-5) a step of performing a workability determination of each face element included in the makeup element based on a corresponding one of the second index values calculated in the step (a-4),
Have
In the step (b), the notifying unit notifies the user of the determination result of the step (a-5).
JP2019130759A 2019-07-15 2019-07-15 Makeup evaluation device, makeup evaluation system, and makeup evaluation method Active JP6710440B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019130759A JP6710440B1 (en) 2019-07-15 2019-07-15 Makeup evaluation device, makeup evaluation system, and makeup evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019130759A JP6710440B1 (en) 2019-07-15 2019-07-15 Makeup evaluation device, makeup evaluation system, and makeup evaluation method

Publications (2)

Publication Number Publication Date
JP6710440B1 true JP6710440B1 (en) 2020-06-17
JP2021015527A JP2021015527A (en) 2021-02-12

Family

ID=71079416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019130759A Active JP6710440B1 (en) 2019-07-15 2019-07-15 Makeup evaluation device, makeup evaluation system, and makeup evaluation method

Country Status (1)

Country Link
JP (1) JP6710440B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115731591A (en) * 2021-08-31 2023-03-03 北京新氧科技有限公司 A makeup progress detection method, device, equipment and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7223906B1 (en) 2022-08-19 2023-02-16 株式会社アデランス METHOD, SKILL EVALUATION DEVICE, AND PROGRAM FOR EVALUATING SKILLS FOR USER WHO CHANGES HAIR STYLE

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028731A (en) * 2017-07-31 2019-02-21 富士ゼロックス株式会社 Information processing device and program
CN207322948U (en) * 2017-09-20 2018-05-08 成都信息工程大学 A kind of intelligent cosmetic mirror

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115731591A (en) * 2021-08-31 2023-03-03 北京新氧科技有限公司 A makeup progress detection method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP2021015527A (en) 2021-02-12

Similar Documents

Publication Publication Date Title
CN110210571B (en) Image recognition method and device, computer equipment and computer readable storage medium
CN112949437B (en) Gesture recognition method, gesture recognition device and intelligent equipment
WO2002031773A1 (en) Image processing apparatus, image processing method, record medium, computer program, and semiconductor device
KR100997616B1 (en) Rotating fingerprint acquisition device and method using matching and synthesis
CN111290684B (en) Image display method, image display device and terminal device
JP7743579B2 (en) Image processing device and image processing method using the image processing device
CN107613202A (en) A kind of image pickup method and mobile terminal
CN112991555B (en) Data display method, device, equipment and storage medium
CN108062158A (en) Information processing system and information processing method
CN113850748B (en) Point cloud quality evaluation system and method
JP5753945B2 (en) Image processing apparatus, image processing apparatus control method, program, and information storage medium
JP6710440B1 (en) Makeup evaluation device, makeup evaluation system, and makeup evaluation method
CN110942065A (en) Text box selection method, apparatus, terminal device and computer-readable storage medium
CN115035320B (en) Hand feature extraction and gesture recognition method, electronic device and storage medium
CN113544701B (en) Related object detection method and device, electronic device and storage medium
CN113780047B (en) Virtual makeup trial method, device, electronic device and storage medium
JP2003330941A (en) Similar image classification device
TW201006527A (en) Measuring object contour method and measuring object contour apparatus
JP3224399U (en) Makeup evaluation device and makeup evaluation system
US7545983B2 (en) Person image retrieval apparatus
CN110941733A (en) Integrated interface information multiple fusion display method
CN113703901A (en) Graphic code display method and device and electronic equipment
CN116386103A (en) Method, system, and electronic device for estimating the point of sight of human eyes
CN112748829B (en) Picture editing method, device, equipment and storage medium
CN117765104A (en) Line rendering method, device, electronic device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190715

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191030

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200521

R150 Certificate of patent or registration of utility model

Ref document number: 6710440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250