[go: up one dir, main page]

JP4921222B2 - Cosmetic adhesion state analysis method, cosmetic adhesion state analysis device, cosmetic adhesion state analysis program, and recording medium on which the program is recorded - Google Patents

Cosmetic adhesion state analysis method, cosmetic adhesion state analysis device, cosmetic adhesion state analysis program, and recording medium on which the program is recorded Download PDF

Info

Publication number
JP4921222B2
JP4921222B2 JP2007089739A JP2007089739A JP4921222B2 JP 4921222 B2 JP4921222 B2 JP 4921222B2 JP 2007089739 A JP2007089739 A JP 2007089739A JP 2007089739 A JP2007089739 A JP 2007089739A JP 4921222 B2 JP4921222 B2 JP 4921222B2
Authority
JP
Japan
Prior art keywords
image
cosmetic
analysis
skin
adhesion state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007089739A
Other languages
Japanese (ja)
Other versions
JP2008245843A (en
Inventor
明博 棟方
勇二 舛田
直美 國澤
功 佐藤
雅人 亀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to JP2007089739A priority Critical patent/JP4921222B2/en
Publication of JP2008245843A publication Critical patent/JP2008245843A/en
Application granted granted Critical
Publication of JP4921222B2 publication Critical patent/JP4921222B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Cosmetics (AREA)

Description

本発明は、化粧料付着状態解析方法、化粧料付着状態解析装置、化粧料付着状態解析プログラム、及び該プログラムが記録された記録媒体に係り、特に肌画像から化粧料の付着状態を高精度に解析するための化粧料付着状態解析方法、化粧料付着状態解析装置、化粧料付着状態解析プログラム、及び該プログラムが記録された記録媒体に関する。   The present invention relates to a cosmetic adhesion state analysis method, a cosmetic adhesion state analysis apparatus, a cosmetic adhesion state analysis program, and a recording medium on which the program is recorded, and in particular, the cosmetic adhesion state from a skin image with high accuracy. The present invention relates to a cosmetic adhesion state analysis method, a cosmetic adhesion state analysis device, a cosmetic adhesion state analysis program, and a recording medium on which the program is recorded.

従来、化粧カウンセリング等の分野において、皮膚の状態や化粧のノリ具合を解析するための様々な手法が提案されている。例えば、肌(皮膚)の小じわや毛穴、しみ、そばかす等といった肌の局部の表面状態をマイクロスコープ等で撮影し、撮影した内容を解析する手法がある(例えば、特許文献1,特許文献2等を参照。)。   Conventionally, in the field of makeup counseling and the like, various methods for analyzing the state of skin and the state of makeup are proposed. For example, there is a method of photographing a local surface condition of skin such as skin fine lines, pores, spots, freckles, etc. with a microscope or the like and analyzing the photographed contents (for example, Patent Document 1, Patent Document 2, etc.) See).

特許文献1又は特許文献2に示される手法では、マイクロスコープを用いて皮膚の観察部位に光を照射し、照射された皮膚の局部画像を取得し、その取得した画像から皮膚の表面状態の解析を行っている。
特開2003−24283号公報 特開平7−323013号公報
In the technique disclosed in Patent Document 1 or Patent Document 2, light is irradiated to an observation site of the skin using a microscope, a local image of the irradiated skin is acquired, and analysis of the surface state of the skin is performed from the acquired image. It is carried out.
JP 2003-24283 A JP-A-7-323013

上述したように、従来では、マイクロスコープを装備した計測機器から取得した被験者の皮膚(肌)の局部画像を用いて、小じわや毛穴、しみ、そばかす等といった素肌の評価を解析する手法は存在していた。   As described above, conventionally, there is a method for analyzing the evaluation of bare skin such as fine lines, pores, spots, freckles, etc., using a local image of the skin (skin) of a subject acquired from a measuring instrument equipped with a microscope. It was.

しかしながら、被験者の肌に塗布された化粧料の付着状態を最適なパラメータにより数値化し、数値化した結果から高精度に解析する手法は存在していなかった。   However, there has been no technique for digitizing the state of adhesion of the cosmetic applied to the skin of the subject using the optimum parameters and analyzing with high accuracy from the digitized results.

本発明は、上述した課題に鑑みてなされたものであって、肌画像から化粧料の付着状態を高精度に解析するための化粧料付着状態解析方法、化粧料付着状態解析装置、化粧料付着状態解析プログラム、及び該プログラムが記録された記録媒体を提供することを目的とする。   The present invention has been made in view of the above-described problems, and is a cosmetic adhesion state analysis method, a cosmetic adhesion state analysis apparatus, and a cosmetic adhesion for analyzing the adhesion state of cosmetics from a skin image with high accuracy. It is an object to provide a state analysis program and a recording medium on which the program is recorded.

上述した課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above-described problems, the present invention employs means for solving the problems having the following characteristics.

請求項1に記載された発明は、撮影された被験者の所定範囲の肌画像を用いて化粧料の付着状態の解析を行う化粧料付着状態解析方法において、前記肌画像から前記被験者の肌に塗布された化粧料の付着量、不均一度、及び粗さ度のうち、少なくとも1つを数値化して前記化粧料の付着状態を解析する解析ステップと、前記肌画像と、前記解析ステップから得られる解析結果とを、被験者情報と関連付けて蓄積する蓄積ステップとを有することを特徴とする。   The invention described in claim 1 is a cosmetic adhesion state analysis method for analyzing the adhesion state of a cosmetic using a skin image of a predetermined range of a photographed subject, and is applied from the skin image to the subject's skin. Obtained from the analysis step of analyzing at least one of the applied amount, non-uniformity, and roughness of the applied cosmetic and analyzing the applied state of the cosmetic, the skin image, and the analyzing step And an accumulating step for accumulating the analysis result in association with the subject information.

請求項1記載の発明によれば、被験者の肌に塗布された化粧料の付着状態を、付着量、不均一度、及び粗さ度の各パラメータのうち、少なくとも1つを用いて高精度に解析することができる。これにより、化粧料の付着状態を客観的且つ再現性よく評価することができ、例えば製品や原料の評価や開発に活用することができる。   According to the first aspect of the present invention, the adhesion state of the cosmetic applied to the skin of the subject is accurately determined using at least one of the parameters of the adhesion amount, the non-uniformity, and the roughness. Can be analyzed. Thereby, the adhesion state of cosmetics can be evaluated objectively and with good reproducibility, and can be utilized for evaluation and development of products and raw materials, for example.

請求項2に記載された発明は、前記解析ステップは、前記付着量を数値化する際、前記肌画像から3値化画像を取得し、取得した3値化画像全体の画素数と、前記肌画像から抽出される緑色画像の彩度とに基づいて、前記付着量を数値化することを特徴とする。   According to a second aspect of the present invention, in the analysis step, when the adhesion amount is digitized, a ternary image is acquired from the skin image, the number of pixels of the acquired ternary image, and the skin The adhesion amount is quantified based on the saturation of the green image extracted from the image.

請求項2記載の発明によれば、肌画像中に含まれるノイズ(ゴミ)を少なくすることができ、付着量を正確に取得することができる。   According to the second aspect of the present invention, noise (dust) contained in the skin image can be reduced, and the amount of adhesion can be acquired accurately.

請求項3に記載された発明は、前記解析ステップは、前記不均一度を数値化する際、前記肌画像から抽出される緑色画像の階調の標準偏差と、前記肌画像から得られる3値化画像の皮丘部分の扁平率とに基づいて、前記不均一度を数値化することを特徴とする。   According to a third aspect of the present invention, in the analyzing step, when the non-uniformity is digitized, a standard deviation of a gradation of a green image extracted from the skin image and a ternary value obtained from the skin image are obtained. The non-uniformity is quantified on the basis of the flatness of the hide portion of the digitized image.

請求項3記載の発明によれば、肌画像から得られる3値化画像の皮丘部分の扁平率を用いて不均一度を取得することで、より高精度に不均一度を取得することができる。   According to the third aspect of the present invention, it is possible to acquire the non-uniformity with higher accuracy by acquiring the non-uniformity using the flatness of the hill part of the ternary image obtained from the skin image. it can.

請求項4に記載された発明は、前記解析ステップは、前記粗さ度を数値化する際、前記肌画像から得られる3値化画像全体の画素数と、前記化粧料が厚く付着している部分の画素数とに基づいて、粗さ度を数値化することを特徴とする。   In the invention described in claim 4, when the analysis step digitizes the roughness, the number of pixels of the entire ternary image obtained from the skin image and the cosmetic material are attached thickly. Roughness is digitized based on the number of pixels in the portion.

請求項4記載の発明によれば、肌画像から得られる3値化画像全体の画素数と、化粧料が厚く付着している部分の画素数とを用いることで、高精度に粗さ度(凝集度)を取得することができる。   According to the fourth aspect of the present invention, by using the number of pixels of the entire ternary image obtained from the skin image and the number of pixels of the portion where the cosmetic material is thickly attached, the degree of roughness ( Aggregation degree) can be obtained.

請求項5に記載された発明は、前記解析ステップは、前記化粧料の付着量、不均一度、及び粗さ度のうち、少なくとも1つから化粧の仕上がり具合を解析することを特徴とする。   The invention described in claim 5 is characterized in that the analysis step analyzes the finish of makeup from at least one of the amount of adhesion, non-uniformity, and roughness of the cosmetic.

請求項5記載の発明によれば、例えば店頭での活用も睨んだ新しい化粧の仕上り評価法を確立することができる。   According to the fifth aspect of the present invention, it is possible to establish a new finish evaluation method for makeup that is also used in stores, for example.

請求項6に記載された発明は、前記肌画像を撮影手段により撮影する撮影ステップを有し、前記撮影ステップは、前記撮影手段において、照明を前記被験者の肌に照射して得られる反射光を受光する際、偏光フィルタによりフィルタリングすることを特徴とする。   The invention described in claim 6 has a photographing step of photographing the skin image by a photographing means, and the photographing step uses reflected light obtained by irradiating the skin of the subject with illumination in the photographing means. When receiving light, it is filtered by a polarizing filter.

請求項6記載の発明によれば、偏光フィルタにより正反射成分を除去することができ、化粧料が塗布された肌画像を明瞭に撮影することができる。   According to invention of Claim 6, a regular reflection component can be removed with a polarizing filter, and the skin image to which cosmetics were apply | coated can be image | photographed clearly.

請求項7に記載された発明は、撮影された被験者の所定範囲の肌画像を用いて化粧料の付着状態の解析を行う化粧料付着状態解析装置において、前記肌画像から前記被験者の肌に塗布された化粧料の付着量、不均一度、及び粗さ度のうち、少なくとも1つを数値化して前記化粧料の付着状態を解析する解析手段と、前記肌画像と、前記解析手段から得られる解析結果とを、被験者情報と関連付けて蓄積する蓄積手段とを有することを特徴とする。   The invention described in claim 7 is a cosmetic adhesion state analyzing apparatus that analyzes an adhesion state of a cosmetic using a skin image of a predetermined range of a photographed subject, and applies the skin image to the subject's skin. Obtained from the analysis means for analyzing the adhesion state of the cosmetic by digitizing at least one of the applied amount, non-uniformity, and roughness of the applied cosmetic, the skin image, and the analysis means It has a storage means for storing the analysis result in association with the subject information.

請求項7記載の発明によれば、被験者の肌に塗布された化粧料の付着状態を、付着量、不均一度、及び粗さ度の各パラメータのうち、少なくとも1つを用いて高精度に解析することができる。これにより、化粧料の付着状態を客観的且つ再現性よく評価することができ、例えば製品や原料の評価や開発に活用することができる。   According to the seventh aspect of the present invention, the adhesion state of the cosmetic applied to the skin of the subject is accurately determined using at least one of the parameters of the adhesion amount, the non-uniformity, and the roughness. Can be analyzed. Thereby, the adhesion state of cosmetics can be evaluated objectively and with good reproducibility, and can be utilized for evaluation and development of products and raw materials, for example.

請求項8に記載された発明は、前記解析手段は、前記付着量を数値化する際、前記肌画像から3値化画像を取得し、取得した3値化画像全体の画素数と、前記肌画像から抽出される緑色画像の彩度とに基づいて、前記付着量を数値化することを特徴とする。   According to an eighth aspect of the present invention, when the analysis unit digitizes the adhesion amount, the analysis unit acquires a ternary image from the skin image, the number of pixels of the acquired ternary image, and the skin The adhesion amount is quantified based on the saturation of the green image extracted from the image.

請求項8記載の発明によれば、肌画像中に含まれるノイズ(ゴミ)を少なくすることができ、付着量を正確に取得することができる。   According to the eighth aspect of the present invention, noise (dust) contained in the skin image can be reduced, and the adhesion amount can be acquired accurately.

請求項9に記載された発明は、前記解析手段は、前記不均一度を数値化する際、前記肌画像から抽出される緑色画像の階調の標準偏差と、前記肌画像から得られる3値化画像の皮丘部分の扁平率とに基づいて、前記不均一度を数値化することを特徴とする。   According to a ninth aspect of the present invention, when the non-uniformity is digitized, the analysis unit calculates a standard deviation of a gradation of a green image extracted from the skin image and a ternary value obtained from the skin image. The non-uniformity is quantified on the basis of the flatness of the hide portion of the digitized image.

請求項9記載の発明によれば、肌画像から得られる3値化画像の皮丘部分の扁平率を用いて不均一度を取得することで、より高精度に不均一度を取得することができる。   According to the ninth aspect of the present invention, it is possible to acquire the non-uniformity with higher accuracy by acquiring the non-uniformity using the flatness of the hill part of the ternary image obtained from the skin image. it can.

請求項10に記載された発明は、前記解析手段は、前記粗さ度を数値化する際、前記肌画像から得られる3値化画像全体の画素数と、前記化粧料が厚く付着している部分の画素数とに基づいて、粗さ度を数値化することを特徴とする。   According to a tenth aspect of the present invention, when the analysis means digitizes the roughness, the number of pixels of the entire ternary image obtained from the skin image and the cosmetic material are attached thickly. Roughness is digitized based on the number of pixels in the portion.

請求項10記載の発明によれば、肌画像から得られる3値化画像全体の画素数と、化粧料が厚く付着している部分の画素数とを用いることで、高精度に粗さ度(凝集度)を取得することができる。   According to the tenth aspect of the present invention, by using the number of pixels of the entire ternary image obtained from the skin image and the number of pixels of the portion where the cosmetic material is thickly attached, the degree of roughness ( Aggregation degree) can be obtained.

請求項11に記載された発明は、前記解析手段は、前記化粧料の付着量、不均一度、及び粗さ度のうち、少なくとも1つから化粧の仕上がり具合を解析することを特徴とする。   The invention described in claim 11 is characterized in that the analysis means analyzes the finish of makeup from at least one of the amount of adhesion, non-uniformity, and roughness of the cosmetic.

請求項11記載の発明によれば、例えば店頭での活用も睨んだ新しい化粧の仕上り評価法を確立することができる。   According to the eleventh aspect of the present invention, for example, it is possible to establish a new makeup finish evaluation method that is also used in stores.

請求項12に記載された発明は、前記肌画像を撮影する撮影手段を有し、前記撮影手段は、照明を前記被験者の肌に照射して得られる反射光を受光する際、照射光及び反射光の経路上に偏光フィルタを設けることを特徴とする。   The invention described in claim 12 includes photographing means for photographing the skin image, and the photographing means receives irradiation light and reflection when receiving reflected light obtained by illuminating the skin of the subject. A polarizing filter is provided on the light path.

請求項12記載の発明によれば、偏光フィルタにより正反射成分を除去することができ、化粧料が塗布された肌画像を明瞭に撮影することができる。   According to the twelfth aspect of the present invention, the specular reflection component can be removed by the polarizing filter, and the skin image to which the cosmetic is applied can be clearly photographed.

請求項13に記載された発明は、請求項1乃至6の何れか1項に記載の化粧料付着状態解析方法を実行させるようにコンピュータを動作させることを特徴とする化粧料付着状態解析プログラムである。   The invention described in claim 13 is a cosmetic adhesion state analysis program for operating a computer so as to execute the cosmetic adhesion state analysis method according to any one of claims 1 to 6. is there.

請求項13記載の発明によれば、被験者の肌に塗布された化粧料の付着状態を、付着量、不均一度、及び粗さ度の各パラメータのうち、少なくとも1つを用いて高精度に解析することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における化粧料の付着状態の解析を容易に実現することができる。   According to the invention of claim 13, the adhesion state of the cosmetic applied to the skin of the subject is accurately determined using at least one of the parameters of the adhesion amount, the non-uniformity, and the roughness. Can be analyzed. Further, by installing the program, it is possible to easily realize the analysis of the state of adhesion of the cosmetic material according to the present invention using a general-purpose personal computer or the like.

請求項14に記載された発明は、請求項13に記載の化粧料付着状態解析プログラムが記録されたコンピュータ読み取り可能な記録媒体である。   The invention described in claim 14 is a computer-readable recording medium on which the cosmetic material adhesion state analysis program according to claim 13 is recorded.

請求項14記載の発明によれば、記録媒体により他の複数のコンピュータに容易に化粧料付着状態解析プログラムをインストールすることができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における化粧料の付着状態の解析を容易に実現することができる。   According to the fourteenth aspect of the present invention, the cosmetic adhesion state analysis program can be easily installed on a plurality of other computers using a recording medium. Further, by installing the program, it is possible to easily realize the analysis of the state of adhesion of the cosmetic material according to the present invention using a general-purpose personal computer or the like.

本発明によれば、被験者の肌に塗布された化粧料の付着状態を高精度に解析することができる。   ADVANTAGE OF THE INVENTION According to this invention, the adhesion state of the cosmetics apply | coated to the test subject's skin can be analyzed with high precision.

<本発明の概要>
本発明は、肌等への化粧料の付着状態を解析するため、化粧後の局部又は全体等、所定範囲の肌画像を取得し、取得した肌画像から化粧料の付着状態を解析するパラメータとして化粧料の付着量、不均一度、及び粗さ度(凝集度)のうち、少なくとも1つを用いて解析を行うものである。なお、本発明における化粧料とは、粉体(固体)、液体等の形状やその成分等は問わず、肌(皮膚)に塗布されるもの全般を含み、更に塗布対象は、人工皮膚やその他の付着(塗布)可能な素材等も含まれるものとする。つまり、本発明により、例えばある物体等の表面に塗布されるあらゆる粉体等の付着状態の解析に適用することができる。
<Outline of the present invention>
The present invention obtains a skin image of a predetermined range, such as a local area or the whole after makeup, and analyzes the adhesion state of the cosmetic from the acquired skin image in order to analyze the adhesion state of the cosmetic on the skin and the like. The analysis is performed using at least one of the adhesion amount, non-uniformity, and roughness (cohesion) of the cosmetic. In addition, the cosmetics in the present invention include powders (solid), liquids and the like, and components applied to the skin (skin) regardless of the shape and components thereof. Materials that can be attached (coated) are also included. That is, the present invention can be applied to the analysis of the adhesion state of all powders applied to the surface of an object, for example.

以下に、本発明における化粧料付着状態解析方法、化粧料付着状態解析装置、化粧料付着状態解析プログラム、及び該プログラムが記録された記録媒体を好適に実施した形態について、図面を用いて説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, embodiments of a cosmetic adhesion state analysis method, a cosmetic adhesion state analysis apparatus, a cosmetic adhesion state analysis program, and a recording medium on which the program is recorded according to the present invention will be described with reference to the drawings. .

<システム構成>
図1は、本発明における化粧料付着状態解析システムの概略構成の一例を示す図である。図1に示す化粧料付着状態解析システム10は、肌観察装置11と、化粧料付着状態解析装置12とを有するよう構成されており、肌観察装置11及び化粧料付着状態解析装置12は、インターネットやLAN(Local Area Network)等に代表される通信ネットワーク13によりデータの送受信が可能な状態で接続されている。
<System configuration>
FIG. 1 is a diagram illustrating an example of a schematic configuration of a cosmetic adhesion state analysis system according to the present invention. A cosmetic adhesion state analysis system 10 shown in FIG. 1 is configured to include a skin observation device 11 and a cosmetic adhesion state analysis device 12, and the skin observation device 11 and the cosmetic adhesion state analysis device 12 are connected to the Internet. And a communication network 13 typified by LAN (Local Area Network) or the like so that data can be transmitted and received.

肌観察装置11は、例えばCCD(Charge Coupled Device)カメラ等を用いて肌に化粧料を塗布した被験者を撮影し、被験者の肌の局部又は全体等、所定範囲の画像等を取得する。なお、肌観察装置11は、例えば毛穴、しわ、しみ、肌色等のうち、少なくとも1つの情報を測定することもできる。また、肌観察装置11は、撮影した所定範囲の肌画像等の測定結果としての各情報を、通信ネットワーク13を介して化粧料付着状態解析装置12に送信する。   The skin observation apparatus 11 captures an image of a subject whose cosmetics are applied to the skin using, for example, a CCD (Charge Coupled Device) camera, and acquires an image in a predetermined range such as a local area or the entire skin of the subject. In addition, the skin observation apparatus 11 can also measure at least one information among pores, wrinkles, spots, skin colors, and the like. In addition, the skin observation apparatus 11 transmits each piece of information as a measurement result such as a photographed skin image of a predetermined range to the cosmetic adhesion state analysis apparatus 12 via the communication network 13.

化粧料付着状態解析装置12は、肌観察装置11から送信された肌画像等に基づいて、被験者の肌に塗布された化粧料の付着量、不均一度、及び粗さ度のうち、少なくとも1つを数値化する。また、化粧料付着状態解析装置12は、数値化した結果から化粧料の付着状態を解析する。なお、化粧料付着状態解析装置12は、毛穴、しわ、しみ、肌色等のうち少なくとも1つを解析することもできる。   The cosmetic adhesion state analysis device 12 is based on the skin image transmitted from the skin observation device 11 and at least one of the adhesion amount, the non-uniformity, and the roughness level of the cosmetic applied to the skin of the subject. Digitize one. Moreover, the cosmetics adhesion state analysis apparatus 12 analyzes the cosmetics adhesion state from the digitized results. The cosmetic adhesion state analysis device 12 can also analyze at least one of pores, wrinkles, spots, skin color, and the like.

また、化粧料付着状態解析装置12は、肌画像と、解析結果とを、被験者情報や、測定又は解析を行った日時情報等と関連付けて蓄積する。これにより、肌画像やその解析結果の表示だけでなく、年代分布や経時変化等による解析やその結果を表示画面に表示することができる。   In addition, the cosmetic adhesion state analysis device 12 accumulates the skin image and the analysis result in association with the subject information, the date information on which the measurement or analysis was performed, and the like. Thereby, not only the display of the skin image and the analysis result thereof but also the analysis based on the age distribution and the change over time and the result thereof can be displayed on the display screen.

なお、図1に示すシステム構成は、概略的に肌観察装置11及び化粧料付着状態解析装置12をそれぞれ1台有する構成となっているが、本発明におけるシステム構成は特に限定されず、例えば肌観察装置11及び/又は化粧料付着状態解析装置12が複数有するよう構成されていてもよい。また、肌観察装置11における被験者の肌を撮影するための各構成を化粧料付着状態解析装置12内に設けてもよく、更に肌に塗布された化粧料の付着状態を解析する基となる画像等が既に存在する場合には、肌観察装置11を設けなくてもよい。   The system configuration shown in FIG. 1 is roughly configured to have one skin observation device 11 and one cosmetic adhesion state analysis device 12, but the system configuration in the present invention is not particularly limited. A plurality of observation apparatuses 11 and / or cosmetics adhesion state analysis apparatuses 12 may be provided. Moreover, each structure for imaging | photography of the test subject's skin in the skin observation apparatus 11 may be provided in the cosmetics adhesion state analyzer 12, and the image used as the basis for analyzing the adhesion state of the cosmetics apply | coated to skin Or the like already exists, the skin observation device 11 may not be provided.

<肌観察装置11>
次に、肌観察装置11の機能構成例について図を用いて説明する。図2は、肌観察装置の機能構成の一例を示す図である。図2に示す肌観察装置11は、入力手段21と、出力手段22と、メンバー管理手段23と、撮影手段24と、蓄積手段25と、送受信手段26と、制御手段27とを有するよう構成されている。
<Skin Observation Device 11>
Next, a functional configuration example of the skin observation apparatus 11 will be described with reference to the drawings. FIG. 2 is a diagram illustrating an example of a functional configuration of the skin observation apparatus. The skin observation apparatus 11 shown in FIG. 2 is configured to include an input unit 21, an output unit 22, a member management unit 23, a photographing unit 24, a storage unit 25, a transmission / reception unit 26, and a control unit 27. ing.

入力手段21は、ユーザ等から例えば化粧料の付着状態についての解析等を行うメンバー(被験者)の登録や、測定実施日時の登録等を行う際の各種データの入力を受け付ける。また、入力手段21は、ユーザ等から撮影(測定)実施指示や化粧料付着状態解析装置12へのデータの送信指示等を受け付ける。なお、入力手段21は、例えばキーボードやマウス等のポインティングデバイスからなる。   The input means 21 accepts input of various data when performing registration of a member (subject) who performs analysis or the like on the adhesion state of cosmetics, registration of measurement execution date, and the like from a user or the like. In addition, the input unit 21 receives a shooting (measurement) execution instruction, a data transmission instruction to the cosmetics adhesion state analysis apparatus 12, and the like from a user or the like. The input means 21 is composed of a pointing device such as a keyboard and a mouse.

また、出力手段22は、入力手段21により入力された内容や、入力内容に基づいて実行された内容等を画面表示したり、音声出力等を行う。なお、出力手段22は、ディスプレイやスピーカ等からなる。更に、出力手段22は、プリンタ等の機能を有していてもよく、その場合には測定結果を紙等の印刷媒体に印刷して、ユーザや被験者等に提供することもできる。   Further, the output unit 22 displays the content input by the input unit 21, the content executed based on the input content, etc. on the screen, and performs voice output or the like. Note that the output means 22 includes a display, a speaker, and the like. Furthermore, the output means 22 may have a function such as a printer. In that case, the measurement result can be printed on a print medium such as paper and provided to a user, a subject, or the like.

また、メンバー管理手段23は、メンバーの個人情報及び測定回数等のメンバー情報(被験者情報)を管理する。具体的には、メンバー管理手段23は、メンバーの登録を行ったり、既に登録され蓄積手段25に蓄積されているメンバー情報を呼び出し、参照、修正、削除等を行うことができる。   Moreover, the member management means 23 manages member information (subject information) such as personal information of members and the number of measurements. Specifically, the member management means 23 can register members, call member information that has already been registered and stored in the storage means 25, and perform reference, correction, deletion, and the like.

なお、メンバー情報として登録される内容としては、例えば各メンバーや撮影(測定)内容等を識別するための「識別No.」や、「氏名」、「生年月日」、「性別」、「撮影部位」、「メモ(備考)」等がある。なお、登録されるメンバー情報は、本発明においては特に制限されず、例えば「生年月日」の変わりに「年代」等を登録するような設定にしてもよい。また、蓄積手段25等に蓄積されているメンバー情報から所定のメンバーを呼び出す場合、上述した「識別No.」や「氏名」等を用いて検索することができる。   The contents registered as member information include, for example, “identification No.”, “name”, “birth date”, “gender”, “photographing” for identifying each member and photographing (measurement) contents, etc. There are “parts”, “memos (remarks)”, and the like. The member information to be registered is not particularly limited in the present invention. For example, “member age” may be registered instead of “birth date”. Further, when calling a predetermined member from member information stored in the storage means 25 or the like, it is possible to search using the above-mentioned “identification No.”, “name”, or the like.

撮影手段24は、CCDカメラ等より被験者の化粧料が塗布された所定範囲の肌画像を撮影(測定)しデジタル画像を取得する。なお、所定範囲とは、例えば被験者の顔に塗布した化粧料を撮影する場合は、全顔又は予め設定した顔の一部(局部)等である。   The photographing means 24 captures (measures) a skin image in a predetermined range where the subject's cosmetic is applied from a CCD camera or the like, and acquires a digital image. The predetermined range is, for example, the entire face or a part of a preset face (local part) when photographing cosmetics applied to the face of the subject.

なお、撮影された肌画像を用いた解析処理は、履歴情報を用いて経時的(時系列)に連続して処理を行うことができる。そのため、経時的に撮影される肌画像の位置に差が生じないようにする必要がある。したがって、撮影手段24は、撮影時に被験者の撮影する部位をディスプレイ等の画面に表示(プレビュー)し、例えばユーザ等がプレビュー画面を見ながら被験者を誘導して所定の部位が撮影されるようにすることができる。なお、撮影手段24における撮影手法について後述する。   Note that the analysis process using the photographed skin image can be continuously performed over time (time series) using history information. Therefore, it is necessary to prevent a difference in the position of the skin image taken over time. Therefore, the imaging unit 24 displays (previews) a part to be imaged by the subject at the time of imaging on a screen such as a display, and for example, the user or the like guides the subject while viewing the preview screen so that a predetermined part is imaged be able to. Note that a photographing method in the photographing unit 24 will be described later.

なお、後述する化粧料付着状態解析装置12において、毛穴、しわ、しみ、肌色等のうち少なくとも1つを解析する場合、撮影手段24は、被験者の全顔を複数の角度(例えば、正面、右顔、左顔等)から撮影したり、照明としてフラッシュ撮影、拡散光を用いた撮影、等を選択的に用いて撮影することもできる。   Note that in the cosmetic adhesion state analyzing apparatus 12 described later, when analyzing at least one of pores, wrinkles, blotches, skin color, and the like, the imaging unit 24 may view the entire face of the subject at a plurality of angles (for example, front, right Face, left face, etc.), flash photography as illumination, photography using diffused light, etc. can be used selectively.

蓄積手段25は、上述したメンバー管理手段23により得られるメンバー情報や撮影手段24により得られる肌画像等の各種情報を蓄積する。また、蓄積手段25は、撮影手段24から得られる肌画像をメンバー情報や撮影(測定)した日時情報と関連付けて蓄積する。   The accumulating unit 25 accumulates various information such as the member information obtained by the member managing unit 23 and the skin image obtained by the photographing unit 24. In addition, the storage unit 25 stores the skin image obtained from the photographing unit 24 in association with member information and date / time information of photographing (measurement).

送受信手段26は、肌観察装置11と化粧料付着状態解析装置12との間で通信ネットワーク13を介してデータの送受信を行うための通信インターフェースである。したがって、肌観察装置11は、送受信手段26が化粧料付着状態解析装置12からのメンバー情報や肌画像等の各種情報の取得要求を受信したり、入力手段21により化粧料付着状態解析装置12への各種情報の送信指示を受け付けた場合に、通信ネットワーク13を介して化粧料付着状態解析装置12に各種情報を送信する。   The transmission / reception means 26 is a communication interface for transmitting / receiving data between the skin observation apparatus 11 and the cosmetics adhesion state analysis apparatus 12 via the communication network 13. Therefore, in the skin observation apparatus 11, the transmission / reception means 26 receives a request for acquiring various information such as member information and skin images from the cosmetic adhesion state analysis apparatus 12, or the input means 21 sends the request to the cosmetic adhesion state analysis apparatus 12. When the transmission instruction of the various information is received, the various information is transmitted to the cosmetics adhesion state analyzer 12 via the communication network 13.

また、制御手段27は、肌観察装置11の各構成部全体の制御を行う。具体的には、例えば撮影された肌画像をメンバー情報と共に蓄積手段25に蓄積させたり、メンバー登録や、撮影により取得した画像を送受信手段26から化粧料付着状態解析装置12に送信させる等の制御を行う。   In addition, the control unit 27 controls the entire components of the skin observation apparatus 11. More specifically, for example, control is performed such that a photographed skin image is accumulated in the accumulating unit 25 together with member information, or member registration or an image acquired by photographing is transmitted from the transmission / reception unit 26 to the cosmetic adhesion state analyzing apparatus 12 I do.

<撮影手段24における撮影手法>
ここで、撮影手段24における具体的な撮影手法について説明する。図3は、撮影手段におけるヘッド部の構成の一例を示す図である。
<Shooting Method in Shooting Unit 24>
Here, a specific photographing technique in the photographing unit 24 will be described. FIG. 3 is a diagram illustrating an example of a configuration of a head unit in the photographing unit.

図3に示すように、本実施例において化粧料が塗布された肌画像を取得する際には、予め肌画像を取得するために撮影手段24に設けられた照明からの照明光30−1,30−2を化粧料が塗布された肌31に照射し、その照射により得られる反射光32をCCDカメラで受光することにより肌画像を取得する。   As shown in FIG. 3, when acquiring a skin image to which cosmetics are applied in this embodiment, illumination light 30-1 from illumination provided in the photographing means 24 in order to acquire a skin image in advance. A skin image is acquired by irradiating the skin 31 to which cosmetics are applied with 30-2 and receiving reflected light 32 obtained by the irradiation with a CCD camera.

ここで、本実施形態における肌画像の撮影では、照明光30及び反射光32の経路のそれぞれに、図3に示すように偏光フィルタ33−1〜33−3を設ける。このように、偏光フィルタ33により照明光30及び反射光32の正反射成分を除去することができ、これによりファンデーション等の化粧料が付着した肌画像を明瞭に撮影することができる。また、この肌画像を後述する化粧料の付着状態の解析に用いることで、高精度な解析を実現することができる。   Here, in the skin image capturing in the present embodiment, polarization filters 33-1 to 33-3 are provided in the paths of the illumination light 30 and the reflected light 32 as shown in FIG. In this way, the regular reflection component of the illumination light 30 and the reflected light 32 can be removed by the polarizing filter 33, whereby a skin image to which cosmetics such as a foundation are attached can be clearly photographed. Further, by using this skin image for analysis of the state of adhesion of the cosmetic material described later, highly accurate analysis can be realized.

また、撮影手段24は、毛穴、しわ、しみ、肌色等のうち少なくとも1つを解析する場合、例えば毛穴解析用として正面顔のフラッシュ撮影により画像を取得したり、しわ解析用として左右の側面顔のフラッシュ撮影により画像を取得したり、しみ、肌色解析用として左右顔の側面の拡散光撮影により画像を取得することもできる。   Further, when the photographing unit 24 analyzes at least one of pores, wrinkles, blotches, skin color, etc., for example, it acquires an image by flash photographing of the front face for pore analysis, or the left and right side faces for wrinkle analysis Images can also be acquired by flash photography, or images can be obtained by diffuse light photography of the sides of the left and right faces for use in spot and skin color analysis.

<化粧料付着状態解析装置12>
次に、化粧料付着状態解析装置12の機能構成例について図を用いて説明する。図4は、化粧料付着状態解析装置の機能構成の一例を示す図である。図4に示す化粧料付着状態解析装置12は、入力手段41と、出力手段42と、メンバー管理手段43と、解析手段44と、表示画面生成手段45と、蓄積手段46と、送受信手段47と、制御手段48とを有するよう構成されている。
<Cosmetic condition analysis device 12>
Next, a functional configuration example of the cosmetics adhesion state analysis device 12 will be described with reference to the drawings. FIG. 4 is a diagram illustrating an example of a functional configuration of the cosmetic adhesion state analyzing apparatus. 4 includes an input unit 41, an output unit 42, a member management unit 43, an analysis unit 44, a display screen generation unit 45, a storage unit 46, and a transmission / reception unit 47. , And control means 48.

入力手段41は、化粧カウンセラー等のユーザ等が蓄積手段46等により蓄積されているメンバー情報の呼び出しや肌観察装置11から得られた各種情報を解析や評価するための指示を行ったり、解析結果画面表示させるための指示等を行う際の各種データの入力を受け付ける。なお、入力手段41は、例えばキーボードやマウス等のポインティングデバイス等からなる。   The input means 41 is used by a user such as a makeup counselor to instruct member information stored in the storage means 46 and the like, and to instruct and analyze various information obtained from the skin observation apparatus 11, and the analysis result Accepts input of various data when giving instructions for screen display. The input means 41 is composed of a pointing device such as a keyboard and a mouse, for example.

また、出力手段42は、入力手段41により入力された内容や、入力内容に基づいて実行された内容等を画面表示したり、音声出力等を行う。なお、出力手段22は、ディスプレイやスピーカ等からなる。更に、出力手段22は、プリンタ等の機能を有していてもよく、その場合には解析結果等を紙等の印刷媒体に印刷して、ユーザや被験者等に提供することもできる。   Further, the output unit 42 displays the content input by the input unit 41, the content executed based on the input content, etc. on the screen, and performs voice output or the like. Note that the output means 22 includes a display, a speaker, and the like. Furthermore, the output means 22 may have a function of a printer or the like. In that case, the analysis result or the like can be printed on a print medium such as paper and provided to the user or the subject.

また、メンバー管理手段43は、蓄積手段46に蓄積されているメンバーの個人情報及び測定回数、解析回数等のメンバー情報(被験者情報)を管理する。具体的には、メンバー管理手段43は、メンバーの登録を行ったり、既に登録され蓄積手段46に蓄積されているメンバー情報を呼び出し、参照、修正、削除等を行うことができる。なお、蓄積手段46に蓄積されるメンバー情報は、上述した肌観察装置11において登録される内容と略同様であるが、その他にも解析手段44で解析された回数や解析日時等の情報も含まれる。   The member management unit 43 manages member information (subject information) such as the member's personal information and the number of measurements and the number of analyzes stored in the storage unit 46. Specifically, the member management unit 43 can register a member, call member information that has already been registered and stored in the storage unit 46, and perform reference, correction, deletion, and the like. The member information stored in the storage means 46 is substantially the same as the contents registered in the skin observation apparatus 11 described above, but also includes information such as the number of times analyzed by the analysis means 44 and the analysis date and time. It is.

解析手段44は、肌観察装置11から得られた肌画像等の各種情報に基づいて被験者の肌に塗布された化粧料の付着状態を解析する。なお、解析手段44は、化粧料の付着状態を解析するパラメータとして化粧料の付着量、不均一度、及び粗さ度(凝集度)のうち、少なくとも1つを用いる。解析手段44は、これらのパラメータを数値化し、数値化した値に基づいて、化粧料の付着状態を解析する。   The analysis unit 44 analyzes the adhesion state of the cosmetic applied to the skin of the subject based on various information such as a skin image obtained from the skin observation apparatus 11. The analysis unit 44 uses at least one of the amount of cosmetic adhesion, the non-uniformity, and the roughness (cohesion) as a parameter for analyzing the adhesion state of the cosmetic. The analysis unit 44 quantifies these parameters and analyzes the adhesion state of the cosmetic based on the quantified values.

また、解析手段44は、上述したパラメータの数値化により被験者の化粧の仕上がり具合を解析する。これにより、例えば店頭での活用も睨んだ新しい化粧の仕上り評価法等を確立することができる。なお、本実施形態における解析手法の具体的な内容については後述する。   The analyzing means 44 analyzes the finish of the subject's makeup by digitizing the parameters described above. As a result, for example, a new makeup finish evaluation method and the like that can be used in stores can be established. The specific contents of the analysis method in this embodiment will be described later.

また、解析手段44は、例えば正面顔のフラッシュ撮影による画像を用いて毛穴解析を行ったり、左右の側面顔のフラッシュ撮影によりしわ解析を行ったり、画像を取得したり、左右の側面顔の拡散光撮影によりしみ、肌色解析を行うこともできる。
や、左右の側面顔のフラッシュ撮影による画像、左右顔の側面の拡散光撮影による画像等を取得して毛穴、しわ、しみ、肌色等のうち少なくとも1つを解析してもよい。
Further, the analysis unit 44 performs pore analysis using, for example, an image obtained by flash photography of the front face, performs wrinkle analysis by flash photography of the left and right side faces, acquires images, and diffuses the left and right side faces. It is possible to perform spot color analysis by blotting with light photography.
Alternatively, at least one of pores, wrinkles, blotches, skin color, and the like may be analyzed by acquiring an image obtained by flash photography of the left and right side faces, an image obtained by photographing the diffused light of the side faces of the left and right faces.

表示画面生成手段45は、肌観察装置11等から取得した肌画像等の画像情報から解析手段44による解析を行う対象となる所定部位や領域(解析対象の中心のXY座標や領域等)を選択するための画面や、本実施形態における解析処理を実行するための画面、解析結果を表示する画面、過去に解析した結果を経時的に表示する画面等を生成する。   The display screen generation unit 45 selects a predetermined part or region (XY coordinate or region of the center of the analysis target) to be analyzed by the analysis unit 44 from image information such as a skin image acquired from the skin observation device 11 or the like. A screen for executing the analysis processing in the present embodiment, a screen for displaying the analysis results, a screen for displaying the results analyzed in the past, and the like.

また、表示画面生成手段45は、生成された内容を出力手段42に出力し、画面に表示する。ユーザは、表示画面生成手段45により生成される画面からマウス等の入力手段41等を用いて所定の指示を行い、本実施形態における被験者の肌に塗布された化粧料の付着状態の解析等を行うことができる。   The display screen generation unit 45 outputs the generated content to the output unit 42 and displays it on the screen. The user gives a predetermined instruction from the screen generated by the display screen generating means 45 using the input means 41 such as a mouse, and analyzes the adhesion state of the cosmetic applied to the skin of the subject in this embodiment. It can be carried out.

蓄積手段46は、肌観察装置11から得られるメンバー情報や各種画像データ、解析手段44から得られる解析結果等を蓄積する。なお、蓄積手段46は、画像データや解析結果等をメンバー(被験者)情報や測定日時、解析日時等の各種日時情報と関連付けて蓄積する。これにより、上述した被験者毎の履歴情報を蓄積することができ、必要に応じて各種データを例えば時系列的に取得することができる。   The storage unit 46 stores member information and various image data obtained from the skin observation apparatus 11, analysis results obtained from the analysis unit 44, and the like. The storage means 46 stores image data, analysis results, and the like in association with member (subject) information, various date information such as measurement date and time, analysis date and time. Thereby, the historical information for every subject mentioned above can be accumulated, and various data can be acquired in time series, for example, as needed.

なお、蓄積手段46におけるデータ容量を削減するため、蓄積手段46に解析結果を蓄積せずに、解析指示があった場合にのみ画像等の必要な情報を読み出し、解析手段44により解析を行って結果を表示させる処理を行ってもよい。   In order to reduce the data capacity in the storage means 46, the analysis result is not stored in the storage means 46, but only necessary information such as an image is read out and analyzed by the analysis means 44 only when there is an analysis instruction. You may perform the process which displays a result.

送受信手段47は、化粧料付着状態解析装置12と肌観察装置11との間で通信ネットワーク13を介してデータの送受信を行うための通信インターフェースである。したがって、化粧料付着状態解析装置12は、肌観察装置11により取得した各種の情報を、送受信手段47により受信する。また、化粧料付着状態解析装置12は、送受信手段47から肌観察装置11に各種情報の取得要求の送信を行い、まだ送信されていない情報があれば、その情報を送受信手段47により受信することができる。   The transmission / reception means 47 is a communication interface for performing transmission / reception of data between the cosmetic adhesion state analysis device 12 and the skin observation device 11 via the communication network 13. Therefore, the cosmetic adhesion state analysis device 12 receives various information acquired by the skin observation device 11 by the transmission / reception means 47. The cosmetic adhesion state analyzing apparatus 12 transmits various information acquisition requests from the transmission / reception means 47 to the skin observation apparatus 11. If there is information that has not yet been transmitted, the transmission / reception means 47 receives the information. Can do.

制御手段48は、化粧料付着状態解析装置12の各構成部全体の制御を行う。具体的には、肌観察装置11から得られる各種情報を送受信手段47で受信させたり、解析手段44により解析させたり、表示画面生成手段45により表示画面を生成させたり、蓄積手段46に解析結果等の各種情報を蓄積させる等の各処理の制御を行う。   The control means 48 controls the entire components of the cosmetic material adhesion state analyzer 12. Specifically, various types of information obtained from the skin observation apparatus 11 are received by the transmission / reception means 47, analyzed by the analysis means 44, a display screen is generated by the display screen generation means 45, or the analysis result is stored in the storage means 46. Control of each process such as storing various information such as.

ここで、上述した肌観察装置11や化粧料付着状態解析装置12は、上述した機能を有する専用の装置構成により制御を行うこともできるが、各機能をコンピュータに実行させることができる実行プログラム(化粧料付着状態解析プログラム)を生成し、例えば汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における化粧料付着状態解析処理等を実現することができる。   Here, the above-described skin observation device 11 and the cosmetic adhesion state analysis device 12 can be controlled by a dedicated device configuration having the above-described functions, but an execution program that can cause a computer to execute each function ( For example, by installing the execution program on a general-purpose personal computer, a server, or the like, it is possible to realize the cosmetic attachment state analysis process in the present invention.

<ハードウェア構成>
ここで、本発明における化粧料付着状態解析が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。図5は、本発明における化粧料付着状態解析が実現可能なハードウェア構成の一例を示す図である。
<Hardware configuration>
Here, a hardware configuration example of a computer capable of realizing the cosmetic adhesion state analysis in the present invention will be described with reference to the drawings. FIG. 5 is a diagram illustrating an example of a hardware configuration capable of realizing the cosmetic adhesion state analysis according to the present invention.

図5におけるコンピュータ本体には、入力装置51と、出力装置52と、ドライブ装置53と、補助記憶装置54と、メモリ装置55と、各種制御を行うCPU(Central Processing Unit)56と、ネットワーク接続装置57とを有するよう構成されており、これらはシステムバスBで相互に接続されている。   5 includes an input device 51, an output device 52, a drive device 53, an auxiliary storage device 54, a memory device 55, a CPU (Central Processing Unit) 56 for performing various controls, and a network connection device. 57 are connected to each other by a system bus B.

入力装置51は、ユーザが操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザからのプログラムの実行等、各種操作信号を入力する。出力装置52は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU56が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。   The input device 51 has a pointing device such as a keyboard and a mouse operated by a user, and inputs various operation signals such as execution of a program from the user. The output device 52 has a display for displaying various windows and data necessary for operating the computer main body for performing processing according to the present invention, and displays the program execution progress, results, and the like by the control program of the CPU 56. can do.

ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、CD−ROM等の記録媒体58等により提供される。プログラムを記録した記録媒体58は、ドライブ装置53にセット可能であり、記録媒体58に含まれる実行プログラムが、記録媒体58からドライブ装置53を介して補助記憶装置54にインストールされる。   Here, the execution program installed in the computer main body in the present invention is provided by, for example, a recording medium 58 such as a CD-ROM. The recording medium 58 on which the program is recorded can be set in the drive device 53, and the execution program included in the recording medium 58 is installed in the auxiliary storage device 54 from the recording medium 58 via the drive device 53.

補助記憶装置54は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。   The auxiliary storage device 54 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, etc., and perform input / output as necessary.

メモリ装置55は、CPU56により補助記憶装置54から読み出された実行プログラム等を格納する。なお、メモリ装置55は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。   The memory device 55 stores an execution program or the like read from the auxiliary storage device 54 by the CPU 56. The memory device 55 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU56は、OS(Operating System)等の制御プログラム、及びメモリ装置55に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して、化粧料の付着状態解析等における各処理を実現することができる。プログラムの実行中に必要な肌画像等の各種情報等は、補助記憶装置54から取得することができ、また実行結果等を格納することもできる。   The CPU 56 controls processing of the entire computer, such as various operations and input / output of data with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the memory device 55. Thus, each process in the analysis of the adhesion state of the cosmetic can be realized. Various information such as a skin image necessary during the execution of the program can be acquired from the auxiliary storage device 54, and an execution result or the like can also be stored.

ネットワーク接続装置57は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワーク13に接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。上述したようなハードウェア構成により、本発明における化粧料付着状態解析処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における肌に塗布された化粧料の付着状態の解析を容易に実現することができる。次に、化粧料付着状態解析処理の具体的な内容について説明する。   The network connection device 57 obtains an execution program from another terminal connected to the communication network 13 by connecting to a communication network or the like, or an execution result obtained by executing the program or the present invention. The execution program itself can be provided to other terminals. With the hardware configuration as described above, the cosmetic adhesion state analysis processing in the present invention can be executed. Also, by installing the program, it is possible to easily realize the analysis of the adhesion state of the cosmetic applied to the skin in the present invention using a general-purpose personal computer or the like. Next, specific contents of the cosmetics adhesion state analysis process will be described.

<化粧料付着状態解析処理手順>
次に、本発明における化粧料付着状態解析処理手順の一例についてフローチャートを用いて説明する。図6は、本発明における化粧料付着状態解析処理手順の一例を示すフローチャートである。なお、図6に示すフローチャートは、上述した肌観察装置11及び化粧料付着状態解析装置12における化粧料付着状態解析システム10全体の処理手順を示している。
<Cosmetic adhesion analysis procedure>
Next, an example of the cosmetics adhesion state analysis processing procedure in the present invention will be described using a flowchart. FIG. 6 is a flowchart showing an example of a cosmetic adhesion state analysis processing procedure in the present invention. In addition, the flowchart shown in FIG. 6 has shown the process sequence of the cosmetics adhesion state analysis system 10 whole in the skin observation apparatus 11 and the cosmetics adhesion state analysis apparatus 12 mentioned above.

図6に示す処理手順では、化粧を施した肌の解析を行うにあたり、まず被験者がメンバー登録されているか否かを判断する(S01)。ここで、メンバー登録されていない場合(S01において、NO)、メンバー登録を行う(S02)。なお、登録されるメンバー情報としては、上述したように、各測定内容を識別するための「識別No.」や「氏名」、「生年月日」、「性別」、「測定部位」、「メモ(備考)」等がある。   In the processing procedure shown in FIG. 6, it is first determined whether or not the subject is registered as a member when analyzing the skin with makeup (S01). If the member is not registered (NO in S01), the member is registered (S02). As described above, the registered member information includes “identification No.”, “name”, “birth date”, “sex”, “measurement site”, “memo” for identifying each measurement content. (Remarks) ”.

また、S01の処理において、被験者がメンバー登録されているか否かを判断する際には、蓄積手段等に蓄積されている情報から「識別No.」や「氏名」等を用いて検索することで、メンバー登録の有無を確認することができる。   Further, in the process of S01, when it is determined whether or not the subject is registered as a member, the information stored in the storage means or the like is searched using “identification No.” or “name”. , You can confirm the presence or absence of member registration.

また、S01にてメンバー登録されている場合(S01において、YES)、又はS02の処理が終了後、本実施形態における解析を行うための各種内容の設定を行う(S03)。具体的には、例えば化粧料を塗布した被験者の肌のどの部分(少なくとも1つ)を解析するかを示す解析対象の中心のXY座標や領域等の情報等の設定を行う。このとき、既に肌の測定を行っている場合には、過去の測定情報を蓄積手段等から呼び出して参照することで、同じ測定等を容易に設定することができる。また、S03の処理では、毛穴、しわ、しみ、肌色等のうち少なくとも1つを解析する場合には、どの解析を行うかを設定することもできる。   If the member is registered in S01 (YES in S01), or after the process of S02 is completed, various contents for analysis in the present embodiment are set (S03). Specifically, for example, information such as the XY coordinates and the area of the center of the analysis target indicating which part (at least one) of the subject's skin to which the cosmetic is applied is analyzed is set. At this time, if skin has already been measured, the same measurement or the like can be easily set by calling and referring to past measurement information from the storage means or the like. In the process of S03, when analyzing at least one of pores, wrinkles, spots, skin color, and the like, it is possible to set which analysis is performed.

次に、S03の処理において設定された条件に基づく解析を行うため、設定条件による顔等の所定部位の撮影を行う(S04)。なお、撮影(測定)する際には、測定日時を取得しておき、メンバー情報や測定日時情報と共に測定した画像を蓄積する(S05)。日時情報と共に蓄積することで、解析処理において、メンバー毎の測定結果を履歴情報等に基づいて経時的(時系列)に表示することができる。   Next, in order to perform analysis based on the conditions set in the process of S03, imaging of a predetermined part such as a face is performed based on the set conditions (S04). When photographing (measuring), the measurement date and time is acquired, and the measured image is stored together with the member information and measurement date information (S05). By accumulating the date and time information, the measurement result for each member can be displayed over time (in time series) based on the history information and the like in the analysis process.

次に、撮影された画像に基づいて、化粧料の肌への付着量、不均一度、及び粗さ度(凝集度)のうち、少なくとも1つを数値化し肌に塗布された化粧料の付着状態の解析を行う(S06)。また、その解析結果を画面に表示するための表示画面を生成し(S07)、生成した画面をディスプレイ等の出力手段を介してユーザ等に提示する(S08)。また、解析結果を蓄積し(S09)、処理を終了する。   Next, based on the photographed image, at least one of the amount of adhesion of the cosmetic to the skin, the non-uniformity, and the roughness (cohesion) is digitized and the cosmetic applied to the skin is adhered. The state is analyzed (S06). Further, a display screen for displaying the analysis result on the screen is generated (S07), and the generated screen is presented to the user or the like via output means such as a display (S08). Further, the analysis results are accumulated (S09), and the process is terminated.

なお、S06の処理においては、肌に塗布された化粧料の付着状態の解析の他に、例えば毛穴、しわ、しみ、肌色等のうち、少なくとも1つを解析してもよい。また、S05やS09の処理のように、測定した画像や解析結果等を蓄積しておくことで、次回又は複数回分の解析結果との比較等も行うことができ、それぞれの結果を経時的に表示することができる。   In addition, in the process of S06, in addition to the analysis of the adhesion state of the cosmetic applied to the skin, for example, at least one of pores, wrinkles, spots, skin color, and the like may be analyzed. In addition, by storing the measured images and analysis results as in the processing of S05 and S09, it is possible to compare with the analysis results for the next time or a plurality of times. Can be displayed.

なお、上述したS01〜S09の処理において、S01〜S05を画像取得処理とし、S06〜S09を化粧料付着状態解析処理として、別プログラムとして対応する別々の装置にインストールされてもよく、同一の装置にインストールされてもよい。つまり、化粧料の付着状態を解析するための所定部位画像の取得を行う場合には、S01〜S05までの処理を実行すればよく、化粧料の付着状態の解析を行う場合には、S06〜S09までの処理を行えばよい。   In the processes of S01 to S09 described above, S01 to S05 may be set as image acquisition processes, and S06 to S09 may be installed as a separate program as a separate program, and the same apparatus may be installed. May be installed. That is, when acquiring a predetermined part image for analyzing the state of attachment of cosmetics, the processing from S01 to S05 may be executed. When analyzing the state of attachment of cosmetics, S06 to The processing up to S09 may be performed.

上述したように本発明における化粧料付着状態解析処理により、被験者の肌に塗布された化粧料の付着状態を、付着量、不均一度、及び粗さ度の各パラメータのうち、少なくとも1つを用いて高精度に解析することができる。これにより、化粧料の付着状態を客観的且つ再現性よく評価することができ、例えば製品や原料の評価や開発に活用することができる。また、各解析内容に適した画像を用いることで最適な結果値の算出や解析結果の表示を行うことができる。更に、年代分布や経時分布の結果等の肌状態の多角的な解析を高精度に行うことができる。   As described above, according to the cosmetic adhesion state analysis process of the present invention, the adhesion state of the cosmetic applied to the skin of the subject is determined by selecting at least one of the parameters of the adhesion amount, the non-uniformity, and the roughness. And can be analyzed with high accuracy. Thereby, the adhesion state of cosmetics can be evaluated objectively and with good reproducibility, and can be utilized for evaluation and development of products and raw materials, for example. Further, by using an image suitable for each analysis content, it is possible to calculate an optimum result value and display an analysis result. Furthermore, multi-faceted analysis of skin conditions such as the results of age distribution and time distribution can be performed with high accuracy.

<S06:解析処理手順>
次に、上述したS06における解析処理手順について、フローチャートを用いて具体的に説明する。図7は、解析処理手順の一例を示すフローチャートである。また、以下の説明では、化粧料の一例としてファンデーションを用いて説明するが、本発明における化粧料は、ファンデーションに限定されるものではなく、チークやアイシャドウ、口紅等、一般的な化粧料の全てを含むことができ、更には人工皮膚等に塗布される粉体等も含むことができる。
<S06: Analysis processing procedure>
Next, the analysis processing procedure in S06 described above will be specifically described using a flowchart. FIG. 7 is a flowchart illustrating an example of the analysis processing procedure. Further, in the following description, a description will be given using a foundation as an example of a cosmetic, but the cosmetic in the present invention is not limited to the foundation, and a general cosmetic such as teak, eye shadow, lipstick, etc. All can be included, and further, powder applied to artificial skin and the like can also be included.

まず、肌観察装置11から取得した被験者の肌にファンデーションが塗布されていると部分の画像を含むファンデーション画像(OrgImg)のうち、解析対象の画像領域の各画素が有している色成分(R(赤)G(緑)B(青)成分)から肌の解析に適しているG成分(緑色)画像(グリーンプレーン)(GImg)を抽出する(S11)。   First, when the foundation is applied to the skin of the subject acquired from the skin observation device 11, among the foundation image (OrgImg) including a partial image, the color component (R) that each pixel of the image area to be analyzed has (R A G component (green) image (green plane) (GImg) suitable for skin analysis is extracted from (red) G (green) B (blue) component) (S11).

次に、S01の処理により得られたグリーンプレーンから毛に該当する部分を抽出し(S12)、抽出した画像中に含まれる毛に該当する部分に対してシェーディング処理による補正を行う(S13)。更に、S13の処理により得られる画像に対して微分フィルタによるフィルタリングを行い、肌のキメを抽出するための画像(キメ抽出画像)を作成する(S14)。   Next, a portion corresponding to hair is extracted from the green plane obtained by the processing of S01 (S12), and the portion corresponding to hair included in the extracted image is corrected by shading processing (S13). Further, the image obtained by the process of S13 is filtered by a differential filter to create an image (texture extraction image) for extracting skin texture (S14).

また、S14の処理により得られる画像から単純3値化処理を行い(S15)、S14の処理により得られたキメ抽出画像と、S15の処理により得られた単純3値化画像とを比較し、予め設定された付着量以上にファンデーションが肌に付着していると判断される箇所のみを抽出した画像と、その抽出画像と除いた箇所を抽出した画像とに分割する(S16)。   Further, simple ternarization processing is performed from the image obtained by the processing of S14 (S15), and the texture extraction image obtained by the processing of S14 is compared with the simple ternary image obtained by the processing of S15. The image is divided into an image obtained by extracting only a portion where the foundation is determined to be attached to the skin more than a predetermined adhesion amount, and an image obtained by extracting the extracted image and the removed portion (S16).

次に、元画像であるファンデーション画像(OrgImg)から画像の色情報を取得し(S17)、更に画像の明るさからファンデーションの付着量を取得し(S18)、ファンデーションの不均一度を取得し(S19)、更にはファンデーションの付着の粗さ度を取得して(S20)、これらのS18〜S20の処理により得られる取得結果に基づいて、化粧料の付着状態を解析する(S21)。   Next, the color information of the image is acquired from the foundation image (OrgImg) which is the original image (S17), the adhesion amount of the foundation is acquired from the brightness of the image (S18), and the nonuniformity of the foundation is acquired ( S19) Further, the roughness of the adhesion of the foundation is acquired (S20), and the adhesion state of the cosmetic is analyzed based on the acquisition results obtained by the processes of S18 to S20 (S21).

これにより、被験者の肌に塗布された化粧料の付着状態を、付着量、不均一度、及び粗さ度の各パラメータのうち、少なくとも1つを用いて高精度に解析することができる。したがって、化粧料の付着状態を客観的且つ再現性よく評価することができ、例えば製品や原料の評価や開発に活用することができる。次に、上述したS12〜S20について、更に具体的な説明する。   Thereby, the adhesion state of the cosmetics applied to the subject's skin can be analyzed with high accuracy using at least one of the parameters of the adhesion amount, the non-uniformity, and the roughness. Therefore, the adhesion state of cosmetics can be evaluated objectively and with good reproducibility, and can be used for evaluation and development of products and raw materials, for example. Next, the above-described S12 to S20 will be described more specifically.

<S12:毛に該当する部分の抽出>
まず、上述したS12の毛に該当する部分の抽出処理について具体的に説明する。なお、以下の説明では、取得した画像のサイズの一例として640×480の元画像に対して、その中心位置から420×420の範囲でトリミングして解析に使用するが、本発明にける画像サイズはこれに限定されるものではない。
<S12: Extraction of part corresponding to hair>
First, the extraction process of the part corresponding to the hair of S12 mentioned above is demonstrated concretely. In the following description, as an example of the size of the acquired image, the original image of 640 × 480 is trimmed in the range of 420 × 420 from the center position and used for analysis. However, the image size according to the present invention is used. Is not limited to this.

図8は、毛抽出処理手順の一例を示すフローチャートである。まず、対象の周り(例えば、30×30)の画素平均を取得し(S31)、S31の処理により得られるぼかし画像(HImg)の平均(HAve)を取得する(S32)。また、上述したS11で得られたグリーンプレーン(GImg)階調から(HImg階調−HAve)を引いた値(シェーディング処理画像:SHImg)を取得する(S33)。なお、S31〜S33の処理は、毛抽出用のシェーディング処理を示している。   FIG. 8 is a flowchart illustrating an example of a hair extraction processing procedure. First, an average of pixels around the object (for example, 30 × 30) is acquired (S31), and an average (HAve) of blurred images (HImg) obtained by the process of S31 is acquired (S32). Further, a value (shading process image: SHImg) obtained by subtracting (HImg gradation−HAve) from the green plane (GImg) gradation obtained in S11 described above is acquired (S33). In addition, the process of S31-S33 has shown the shading process for hair extraction.

次に、S32により得られる平均(HAve)と、S33にて得られた値から標準偏差(Hσ)を取得し(S34)、更に「階調<HAve−2Hσ」を満たす画素を取得する(S35)。つまり、グリーンプレーンのシェーディングを補正した後、階調平均・標準偏差(σ)を取得し、毛に該当する部分として判別するスライスレベルを計算するため、階調平均より低い階調で2σの範囲に入らない画素を抽出(2値化)する。   Next, the standard deviation (Hσ) is obtained from the average (Have) obtained in S32 and the value obtained in S33 (S34), and further, pixels satisfying “gradation <Have-2Hσ” are obtained (S35). ). In other words, after correcting the shading of the green plane, the tone average / standard deviation (σ) is obtained, and the slice level for determining the portion corresponding to the hair is calculated. Extract (binarize) pixels that do not fall into.

また、S35により得られた領域のうち周囲各1画素分の画像を収縮させた後(S36)、内部の画素から周囲各1画素分の画像を膨張させて元のサイズに戻し(S37)、画像中に含まれる少ない画素数からなるノイズ(ゴミ)を除去する。   Further, after shrinking the image for each surrounding pixel in the region obtained in S35 (S36), the image for each surrounding pixel is expanded from the internal pixel and returned to the original size (S37), Noise (dust) consisting of a small number of pixels contained in an image is removed.

更に、例えば抽出された画素のうち、1まとまりの画素の集まり(集合画素数)が所定の値(例えば、30画素)より少ない場合、その集合をノイズ(ゴミ)として削除し(S38)、S38の処理により得られる画像を毛に該当する部分のマスク画像として蓄積する(S39)。つまり、収縮・膨張により得られた画像で画素の集まり毎の画素数を確認し、画素数が30画素以上の集合のみを抽出し、抽出された部分を毛に該当する部分としておく。これにより、この画像をマスク画像として後述する単純3値化等の処理を行う際、この部分の画素情報は使用しないようにすることで、高精度な画像処理を実現することができる。   Further, for example, when the group of collected pixels (the number of aggregated pixels) is smaller than a predetermined value (for example, 30 pixels) among the extracted pixels, the aggregate is deleted as noise (dust) (S38), and S38. The image obtained by the process is accumulated as a mask image of the portion corresponding to the hair (S39). That is, the number of pixels for each group of pixels is confirmed from an image obtained by contraction / expansion, and only a set having 30 or more pixels is extracted, and the extracted portion is set as a portion corresponding to hair. As a result, when performing processing such as simple ternary processing, which will be described later, using this image as a mask image, high-precision image processing can be realized by not using the pixel information of this portion.

なお、一般的に体毛の直径は18〜180μmであるが、ある程度正確に毛に該当する部分を抽出するため、本実施例では、一例として直径50μm以上の毛を抽出する。測定された画像1画素の一辺は10μmであるため、横(幅)もしくは縦(高さ)が5画素以上の画像を取得する必要がある。したがって、本実施例では、「5×5」と「6×6」の間に存在する値30を毛に該当する画像と認識する画素に設定した。これにより、毛に該当する部分を所定の条件に基づいて均一に抽出することができる。なお、画素数については、画像サイズや倍率等の画像条件に基づいて任意に設定される。   In general, the diameter of the body hair is 18 to 180 μm. However, in order to extract the portion corresponding to the hair with a certain degree of accuracy, in this embodiment, hair having a diameter of 50 μm or more is extracted as an example. Since one side of the measured pixel of the image is 10 μm, it is necessary to acquire an image having a horizontal (width) or vertical (height) of 5 pixels or more. Therefore, in this embodiment, the value 30 existing between “5 × 5” and “6 × 6” is set as a pixel that is recognized as an image corresponding to hair. Thereby, the part applicable to hair can be extracted uniformly based on a predetermined condition. The number of pixels is arbitrarily set based on image conditions such as image size and magnification.

ここで、図9は、毛に該当する部分を抽出するまでの画像の変化を説明するための一例の図である。図9に示すように、元画像61からG成分画像(グリーンプレーン)62を抽出し、抽出されたG成分画像62を上述した毛抽出処理により毛抽出画像63を抽出することができる。   Here, FIG. 9 is a diagram illustrating an example of an image change until a portion corresponding to hair is extracted. As shown in FIG. 9, a G component image (green plane) 62 is extracted from the original image 61, and a hair extraction image 63 can be extracted from the extracted G component image 62 by the hair extraction process described above.

<S13:シェーディング処理>
次に、シェーディング処理手順について具体的に説明する。図10は、シェーディング処理手順の一例を示すフローチャートである。図10に示すシェーディング処理は、まずグリーンプレーン(GImg)のうち、ある対象となる画素を基準とし、その周囲8画素の画素平均を取得し(S41)、更にS41の処理により得られるぼかし画像(BImg−1)のうち、ある対象となる画素を基準とし、その周囲8画素の画素平均を取得する(S42)。
<S13: Shading process>
Next, the shading process procedure will be specifically described. FIG. 10 is a flowchart illustrating an example of a shading processing procedure. In the shading process shown in FIG. 10, first, a pixel average of 8 pixels around the target pixel in the green plane (GImg) is obtained as a reference (S41), and a blurred image (S41) is obtained by the process of S41. BImg −1 ) is obtained based on a certain target pixel, and an average pixel of the surrounding eight pixels is acquired (S42).

また、S42の処理により得られるぼかし画像(BImg−2)の平均(BAve)を取得し(S43)、GImg階調から(BImg−2階調−BAve)を引いたシェーディング処理画像(SImg)を取得する(S44)。このように、解析用のシェーディング処理を行うことで、丸みをおびた肌画像の取得の際に、画像の端部が暗くなるのを全体的に見て均一になるように補正することができる。 Further, an average (Bave) of the blurred images (BImg −2 ) obtained by the processing of S42 is acquired (S43), and a shading processed image (SImg) obtained by subtracting (BImg −2 gradation −BAve) from the GImg gradation is obtained. Obtain (S44). In this way, by performing the shading process for analysis, when acquiring a rounded skin image, it can be corrected so that the end of the image becomes dark as a whole becomes uniform. .

<S14:キメ抽出画像の作成処理>
次に、キメ抽出画像の作成処理について具体的に説明する。図11は、キメ抽出画像の作成処理の一例を示すフローチャートである。まず、グリーンプレーンのシェーディングを補正し、そのシェーディング処理画像(SImg)のうち、ある画素の階調と、その画素を中心とした周囲24画素分の階調の平均に任意の定数からなるファクター(F)(例えば、60)を加えた値とを比較して、対象となるある画素の階調値が大きい場合、その画素を抽出する(S51)。
<S14: Texture Extraction Image Creation Processing>
Next, the texture extraction image creation process will be specifically described. FIG. 11 is a flowchart illustrating an example of a texture extraction image creation process. First, the shading of the green plane is corrected, and a factor (an arbitrary constant) is added to the average of the gradation of a certain pixel and the gradation of 24 surrounding pixels centered on that pixel in the shading-processed image (SImg). F) The value obtained by adding (for example, 60) is compared, and if the gradation value of a target pixel is large, that pixel is extracted (S51).

また、抽出された画素の集合画素数が例えば300画素より小さく、更に集合画素の縦の長さが26画素より小さい集合をノイズ(ゴミ)として削除する(S52)。これは、キメは、通常顔の向きに対して縦長に形成されるため、縦長の集合をキメ画像として判断している。なお、上述した集合画素数や縦長の長さについては特にこれに制限されず、画像サイズや倍率等の画像条件に基づいて任意に設定される。   In addition, a set in which the number of set pixels of the extracted pixels is smaller than 300 pixels and the length of the set pixels is smaller than 26 pixels is deleted as noise (dust) (S52). This is because the texture is normally formed vertically with respect to the orientation of the face, and a set of vertically long images is determined as a texture image. Note that the above-described number of collective pixels and the vertically long length are not particularly limited, and can be arbitrarily set based on image conditions such as an image size and a magnification.

次に、S52の処理により残った集合画素のうち、周囲各1画素分の画像を収縮させた後(S53)、内部の画素から周囲各1画素分の画像を膨張させて元のサイズに戻し(S54)、画像中に含まれる少ない画素数からなるノイズ(ゴミ)を除去し、この画像を微分フィルタ画像として蓄積する(S55)。なお、この画像は、しっかりファンデーションが付着した部分をマスクする画像として使用する。   Next, after shrinking the image for each surrounding pixel out of the collective pixels left in the processing of S52 (S53), the image for each surrounding pixel is expanded from the internal pixels and returned to the original size. (S54) Noise (dust) consisting of a small number of pixels contained in the image is removed, and this image is stored as a differential filter image (S55). This image is used as an image for masking a portion where the foundation is firmly attached.

ここで、図12は、取得されるキメ抽出画像の一例を示す図である。図12に示すように上述のS13の処理により得られるシェーディング処理画像64から上述したキメ抽出画像の作成処理を行うことにより、キメ抽出画像65を取得することができる。   Here, FIG. 12 is a diagram illustrating an example of a texture extraction image to be acquired. As shown in FIG. 12, the texture extraction image 65 can be acquired by performing the above-described texture extraction image creation process from the shading process image 64 obtained by the process of S13.

<S15:単純3値化処理>
次に、単純3値化処理について具体的に説明する。図13は、単純3値化処理手順の一例を示すフローチャートである。まず、シェーディング処理画像(SImg)の平均(Ave)・標準偏差(σ)・階調最大値(Max)を取得し(S61)、予め設定された第1のスライスレベル(sl)を取得し(S62)、また第2のスライスレベル(sl)を取得する(S63)。
<S15: Simple ternary processing>
Next, the simple ternary processing will be specifically described. FIG. 13 is a flowchart illustrating an example of a simple ternarization processing procedure. First, the average (Ave), standard deviation (σ), and maximum gradation value (Max) of the shading processed image (SImg) are acquired (S61), and the first slice level (sl 1 ) set in advance is acquired. (S62) Further, the second slice level (sl 2 ) is acquired (S63).

次に、対象画素の階調が第1のスライスレベル(sl)となる画素を抽出(単純2値化)する(S64)。なお、その部分はファンデーションが薄く付着している画像(AImg−1)であるため、抽出された画素の集合画素数が所定の画素数(例えば、30画素)より少ない場合、その集合をノイズ(ゴミ)として削除する(S65)。 Next, a pixel in which the gradation of the target pixel is the first slice level (sl 1 ) is extracted (simple binarization) (S64). Since the portion is an image (AImg −1 ) with a thin foundation attached, if the set number of extracted pixels is smaller than a predetermined number of pixels (for example, 30 pixels), the set is treated as noise ( It is deleted as dust) (S65).

更に、AImg−1の集合に対して周囲各1画素分の画像を収縮させた後(S66)、内部の画素から周囲各1画素分の画像を膨張させて元のサイズに戻し(S67)、画像中に含まれる少ない画素数からなるノイズ(ゴミ)を除去する。 Further, after shrinking the image for each surrounding one pixel with respect to the set of AImg −1 (S66), the image for each surrounding one pixel is expanded from the internal pixels and returned to the original size (S67), Noise (dust) consisting of a small number of pixels contained in an image is removed.

更に、抽出された画素の集合画素数が所定の画素数(例えば、30画素)より少ない場合、その集合をノイズ(ゴミ)として削除する(S68)。また、単純3値化第1層画像(AImg−1’)として蓄積(S69)する。 Further, when the number of extracted pixels is less than a predetermined number of pixels (for example, 30 pixels), the set is deleted as noise (dust) (S68). Moreover, it accumulates as a simple ternary first layer image (AImg −1 ′) (S69).

対象画素の階調が第2のスライスレベル(sl)より大きくなる画素を抽出(単純2値化)する(S70)。なお、その部分は、ファンデーションが厚く付着している画像(AImg−2)であるため、この画像を単純3値化第2層画像(AImg−2’)として蓄積する(S71)。 A pixel in which the gradation of the target pixel is greater than the second slice level (sl 2 ) is extracted (simple binarization) (S70). Since this portion is an image (AImg −2 ) in which the foundation is thickly attached, this image is stored as a simple ternary second layer image (AImg −2 ′) (S71).

<スライスレベルについて>
ここで、上述した第1のスライスレベル(sl)及び第2のスライスレベル(sl)の例について説明する。まず、解析で使用するパラメータの取得は、肌観察装置11等のある撮影装置で測定したファンデーションが被験者の肌に塗布された画像31枚(以下、教師画像という)を用いて行い、更に所定時間経過後に同機器で測定したファンデーション画像31枚(以下、検証画像という)を用いて検証を行った。
<About slice level>
Here, an example of the first slice level (sl 1 ) and the second slice level (sl 2 ) described above will be described. First, acquisition of parameters used in the analysis is performed using 31 images (hereinafter referred to as teacher images) in which the foundation measured by an imaging device such as the skin observation device 11 is applied to the skin of the subject, and for a predetermined time. Verification was performed using 31 foundation images (hereinafter referred to as verification images) measured with the same device after the lapse.

ここで、単純3値化を行うために基準となる2つのスライスレベルについては、数式等を用いて取得することができる。つまり、ファンデーションの塗布状態を表す3値化画像のスライスレベル取得式は、第1のスライスレベルの場合、ファンデーションが薄くついている箇所を抽出(厚く塗布されている部分も含む)するために、まず画像のグリーンプレーン階調情報から平均値(KAve)と標準偏差(Kσ)を取得し、また、グリーンプレーンの平滑化を行い、更に最大値(KMax)を求める。なお、最大値(KMax)は、ある所定の階調グラフについて階調255から0に向かってサーチを行い、画素数が10以上になる階調をKMaxとしている。   Here, the two slice levels serving as a reference for performing simple ternarization can be obtained by using mathematical formulas or the like. That is, the slice level acquisition formula of the ternary image representing the application state of the foundation first extracts a portion where the foundation is thin (including a portion where the coating is thick) in the case of the first slice level. An average value (KAve) and a standard deviation (Kσ) are acquired from the green plane gradation information of the image, the green plane is smoothed, and a maximum value (KMax) is obtained. For the maximum value (KMax), a search is performed from a gradation 255 to 0 for a predetermined gradation graph, and a gradation where the number of pixels is 10 or more is defined as KMax.

次に、上述したKAve、Kσ、KMaxから第1のスライスレベル(Sl)を以下の数式等により取得する。
Sl=KAve+((KMax−KAve+1)/(Kσ+12)+0.5)
なお、Slについて、標準偏差(Kσ)で最大値と平均との階調差(KMax−KAve)を割ることによって、どのような画像でもスライスレベルが(KMax−KAve)の5〜10%の値になるように調整されている。
Next, the first slice level (Sl 1 ) is acquired from the above-described Kave, Kσ, and KMax using the following mathematical formula and the like.
Sl 1 = KAve + ((KMax−KAve + 1) / (Kσ + 12) +0.5)
As for Sl 1, gradation difference of the maximum value and the average standard deviation (Kσ) by (KMax-KAve) dividing the slice level whatever image is 5-10% of (KMax-KAve) It has been adjusted to be a value.

具体的には、例えば(KMax−KAve)の5〜10%の位置で第1のスライスレベル(Sl)が設定されるように計算を行っている。一例では、(KAve+2.5)〜(KAve+4.5)くらいに設定される。また、例えばKσが0〜9.9(Kσの平均+標準偏差1σ)の範囲は、上述の条件下で取得されており、またKσ≧9.9のときには、Slの値がSlよりも小さくなるため「Sl<Sl−2」の場合、「Sl=Sl−2」となるように条件式を設定している。 Specifically, for example, calculation is performed so that the first slice level (Sl 1 ) is set at a position of 5 to 10% of (KMax−KAve). In one example, it is set to (KAve + 2.5) to (KAve + 4.5). Further, for example, the range of Kσ from 0 to 9.9 (average of Kσ + standard deviation 1σ) is acquired under the above-described conditions. When Kσ ≧ 9.9, the value of Sl 2 is greater than Sl 1 . Therefore, in the case of “Sl 1 <Sl 2 −2”, the conditional expression is set so that “Sl 1 = Sl 2 −2”.

次に、第2のスライスレベル(Sl)、つまりファンデーションが厚く塗布されている箇所を抽出する場合には、まず画像のグリーンプレーン階調情報から、平均値(KAve)と標準偏差(Kσ)を取得し、階調の平滑化を行い、最大値(KMax)を求める。なお、最大値(KMax)は、ある所定の階調グラフについて階調255から0に向かってサーチを行い、画素数が10以上になる階調をKMaxとしている。 Next, when extracting the second slice level (Sl 2 ), that is, the portion where the foundation is applied thickly, first, the average value (KAve) and the standard deviation (Kσ) are obtained from the green plane gradation information of the image. Is obtained, the gradation is smoothed, and the maximum value (KMax) is obtained. For the maximum value (KMax), a search is performed from a gradation 255 to 0 for a predetermined gradation graph, and a gradation where the number of pixels is 10 or more is defined as KMax.

また、KAve、Kσ、KMaxから以下の数式により第2のスライスレベル(Sl)を取得する。
Sl=KAve+((KMax−KAve+1)×(22−Kσ×2)/30)
なお、Kσ>11のときにSlの値がKAveよりも小さくなるため「Sl<KAve」の場合、「Sl=KAve」となるように条件式を設定している。
Further, the second slice level (Sl 2 ) is acquired from KAVE, Kσ, and KMax by the following formula.
Sl 2 = KAve + ((KMax−KAve + 1) × (22−Kσ × 2) / 30)
Since the value of Sl 2 is smaller than Kave when Kσ> 11, the conditional expression is set so that “Sl 2 = Kave” when “Sl 2 <Kave”.

なお、Slについて、標準偏差(Kσ)で最大値と平均の階調差(KMax−KAve)の約75%のところをスライスレベルの最大値として、標準偏差(Kσ)が約10になるときに第1のスライスレベル(Sl)とほぼ同じ値になるように調整されている。 Note that Sl 2, as the maximum value and the gray level difference average (KMax-KAve) the maximum value of the slice level at about 75% with a standard deviation (Kσ), when the standard deviation (Kσ) is about 10 Are adjusted to be approximately the same value as the first slice level (Sl 1 ).

具体的には、Kσが大きくなる(ファンデーションの付着が多くなる)につれてスライスレベルが低くなるように設定されている。例えば、Kσ≒9.9(Kσの平均+標準偏差1σ範囲)でSlとSlが同じ値をとるようになっている。また、Kσ>11のときSl<KAveとなるため「Sl2<KAve」の場合、「Sl=KAve」となるように条件式を設定している。 Specifically, the slice level is set so as to decrease as Kσ increases (the foundation adheres more). For example, Sl 1 and Sl 2 have the same value when Kσ≈9.9 (average of Kσ + standard deviation 1σ range). Further, since S1 2 <KAve when Kσ> 11, the conditional expression is set so that “S1 2 = KAve” when “S12 <Kave”.

また、標準偏差が10に近くなるとSl<Slとなる。このように、SlがSlよりも大きくなることを回避するためスライスレベル取得後に「Sl<Sl−2」の場合、「Sl=Sl−2」となるように条件式を設定している。 Further, when the standard deviation is close to 10, S1 2 <S1 1 is satisfied. Thus, in order to avoid that Sl 1 is larger than Sl 2 , if “Sl 1 <Sl 2 −2” after obtaining the slice level, the conditional expression is set so that “Sl 1 = Sl 2 −2”. It is set.

<S16:画像分割>
次に、S16における画像分割処理について具体的に説明する。S16の処理では、上述したS55の処理により得られた微分フィルタ画像と、上述したS69の処理により得られた単純3値化における第1層画像(AImg−1’)とを比較し、微分フィルタ画像と重なる画像領域部分をファンデーションがしっかり付着している部分(領域)の画像(LImg−1)として蓄積する。また、微分フィルタ画像と重ならない部分を、その他の付着部分(例えば、肌のキメ以外の皮丘部分)の画像(OImg−1)として蓄積する。
<S16: Image division>
Next, the image division process in S16 will be specifically described. In the process of S16, the differential filter image obtained by the process of S55 described above is compared with the first layer image (AImg −1 ′) obtained by the simple ternarization obtained by the process of S69 described above. The image area part overlapping the image is accumulated as an image (LImg −1 ) of the part (area) where the foundation is firmly attached. In addition, a portion that does not overlap with the differential filter image is accumulated as an image (OImg −1 ) of other attached portions (for example, a skin portion other than skin texture).

また、上述したS55の処理により得られた微分フィルタ画像と、上述したS71の処理により得られた単純3値化における第2層画像(AImg−2’)とを比較し、微分フィルタ画像と重なる部分をファンデーションがしっかり付着している部分(領域)の画像(LImg−2)として蓄積する。また、微分フィルタ画像と重ならない部分を、その他の付着部分の画像(OImg−2)として蓄積する。 Further, the differential filter image obtained by the process of S55 described above is compared with the second layer image (AImg- 2 ′) obtained by the simple ternarization obtained by the process of S71 described above, and overlaps with the differential filter image. The part is accumulated as an image (LImg −2 ) of a part (region) where the foundation is firmly attached. In addition, a portion that does not overlap with the differential filter image is accumulated as an image (OImg −2 ) of other attached portions.

ここで、図14は、上述した単純3値化処理における画像の例を示す図である。図14に示すように、シェーディング処理画像64を上述した第1及び第2のスライスレベル(Sl、Sl)を用いて各層画像66に分解する。 Here, FIG. 14 is a diagram illustrating an example of an image in the above-described simple ternarization processing. As shown in FIG. 14, the shading-processed image 64 is decomposed into each layer image 66 using the first and second slice levels (Sl 1 , Sl 2 ) described above.

具体的には、第1及び第2のスライスレベル(Sl、Sl)による微分フィルタで選別された部分(1層目)画像66−1、部分(2層目)画像66−2、その他の部分(1層目)画像66−3、及びその他の部分(2層目)画像66−4からなる2層2種類の画像を合成して合成画像67を取得することにより、単純3値化処理が行われる。つまり、後述する解析する内容に応じて各層画像66−1〜66−4から1又は複数の画像を組み合わせた画像を用いることで本実施形態における解析処理を行うことができる。 Specifically, a partial (first layer) image 66-1, a partial (second layer) image 66-2 selected by a differential filter based on the first and second slice levels (Sl 1 , Sl 2 ), and others A simple ternarization is obtained by synthesizing two types of two-layer images composed of the partial (first layer) image 66-3 and the other partial (second layer) image 66-4 to obtain a composite image 67. Processing is performed. That is, the analysis processing in this embodiment can be performed by using an image obtained by combining one or a plurality of images from the respective layer images 66-1 to 66-4 according to the content to be analyzed, which will be described later.

<S17:画像の色情報の取得処理>
次に、ファンデーションの付着状態を解析するために用いられるS17における画像の色情報の取得処理について具体的に説明する。S17の処理では、元画像であるファンデーション画像(OrgImg)の各画素のRGB階調値から彩度を取得し、画像中の全画素の平均彩度(SAve)を取得する。また、ファンデーション画像(OrgImg)のグリーンプレーン階調値の標準偏差(Gσ)を取得する。
<S17: Image Color Information Acquisition Processing>
Next, the acquisition process of the color information of the image in S17 used for analyzing the adhesion state of the foundation will be specifically described. In the process of S17, the saturation is acquired from the RGB gradation values of each pixel of the foundation image (OrgImg) that is the original image, and the average saturation (SAve) of all the pixels in the image is acquired. Further, the standard deviation (Gσ) of the green plane gradation value of the foundation image (OrgImg) is acquired.

<S18:ファンデーションの付着量の取得処理>
次に、S18におけるファンデーションの付着量取得処理について具体的に説明する。S18の処理では、単純3値化における第1層画像(AImg−1’)の全画素数(AllCnt)を取得し、更に全画素数(AllCnt)と上述した画像中の全画素の平均彩度(SAve)からファンデーションの付着量を取得する。
<S18: Acquisition processing of adhesion amount of foundation>
Next, the foundation adhesion amount acquisition processing in S18 will be specifically described. In the process of S18, the total number of pixels (AllCnt) of the first layer image (AImg- 1 ′) in the simple ternarization is acquired, and further, the total number of pixels (AllCnt) and the average saturation of all the pixels in the image described above. The adhesion amount of the foundation is acquired from (SAve).

ここで、ファンデーション付着量については、画像から付着量に関する情報を取得する。まず、形状的な特徴として、単純3値化処理及び画像分割により得られた結果から形状的な特徴を取得する。具体的には、1層目画像(画像66−1,66−3)の全画素数をカウントする。なお、全画素数は、肌に付着したファンデーションの量に比例して値が大きくなる。この全画素数は、付着量を解析する主となる情報である。また、S17により画像の色情報を取得する。なお、彩度は、肌に厚くファンデーションが付着しているほど高くなる傾向がある。したがって、付着量の解析精度を高めるために導入する。   Here, regarding the foundation adhesion amount, information on the adhesion amount is acquired from the image. First, as a shape feature, a shape feature is acquired from a result obtained by simple ternarization processing and image division. Specifically, the total number of pixels of the first layer image (images 66-1, 66-3) is counted. The total number of pixels increases in proportion to the amount of foundation adhered to the skin. The total number of pixels is main information for analyzing the adhesion amount. In step S17, the color information of the image is acquired. Note that the saturation tends to be higher as the foundation is thicker on the skin. Therefore, it introduce | transduces in order to improve the analysis accuracy of the adhesion amount.

次に、全画素数と彩度平均を用いて解析結果となる値を取得する。具体的には、単純3値化画像全体の画素数とグリーンプレーンの彩度を用いて付着量素点を取得する。   Next, a value as an analysis result is acquired using the total number of pixels and the saturation average. Specifically, an adhesion amount raw point is acquired using the number of pixels of the entire simple ternary image and the saturation of the green plane.

ここで、素点を求める際、「彩度<35」の場合は「付着量素点=画素数」とし、「彩度≧35」の場合は「付着量素点=全体付着量+(彩度−35)×全体付着量/35=彩度×全体付着量/35」として、以下に示す数式により付着量を取得する。
付着量=0.000045×付着量素点+0.516
ここで、彩度の補正に使用する閾値は、教師画像(31枚)の「彩度平均±標準偏差1σ」の範囲で最適な値を使用している。また、今回の教師画像と検証画像の解析では、彩度の補正に用いる閾値を35に設定しているが、本発明においてはこれに限定されず、例えば20〜50の間で設定されていればよい。
Here, when obtaining a bare point, if “saturation <35”, “attachment amount elementary point = number of pixels” is set, and if “saturation ≧ 35”, “attachment amount elementary point = total attachment amount + (saturation amount)”. Degree −35) × total adhesion amount / 35 = saturation × total adhesion amount / 35 ”.
Adhering amount = 0.000045 x Adhering amount raw point + 0.516
Here, the threshold used for the saturation correction is an optimum value within the range of “saturation average ± standard deviation 1σ” of the teacher images (31 images). In this analysis of the teacher image and the verification image, the threshold value used for correcting the saturation is set to 35. However, in the present invention, the threshold value is not limited to this, and may be set between 20 and 50, for example. That's fine.

彩度が閾値以上になった場合、彩度の値が増加するにつれて全体付着量の「(彩度−35)/35」倍素点が増加する。これは、教師画像により確認すると、彩度増加にしたがって最大約35%程度、値が増加している。   When the saturation is equal to or greater than the threshold value, the “(saturation−35) / 35” double prime of the total adhesion amount increases as the saturation value increases. When this is confirmed by the teacher image, the value increases by about 35% at the maximum as the saturation increases.

なお、上述の式は、一例として付着量素点を1〜5点の間で正規化するための式である。この式により正規化することで付着状態の解析を容易に行うことができる。なお、本発明においては、付着量を数値化する手法はこれに限定されるものではなく、例えば他の点数範囲で正規化を行ったり、正規化を行わずに上述した付着量素点のみで肌に塗布された化粧料の付着状態の解析を行うことができる。   In addition, the above-mentioned formula is a formula for normalizing the adhesion amount raw score between 1 to 5 points as an example. By normalizing with this equation, the state of adhesion can be easily analyzed. In the present invention, the method of quantifying the amount of adhesion is not limited to this, and for example, normalization is performed in another score range, or only the above-mentioned adhesion amount raw points are used without normalization. It is possible to analyze the adhesion state of the cosmetic applied to the skin.

<S19:ファンデーションの均一度の取得処理>
次に、S19におけるファンデーションの均一度の取得処理について具体的に説明する。S19の処理では、単純3値化における第1層画像(OImg−1)の扁平率(FPrm)を取得し、次に扁平率(FPrm)とファンデーション画像(OrgImg)のグリーンプレーン階調値の標準偏差(Gσ)とからファンデーションの不均一度を取得する。
<S19: Foundation Uniformity Acquisition Process>
Next, the foundation uniformity acquisition process in S19 will be described in detail. In the process of S19, the flat rate (FPrm) of the first layer image (OImg −1 ) in simple ternarization is acquired, and then the standard of the flat rate (FPrm) and the green plane gradation value of the foundation image (OrgImg) The foundation non-uniformity is obtained from the deviation (Gσ).

具体的には、ファンデーション塗布の不均一度の取得処理として、画像から付着量に関する情報を取得する。まず、画像の色情報として、形状的解析に用いたグリーンプレーン階調の標準偏差を取得する。なお、ここで使用する標準偏差は、肌に付着したファンデーションが均一に付着していないほど、画像の階調は分散する傾向がある。そのため、標準偏差は、不均一度の主となる情報として取得する。   Specifically, as the acquisition process of the non-uniformity of the foundation application, information on the adhesion amount is acquired from the image. First, as the color information of the image, the standard deviation of the green plane gradation used for the shape analysis is acquired. Note that the standard deviation used here tends to disperse the gradation of the image as the foundation attached to the skin is not uniformly attached. For this reason, the standard deviation is acquired as the main information of the nonuniformity.

次に、形状的な特徴として、1層目その他の部分の画像(画像66−3)に含まれる画素の集合(固まり)の長さ率(扁平率)を取得する。ここで、上述した長さ率について説明する。図15は、長さ率を説明するための一例の図である。   Next, the length ratio (flattening ratio) of a set (lumps) of pixels included in the image (image 66-3) of the first layer and other portions is acquired as a shape feature. Here, the above-described length ratio will be described. FIG. 15 is a diagram illustrating an example for explaining the length ratio.

図15に示す画像68に存在する少なくとも1つの画素集合69において、長さ率は、図15に示すように、画素集合69において、縦、横、右斜め45度、左斜め45度の各方向に対して最も長い方向を求め、それと直交する方向の長さで割った値とする。例えば、最長が縦の場合、「縦長さ/横長さ」とし、最長が横の場合、「横長さ/縦長さ」とし、最長が斜め45度の場合、「斜め45度の長さ/斜め135度の長さ」とし、最長が斜め135度の場合、「斜め135度の長さ/斜め45度の長さ」とする。   In at least one pixel set 69 present in the image 68 shown in FIG. 15, the length ratio in each of the vertical, horizontal, right diagonal 45 degrees and left diagonal 45 degrees in the pixel set 69 as shown in FIG. 15. The longest direction with respect to is obtained, and the value obtained by dividing by the length in the direction orthogonal thereto. For example, when the longest is vertical, “vertical length / horizontal length” is set. When the longest is horizontal, “horizontal length / vertical length” is set. When the longest is 45 ° diagonally, “length 45 ° diagonally / 135 diagonally”. If the longest is 135 degrees oblique, the length is 135 degrees oblique / 45 degrees oblique.

なお、縦・横方向もしくは右斜め45度・左斜め45度方向の長さ比から大まかな固まり扁平率を取得している。扁平率は固まりが小さく円に近いほど値が1に近づき、固まりが大きくなるにつれて値が大きくなる。   In addition, a rough mass flatness is acquired from the length ratio in the vertical / horizontal direction or 45 ° to the right and 45 ° to the left. The flatness ratio is closer to 1 as the mass is smaller and closer to a circle, and the value increases as the mass increases.

なお、ここでいう扁平率とは、ファンデーションが肌にしっかりと付着していると判断される部分以外の箇所での個々の固まりの扁平率を大まかに取得している。つまり、しっかりと付着しているとされる部分が多いほど、その他の部分が分断される確率が高いため、不均一度に相関があると思われる。したがって、この扁平率は不均一度の解析精度を高めるために導入する。   The flatness referred to here is a rough acquisition of the flatness of individual masses at locations other than the portion where the foundation is firmly attached to the skin. In other words, the more portions that are firmly attached, the higher the probability that the other portions will be divided, so there seems to be a correlation in the non-uniformity. Therefore, this flatness ratio is introduced in order to increase the analysis accuracy of the nonuniformity.

次に、標準偏差と扁平率を用いて値を取得する。具体的には、不均一度を求める場合、グリーンプレーンの階調の標準偏差と単純3値化画像の皮丘部分の扁平率を用いて不均一素点を取得する。
不均一素点=標準偏差−31.34×扁平率
なお、上述した係数値は31.34に限定されず、例えば5〜50の間で設定されていればよい。
Next, a value is acquired using the standard deviation and the flatness. Specifically, when obtaining the non-uniformity, a non-uniform prime point is acquired by using the standard deviation of the gradation of the green plane and the flatness ratio of the skin hill portion of the simple ternary image.
Nonuniform elementary point = standard deviation−31.34 × flattening rate The coefficient value described above is not limited to 31.34, and may be set between 5 and 50, for example.

また、取得した不均一素点から、例えば以下に示す数式等を用いて不均一度を取得する。
不均一度=0.212738×不均一素点+7.468
なお、上述した不均一素点の取得に用いている不均一性と階調標準偏差の係数及び切片は、教師画像(31枚)の解析情報と視感結果の重回帰分析等により設定している。例えば、係数は、重回帰分析から取得した「係数±標準偏差(1σ)」の範囲で視感結果に最適な値を設定する。
Further, the degree of non-uniformity is obtained from the obtained non-uniform raw point using, for example, the following mathematical formula.
Non-uniformity = 0.212738 x non-uniform prime point + 7.468
Note that the coefficient of nonuniformity and gradation standard deviation used in the above-described acquisition of nonuniform elementary points and the intercept are set by analysis information of teacher images (31 images) and multiple regression analysis of visual results. Yes. For example, the coefficient is set to an optimum value for the visual result in the range of “coefficient ± standard deviation (1σ)” acquired from the multiple regression analysis.

なお、上述の式は、一例として不均一度を1〜5点の間で正規化するための式である。この式により正規化することで付着状態の解析を容易に行うことができる。なお、本発明においては、不均一度を数値化する手法はこれに限定されるものではなく、例えば他の点数範囲で正規化を行ったり、正規化を行わずに上述した不均一度素点のみで肌に塗布された化粧料の付着状態の解析を行うことができる。   In addition, the above-mentioned formula is a formula for normalizing the non-uniformity between 1 to 5 points as an example. By normalizing with this equation, the state of adhesion can be easily analyzed. In the present invention, the method of quantifying the non-uniformity is not limited to this, and for example, normalization is performed in other score ranges, or the above-described non-uniformity raw points without normalization. It is possible to analyze the adhesion state of the cosmetic applied to the skin.

<S20:ファンデーションの粗さ度(凝集度)の取得処理>
次に、S20におけるファンデーションの粗さ度(凝集度)の取得処理について具体的に説明する。
<S20: Acquisition processing of foundation roughness (cohesion)>
Next, the acquisition process of the roughness (cohesion degree) of the foundation in S20 will be specifically described.

まず、上述した単純3値化における第2層画像(AImg−2’)の全画素数(SndCnt)を取得する。また、単純3値化における第1層画像(AImg−1’)の全画素数(AllCnt)と単純3値化における第2層画像(AImg−2’)の全画素数(SndCnt)とに基づいてファンデーション塗布の粗さ度を取得する。 First, the total number of pixels (SndCnt) of the second layer image (AImg −2 ′) in the simple ternarization described above is acquired. Further, based on the total number of pixels (AllCnt) of the first layer image (AImg −1 ′) in simple ternarization and the total number of pixels (SndCnt) of the second layer image (AImg −2 ′) in simple ternarization. Obtain the roughness of foundation application.

更に具体的に説明すると、ファンデーション塗布の粗さについて、まず画像から付着量に関する情報を取得する。具体的には、形状的な特徴として、2層目の全画素数を1層目の全画素数で割った値(粗さ率)を取得する。ここでは、上述した図14に示すような微分フィルタで選別された部分(2層目)画像66−2と、その他の部分(2層目)画像66−4とからなる合成画像を微分フィルタで選別された部分(1層目)画像66−1と、その他の部分(1層目)画像66−3とからなる合成画像で割ることにより値を取得する。   More specifically, information on the adhesion amount is first acquired from the image regarding the roughness of foundation coating. Specifically, a value (roughness ratio) obtained by dividing the total number of pixels in the second layer by the total number of pixels in the first layer is acquired as a shape feature. Here, a composite image composed of the partial (second layer) image 66-2 selected by the differential filter as shown in FIG. 14 and the other partial (second layer) image 66-4 is converted using the differential filter. A value is obtained by dividing by a composite image composed of the selected partial (first layer) image 66-1 and the other partial (first layer) image 66-3.

なお、粗さ度は、ファンデーションが粗く付着しているほど2層目として取得される画素数が多くなる傾向があるため、1層目と2層目の割合を求めることで塗布の粗さを取得できる。したがって、粗さ度は、付着量解析の主となる情報として用いることができる。   In addition, since the degree of roughness tends to increase the number of pixels acquired as the second layer as the foundation is coarsely adhered, the roughness of coating can be determined by calculating the ratio of the first layer and the second layer. You can get it. Therefore, the roughness can be used as main information for the adhesion amount analysis.

また、粗さ素点は、単純3値化画像全体の画素数(Cnt)とファンデーションが厚く付着している部分の画素数(Cnt)を用いて粗さ素点を取得する。
粗さ素点=Cnt÷Cnt
また、取得した粗さ素点により、例えば以下に示す数式等を用いて粗さ度を取得する。
粗さ度=0.031050×粗さ素点+1.51785
なお、この数式は、上述した教師画像(31枚)の視感結果と粗さ素点の回帰分析から結果値を1〜5点に正規化している。つまり、上述の式は、一例として粗さ度を1〜5点の間で正規化するための式である。この式により正規化することで付着状態の解析を容易に行うことができる。なお、本発明においては、粗さ度を数値化する手法はこれに限定されるものではなく、例えば他の点数範囲で正規化を行ったり、正規化を行わずに上述した粗さ度素点のみで肌に塗布された化粧料の付着状態の解析を行うことができる。
In addition, the roughness raw point is obtained by using the number of pixels (Cnt 1 ) of the entire simple ternary image and the number of pixels (Cnt 2 ) of the portion where the foundation is thickly attached.
Roughness point = Cnt 2 ÷ Cnt 1
Further, the roughness degree is acquired by using, for example, the following mathematical formula or the like based on the acquired roughness raw points.
Roughness = 0.031050 × Roughness point + 1.51785
In addition, this numerical formula normalizes the result value to 1 to 5 points from the regression analysis of the visual results of the teacher images (31 sheets) and the roughness raw points. That is, the above formula is an equation for normalizing the roughness between 1 to 5 points as an example. By normalizing with this equation, the state of adhesion can be easily analyzed. In the present invention, the method of quantifying the roughness is not limited to this. For example, normalization is performed in another score range, or the above-described roughness score is obtained without normalization. It is possible to analyze the adhesion state of the cosmetic applied to the skin.

なお、S18〜S20に示す数式やその数式により計算した結果等は、表示画面等に表示して被験者に提示や編集等を行わせることができる。   The formulas shown in S18 to S20 and the results calculated by the formulas can be displayed on a display screen or the like so that the subject can be presented or edited.

上述したように、本実施形態に示すような手法により、S18〜S20のそれぞれから得られる数値化された結果から少なくとも1つを用いて肌に塗布された化粧料の付着状態の解析することができる。また、化粧料の付着量から化粧の仕上がり具合を高精度に解析することができる。これにより、例えばファンデーション粉末の肌(皮膚)への付着状態を観察し、解析することで、例えば店頭での活用も睨んだ新しい化粧の仕上り評価法を確立することができる。   As described above, it is possible to analyze the adhesion state of the cosmetic applied to the skin using at least one of the digitized results obtained from each of S18 to S20 by the method shown in the present embodiment. it can. In addition, the finish of the makeup can be analyzed with high accuracy from the amount of the applied cosmetic material. Accordingly, for example, by observing and analyzing the adhesion state of the foundation powder to the skin (skin), for example, it is possible to establish a new finish evaluation method for makeup that is also used in stores.

なお、上述した肌に塗布された化粧料の付着状態の解析の他にも、毛穴、しわ、しみ、肌色等のうち少なくとも1つを解析し、それらの解析結果を組み合わせることで、更に被験者に詳細な解析結果と肌へのアドバイス等を行うことができる。   In addition to the analysis of the adhesion state of the cosmetic applied to the skin as described above, the subject is further analyzed by analyzing at least one of pores, wrinkles, blemishes, skin color, etc., and combining the analysis results. Detailed analysis results and advice to skin can be performed.

<化粧料付着状態解析処理画面例>
次に、本発明における実行プログラム(化粧料付着状態解析プログラム)による化粧料付着状態解析ソフトを用いて化粧料付着状態解析処理を行う場合の画面例について図を用いて説明する。
<Example of cosmetic adhesion state analysis processing screen>
Next, a screen example in the case of performing cosmetic adhesion state analysis processing using the cosmetic adhesion state analysis software by the execution program (cosmetic adhesion state analysis program) in the present invention will be described with reference to the drawings.

図16は、化粧料付着状態解析処理を行う画面の一例を示す図である。図16に示す化粧料付着状態解析処理画面70は、解析画像指定領域71と、データ保存指定領域72と、実行処理領域73と、画像表示領域74と、解析結果表示領域75とを有するよう構成されている。なお、各領域の配置や大きさ、内容等についてこれに限定されるものではない。   FIG. 16 is a diagram illustrating an example of a screen for performing a cosmetics adhesion state analysis process. 16 is configured to include an analysis image designation area 71, a data storage designation area 72, an execution processing area 73, an image display area 74, and an analysis result display area 75. Has been. Note that the arrangement, size, contents, and the like of each region are not limited to this.

解析画像指定領域71は、解析対象画像を、格納先ドライブやフォルダの選択リストから選択し、選択したフォルダ内に格納されている画像群から解析対象画像をチェックマーク等により選択する。なお、解析画像指定領域71には、選択された格納先フォルダ内の画像数(図16では、30)と、選択した解析対象画像数(図16では、2)を表示させてもよい。なお、解析画像指定領域71には、選択された格納先フォルダ内の全画像を選択するためのボタン(All Select)や、選択された全画像の選択解除ボタン(Not Select)を有し、これらのボタンを選択することで、効率的に対象画像の設定や解除を行うことができる。   The analysis image designation area 71 selects an analysis target image from a selection list of storage destination drives and folders, and selects an analysis target image from a group of images stored in the selected folder by a check mark or the like. In the analysis image designation area 71, the number of images in the selected storage folder (30 in FIG. 16) and the number of selected analysis target images (2 in FIG. 16) may be displayed. The analysis image designation area 71 has a button (All Select) for selecting all images in the selected storage folder and a selection cancel button (Not Select) for all selected images. By selecting the button, it is possible to efficiently set or cancel the target image.

また、データ保存指定領域72は、解析結果値や結果画像の保存先を選択ダイアログで選択し、選択した保存先のフォルダパスを表示する。なお、図16に示すように、データ保存指定領域72には、選択ダイアログを表示させるための表示ボタンが設けられていてもよい。   In addition, the data saving designation area 72 selects the saving destination of the analysis result value and the result image in the selection dialog, and displays the folder path of the selected saving destination. As shown in FIG. 16, the data storage designation area 72 may be provided with a display button for displaying a selection dialog.

また、実行処理領域73は、選択された画像群の解析を実行する実行ボタンや解析処理を終了(中断)する終了ボタン等を有する。ここで、ユーザは、実行ボタンを押下することにより、解析画像指定領域71にて選択された画像群の解析が順次行われる。   The execution processing area 73 includes an execution button for executing analysis of the selected image group, an end button for ending (suspending) analysis processing, and the like. Here, when the user presses the execution button, the analysis of the image groups selected in the analysis image designation area 71 is sequentially performed.

また、画像表示領域74は、解析対象画像81と、解析結果画像82とが表示される。ここで、解析結果画像82には、例えば皮溝部分に付着したファンデーション等の化粧料(赤色部分)と、皮丘部分に付着したファンデーション等の化粧料(青色部分)等が表示される。また、各々の色おいて、薄い色の場合はファンデーション等の化粧料が肌等に薄くのっていることを示し、濃い色の場合はファンデーション等の化粧料が肌等に濃くのっていることを示す。   The image display area 74 displays an analysis target image 81 and an analysis result image 82. Here, in the analysis result image 82, for example, cosmetics such as foundation (red part) attached to the skin groove part, cosmetics such as foundation (blue part) attached to the skin hill part, and the like are displayed. In addition, in each color, when the color is light, it indicates that the cosmetics such as foundation are thinly applied to the skin, and when the color is dark, the cosmetic such as foundation is darkly applied on the skin. It shows that.

なお、解析対象画像81が複数存在する場合は、画像表示領域74に複数の解析対象画像81とその解析結果画像82を解析順に配列して表示させてもよく、また最新の解析対象画像81とその解析結果画像82のみを表示するようにしてもよい。なお、各解析対象画像81と解析結果画像82は、データ保存指定領域72に指定された保存先に所定のデータ形式(例えば、BMP形式、JPEG形式等)で保存される。   When there are a plurality of analysis target images 81, a plurality of analysis target images 81 and their analysis result images 82 may be arranged and displayed in the analysis order in the image display area 74. Only the analysis result image 82 may be displayed. Each analysis target image 81 and analysis result image 82 are stored in a predetermined data format (for example, BMP format, JPEG format, etc.) in the storage destination specified in the data storage specification area 72.

また、解析結果表示領域75は、解析結果値(付着量,不均一,粗さ)が表示される。なお、各解析対象画像名と解析結果値(付着量,不均一,粗さ)もデータ保存指定領域72に指定された保存先に所定のデータ形式(例えばCSV形式等)で保存される。   The analysis result display area 75 displays analysis result values (attachment amount, nonuniformity, roughness). Each analysis target image name and analysis result value (attachment amount, non-uniformity, roughness) are also stored in a predetermined data format (for example, CSV format) in the storage destination specified in the data storage specification area 72.

上述したように、化粧料付着状態解析処理画面70を用いることで、ユーザ等は容易に化粧料付着状態を解析することができる。   As described above, by using the cosmetic adhesion state analysis processing screen 70, the user or the like can easily analyze the cosmetic adhesion state.

上述したように、本発明によれば、被験者の肌に塗布された化粧料の付着状態を、付着量、不均一度、及び粗さ度の各パラメータのうち、少なくとも1つを用いて高精度に解析することができる。これにより、化粧料の付着状態を客観的且つ再現性よく評価することができる。また、本発明における解析結果により、製品評価や製品情報の開発に活用することができ、また原料として粉体の評価、開発商品の試作品の評価、他社品の評価、店頭機器ソフトへの応用等へ適用することができる。   As described above, according to the present invention, the adhesion state of the cosmetic applied to the skin of the subject is highly accurate using at least one of the parameters of the adhesion amount, the non-uniformity, and the roughness. Can be analyzed. Thereby, the adhesion state of cosmetics can be objectively evaluated with good reproducibility. In addition, the analysis results in the present invention can be used for product evaluation and product information development, as well as evaluation of powders as raw materials, evaluation of prototypes of developed products, evaluation of products from other companies, and application to in-store equipment software. Etc.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

本発明における化粧料付着状態解析システムの概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the cosmetics adhesion state analysis system in this invention. 肌観察装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a skin observation apparatus. 撮影手段におけるヘッド部の構成の一例を示す図である。It is a figure which shows an example of a structure of the head part in an imaging | photography means. 化粧料付着状態解析装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of a cosmetics adhesion state analyzer. 本発明における化粧料付着状態解析が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the cosmetics adhesion state analysis in this invention. 本発明における化粧料付着状態解析処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the cosmetics adhesion state analysis processing procedure in this invention. 解析処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of an analysis processing procedure. 毛抽出処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of a hair extraction process procedure. 毛に該当する部分を抽出するまでの画像の変化を説明するための一例の図である。It is a figure of an example for demonstrating the change of the image until the part applicable to hair is extracted. シェーディング処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of a shading process procedure. キメ抽出画像の作成処理の一例を示すフローチャートである。It is a flowchart which shows an example of a creation process of a texture extraction image. 取得されるキメ抽出画像の一例を示す図である。It is a figure which shows an example of the texture extraction image acquired. 単純3値化処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of a simple ternarization processing procedure. 単純3値化処理における画像の例を示す図である。It is a figure which shows the example of the image in a simple ternary process. 長さ率を説明するための一例の図である。It is a figure of an example for demonstrating a length ratio. 化粧料付着状態解析処理を行う画面の一例を示す図である。It is a figure which shows an example of the screen which performs cosmetics adhesion state analysis processing.

符号の説明Explanation of symbols

10 化粧料付着状態解析システム
11 肌観察装置
12 化粧料付着状態解析装置
13 通信ネットワーク
21,41 入力手段
22,42 出力手段
23,43 メンバー管理手段
24 撮影手段
25,46 蓄積手段
26,47 送受信手段
27,48 制御手段
30 照明光
31 肌
32 反射光
33 偏光フィルタ
44 解析手段
45 表示画面生成手段
51 入力装置
52 出力装置
53 ドライブ装置
54 補助記憶装置
55 メモリ装置
56 CPU
57 ネットワーク接続装置
58 記録媒体
61 元画像
62 G成分画像
63 毛抽出画像
64 シェーディング処理画像
65 キメ抽出画像
66 各層画像
67 合成画像
68 画像
69 画素集合
70 化粧料付着状態解析処理画面
71 解析画像指定領域
72 データ保存指定領域
73 実行処理領域
74 画像表示領域
75 解析結果表示領域
81 解析対象画像
82 解析結果画像
DESCRIPTION OF SYMBOLS 10 Cosmetics adhesion state analysis system 11 Skin observation apparatus 12 Cosmetics adhesion state analysis apparatus 13 Communication network 21,41 Input means 22,42 Output means 23,43 Member management means 24 Photographing means 25,46 Accumulation means 26,47 Transmission / reception means 27, 48 Control means 30 Illumination light 31 Skin 32 Reflected light 33 Polarization filter 44 Analysis means 45 Display screen generation means 51 Input device 52 Output device 53 Drive device 54 Auxiliary storage device 55 Memory device 56 CPU
57 Network connection device 58 Recording medium 61 Original image 62 G component image 63 Hair extraction image 64 Shading processing image 65 Texture extraction image 66 Each layer image 67 Composite image 68 Image 69 Pixel set 70 Cosmetics adhesion state analysis processing screen 71 Analysis image designation area 72 Data save designation area 73 Execution processing area 74 Image display area 75 Analysis result display area 81 Analysis target image 82 Analysis result image

Claims (14)

撮影された被験者の所定範囲の肌画像を用いて化粧料の付着状態の解析を行う化粧料付着状態解析方法において、
前記肌画像から前記被験者の肌に塗布された化粧料の付着量、不均一度、及び粗さ度のうち、少なくとも1つを数値化して前記化粧料の付着状態を解析する解析ステップと、
前記肌画像と、前記解析ステップから得られる解析結果とを、被験者情報と関連付けて蓄積する蓄積ステップとを有することを特徴とする化粧料付着状態解析方法。
In the cosmetics adhesion state analysis method for analyzing the adhesion state of the cosmetics using a skin image of a predetermined range of the photographed subject,
An analysis step for analyzing the adhesion state of the cosmetic by quantifying at least one of the adhesion amount, non-uniformity, and roughness of the cosmetic applied to the skin of the subject from the skin image;
A cosmetic adhesion state analysis method comprising: an accumulation step of accumulating the skin image and an analysis result obtained from the analysis step in association with subject information.
前記解析ステップは、
前記付着量を数値化する際、前記肌画像から3値化画像を取得し、取得した3値化画像全体の画素数と、前記肌画像から抽出される緑色画像の彩度とに基づいて、前記付着量を数値化することを特徴とする請求項1に記載の化粧料付着状態解析方法。
The analysis step includes
When the adhesion amount is digitized, a ternary image is acquired from the skin image, and based on the number of pixels of the acquired ternary image and the saturation of the green image extracted from the skin image, The cosmetic adhesion state analysis method according to claim 1, wherein the adhesion amount is digitized.
前記解析ステップは、
前記不均一度を数値化する際、前記肌画像から抽出される緑色画像の階調の標準偏差と、前記肌画像から得られる3値化画像の皮丘部分の扁平率とに基づいて、前記不均一度を数値化することを特徴とする請求項1又は2に記載の化粧料付着状態解析方法。
The analysis step includes
When quantifying the non-uniformity, based on the standard deviation of the gradation of the green image extracted from the skin image and the flatness ratio of the hill part of the ternary image obtained from the skin image, 3. The cosmetic adhesion state analysis method according to claim 1 or 2, wherein the non-uniformity is digitized.
前記解析ステップは、
前記粗さ度を数値化する際、前記肌画像から得られる3値化画像全体の画素数と、前記化粧料が厚く付着している部分の画素数とに基づいて、粗さ度を数値化することを特徴とする請求項1乃至3の何れか1項に記載の化粧料付着状態解析方法。
The analysis step includes
When the roughness degree is digitized, the roughness degree is digitized based on the number of pixels of the entire ternary image obtained from the skin image and the number of pixels of the portion where the cosmetic material is thickly adhered. The cosmetic adhesion state analysis method according to any one of claims 1 to 3, wherein:
前記解析ステップは、
前記化粧料の付着量、不均一度、及び粗さ度のうち、少なくとも1つから化粧の仕上がり具合を解析することを特徴とする請求項1乃至4の何れか1項に記載の化粧料付着状態解析方法。
The analysis step includes
The cosmetic adhesion according to any one of claims 1 to 4, wherein a finish of the makeup is analyzed from at least one of the adhesion amount, non-uniformity, and roughness of the cosmetic. State analysis method.
前記肌画像を撮影手段により撮影する撮影ステップを有し、
前記撮影ステップは、前記撮影手段において、照明を前記被験者の肌に照射して得られる反射光を受光する際、偏光フィルタによりフィルタリングすることを特徴とする請求項1乃至5の何れか1項に記載の化粧料付着解析方法。
A photographing step of photographing the skin image by photographing means;
6. The method according to claim 1, wherein, in the photographing step, when the reflected light obtained by illuminating the skin of the subject is received by the photographing unit, filtering is performed by a polarizing filter. The cosmetic adhesion analysis method described.
撮影された被験者の所定範囲の肌画像を用いて化粧料の付着状態の解析を行う化粧料付着状態解析装置において、
前記肌画像から前記被験者の肌に塗布された化粧料の付着量、不均一度、及び粗さ度のうち、少なくとも1つを数値化して前記化粧料の付着状態を解析する解析手段と、
前記肌画像と、前記解析手段から得られる解析結果とを、被験者情報と関連付けて蓄積する蓄積手段とを有することを特徴とする化粧料付着状態解析装置。
In the cosmetics adhesion state analysis device that analyzes the adhesion state of the cosmetics using a skin image of a predetermined range of the photographed subject,
Analyzing means for quantifying at least one of the adhesion amount, non-uniformity, and roughness of the cosmetic applied to the skin of the subject from the skin image, and analyzing the adhesion state of the cosmetic;
A cosmetic adhesion state analyzing apparatus comprising: an accumulation unit that accumulates the skin image and an analysis result obtained from the analysis unit in association with subject information.
前記解析手段は、
前記付着量を数値化する際、前記肌画像から3値化画像を取得し、取得した3値化画像全体の画素数と、前記肌画像から抽出される緑色画像の彩度とに基づいて、前記付着量を数値化することを特徴とする請求項7に記載の化粧料付着状態解析装置。
The analysis means includes
When the adhesion amount is digitized, a ternary image is acquired from the skin image, and based on the number of pixels of the acquired ternary image and the saturation of the green image extracted from the skin image, The cosmetic adhesion state analyzing apparatus according to claim 7, wherein the adhesion amount is digitized.
前記解析手段は、
前記不均一度を数値化する際、前記肌画像から抽出される緑色画像の階調の標準偏差と、前記肌画像から得られる3値化画像の皮丘部分の扁平率とに基づいて、前記不均一度を数値化することを特徴とする請求項7又は8に記載の化粧料付着状態解析装置。
The analysis means includes
When quantifying the non-uniformity, based on the standard deviation of the gradation of the green image extracted from the skin image and the flatness ratio of the hill part of the ternary image obtained from the skin image, The cosmetic adhesion state analyzing apparatus according to claim 7 or 8, wherein the non-uniformity is digitized.
前記解析手段は、
前記粗さ度を数値化する際、前記肌画像から得られる3値化画像全体の画素数と、前記化粧料が厚く付着している部分の画素数とに基づいて、粗さ度を数値化することを特徴とする請求項7乃至9の何れか1項に記載の化粧料付着状態解析装置。
The analysis means includes
When the roughness degree is digitized, the roughness degree is digitized based on the number of pixels of the entire ternary image obtained from the skin image and the number of pixels of the portion where the cosmetic material is thickly adhered. The cosmetic adhesion state analyzing apparatus according to any one of claims 7 to 9, wherein:
前記解析手段は、
前記化粧料の付着量、不均一度、及び粗さ度のうち、少なくとも1つから化粧の仕上がり具合を解析することを特徴とする請求項7乃至10の何れか1項に記載の化粧料付着状態解析装置。
The analysis means includes
The cosmetic adhesion according to any one of claims 7 to 10, wherein the finish of the makeup is analyzed from at least one of the adhesion amount, non-uniformity, and roughness of the cosmetic. State analysis device.
前記肌画像を撮影する撮影手段を有し、
前記撮影手段は、照明を前記被験者の肌に照射して得られる反射光を受光する際、照射光及び反射光の経路上に偏光フィルタを設けることを特徴とする請求項7乃至11の何れか1項に記載の化粧料付着解析装置。
A photographing means for photographing the skin image;
The said imaging | photography means provides a polarizing filter on the path | route of irradiation light and reflected light, when receiving the reflected light obtained by irradiating illumination to the said test subject's skin, The any one of Claims 7 thru | or 11 characterized by the above-mentioned. The cosmetic adhesion analyzer according to Item 1.
請求項1乃至6の何れか1項に記載の化粧料付着状態解析方法を実行させるようにコンピュータを動作させることを特徴とする化粧料付着状態解析プログラム。   A cosmetic adhesion state analysis program for operating a computer to execute the cosmetic adhesion state analysis method according to any one of claims 1 to 6. 請求項13に記載の化粧料付着状態解析プログラムが記録されたコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the cosmetic adhesion state analysis program according to claim 13 is recorded.
JP2007089739A 2007-03-29 2007-03-29 Cosmetic adhesion state analysis method, cosmetic adhesion state analysis device, cosmetic adhesion state analysis program, and recording medium on which the program is recorded Active JP4921222B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007089739A JP4921222B2 (en) 2007-03-29 2007-03-29 Cosmetic adhesion state analysis method, cosmetic adhesion state analysis device, cosmetic adhesion state analysis program, and recording medium on which the program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007089739A JP4921222B2 (en) 2007-03-29 2007-03-29 Cosmetic adhesion state analysis method, cosmetic adhesion state analysis device, cosmetic adhesion state analysis program, and recording medium on which the program is recorded

Publications (2)

Publication Number Publication Date
JP2008245843A JP2008245843A (en) 2008-10-16
JP4921222B2 true JP4921222B2 (en) 2012-04-25

Family

ID=39971512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007089739A Active JP4921222B2 (en) 2007-03-29 2007-03-29 Cosmetic adhesion state analysis method, cosmetic adhesion state analysis device, cosmetic adhesion state analysis program, and recording medium on which the program is recorded

Country Status (1)

Country Link
JP (1) JP4921222B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5693860B2 (en) * 2009-02-18 2015-04-01 国立大学法人豊橋技術科学大学 Quantitation method
JP5834931B2 (en) * 2012-01-16 2015-12-24 花王株式会社 Cosmetic film observation method
JP6324006B2 (en) * 2013-08-30 2018-05-16 ポーラ化成工業株式会社 Image processing method and image processing apparatus
CN105592792B (en) * 2013-10-23 2018-08-17 麦克赛尔控股株式会社 Surface state measures analytical information management system and surface state measures analysis approaches to IM
JP6967767B2 (en) * 2017-06-14 2021-11-17 株式会社クラブコスメチックス Makeup breakage evaluation method and makeup breakage evaluation model
JP6985826B2 (en) * 2017-06-27 2021-12-22 花王株式会社 Application condition evaluation method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06189942A (en) * 1992-12-25 1994-07-12 Kanebo Ltd Skin surface analysis system and skin surface analysis method
JPH06313708A (en) * 1993-04-28 1994-11-08 Kao Corp Skin surface observation apparatus
JP2000088558A (en) * 1998-09-17 2000-03-31 Shiseido Co Ltd Skin observation recording system and unevenness analysis system of observation object face
US20090054744A1 (en) * 2005-04-28 2009-02-26 Naomi Kitamura Skin state analyzing method, skin state analyzing apparatus, and computer-readable medium storing skin state analyzing program

Also Published As

Publication number Publication date
JP2008245843A (en) 2008-10-16

Similar Documents

Publication Publication Date Title
KR101260722B1 (en) Skin state analyzing method, skin state analyzing device, and recording medium on which skin state analyzing program is recorded
US11626200B2 (en) Histology recognition to automatically score and quantify cancer grades and individual user digital whole histological imaging device
JP4921222B2 (en) Cosmetic adhesion state analysis method, cosmetic adhesion state analysis device, cosmetic adhesion state analysis program, and recording medium on which the program is recorded
CN107788948B (en) Diagnosis support device, image processing method for diagnosis support device, and storage medium storing program
JP5290585B2 (en) Skin color evaluation method, skin color evaluation device, skin color evaluation program, and recording medium on which the program is recorded
US8131029B2 (en) Systems and methods for automatic skin-based identification of people using digital images
JP5080060B2 (en) Skin condition analysis method, skin condition analysis apparatus, skin condition analysis program, and recording medium on which the program is recorded
JP7188514B2 (en) Diagnosis support device, image processing method in diagnosis support device, and program
US11231366B2 (en) Method and device for determining a gloss value of hair
JP5528692B2 (en) Wrinkle evaluation method, wrinkle evaluation apparatus, wrinkle evaluation program, and recording medium on which the program is recorded
JP6756524B2 (en) How to analyze the effects of cosmetic procedures
CN109299634A (en) Spot detection method, system, equipment and storage medium
JP2009082338A (en) Skin discrimination method using entropy
US10929993B2 (en) Automated imaging system for evaluating the curl of a keratinous substrate
JPWO2018203514A1 (en) Image analysis evaluation method, computer program, image analysis evaluation device
Qi et al. Multi-exposure x-ray image fusion quality evaluation based on CSF and gradient amplitude similarity
KR101706373B1 (en) Apparatus for diagnosing skin condition and method for diagnosing and managing skin using the same
Totu et al. An objective scoring framework for histology slide image mosaics applicable for the reliable benchmarking of image quality assessment algorithms
Rimskaya et al. Development of a Mobile Application for an Independent Express Assessment of Pigmented Skin Lesions
JP6028188B1 (en) Information providing apparatus and information providing method
CN111507326A (en) Biometric feature collection method and device, display panel and electronic device
JP2007130094A (en) Skin condition analyzing method, skin condition analyzing apparatus, skin condition analyzing program, and recording medium in which this program is recorded
JP2018202044A (en) Method for evaluating clogging of pores and device for evaluating clogging of pores
JP2011104099A (en) Skin groove structure analysis method, analyzer, and analysis system
KR20180027936A (en) System and method for measuring coverage of comsmetic material

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120131

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120202

R150 Certificate of patent or registration of utility model

Ref document number: 4921222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250