[go: up one dir, main page]

JP2012128597A - Information processing apparatus, information processing method and program therefor - Google Patents

Information processing apparatus, information processing method and program therefor Download PDF

Info

Publication number
JP2012128597A
JP2012128597A JP2010278565A JP2010278565A JP2012128597A JP 2012128597 A JP2012128597 A JP 2012128597A JP 2010278565 A JP2010278565 A JP 2010278565A JP 2010278565 A JP2010278565 A JP 2010278565A JP 2012128597 A JP2012128597 A JP 2012128597A
Authority
JP
Japan
Prior art keywords
balance
information processing
balance correction
information
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010278565A
Other languages
Japanese (ja)
Other versions
JP5656603B2 (en
Inventor
Hiromi Shiozaki
裕美 塩崎
Yasuo Katano
康生 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010278565A priority Critical patent/JP5656603B2/en
Publication of JP2012128597A publication Critical patent/JP2012128597A/en
Application granted granted Critical
Publication of JP5656603B2 publication Critical patent/JP5656603B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus which supports individually matched and well balanced makeup while reducing man-hour for correction.SOLUTION: A video image including a face of a person is captured, a plurality of partial regions are extracted from the captured video image, respective evaluation values of the plurality of extracted partial regions are calculated, and the plurality of evaluation values are compared with each other to calculate a balance correction value. On the basis of the balance correction value, balance correction information is produced which indicates a technique for correcting the balance in appearance of the person, and the balance correction information is outputted.

Description

本発明は、対象者に合わせたバランスのよい化粧を対象者自身で行うための情報処理装置に関する。   The present invention relates to an information processing apparatus for performing a well-balanced makeup suitable for a subject by the subject himself / herself.

従来、化粧の仕方は、販売員やメイクの講師に教えてもらったり、雑誌やインターネットで調べたりすることで覚えていた。近年、化粧を支援する方法として、顔画像に見本となる理想的な化粧ラインを重畳表示し、それをトレースすることで化粧支援を行うものが考えられている。   Traditionally, makeup has been learned by telling salespersons and makeup instructors, or searching magazines and the Internet. In recent years, as a method for assisting makeup, a method of assisting makeup by displaying an ideal makeup line as a sample on a face image and tracing it is considered.

特開2010−73008号公報JP 2010-73008 A 特開2001−216386号公報JP 2001-216386 A

C.P.Papageorgiou,M.Oren,and T.Poggio,A general framework for object detection, IEEE Computer Vision and Pattern Recognition,pp.511−562,1998.C. P. Pageorgiou, M .; Oren, and T.M. Poggio, A general framework for object detection, IEEE Computer Vision and Pattern Recognition, pp. 511-562, 1998. N.Dalal and B.Triggs,Histograms of Oriented Gradients for Human Detection,IEEE Computer Vision and Pattern Recognition,pp.886−893,2005.N. Dalal and B.M. Triggs, Histograms of Oriented Gradients for Human Detection, IEEE Computer Vision and Pattern Recognition, pp. 886-893, 2005. C.Harris and M.Stephens,A combined corner and edge detector, Proc.4th Alvey Vision Conference,pp.147−151,Manchester,U.K.,Aug.1988.C. Harris and M.M. Stephens, A combined corner and edge detector, Proc. 4th Alvey Vision Conference, pp. 147-151, Manchester, U.S. K. Aug. 1988.

特許文献1では、見本となる理想的な化粧ラインを変更できるように、見本画像を取り込む手段を持っている。   In Patent Document 1, there is a means for capturing a sample image so that an ideal makeup line as a sample can be changed.

特許文献2では、入力した顔画像に対して見本画像を重ねて合成するとともに、化粧の塗り方に関するアドバイスの表示も行う。   In Patent Document 2, a sample image is superimposed on an input face image and combined, and advice on how to apply makeup is also displayed.

化粧を修正する方法としては、化粧を部分的もしくは全部落とす方法、ファンデーションなどを重ねることで隠す方法、見本自体を変更して化粧を続ける方法が考えられる。まず、化粧を全部落とす場合、一旦全部落として再度化粧するということはかなり手間がかかる。次に、化粧を部分的に落とす場合とファンデーションなどを重ねて隠す場合、淡い色のわずかなずれを除いては、色むらができやすく、きちんと修正するのは素人では難しく手間もかかる。最後に見本自体を変更する場合は、化粧を続けることが可能な見本が存在している必要がある。   As a method of correcting the makeup, a method of partially or completely removing the makeup, a method of hiding by overlaying a foundation or the like, and a method of continuing the makeup by changing the sample itself are conceivable. First of all, when removing all makeup, it is quite troublesome to remove all makeup once and apply again. Next, when the makeup is partially removed and when the foundation is overlaid and hidden, except for slight shifts in pale colors, uneven color is likely to occur, and it is difficult and difficult for an amateur to correct properly. Finally, when changing the sample itself, there must be a sample that can continue makeup.

しかしながら、上記の方法では、理想ラインが基本的には固定であり、化粧中に、見本とずれた場合に修正に手間がかかるという課題があった。   However, in the above method, the ideal line is basically fixed, and there is a problem that it takes time and effort to make a correction when it deviates from the sample during makeup.

また、理想ラインが存在する場合、個人差による理想ラインの違いを考慮していない、という課題があった。本来、人は個人により顔のパーツの配置や形状が異なり、顔は完全な左右対称ではない。このように個々により違う配置や形状を持つ顔に対して、ある見本を用意し、それを個人の顔に適用したとしても、それがその個人にあったよい化粧であるとは限らない。   Moreover, when the ideal line exists, the subject that the difference of the ideal line by an individual difference was not considered occurred. Originally, the arrangement and shape of facial parts varies from person to person, and the face is not completely symmetrical. Thus, even if a sample is prepared for a face having a different arrangement and shape depending on each individual and applied to an individual's face, it is not necessarily a good makeup suitable for the individual.

上記課題を解決するため、本発明は、バランスのよい化粧を行うことに着目することで、修正の手間を軽減し、個人に合ったバランスのよい化粧を支援する装置を提供することを目的とする。   In order to solve the above-mentioned problems, the present invention aims to provide a device that supports a well-balanced makeup suitable for an individual by reducing the labor of correction by focusing on making a balanced makeup. To do.

上記の目的は以下の装置によって達成される。
人物の顔を含む映像を撮像する撮像手段と、前記撮像した映像から複数の部分領域を抽出する抽出手段と、前記抽出した複数の部分領域の各々の評価値を算出する評価手段と、前記複数の評価値を互いに比較することにより、バランス補正値を算出する算出手段と、前記バランス補正値に基づいて、前記人物の外見のバランスを補正する手法を示すバランス補正情報を生成する生成手段と、前記バランス補正情報を出力する出力手段とを有することを特徴とする情報処理装置。
The above object is achieved by the following apparatus.
Imaging means for capturing an image including a human face, extraction means for extracting a plurality of partial areas from the captured video, evaluation means for calculating an evaluation value for each of the extracted partial areas, and the plurality Calculating means for calculating a balance correction value by comparing the evaluation values of each other, and generating means for generating balance correction information indicating a technique for correcting the balance of the appearance of the person based on the balance correction value; An information processing apparatus comprising: output means for outputting the balance correction information.

本発明による化粧バランス支援装置では、修正の手間を軽減し、かつ個人に合ったバランスのよい化粧が可能となる。   With the makeup balance support device according to the present invention, it is possible to reduce the trouble of correction and to make a makeup with a good balance suitable for an individual.

第一の実施形態に係る情報処理装置の構成を示す図である。It is a figure which shows the structure of the information processing apparatus which concerns on 1st embodiment. 第一の実施形態に係る情報処理装置の処理を示す図である。It is a figure which shows the process of the information processing apparatus which concerns on 1st embodiment. 第二の実施形態に係る情報処理装置の構成を示す図である。It is a figure which shows the structure of the information processing apparatus which concerns on 2nd embodiment. 第二の実施形態に係る情報処理装置の処理を示す図である。It is a figure which shows the process of the information processing apparatus which concerns on 2nd embodiment. 第一の実施形態における評価部103にて評価値の算出例1を示す図である。It is a figure which shows the calculation example 1 of an evaluation value in the evaluation part 103 in 1st embodiment. 第一の実施形態における評価部103にて評価値の算出例2を示す図である。It is a figure which shows the calculation example 2 of an evaluation value in the evaluation part 103 in 1st embodiment. 第三の実施形態における評価部103にて評価値を算出例を示す図である。It is a figure which shows the example of calculation of an evaluation value in the evaluation part 103 in 3rd embodiment. 第一の実施形態にて説明する算出部104にて髪型を含めたバランス補正を行う際のバランス補正情報の出力例を示す図である。It is a figure which shows the output example of the balance correction information at the time of performing balance correction including a hairstyle in the calculation part 104 demonstrated in 1st embodiment. 第一の実施形態にて説明する算出部104にてファッションを含めたバランス補正を行う際のバランス補正情報の出力例を示す図である。It is a figure which shows the output example of the balance correction information at the time of performing balance correction including fashion in the calculation part 104 demonstrated in 1st embodiment. 第一の実施形態にて説明する出力部106にて、バランス補正情報として補正すべき情報を重畳した画像の出力例を示す図である。It is a figure which shows the example of an output of the image which superimposed the information which should be corrected as balance correction information in the output part 106 demonstrated in 1st embodiment. 操作部204にて対象者が好みの化粧を設定する際に、表示するユーザ・インタフェースの一例を示す図である。6 is a diagram illustrating an example of a user interface to be displayed when a target person sets a favorite makeup using an operation unit 204. FIG. コンピュータの構成例を示す図である。It is a figure which shows the structural example of a computer.

以下、添付図面を参照して本発明を実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to embodiments with reference to the accompanying drawings.

〔第1の実施形態〕
(概要)
本実施形態に係る情報処理装置は、化粧をする際に、化粧による外見のバランスを改善するためのバランス補正情報を出力する。本実施形態に係る情報処理装置は、まず人物の顔を含む映像をカメラで撮像する。そして、カメラで撮像した映像から、部分領域を抽出する。そして、その複数の部分領域に基づいて複数の部分領域の評価値を算出する。そして、その評価値からバランスを改善するためのバランス補正値を算出し、そのバランス補正値を出力部に出力する。
[First Embodiment]
(Overview)
When performing makeup, the information processing apparatus according to the present embodiment outputs balance correction information for improving the balance of appearance by makeup. The information processing apparatus according to the present embodiment first captures an image including a human face with a camera. Then, a partial area is extracted from the video imaged by the camera. Then, evaluation values of the plurality of partial areas are calculated based on the plurality of partial areas. Then, a balance correction value for improving the balance is calculated from the evaluation value, and the balance correction value is output to the output unit.

(構成)
図1は本実施形態に係る情報処理装置の概略を示す図である。図1に沿って、本実施形態の情報処理装置の構成を説明する。情報処理装置は、撮像部101、抽出部102、評価部103、算出部104、生成部105、出力部106から構成されている。
(Constitution)
FIG. 1 is a diagram showing an outline of an information processing apparatus according to this embodiment. The configuration of the information processing apparatus according to the present embodiment will be described with reference to FIG. The information processing apparatus includes an imaging unit 101, an extraction unit 102, an evaluation unit 103, a calculation unit 104, a generation unit 105, and an output unit 106.

撮像部101は、対象者の顔を含む映像を撮像する。図1において撮像部は1つであるが、特に1つに限定せず、複数持っていてもよい。複数持つことにより、奥行きの情報を得ることができ、3次元に拡張することが可能となる。   The imaging unit 101 captures an image including the target person's face. In FIG. 1, there is one imaging unit, but the number is not particularly limited to one, and a plurality of imaging units may be provided. By having a plurality, it is possible to obtain depth information and expand it in three dimensions.

抽出部102は、撮像部101から送られる映像から、部分領域とその部分領域情報を抽出する。本実施例では、部分領域とは顔領域およびパーツ領域である。パーツとは、目、眉、鼻、口、頬などの顔の一部分を指す。部分領域情報は、顔領域やパーツ領域の位置、形状、色の情報である。   The extraction unit 102 extracts a partial region and its partial region information from the video sent from the imaging unit 101. In this embodiment, the partial areas are a face area and a parts area. Parts refer to parts of the face such as eyes, eyebrows, nose, mouth and cheeks. The partial area information is information on the position, shape, and color of the face area and part area.

顔領域およびパーツ領域の抽出は、例えばHaar−like特徴量(非特許文献1参照)やHOG特徴量(非特許文献2参照)などの手法を使用する。また、顔領域の抽出に関しては肌色検出などの簡易な手法でも可能である。また、対象者に顔領域を入力してもよい。化粧領域の抽出は化粧をしていない状態との差分にて求めることができる。   For extraction of the face area and the part area, for example, a method such as Haar-like feature quantity (see Non-Patent Document 1) or HOG feature quantity (see Non-Patent Document 2) is used. In addition, a simple technique such as skin color detection can be used to extract the face area. Further, a face area may be input to the subject. The extraction of the makeup area can be obtained by the difference from the state where makeup is not performed.

化粧をしていない状態との差分を求める際には、化粧をしていない映像と現在の映像との対応付けをする必要がある。特徴点の対応付けの方法は、例えば、対応付けたい2枚の画像に対して、Harris作用素(非特許文献3参照)などの特徴点抽出フィルタにより特徴点を抽出する。例えば、各点を中心とする局所領域間の正規化相関値に基づいて相関の高い2点を対応させることで対応付けが可能である。   When obtaining a difference from a state where makeup is not performed, it is necessary to associate an image without makeup with a current image. As a method of associating feature points, for example, feature points are extracted from two images to be associated by a feature point extraction filter such as a Harris operator (see Non-Patent Document 3). For example, two points having high correlation can be associated with each other based on a normalized correlation value between local regions centered on each point.

評価部103は、抽出部102で抽出したパーツ領域の評価値を算出する。評価値とは、各パーツ領域の各々の特徴を評価する値である。例えば、どの程度、外見のバランスが悪いかを表す値になる場合もあり、例えば、パーツごとの回転、大きさ、形状、位置、色分布などや、それらの組み合わせにおいてバランスを表す。   The evaluation unit 103 calculates an evaluation value of the part area extracted by the extraction unit 102. The evaluation value is a value for evaluating each feature of each part area. For example, it may be a value indicating how bad the balance of appearance is. For example, the balance is expressed by rotation, size, shape, position, color distribution, etc. for each part or a combination thereof.

評価値を求める方法として、例えば、図5のように評価値を算出するために基準となる基準テンプレートを用意する。抽出部102で抽出したパーツの特徴点を抽出する。そして、用意した基準テンプレートの対応するパーツの特徴点との対応付けを行う。更に、基準テンプレートに対しての回転度θ、倍率α、変形度βを算出し、位置Px、Pyを取得し、それらを評価値とする。変形度βは例えば、変形の仕方を見るためのアフィン変換パラメータである。   As a method for obtaining the evaluation value, for example, a reference template serving as a reference for calculating the evaluation value as shown in FIG. 5 is prepared. Part feature points extracted by the extraction unit 102 are extracted. Then, the prepared reference template is associated with the feature point of the corresponding part. Furthermore, the degree of rotation θ, the magnification α, and the degree of deformation β with respect to the reference template are calculated, and the positions Px and Py are acquired and used as evaluation values. The degree of deformation β is, for example, an affine transformation parameter for viewing how to deform.

例えば、図5のように左目の評価値を算出する例を考える。まず、目頭と目尻を抽出し、線で結ぶ。この線とテンプレートの同様の線との傾きの差が、回転度θとして算出できる。次に、目頭と目尻を結ぶ線の垂直二等分線を求め、目の輪郭との接点を求めることで、目の幅と高さを算出できる。これらとテンプレートの目の幅と高さから、目の幅と高さの倍率α、αが算出できる。目頭と目尻、そしてそれらを結ぶ線の垂直二等分線と目の輪郭との2つの接点を求める。これらの点の位置をアフィン変換前の値とし、テンプレートにおける同様の点の位置をアフィン変換後の値とすることで、変形度であるアフィン変換パラメータβが算出できる。 For example, consider an example in which the left eye evaluation value is calculated as shown in FIG. First, the head and corners of the eyes are extracted and connected with lines. The difference in inclination between this line and the similar line of the template can be calculated as the degree of rotation θ. Next, the width and height of the eye can be calculated by obtaining a perpendicular bisector of a line connecting the top of the eye and the corner of the eye, and obtaining a contact point with the eye contour. From these and the width and height of the eye of the template, magnifications α w and α h of the eye width and height can be calculated. Find the two points of contact between the eyes and the corners of the eyes, and the perpendicular bisector of the lines connecting them and the contours of the eyes. By using the positions of these points as values before affine transformation and the positions of similar points in the template as values after affine transformation, the affine transformation parameter β, which is the degree of deformation, can be calculated.

基準テンプレートを使用しない方法として、例えば、図6のように、抽出部102で抽出したパーツのうち、左右で対応するパーツがあるパーツに関しては、片側のパーツを反転させ、逆側のパーツと比較する。例えば、すでに述べた方法と同様の方法で逆側のパーツに対しての回転度θ、倍率α、変形度βを算出し、位置Px、Pyを取得する。左右で対応するパーツがないものに関しては、そのパーツの中心線を求め、現在の顔の中心線に対しての回転度θ、中心線の片側を左右反転させたものの逆側に対する倍率α、変形度βを算出し、位置Px、Pyを取得し、評価値とする。   As a method not using the reference template, for example, as shown in FIG. 6, among the parts extracted by the extraction unit 102, for the parts with corresponding parts on the left and right, the one part is reversed and compared with the opposite part. To do. For example, the degree of rotation θ, the magnification α, and the degree of deformation β for the opposite part are calculated by the same method as described above, and the positions Px and Py are obtained. For those that do not have corresponding parts on the left and right, the center line of the part is obtained, the degree of rotation θ relative to the center line of the current face, the magnification α relative to the opposite side of one side of the center line reversed horizontally, deformation The degree β is calculated, and the positions Px and Py are acquired and used as evaluation values.

このとき、顔の中心線は、抽出部102にて抽出した顔領域およびパーツの位置から求める。顔の中心線の求め方は、例えば、中心線の左右にある顔の領域ができるだけ同じ面積になるように分ける直線を算出してもよいし、中心線と左右のパーツの位置までの距離ができるだけ同じになるように分ける直線を算出してもよい。パーツの中心線についても、同様に例えば、パーツの中心線の左右で、パーツの領域ができるだけ同じ面積になるように分ける直線を算出することで求まる。   At this time, the center line of the face is obtained from the face area extracted by the extraction unit 102 and the position of the part. For example, the face center line may be calculated by calculating a straight line that divides the face area on the left and right sides of the center line into the same area as much as possible. You may calculate the straight line divided so that it may become the same as possible. Similarly, the part center line can be obtained by calculating a straight line that divides the part area so as to have the same area as possible on the left and right sides of the part center line.

算出部104は、その算出した評価値が、例えば左右対称になるように外見のバランスを補正するための、バランス補正値を求める。   The calculation unit 104 obtains a balance correction value for correcting the appearance balance so that the calculated evaluation value is symmetrical, for example.

バランス補正値とは、化粧を施すことで、外見のバランスがとれた状態になるようにするために、化粧を追加もしくは更新すべき領域での補正量を示す値で、回転、大きさ、変形、色などの値がある。各パーツにつき、例えば、バランスのとれた左右対称になるように、それらの値を求める。   The balance correction value is a value that indicates the amount of correction in the area where makeup should be added or updated in order to make the appearance balanced by applying makeup. There are values such as color. For each part, for example, those values are obtained so as to be balanced and symmetrical.

左右のパーツでそれらの位置が非対称である場合、大きさや変形の補正値に含ませて補正することもできる。例えば、顔の中心線から眉の位置までの間隔が左右で違う場合、顔の中心線から眉の位置までの間隔が大きいほうの眉の幅について補正する大きさ、ここでは補正する眉の幅を、顔の中心線から逆側の眉と同じ間隔になるような補正量にする。これにより、補正することができる。化粧を追加して補正する場合の例は、片側にチークが塗られた場合などである。   If the positions of the left and right parts are asymmetric, they can be corrected by including them in correction values for size and deformation. For example, if the distance from the center line of the face to the position of the eyebrow is different on the left and right, the size to correct for the width of the eyebrow with the larger distance from the center line of the face to the position of the eyebrow, here the width of the eyebrow to be corrected Is set to a correction amount so as to be the same distance as the eyebrows on the opposite side from the face center line. Thereby, it can correct | amend. An example of correction by adding makeup is when a cheek is applied on one side.

バランス補正値として、逆側の頬に、例えば左右対称となるように、化粧を施す部位の、位置、大きさ、形、色の値を算出する。化粧を更新して補正する場合の例は、先にも挙げた眉など、既にあるものを現在の状態からさらに上書きする場合などである。バランス補正値として、逆側の眉を、例えば左右対称となるように、位置、大きさ、形、色の値に更新する。なお、バランスの補正は左右対称になることだけに限定しない。評価値で算出した位置や位置の差分を利用して、顔の中心線からの距離で評価値に対する重みを変え、重み付きの左右対称を算出するように使用することもできる。   As the balance correction value, the position, size, shape, and color values of the part to be applied are calculated so as to be symmetrical on the opposite cheek, for example. An example of a case where the makeup is updated and corrected is a case where an existing one such as the eyebrows mentioned above is further overwritten from the current state. As the balance correction value, the eyebrow on the opposite side is updated to the position, size, shape, and color values so as to be symmetrical, for example. The balance correction is not limited to being symmetrical. Using the position calculated by the evaluation value and the difference between the positions, the weight for the evaluation value is changed by the distance from the center line of the face, and the weighted left-right symmetry can be calculated.

こうすることで、化粧だけでなく、髪型などまでを含んだバランスを考えることも可能である。例えば、図8で図中(a)の顔のようにもともとの顔の輪郭が対称でなく片側が広くなっている歪みを持つような場合、あえて、髪型のバランスに偏りをもたすことで、全体としてバランスがよくなる。この場合、算出部104は、髪も含む評価値から、バランス補正値を算出する。髪の補正値に関しては、パーツ同様に、補正する大きさや変形度などの値を求めてもよい。   In this way, it is possible to consider a balance that includes not only makeup but also hairstyles. For example, in the case of FIG. 8 where the original face contour is not symmetrical and the distortion is wide on one side like the face in FIG. , The overall balance will be better. In this case, the calculation unit 104 calculates a balance correction value from the evaluation value including hair. As for the hair correction value, values such as the size to be corrected and the degree of deformation may be obtained as in the case of the part.

しかし、髪の補正は化粧ほどの正確性は求められない上に、正確に算出してもその通りに実現するのは非常に困難なので、左右をどの程度の割合にするか、前髪を分ける場合は割合をどうするか、などの値を大まかに表示だけでもよい。バランス補正値を算出する際に、化粧の重みに対して、髪型を低い重みで扱うことで、髪型については化粧に比べて大まかな値で扱うことが可能となる。   However, correction of hair is not as accurate as makeup, and even if it is calculated accurately, it is very difficult to achieve it exactly. May only display values roughly, such as what to do with the ratio. When calculating the balance correction value, the hairstyle is handled with a lower weight than the makeup weight, so that the hairstyle can be handled with a rough value compared to the makeup weight.

さらに、ファッション、服装、装飾品等に関してのバランスを考えてもよい。図9で図中(a)のように、化粧のバランスがとれていて、髪型に偏りがある場合、逆側にアクセントがあると、バランスがよくなる。この場合、バランスをよくするアドバイスとして、ファッション関するアドバイス、例えば、逆側の肩にリボンなどのアクセントのある服を着る、逆側の目元にラメを追加する、などの指示を出す。   Furthermore, you may consider the balance regarding fashion, clothes, and ornaments. As shown in FIG. 9A, when the makeup is balanced and the hairstyle is biased, the balance is improved if there is an accent on the opposite side. In this case, as advice for improving the balance, an instruction regarding fashion, for example, wearing clothes with accents such as a ribbon on the opposite shoulder, or adding lame to the opposite eye, is given.

ファッションについての指示も髪型同様に、厳密な値より目安となる程度の指示がよいと思われるので、どの辺りにどの程度の何を追加するか、というような簡易な指示がよいと思われる。バランス補正値算出の際に、化粧の重みに対して、髪型同様にファッションを低い重みで扱うことで、ファッションについて、化粧に比べて大まかな値で扱うことが可能となる。   Like the hairstyle, the instruction about the fashion seems to be an instruction that is a guideline rather than a strict value, so it seems that a simple instruction such as what to add to what area is good. When calculating the balance correction value, it is possible to handle the fashion with a rough value compared to the makeup by handling the fashion with a lower weight as with the hairstyle with respect to the weight of the makeup.

生成部105は、バランス補正値に基づいて、バランスを改善するためのバランス補正情報を生成する。バランス補正情報が画像である場合、以下のようになる。算出部104にて算出したバランス補正値に基づき、図10(b)のようなバランス補正画像を生成する。生成したバランス補正画像と撮像部101で撮像した映像とを顔の部位の位置を合わせて重畳する。位置合わせは、例えば、バランス補正画像の目の位置と撮像した画像の目の位置が一致するように行う。   The generation unit 105 generates balance correction information for improving balance based on the balance correction value. When the balance correction information is an image, it is as follows. Based on the balance correction value calculated by the calculation unit 104, a balance correction image as shown in FIG. 10B is generated. The generated balance correction image and the video imaged by the imaging unit 101 are superimposed with the position of the face part aligned. The alignment is performed, for example, so that the eye position of the balance correction image matches the eye position of the captured image.

このような方法で、図10(a)(b)の2つの画像を足し合わせ、図10(c)のように重畳した画像を作成する。バランス補正重畳画像を作成する際は、バランスが取れるような補正位置、補正量を強調して作成してもよい。また、左右の色の濃淡に差がある場合など、現在の色の濃淡を数値的に表して、画像に表示してもよい。
出力部106は、生成された補正情報を、例えば表示部に、出力する。
By such a method, the two images shown in FIGS. 10A and 10B are added to create an image superimposed as shown in FIG. When creating a balance-corrected superimposed image, it may be created by emphasizing a correction position and a correction amount that can achieve a balance. In addition, when there is a difference between the shades of the left and right colors, the shade of the current color may be expressed numerically and displayed on the image.
The output unit 106 outputs the generated correction information to, for example, a display unit.

なお、生成部105は画像を生成することに限定しない。例えば、補正手法を音声による案内の情報として生成し、出力部106が、出力してもよい。また、補正情報をロボットに送信して、補正指示のとおりにロボットが補正を行ってもよい。   The generation unit 105 is not limited to generating an image. For example, the correction method may be generated as voice guidance information and output by the output unit 106. Further, the correction information may be transmitted to the robot, and the robot may perform correction according to the correction instruction.

対象者は、出力部106で出力した補正情報を確認して、化粧を行う。対象者が新たに化粧を行うと、撮像部101にて再度撮像を行って出力部106にて補正情報を出力するまでの前述した処理を繰り返し行う。補正情報は一定時間ごとに更新される。   The subject confirms the correction information output by the output unit 106 and performs makeup. When the target person newly performs makeup, the above-described processing is repeated until the imaging unit 101 captures an image again and the output unit 106 outputs correction information. The correction information is updated at regular intervals.

(処理)
続いて、図2に示したフローチャートを用いて、本実施形態の情報処理装置が行う処理について説明する。
(processing)
Next, processing performed by the information processing apparatus of this embodiment will be described using the flowchart shown in FIG.

対象者の顔が撮像部101により撮像される範囲に入った状態にてステップS100にて処理が開始される。この説明では化粧をしていない状態からの処理開始について説明する。   The process is started in step S100 in a state where the subject's face is in the range where the imaging unit 101 captures an image. In this description, the process start from a state where makeup is not applied will be described.

ステップS101では、撮像部101による顔映像の撮像が行われる。その撮像した映像が抽出部102へと送られると、処理はステップS102へと進む。   In step S <b> 101, a face image is captured by the imaging unit 101. When the captured video is sent to the extraction unit 102, the process proceeds to step S102.

ステップS102では、抽出部102において、撮像部101により送られる映像より、顔領域やパーツ領域などの部分領域が抽出される。その抽出した部分領域が評価部103に送られると、処理はステップS110へと進む。   In step S <b> 102, the extraction unit 102 extracts a partial region such as a face region or a part region from the video sent by the imaging unit 101. When the extracted partial region is sent to the evaluation unit 103, the process proceeds to step S110.

ステップS110では、抽出部102により送られる顔領域やパーツ領域などの部分領域が評価部103へと送られることでバランス補正量設定処理が開始される。バランス補正量設定処理が開始されると、ステップS111へと進む。   In step S <b> 110, the balance correction amount setting process is started by sending a partial region such as a face region or a part region sent by the extraction unit 102 to the evaluation unit 103. When the balance correction amount setting process is started, the process proceeds to step S111.

ステップS111では、評価部103において、抽出部102により送られた部分領域より、部分領域の評価値を算出する。その評価値が算出部104に送られると、処理はステップS112へと進む。   In step S111, the evaluation unit 103 calculates an evaluation value of the partial area from the partial area sent by the extraction unit 102. When the evaluation value is sent to calculation unit 104, the process proceeds to step S112.

ステップS112では、算出部104において、評価部103により送られる評価値より、バランスを改善するためのバランス補正値を算出する。その算出したバランス補正値が出力部106に送られると、処理はステップS113へと進む。   In step S <b> 112, the calculation unit 104 calculates a balance correction value for improving the balance from the evaluation value sent from the evaluation unit 103. When the calculated balance correction value is sent to the output unit 106, the process proceeds to step S113.

ステップS113では、生成部105において、算出部104により送られるバランス補正値より、バランス補正画像を生成すると、処理はステップS114へと進む。   In step S113, when the generation unit 105 generates a balance correction image from the balance correction value sent from the calculation unit 104, the process proceeds to step S114.

ステップS114では、生成部105において、撮像部101により送られる映像とバランス補正画像とを重畳し、バランス補正重畳画像を生成すると、処理はステップS115へと進む。   In step S114, when the generation unit 105 superimposes the video sent by the imaging unit 101 and the balance correction image to generate a balance correction superimposed image, the process proceeds to step S115.

ステップS115は、出力部106において、バランス補正重畳画像を表示部に出力する。表示部にバランス補正重畳画像が表示されると、処理はステップS116へと進む。   In step S115, the output unit 106 outputs the balance correction superimposed image to the display unit. When the balance correction superimposed image is displayed on the display unit, the process proceeds to step S116.

ステップS116では、バランス補正量設定処理ステップが終了し、処理はステップS103へと進む。   In step S116, the balance correction amount setting process step ends, and the process proceeds to step S103.

ステップS103では、出力部106よりバランス補正重畳画像が実際の人物の顔の向き等に応じて実時間で追従して表示されたこと受け、対象者である人物は化粧を開始し、処理はステップS104へと進む。   In step S103, the balance correction superimposed image is displayed by the output unit 106 following the actual person's face orientation in real time, and the person who is the target starts makeup. Proceed to S104.

実際には、化粧前であるこの時点では、対象者が歪み等のバランスの不均等さを持たない場合、補正すべき情報は表示されておらず、出力部106には対象者の顔の画像が表示されているのみである。本装置は、部分的に化粧が施されてから、よりよいバランス状態へ導くために、補正すべき情報を提示することを目的としている。   Actually, at this point in time before makeup, if the subject does not have uneven balance such as distortion, information to be corrected is not displayed, and the output unit 106 displays an image of the subject's face. Is only displayed. The purpose of this apparatus is to present information to be corrected in order to lead to a better balance state after partial makeup has been applied.

ステップS104では、撮像部101による顔映像の撮像が再度行われる。その撮像した映像が抽出部102へと送られると、処理はステップS105へと進む。   In step S104, the face image is picked up by the image pickup unit 101 again. When the captured video is sent to the extraction unit 102, the process proceeds to step S105.

ステップS105では、抽出部102において、撮像部101により送られる映像より、顔領域やパーツ領域に加え、化粧領域などの部分領域が抽出される。その抽出した部分領域が評価部103に送られると、処理はステップS110へと進む。   In step S <b> 105, the extraction unit 102 extracts a partial region such as a makeup region in addition to the face region and the part region from the video sent by the imaging unit 101. When the extracted partial region is sent to the evaluation unit 103, the process proceeds to step S110.

ステップS110内での処理はすでに述べたものと同様で、化粧領域が部分領域に追加されていることのみが違い、その違いのため、ステップS110内の終了時の処理ステップS116で表示されるバランス補正重畳画像は異なる。   The processing in step S110 is the same as that already described, except that the makeup region is added to the partial region. Due to the difference, the balance displayed in the processing step S116 at the end of step S110. The corrected superimposed image is different.

バランス補正重畳画像が更新される際、更新には、以下2つの内容を含む。1つは、前回表示したバランス補正重畳画像の通りに対象者が化粧を施したことにより、化粧が施された箇所の補正量は補正済みのためになくなり、まだ化粧を施されていない補正箇所の補正量のみが補正すべき箇所として表示されるように更新することである。   When the balance correction superimposed image is updated, the update includes the following two contents. One is that the correction amount of the portion where the makeup was applied has disappeared because the subject has applied makeup according to the balance correction superimposed image displayed previously, and the makeup has not been applied yet. The correction amount is updated so that only the correction amount is displayed as a portion to be corrected.

このとき、今回と前回とのバランス補正重畳画像の対応付けを行う必要がある。これは対象者の顔画像の特徴点を追跡してもよいし、Harris作用素などの特徴点抽出フィルタにより特徴点を抽出し、各点を中心とする局所領域間の正規化相関値に基づいて相関の高い2点を対応させることで対応付けてもよい。   At this time, it is necessary to associate the balance-corrected superimposed image between the current time and the previous time. This may be performed by tracking feature points of the subject's face image, or by extracting feature points using a feature point extraction filter such as a Harris operator, and based on normalized correlation values between local regions centered on each point. You may match by making two highly correlated points correspond.

もう1つは、前回表示したバランス補正重畳画像とは違う部分に対象者が化粧を施したことにより、バランス補正値が変わり、補正すべき部分を新たに追加、もしくは補正内容を変更するように今回表示するバランス補正重畳画像を更新することである。   The other is that the balance correction value changes due to the subject applying makeup on a part different from the balance correction superimposed image displayed previously, so that the part to be corrected is newly added or the correction content is changed. The balance correction superimposed image displayed this time is updated.

ステップS110からS116のバランス補正量設定処理ステップが終了し、処理はステップS106へと進む。   The balance correction amount setting processing steps from step S110 to S116 are completed, and the process proceeds to step S106.

ステップS106では、出力部106よりバランス補正重畳画像が更新して表示されたこと受け、化粧を完了するかどうか判断する。このときの判断は対象者にまかせてもよいし、バランス補正値がある範囲内に収まる場合を補正終了とする処理を行ってもよい。この判断において、化粧を完了する場合は、処理はステップS107に進み、処理終了となる。また、この判断において、化粧を完了しない場合は、処理はステップS104へ進み、化粧を続け、ステップS104からS106を繰り返す。   In step S <b> 106, the balance correction superimposed image is updated and displayed from the output unit 106, and it is determined whether or not makeup is completed. The determination at this time may be left to the subject, or a process may be performed to end the correction when the balance correction value falls within a certain range. In this determination, when the makeup is completed, the process proceeds to step S107, and the process ends. In this determination, if makeup is not completed, the process proceeds to step S104, makeup is continued, and steps S104 to S106 are repeated.

〔第2の実施形態〕
本実施形態に係る情報処理装置は、実施例1として示した情報処理装置に個人情報記憶部もしくは好適バランス情報記憶部、もしくはその両方を含める。これにより、以前使用した情報などを使った補正を行うことができる。さらに、通信部および操作部を加えることで、より多様な機能を追加できる。
以下、図を用いて本実施形態にかかる情報処理装置の構成および処理について説明する。
[Second Embodiment]
The information processing apparatus according to the present embodiment includes a personal information storage unit and / or a suitable balance information storage unit in the information processing apparatus shown as Example 1. This makes it possible to perform correction using previously used information. Furthermore, a variety of functions can be added by adding a communication unit and an operation unit.
Hereinafter, the configuration and processing of the information processing apparatus according to the present embodiment will be described with reference to the drawings.

(構成)
図3は、本実施形態に係る情報処理装置の概略を示す図である。図3に示すように、情報処理装置は、図1に示した第一の実施形態に係る情報処理装置に、個人情報記憶部201および好適バランス情報記憶部202および通信部203および操作部204を加えた構成になっている。図1の情報処理装置と共通する構成部分は、第一の実施形態とほぼ同様であるので、詳しい説明は割愛する。
(Constitution)
FIG. 3 is a diagram illustrating an outline of the information processing apparatus according to the present embodiment. As illustrated in FIG. 3, the information processing apparatus includes a personal information storage unit 201, a suitable balance information storage unit 202, a communication unit 203, and an operation unit 204 in addition to the information processing device according to the first embodiment illustrated in FIG. 1. It has the added structure. The components common to the information processing apparatus in FIG. 1 are substantially the same as those in the first embodiment, and thus detailed description thereof is omitted.

撮像部101は、対象者の顔を含む映像を撮像する。
抽出部102は、撮像部101から送られる映像から、顔領域およびパーツ領域を抽出する。
The imaging unit 101 captures an image including the target person's face.
The extraction unit 102 extracts a face area and a part area from the video sent from the imaging unit 101.

個人情報記憶部201は、個人固有の特徴に関する情報を記憶する。例えば、実施例1の評価部103で算出される固有の評価値のことである。この固有評価値は個人固有のもので、例えば、パーツの非対称性や、顔の歪みなどの情報を含んだ値である。   The personal information storage unit 201 stores information related to individual unique features. For example, it is a unique evaluation value calculated by the evaluation unit 103 of the first embodiment. This unique evaluation value is unique to the individual and includes, for example, information such as part asymmetry and facial distortion.

あらかじめ記憶する際には、以下の手順で記憶する。対象者の顔を含む映像から顔領域やパーツ領域などの部分領域を抽出する。部分領域から対象者固有の評価値を算出する。この値を個人固有のバランス情報とし、個人情報記憶部201に記憶する。この記憶しておいた固有のバランス情報を使用する際には、対象者が個人情報記憶部201にて記憶されているどの人物かを特定する必要がある。   When storing in advance, the following procedure is used. A partial area such as a face area or a parts area is extracted from an image including the face of the subject. An evaluation value specific to the subject is calculated from the partial area. This value is stored as personal balance information in the personal information storage unit 201. When using the stored unique balance information, it is necessary to specify which person is stored in the personal information storage unit 201 as the target person.

これを実現するためには例えば以下の方法がある。例えば、個人情報記憶部201にて対象者の評価値に加えて顔画像や特徴量も一緒に記憶しておき、顔認証の技術を使用することで特定する方法がある。例えば、個人情報記憶部201にて対象者の評価値に加えて対象者の名前やIDを記憶しておき、操作部204にて対象者に自分の名前やIDなどを入力してもらうことで、記憶した情報の中でどれを使用するかを特定する方法もある。   In order to realize this, for example, there are the following methods. For example, in the personal information storage unit 201, in addition to the evaluation value of the target person, a face image and a feature amount are also stored together and specified by using a face authentication technique. For example, the personal information storage unit 201 stores the name and ID of the target person in addition to the evaluation value of the target person, and the operation unit 204 allows the target person to input his name and ID. There is also a way to specify which of the stored information to use.

好適バランス情報記憶部202は、例えば対象者の化粧完了時における評価値の履歴を記憶する。なお、好適バランス情報記憶部202に記憶するものは、履歴だけに限定せず、例えば、通信部203を介して外部から好適なバランス情報を取り込むことも可能である。通信部はネットワーク越しに情報を受けてもよいし、CD−RやUSBメモリなどのメディアから読み込み装置で情報を読み込んでもよい。   The suitable balance information storage unit 202 stores, for example, a history of evaluation values at the time of completion of makeup of the subject. Note that what is stored in the preferred balance information storage unit 202 is not limited to the history, but, for example, suitable balance information can be acquired from the outside via the communication unit 203. The communication unit may receive information over a network, or read information from a medium such as a CD-R or USB memory by a reading device.

好適なバランス情報とは、例えば、過去に化粧の講師に施してもらった化粧、雑誌などに載っている化粧、対象者好みの化粧から算出した評価値である。好適バランス情報記憶部202に記憶された好適なバランス情報を使用するにあたり、対象者が好適バランス情報記憶部202にて記憶されているどの人物かを特定する必要がある。この方法については、個人情報記憶部201にて人物を特定した方法と同じ方法が使用できる。   The suitable balance information is, for example, an evaluation value calculated from makeup that has been given by a makeup instructor in the past, makeup that has been placed in a magazine, etc., or makeup that the subject likes. In using the preferred balance information stored in the preferred balance information storage unit 202, it is necessary to specify which person the subject is stored in the preferred balance information storage unit 202. About this method, the same method as the method of specifying a person in the personal information storage unit 201 can be used.

さらに、1個人に対して複数の好適なバランス情報が候補として存在する場合には、例えば、操作部204を介して対象者に希望の好適なバランス情報を選んでもらう方法が使用できる。例えば、対象者に分かりやすくするために、記憶されている好適なバランス情報に対応した化粧を施したモデルの顔画像を表示するとよい。   Further, when a plurality of suitable balance information exists as candidates for one individual, for example, a method in which the target person selects desired suitable balance information via the operation unit 204 can be used. For example, in order to make it easy for the target person to understand, it is preferable to display a face image of a model with makeup corresponding to the stored preferable balance information.

この表示された顔画像から自分の好みの化粧の状態のものを選択するユーザ・インタフェースを用いて、対象者からの入力をうけつける方法がある。他の方法としては、好適なバランス情報の他に、その好適なバランス情報の選択回数を合わせて記憶することで、デフォルト値として最も多い選択回数の好適なバランス情報を設定する方法がある。   There is a method for receiving an input from a target person using a user interface for selecting a desired makeup state from the displayed face images. As another method, there is a method of setting suitable balance information having the largest number of selections as a default value by storing the number of selections of the suitable balance information together with the suitable balance information.

また、希望のバランス状態を対象者に入力してもらい、好適な評価値を算出し、それを好適なバランス情報として好適バランス情報記憶部202に記憶するとともに、現在の評価値を算出するために使用してもよい。希望のバランス状態を対象者に入力してもらう方法としては、例えば、図11のようなユーザ・インタフェースを利用して対象者にインジケータを調整してもらう方法がある。なお、希望のバランス状態とは図11に表示した項目だけに限定するものではない。   In order to have the target person input the desired balance state, calculate a suitable evaluation value, store it in the suitable balance information storage unit 202 as suitable balance information, and calculate the current evaluation value May be used. As a method of having the target person input the desired balance state, for example, there is a method of having the target person adjust the indicator using a user interface as shown in FIG. The desired balance state is not limited to the items displayed in FIG.

さらに、好適バランス情報記憶部202に記憶するものとして、髪型やファッションの流行に関する情報も含めることで、髪型やファッションのバランスに関する指示を多様にすることができる。例えば出力部106にて図8や図9のような指示を出す際に、流行にあわせた指示に更新することができる。   Further, by storing information on the hairstyle and fashion trends as what is stored in the preferred balance information storage unit 202, instructions regarding the hairstyle and fashion balance can be diversified. For example, when the output unit 106 issues an instruction as shown in FIG. 8 or 9, it can be updated to an instruction that matches the fashion.

評価部103は、抽出部102で抽出したパーツ領域の評価値を算出する。評価値の算出方法は、例えば、図5を用いて説明する。好適なバランス情報をもとに、基準テンプレートの各パーツを前回同等になるようなテンプレートに更新し、すでに説明した手順で各評価値を求める、といった方法をとる。   The evaluation unit 103 calculates an evaluation value of the part area extracted by the extraction unit 102. The evaluation value calculation method will be described with reference to FIG. 5, for example. Based on suitable balance information, each part of the reference template is updated to a template that is equivalent to the previous one, and each evaluation value is obtained by the procedure described above.

算出部104は、
個人情報記憶部201で記憶している対象者固有のバランス情報および好適バランス情報記憶部202で記憶している好適なバランス情報からバランス補正値を算出する。個人情報記憶部201を持つことで、評価部103にて、化粧をしていない部分の評価値を算出する必要がなくなる。
The calculation unit 104
A balance correction value is calculated from the balance information unique to the subject stored in the personal information storage unit 201 and the suitable balance information stored in the suitable balance information storage unit 202. Having the personal information storage unit 201 eliminates the need for the evaluation unit 103 to calculate an evaluation value for a portion that has not been makeupd.

また、前回化粧時と同じような化粧をする場合、評価部103にて評価値を算出において、好適バランス情報記憶部202で記憶している前回の最終的な評価値である好適なバランス情報を考慮してバランス補正値を算出する。   In addition, when applying makeup similar to the previous makeup, suitable balance information, which is the last final evaluation value stored in the suitable balance information storage unit 202, is calculated in the evaluation unit 103 when calculating the evaluation value. The balance correction value is calculated in consideration.

生成部105は、算出したバランス補正値に基づき、バランス補正画像を生成し、生成されたバランス補正画像を撮像部101で撮像した映像と重畳する。
出力部106は、重畳された画像を表示部に出力する。
The generation unit 105 generates a balance correction image based on the calculated balance correction value, and superimposes the generated balance correction image on the video imaged by the imaging unit 101.
The output unit 106 outputs the superimposed image to the display unit.

なお、個人情報記憶部201および好適バランス情報記憶部202はどちらかだけを持つ構成、両方をもっている構成のいずれでもよい。また、通信部203と操作部204については、どちらかだけを持っている構成、両方持っている構成、両方持っていない構成のいずれでもよい。   Note that the personal information storage unit 201 and the preferred balance information storage unit 202 may have either one or both of the configurations. In addition, the communication unit 203 and the operation unit 204 may have either a configuration having only one, a configuration having both, or a configuration not having both.

さらに、好適バランス情報記憶部202については、図3のような構成ではなく、算出部104に内包してもよい。その場合の例を説明する。   Further, the preferred balance information storage unit 202 may be included in the calculation unit 104 instead of the configuration shown in FIG. An example in that case will be described.

好適バランス情報記憶部202に記憶するものは先の説明と同様である。ここでは、説明のため、対象者の前回化粧完了時における評価値の履歴とする。   What is stored in the preferred balance information storage unit 202 is the same as described above. Here, for the purpose of explanation, the history of the evaluation value at the time of completion of the previous makeup of the subject is assumed.

評価部103にて評価値を算出する際は、抽出部102にて抽出した部分領域から評価値を算出する。もしくは、抽出部102にて抽出した部分領域および個人情報記憶部201から取得した固有バランス情報から評価値を算出する。   When the evaluation unit 103 calculates the evaluation value, the evaluation value is calculated from the partial area extracted by the extraction unit 102. Alternatively, the evaluation value is calculated from the partial area extracted by the extraction unit 102 and the unique balance information acquired from the personal information storage unit 201.

算出部104にて、この評価値と記憶している評価値の履歴である好適なバランス情報とを比較して、バランス補正値を算出する。ここでのバランス補正値の算出方法は、例えば、評価部103にて算出した評価値と記憶している好適な評価値との差を計算し、好適な評価値になるような補正値を算出する。   The calculation unit 104 compares this evaluation value with suitable balance information that is a history of stored evaluation values, and calculates a balance correction value. The calculation method of the balance correction value here is, for example, calculating a difference between the evaluation value calculated by the evaluation unit 103 and the stored preferable evaluation value, and calculating a correction value that becomes a preferable evaluation value. To do.

ただし、現在化粧を施している領域が前回の履歴で化粧を施した領域に比べて広いなどの理由で、差のみの計算では実現不可能な場合、例えば実現不可能な箇所は履歴を参考にせず、その箇所が例えば左右対称になるように補正値を算出してもよい。もしくは、実現不可能な箇所についても、履歴ではどのような評価値だったか、つまり左右対称だったか、他のパーツに対して相対的な位置はどこかなどの値を参考に、実現可能な中で履歴に最も近い補正値を算出してもよい。   However, if the area where makeup is currently applied is larger than the area where makeup was applied in the previous history, it is not possible to calculate with the difference alone. Instead, the correction value may be calculated so that the location is, for example, symmetrical. Or, even for places that cannot be realized, the evaluation value in the history, that is, the symmetry, the position relative to other parts, etc. The correction value closest to the history may be calculated.

算出部104に好適バランス情報記憶部を内包した場合も、個人情報記憶部201と通信部203と操作部204の有無については問わない。通信部203と操作部204を有する場合、それらとのデータの送受信は、先に説明した図3の好適バランス情報記憶部202とではなく、算出部104内の好適バランス情報記憶部と行う。   Even when a suitable balance information storage unit is included in the calculation unit 104, it does not matter whether the personal information storage unit 201, the communication unit 203, and the operation unit 204 are present. When the communication unit 203 and the operation unit 204 are provided, data transmission / reception between them is performed with the preferred balance information storage unit in the calculation unit 104 instead of the preferred balance information storage unit 202 of FIG. 3 described above.

(処理)
続いて、図4に示したフローチャートを用いて、本実施形態の情報処理装置が行う処理について説明する。実施例1で説明したフローと比較し、いくつかのステップが異なるのみで、他は同様であるため、共通の処理については詳しい説明は割愛する。
(processing)
Next, processing performed by the information processing apparatus of this embodiment will be described using the flowchart shown in FIG. Compared with the flow described in the first embodiment, only some steps are different and the others are the same. Therefore, detailed description of common processing is omitted.

対象者の顔が撮像部101により撮像される範囲に入った状態にてステップS200にて処理が開始される。   The process is started in step S200 in a state where the subject's face is in a range where the imaging unit 101 captures an image.

ステップS201では、対象者による情報入力が行われる。情報入力とは、例えば、操作部204にて、好適バランス情報記憶部202で記憶している好適なバランス情報の選択などである。他にも、個人情報記憶部201および好適バランス情報記憶部202で記憶している固有バランス情報や好適バランス情報のうちのどれを使うかを特定するためのIDや名前の入力などである。その入力情報が個人情報記憶部201と好適バランス情報記憶部202の両方、もしくはどちらかに送られると、処理はステップS101へと進む。ステップS101からS102までは実施例1と同様の処理が行われる。続いて処理はステップS210へと進む。   In step S201, information input by the subject is performed. The information input is, for example, selection of suitable balance information stored in the suitable balance information storage unit 202 by the operation unit 204. In addition, an ID or a name for specifying which of the unique balance information and the preferred balance information stored in the personal information storage unit 201 and the preferred balance information storage unit 202 is to be used. When the input information is sent to either or both of the personal information storage unit 201 and the preferred balance information storage unit 202, the process proceeds to step S101. From step S101 to S102, the same processing as in the first embodiment is performed. Subsequently, the process proceeds to step S210.

ステップS210では、抽出部102により送られる顔領域やパーツ領域などの部分領域が評価部103へと送られることでバランス補正量設定処理が開始される。バランス補正量設定処理が開始されると、ステップS211へと進み、評価部103にて、個人情報記憶部201にて記憶している固有バランス情報、および好適バランス情報記憶部202に記憶している好適なバランス情報を特定する。これらが特定されると、処理はステップS111へと進む。   In step S <b> 210, the balance correction amount setting process is started by sending a partial area such as a face area or a part area sent by the extraction unit 102 to the evaluation unit 103. When the balance correction amount setting process is started, the process proceeds to step S211, and the evaluation unit 103 stores the unique balance information stored in the personal information storage unit 201 and the suitable balance information storage unit 202. Identify suitable balance information. When these are specified, the process proceeds to step S111.

ステップS111では、部分領域の評価値を算出する。このとき、評価部103において、抽出部102により送られた部分領域、および個人情報記憶部201にて記憶している固有バランス情報、および好適バランス情報記憶部202にて記憶している好適なバランス情報を用いる。その評価値が算出部104に送られると、処理はステップS112へと進む。   In step S111, the evaluation value of the partial area is calculated. At this time, in the evaluation unit 103, the partial balance sent by the extraction unit 102, the unique balance information stored in the personal information storage unit 201, and the suitable balance stored in the suitable balance information storage unit 202 Use information. When the evaluation value is sent to calculation unit 104, the process proceeds to step S112.

ステップS112からS212までは実施例1と同様の処理が行われる。続いて処理はステップS103へと進む。さらに、ステップS103からS105までは実施例1と同様の処理が行われる。続いて処理はステップS210へと進む。S210内での処理はすでに説明したものと同様である。さらに処理はステップS106へと進み、実施例1と同様の処理が行われる。ただし、実施例1と違い、ステップ106にて化粧を完了する場合、ステップS202へと進む。   From step S112 to S212, the same processing as in the first embodiment is performed. Subsequently, the process proceeds to step S103. Further, processing similar to that in the first embodiment is performed from step S103 to S105. Subsequently, the process proceeds to step S210. The processing in S210 is the same as that already described. Further, the process proceeds to step S106, and the same process as in the first embodiment is performed. However, unlike Example 1, when makeup is completed in Step 106, the process proceeds to Step S202.

ステップS202は、現在の評価値を好適バランス情報記憶部202に記憶し、ステップS203へと進み、処理は終了する。   In step S202, the current evaluation value is stored in the preferred balance information storage unit 202, the process proceeds to step S203, and the process ends.

〔第3の実施形態〕
本実施形態に係る情報処理装置は、実施例1および実施例2で説明した構成と同様のものを使用する。本実施形態では、顔の部分領域としてある部分領域内の色情報およびその位置のみを使用することである。
[Third Embodiment]
The information processing apparatus according to the present embodiment uses the same configuration as that described in the first and second embodiments. In the present embodiment, only the color information and its position in a partial area are used as the partial area of the face.

(構成)
本実施例の構成は上記で説明した実施例1を使用して説明する。実施例1との差異は、抽出部102と評価部103と算出部104である。これらの部分について下記で詳細に説明する。
撮像部101は、対象者の顔を含む映像を撮像する。
(Constitution)
The configuration of the present embodiment will be described using the first embodiment described above. The differences from the first embodiment are an extraction unit 102, an evaluation unit 103, and a calculation unit 104. These parts are described in detail below.
The imaging unit 101 captures an image including the target person's face.

抽出部102は、顔領域とその色情報を抽出する。顔領域を抽出する方法としては、すでに述べた。その顔領域を、例えば、図7のように細かく分割し、それぞれを部分領域とする。パーツという概念は使わず、形状以外のシミ、しわなどの情報も含んでいる。   The extraction unit 102 extracts the face area and its color information. The method for extracting the face area has already been described. The face area is finely divided, for example, as shown in FIG. It does not use the concept of parts, but also includes information such as spots and wrinkles other than shapes.

評価部103は、抽出部102で抽出した顔領域内の各部分領域について色情報、例えば色の分布およびその部分領域の位置を取得し、それ自体を評価値とする。   The evaluation unit 103 acquires color information, for example, a color distribution and a position of the partial region, for each partial region in the face region extracted by the extraction unit 102, and uses it as an evaluation value.

算出部104は、評価部103で算出した評価値が全体としてバランスがよくなるようにバランス補正値を算出する。例えば、図7である部分領域の色分布C1が得られた場合、バランスよく左右対称になるような位置に、C1と同じ値を補正値として算出する。また、バランスをよくするために、単純に左右対称にするだけでなく、色により重みを変えて、重みつきの左右対称としてもよい。これは例えば、目立つ色の重みを重くすることで、目立つ色の補正をきつく、目立たない色の補正をゆるくするなど、部位により補正のバランスを調整することができる。   The calculation unit 104 calculates a balance correction value so that the evaluation value calculated by the evaluation unit 103 as a whole has a good balance. For example, when the color distribution C1 of the partial region shown in FIG. 7 is obtained, the same value as C1 is calculated as a correction value at a position that is symmetrical with good balance. In addition, in order to improve the balance, not only the left-right symmetry but also the weights may be changed according to the colors so that the weights are left-right symmetrical. For example, the weight of the conspicuous color is increased, whereby the correction of the conspicuous color is tightened, and the correction of the inconspicuous color is loosened.

生成部105は、算出したバランス補正値に基づき、バランス補正画像を生成し、実施例1と同様に撮像部101で撮像した映像と重畳する。   The generation unit 105 generates a balance correction image based on the calculated balance correction value, and superimposes it on the video imaged by the imaging unit 101 as in the first embodiment.

出力部106は、重畳した映像を表示部に出力する。   The output unit 106 outputs the superimposed video to the display unit.

(処理)
本実施形態の情報処理装置が行う処理については、実施例1で使用したものと同じ図2に示したフローチャートにて説明する。実施例1で説明したフローと比較し、いくつかのステップが異なるのみで、他は同様であるため、共通の処理については詳しい説明は割愛する。
(processing)
The processing performed by the information processing apparatus of this embodiment will be described with reference to the flowchart shown in FIG. 2 which is the same as that used in the first embodiment. Compared with the flow described in the first embodiment, only some steps are different and the others are the same. Therefore, detailed description of common processing is omitted.

対象者の顔が撮像部101により撮像される範囲に入った状態にてステップS100にて処理が開始される。処理を開始すると、まず、ステップS101へと進んで、撮像部101による顔映像の撮像が行われる。その撮像した映像が抽出部102へと送られると、処理はステップS102へと進む。   The process is started in step S100 in a state where the subject's face is in the range where the imaging unit 101 captures an image. When the process is started, first, the process proceeds to step S <b> 101, and a face image is captured by the imaging unit 101. When the captured video is sent to the extraction unit 102, the process proceeds to step S102.

ステップS102では、抽出部102において、撮像部101により送られる映像より、図7で示すような顔領域内の各部分領域が抽出される。その抽出した部分領域が評価部103に送られると、処理はステップS110へと進む。   In step S102, the extraction unit 102 extracts each partial region in the face region as shown in FIG. 7 from the video sent by the imaging unit 101. When the extracted partial region is sent to the evaluation unit 103, the process proceeds to step S110.

ステップS110では、抽出部102により送られる顔領域内の各部分領域が評価部103へと送られることでバランス補正量設定処理が開始される。バランス補正量設定処理が開始されると、ステップS111へと進み、評価部103において、抽出部102により送られた各部分領域より、部分領域の評価値を算出する。その評価値が算出部104に送られると、処理はステップS112へと進む。ステップS112からS116およびステップS103からS104までは実施例1と同様の処理を行う。続いて処理はステップS105へ進む。   In step S <b> 110, the balance correction amount setting process is started by sending each partial area in the face area sent by the extraction unit 102 to the evaluation unit 103. When the balance correction amount setting process is started, the process proceeds to step S111, and the evaluation unit 103 calculates an evaluation value of the partial region from each partial region sent by the extraction unit 102. When the evaluation value is sent to calculation unit 104, the process proceeds to step S112. In steps S112 to S116 and steps S103 to S104, processing similar to that in the first embodiment is performed. Subsequently, the process proceeds to step S105.

ステップS105では、抽出部102において、撮像部101により送られる映像より、化粧領域を含む顔領域内の各部分領域が抽出される。その抽出した部分領域が評価部103に送られると、処理はステップS110へと進む。ステップS110からS106は実施例1と同様の処理を行う。S106にて化粧完了の判断を行うと、処理はステップS107へ進み、完了する。   In step S <b> 105, the extraction unit 102 extracts each partial area in the face area including the makeup area from the video sent by the imaging unit 101. When the extracted partial region is sent to the evaluation unit 103, the process proceeds to step S110. Steps S110 to S106 perform the same processing as in the first embodiment. If it is determined in S106 that makeup is complete, the process proceeds to step S107 and is completed.

〔その他の実施形態〕
図12は、コンピュータの構成例を示す図である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク1204、1207又は各種記憶媒体1202、1203を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ1201(CPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータ読み取り可能な記憶媒体に記憶して提供してもよい。なお、本装置のコンピュータには、入力部1205から処理を実行する指示を入力し、表示部1206で指示した処理の結果を表示してもよい。
[Other Embodiments]
FIG. 12 is a diagram illustrating a configuration example of a computer.
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to the system or apparatus via the networks 1204 and 1207 or the various storage media 1202 and 1203. Then, the computer 1201 (CPU, MPU, etc.) of the system or apparatus reads and executes the program. Further, the program may be provided by being stored in a computer-readable storage medium. Note that an instruction to execute a process may be input from the input unit 1205 to the computer of the apparatus, and the result of the process instructed by the display unit 1206 may be displayed.

Claims (12)

人物の顔を含む映像を撮像する撮像手段と、
前記撮像した映像から複数の部分領域を抽出する抽出手段と、
前記抽出した複数の部分領域の各々の評価値を算出する評価手段と、
前記算出された評価値の各々を互いに比較することにより、バランス補正値を算出する算出手段と、
前記バランス補正値に基づいて、前記人物の外見のバランスを補正する手法を示すバランス補正情報を生成する生成手段と、
前記バランス補正情報を出力する出力手段と
を有することを特徴とする情報処理装置。
Imaging means for imaging video including a person's face;
Extracting means for extracting a plurality of partial regions from the captured video;
Evaluation means for calculating an evaluation value of each of the extracted partial regions;
Calculating means for calculating a balance correction value by comparing each of the calculated evaluation values with each other;
Generating means for generating balance correction information indicating a method for correcting the balance of the appearance of the person based on the balance correction value;
An information processing apparatus comprising: output means for outputting the balance correction information.
前記バランス補正情報は、化粧の手法を含むことを特徴とする請求項1に記載の情報処理方法。   The information processing method according to claim 1, wherein the balance correction information includes a makeup technique. 前記算出手段が、前記撮像した人物の顔の左右のバランスを補正するバランス補正値を算出することを特徴とする請求項1又は2に記載の情報処理方法。   The information processing method according to claim 1, wherein the calculation unit calculates a balance correction value for correcting a left / right balance of the face of the person who has taken the image. 前記バランス補正情報は、画像を含むことを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the balance correction information includes an image. 前記生成手段が、前記バランス補正値から、前記バランスを補正する手法を示すバランス補正画像を生成し、前記映像と前記バランス補正画像とを重畳したバランス補正重畳画像を生成することを特徴とする請求項4に記載の情報処理装置。   The generation unit generates a balance correction image indicating a method of correcting the balance from the balance correction value, and generates a balance correction superimposed image in which the video and the balance correction image are superimposed. Item 5. The information processing apparatus according to Item 4. 前記バランス補正情報は、音声による案内を含むことを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the balance correction information includes voice guidance. 前記人物ごとに部分領域の固有評価値を記憶する個人情報記憶手段
を更に有し、
前記評価手段が、評価した評価値を前記固有評価値として追加もしくは更新する
ことを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
Personal information storage means for storing a unique evaluation value of the partial area for each person;
The information processing apparatus according to claim 1, wherein the evaluation unit adds or updates the evaluated evaluation value as the unique evaluation value.
前記人物ごとの評価値の履歴を好適バランス情報として記憶する好適バランス情報記憶手段
を更に有し、
前記算出手段が、前記好適バランス情報に基づいて、前記バランス補正値を算出する
ことを特徴とする請求項7に記載の情報処理装置。
A suitable balance information storage means for storing a history of evaluation values for each person as suitable balance information;
The information processing apparatus according to claim 7, wherein the calculation unit calculates the balance correction value based on the preferred balance information.
外部から好適バランス情報を前記好適バランス情報記憶手段へと取り入れる通信手段
を更に有することを特徴とする請求項8に記載の情報処理装置。
The information processing apparatus according to claim 8, further comprising a communication unit that takes in suitable balance information from the outside into the suitable balance information storage unit.
前記算出手段が、前記人物の顔の色分布のバランスを補正するためのバランス補正値を算出することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the calculation unit calculates a balance correction value for correcting a balance of color distribution of the face of the person. 情報処理装置が行う情報処理方法であって、
前記情報処理装置の撮像手段が、前記人物の顔を含む映像を撮像する撮像工程と、
前記情報処理装置の抽出手段が、前記撮像した映像から複数の部分領域を抽出する抽出工程と、
前記情報処理装置の評価手段が、前記抽出した複数の部分領域の各々の評価値を算出する評価工程と、
前記情報処理装置の算出手段が、前記算出された評価値の各々を互いに比較することにより、バランス補正値を算出する算出工程と、
前記情報処理装置の生成手段が、前記バランス補正値に基づいて、前記人物の外見のバランスを補正する手法を示すバランス補正情報を生成する生成工程と、
前記情報処理装置の出力手段が、前記バランス補正情報を出力する出力工程と
を有することを特徴とする情報処理方法。
An information processing method performed by an information processing apparatus,
An imaging step in which the imaging means of the information processing apparatus captures an image including the face of the person;
An extraction step in which the extraction means of the information processing apparatus extracts a plurality of partial areas from the captured video;
An evaluation step in which the evaluation unit of the information processing apparatus calculates an evaluation value of each of the extracted partial regions;
A calculation step of calculating a balance correction value by the calculation means of the information processing apparatus comparing each of the calculated evaluation values with each other;
A generation step of generating balance correction information indicating a method of correcting the balance of the appearance of the person based on the balance correction value;
An information processing method comprising: an output unit that outputs the balance correction information.
請求項11に記載の情報処理方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the information processing method of Claim 11.
JP2010278565A 2010-12-14 2010-12-14 Information processing apparatus, information processing method, and program thereof Expired - Fee Related JP5656603B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010278565A JP5656603B2 (en) 2010-12-14 2010-12-14 Information processing apparatus, information processing method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010278565A JP5656603B2 (en) 2010-12-14 2010-12-14 Information processing apparatus, information processing method, and program thereof

Publications (2)

Publication Number Publication Date
JP2012128597A true JP2012128597A (en) 2012-07-05
JP5656603B2 JP5656603B2 (en) 2015-01-21

Family

ID=46645558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010278565A Expired - Fee Related JP5656603B2 (en) 2010-12-14 2010-12-14 Information processing apparatus, information processing method, and program thereof

Country Status (1)

Country Link
JP (1) JP5656603B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014062984A (en) * 2012-09-20 2014-04-10 Xing Inc Sound generating device and program for sound generation
JP2014149696A (en) * 2013-02-01 2014-08-21 Panasonic Corp Makeup support apparatus, makeup support method and makeup support program
JP2014147561A (en) * 2013-02-01 2014-08-21 Panasonic Corp Makeup support device, makeup support system and makeup support method
JP2015176181A (en) * 2014-03-13 2015-10-05 パナソニックIpマネジメント株式会社 Makeup support device and makeup support method
JP2016055201A (en) * 2016-01-25 2016-04-21 パナソニックIpマネジメント株式会社 Makeup support device
JP2016064307A (en) * 2016-01-22 2016-04-28 パナソニックIpマネジメント株式会社 Makeup support device
JP2016066383A (en) * 2016-01-22 2016-04-28 パナソニックIpマネジメント株式会社 Makeup support device and makeup support method
JP2016116876A (en) * 2016-01-25 2016-06-30 パナソニックIpマネジメント株式会社 Makeup support device
JP2016129027A (en) * 2016-01-22 2016-07-14 パナソニックIpマネジメント株式会社 Makeup support apparatus and makeup support method
JP2016523574A (en) * 2013-03-15 2016-08-12 スキン リパブリック, インコーポレイテッド Systems and methods for embodying and formulating custom topical agents
JP2019063479A (en) * 2017-09-28 2019-04-25 麗寶大數據股▲フン▼有限公司 Body information analysis apparatus and method of auxiliary comparison of eyebrow shape thereof
JP2020505989A (en) * 2017-02-01 2020-02-27 エルジー ハウスホールド アンド ヘルスケア リミテッド Makeup evaluation system and operation method thereof
US10939742B2 (en) 2017-07-13 2021-03-09 Shiseido Company, Limited Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and a method for recommending makeup
JP2022003505A (en) * 2020-07-31 2022-01-11 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method, unit and device for converting hairstyle and storage device
WO2022176279A1 (en) * 2021-02-16 2022-08-25 株式会社 資生堂 Information processing device, information processing method, and program
US11676157B2 (en) 2018-07-13 2023-06-13 Shiseido Company, Limited System and method for adjusting custom topical agents
US12098956B2 (en) 2019-04-09 2024-09-24 Shiseido Company, Limited System and method for creation of topical agents with improved image capture

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109508587A (en) * 2017-09-15 2019-03-22 丽宝大数据股份有限公司 Body information analysis device and makeup analysis method thereof
CN109508581A (en) * 2017-09-15 2019-03-22 丽宝大数据股份有限公司 Body information analysis device and blush analysis method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092132A (en) * 2000-09-13 2002-03-29 Kao Corp Method for providing advice on makeup
JP2004357801A (en) * 2003-06-02 2004-12-24 Fuji Photo Film Co Ltd Display device for make-up
JP2006120005A (en) * 2004-10-22 2006-05-11 Shiseido Co Ltd Method for shape classification of lip, and classification map
JP2009213751A (en) * 2008-03-12 2009-09-24 Sony Ericsson Mobilecommunications Japan Inc Program, method, and device for makeup evaluation
JP2010073008A (en) * 2008-09-19 2010-04-02 Nec Corp Makeup support apparatus, makeup support method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092132A (en) * 2000-09-13 2002-03-29 Kao Corp Method for providing advice on makeup
JP2004357801A (en) * 2003-06-02 2004-12-24 Fuji Photo Film Co Ltd Display device for make-up
JP2006120005A (en) * 2004-10-22 2006-05-11 Shiseido Co Ltd Method for shape classification of lip, and classification map
JP2009213751A (en) * 2008-03-12 2009-09-24 Sony Ericsson Mobilecommunications Japan Inc Program, method, and device for makeup evaluation
JP2010073008A (en) * 2008-09-19 2010-04-02 Nec Corp Makeup support apparatus, makeup support method and program

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014062984A (en) * 2012-09-20 2014-04-10 Xing Inc Sound generating device and program for sound generation
EP2821966A4 (en) * 2013-02-01 2015-10-14 Panasonic Ip Man Co Ltd Makeup application assistance device, makeup application assistance method, and makeup application assistance program
JP2014147561A (en) * 2013-02-01 2014-08-21 Panasonic Corp Makeup support device, makeup support system and makeup support method
US10299568B2 (en) 2013-02-01 2019-05-28 Panasonic Intellectual Property Management Co., Ltd. Makeup application assistance device, makeup application assistance method, and makeup application assistance program
US10292481B2 (en) 2013-02-01 2019-05-21 Panasonic Intellectual Property Management Co., Ltd. Makeup application assistance device, makeup application assistance method, and makeup application assistance program
US10251463B2 (en) 2013-02-01 2019-04-09 Panasonic Intellectual Property Management Co., Ltd. Makeup application assistance device, makeup application assistance method, and makeup application assistance program
JP2014149696A (en) * 2013-02-01 2014-08-21 Panasonic Corp Makeup support apparatus, makeup support method and makeup support program
US11445803B2 (en) 2013-03-15 2022-09-20 Shiseido Company, Limited Systems and methods for specifying and formulating customized topical agents
JP2019000680A (en) * 2013-03-15 2019-01-10 マチコ. System and method for embodying and blending custom external preparation
JP2016523574A (en) * 2013-03-15 2016-08-12 スキン リパブリック, インコーポレイテッド Systems and methods for embodying and formulating custom topical agents
JP7108501B2 (en) 2013-03-15 2022-07-28 株式会社 資生堂 Systems and methods for embodying and formulating custom topical agents
US10321748B2 (en) 2013-03-15 2019-06-18 Shiseido Americas Corporation Systems and methods for specifying and formulating customized topical agents
JP2015176181A (en) * 2014-03-13 2015-10-05 パナソニックIpマネジメント株式会社 Makeup support device and makeup support method
JP2016066383A (en) * 2016-01-22 2016-04-28 パナソニックIpマネジメント株式会社 Makeup support device and makeup support method
JP2016064307A (en) * 2016-01-22 2016-04-28 パナソニックIpマネジメント株式会社 Makeup support device
JP2016129027A (en) * 2016-01-22 2016-07-14 パナソニックIpマネジメント株式会社 Makeup support apparatus and makeup support method
JP2016116876A (en) * 2016-01-25 2016-06-30 パナソニックIpマネジメント株式会社 Makeup support device
JP2016055201A (en) * 2016-01-25 2016-04-21 パナソニックIpマネジメント株式会社 Makeup support device
JP2020505989A (en) * 2017-02-01 2020-02-27 エルジー ハウスホールド アンド ヘルスケア リミテッド Makeup evaluation system and operation method thereof
US11748980B2 (en) 2017-02-01 2023-09-05 Lg Household & Health Care Ltd. Makeup evaluation system and operating method thereof
JP7020626B2 (en) 2017-02-01 2022-02-16 エルジー ハウスホールド アンド ヘルスケア リミテッド Makeup evaluation system and its operation method
US10939742B2 (en) 2017-07-13 2021-03-09 Shiseido Company, Limited Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and a method for recommending makeup
US11000107B2 (en) 2017-07-13 2021-05-11 Shiseido Company, Limited Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and method for recommending makeup
US11039675B2 (en) 2017-07-13 2021-06-22 Shiseido Company, Limited Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and method for recommending makeup
US11344102B2 (en) 2017-07-13 2022-05-31 Shiseido Company, Limited Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and a method for recommending makeup
JP2019063479A (en) * 2017-09-28 2019-04-25 麗寶大數據股▲フン▼有限公司 Body information analysis apparatus and method of auxiliary comparison of eyebrow shape thereof
US10521648B2 (en) 2017-09-28 2019-12-31 Cal-Comp Big Data, Inc. Body information analysis apparatus and method of auxiliary comparison of eyebrow shapes thereof
US11676157B2 (en) 2018-07-13 2023-06-13 Shiseido Company, Limited System and method for adjusting custom topical agents
US12073418B2 (en) 2018-07-13 2024-08-27 Shiseido Company, Limited System and method for adjusting custom topical agents
US12098956B2 (en) 2019-04-09 2024-09-24 Shiseido Company, Limited System and method for creation of topical agents with improved image capture
US11631154B2 (en) 2020-07-31 2023-04-18 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, device and storage medium for transforming hairstyle
JP2022003505A (en) * 2020-07-31 2022-01-11 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method, unit and device for converting hairstyle and storage device
JP7418370B2 (en) 2020-07-31 2024-01-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Methods, apparatus, devices and storage media for transforming hairstyles
WO2022176279A1 (en) * 2021-02-16 2022-08-25 株式会社 資生堂 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP5656603B2 (en) 2015-01-21

Similar Documents

Publication Publication Date Title
JP5656603B2 (en) Information processing apparatus, information processing method, and program thereof
US20240193833A1 (en) System and method for digital makeup mirror
CN108537628B (en) Method and system for creating customized products
US9563975B2 (en) Makeup support apparatus and method for supporting makeup
US10292481B2 (en) Makeup application assistance device, makeup application assistance method, and makeup application assistance program
JP5085636B2 (en) Makeup face image generating apparatus, method thereof, server and program
JP5949331B2 (en) Image generating apparatus, image generating method, and program
EP3182362A1 (en) Method and sytem for evaluating fitness between eyeglasses wearer and eyeglasses worn thereby
CN102043965A (en) Information processing apparatus, information processing method, and program
JP2010211308A (en) Makeup advice device, the makeup advice method and program
JP7278724B2 (en) Information processing device, information processing method, and information processing program
CN111783511A (en) Beauty treatment method, device, terminal and storage medium
JP2005242567A (en) Movement evaluation device and method
CN113344837B (en) Face image processing method and device, computer readable storage medium and terminal
CN110458121B (en) Method and device for generating face image
JP2017194301A (en) Face shape measuring device and method
JP3970573B2 (en) Facial image recognition apparatus and method
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP4682373B2 (en) Face image synthesis device, face image synthesis method, and face image synthesis program
JP2007114029A (en) Face center position detection device, face center position detection method, and program
CN116670718A (en) Method and apparatus for hair styling analysis
WO2015172229A1 (en) Virtual mirror systems and methods
JP5503432B2 (en) Beauty counseling system
RU2703327C1 (en) Method of processing a two-dimensional image and a user computing device thereof
CN115564638A (en) Network training method, image face changing method, device and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141125

R151 Written notification of patent or utility model registration

Ref document number: 5656603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees