JP2012128597A - Information processing apparatus, information processing method and program therefor - Google Patents
Information processing apparatus, information processing method and program therefor Download PDFInfo
- Publication number
- JP2012128597A JP2012128597A JP2010278565A JP2010278565A JP2012128597A JP 2012128597 A JP2012128597 A JP 2012128597A JP 2010278565 A JP2010278565 A JP 2010278565A JP 2010278565 A JP2010278565 A JP 2010278565A JP 2012128597 A JP2012128597 A JP 2012128597A
- Authority
- JP
- Japan
- Prior art keywords
- balance
- information processing
- balance correction
- information
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 42
- 238000003672 processing method Methods 0.000 title claims 6
- 238000012937 correction Methods 0.000 claims abstract description 115
- 238000011156 evaluation Methods 0.000 claims abstract description 94
- 238000000034 method Methods 0.000 claims abstract description 88
- 238000000605 extraction Methods 0.000 claims description 33
- 238000004364 calculation method Methods 0.000 claims description 28
- 238000003384 imaging method Methods 0.000 claims description 27
- 238000004891 communication Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 8
- 238000012545 processing Methods 0.000 description 20
- 210000004709 eyebrow Anatomy 0.000 description 8
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 210000004209 hair Anatomy 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、対象者に合わせたバランスのよい化粧を対象者自身で行うための情報処理装置に関する。 The present invention relates to an information processing apparatus for performing a well-balanced makeup suitable for a subject by the subject himself / herself.
従来、化粧の仕方は、販売員やメイクの講師に教えてもらったり、雑誌やインターネットで調べたりすることで覚えていた。近年、化粧を支援する方法として、顔画像に見本となる理想的な化粧ラインを重畳表示し、それをトレースすることで化粧支援を行うものが考えられている。 Traditionally, makeup has been learned by telling salespersons and makeup instructors, or searching magazines and the Internet. In recent years, as a method for assisting makeup, a method of assisting makeup by displaying an ideal makeup line as a sample on a face image and tracing it is considered.
特許文献1では、見本となる理想的な化粧ラインを変更できるように、見本画像を取り込む手段を持っている。 In Patent Document 1, there is a means for capturing a sample image so that an ideal makeup line as a sample can be changed.
特許文献2では、入力した顔画像に対して見本画像を重ねて合成するとともに、化粧の塗り方に関するアドバイスの表示も行う。
In
化粧を修正する方法としては、化粧を部分的もしくは全部落とす方法、ファンデーションなどを重ねることで隠す方法、見本自体を変更して化粧を続ける方法が考えられる。まず、化粧を全部落とす場合、一旦全部落として再度化粧するということはかなり手間がかかる。次に、化粧を部分的に落とす場合とファンデーションなどを重ねて隠す場合、淡い色のわずかなずれを除いては、色むらができやすく、きちんと修正するのは素人では難しく手間もかかる。最後に見本自体を変更する場合は、化粧を続けることが可能な見本が存在している必要がある。 As a method of correcting the makeup, a method of partially or completely removing the makeup, a method of hiding by overlaying a foundation or the like, and a method of continuing the makeup by changing the sample itself are conceivable. First of all, when removing all makeup, it is quite troublesome to remove all makeup once and apply again. Next, when the makeup is partially removed and when the foundation is overlaid and hidden, except for slight shifts in pale colors, uneven color is likely to occur, and it is difficult and difficult for an amateur to correct properly. Finally, when changing the sample itself, there must be a sample that can continue makeup.
しかしながら、上記の方法では、理想ラインが基本的には固定であり、化粧中に、見本とずれた場合に修正に手間がかかるという課題があった。 However, in the above method, the ideal line is basically fixed, and there is a problem that it takes time and effort to make a correction when it deviates from the sample during makeup.
また、理想ラインが存在する場合、個人差による理想ラインの違いを考慮していない、という課題があった。本来、人は個人により顔のパーツの配置や形状が異なり、顔は完全な左右対称ではない。このように個々により違う配置や形状を持つ顔に対して、ある見本を用意し、それを個人の顔に適用したとしても、それがその個人にあったよい化粧であるとは限らない。 Moreover, when the ideal line exists, the subject that the difference of the ideal line by an individual difference was not considered occurred. Originally, the arrangement and shape of facial parts varies from person to person, and the face is not completely symmetrical. Thus, even if a sample is prepared for a face having a different arrangement and shape depending on each individual and applied to an individual's face, it is not necessarily a good makeup suitable for the individual.
上記課題を解決するため、本発明は、バランスのよい化粧を行うことに着目することで、修正の手間を軽減し、個人に合ったバランスのよい化粧を支援する装置を提供することを目的とする。 In order to solve the above-mentioned problems, the present invention aims to provide a device that supports a well-balanced makeup suitable for an individual by reducing the labor of correction by focusing on making a balanced makeup. To do.
上記の目的は以下の装置によって達成される。
人物の顔を含む映像を撮像する撮像手段と、前記撮像した映像から複数の部分領域を抽出する抽出手段と、前記抽出した複数の部分領域の各々の評価値を算出する評価手段と、前記複数の評価値を互いに比較することにより、バランス補正値を算出する算出手段と、前記バランス補正値に基づいて、前記人物の外見のバランスを補正する手法を示すバランス補正情報を生成する生成手段と、前記バランス補正情報を出力する出力手段とを有することを特徴とする情報処理装置。
The above object is achieved by the following apparatus.
Imaging means for capturing an image including a human face, extraction means for extracting a plurality of partial areas from the captured video, evaluation means for calculating an evaluation value for each of the extracted partial areas, and the plurality Calculating means for calculating a balance correction value by comparing the evaluation values of each other, and generating means for generating balance correction information indicating a technique for correcting the balance of the appearance of the person based on the balance correction value; An information processing apparatus comprising: output means for outputting the balance correction information.
本発明による化粧バランス支援装置では、修正の手間を軽減し、かつ個人に合ったバランスのよい化粧が可能となる。 With the makeup balance support device according to the present invention, it is possible to reduce the trouble of correction and to make a makeup with a good balance suitable for an individual.
以下、添付図面を参照して本発明を実施形態に従って詳細に説明する。 Hereinafter, the present invention will be described in detail according to embodiments with reference to the accompanying drawings.
〔第1の実施形態〕
(概要)
本実施形態に係る情報処理装置は、化粧をする際に、化粧による外見のバランスを改善するためのバランス補正情報を出力する。本実施形態に係る情報処理装置は、まず人物の顔を含む映像をカメラで撮像する。そして、カメラで撮像した映像から、部分領域を抽出する。そして、その複数の部分領域に基づいて複数の部分領域の評価値を算出する。そして、その評価値からバランスを改善するためのバランス補正値を算出し、そのバランス補正値を出力部に出力する。
[First Embodiment]
(Overview)
When performing makeup, the information processing apparatus according to the present embodiment outputs balance correction information for improving the balance of appearance by makeup. The information processing apparatus according to the present embodiment first captures an image including a human face with a camera. Then, a partial area is extracted from the video imaged by the camera. Then, evaluation values of the plurality of partial areas are calculated based on the plurality of partial areas. Then, a balance correction value for improving the balance is calculated from the evaluation value, and the balance correction value is output to the output unit.
(構成)
図1は本実施形態に係る情報処理装置の概略を示す図である。図1に沿って、本実施形態の情報処理装置の構成を説明する。情報処理装置は、撮像部101、抽出部102、評価部103、算出部104、生成部105、出力部106から構成されている。
(Constitution)
FIG. 1 is a diagram showing an outline of an information processing apparatus according to this embodiment. The configuration of the information processing apparatus according to the present embodiment will be described with reference to FIG. The information processing apparatus includes an
撮像部101は、対象者の顔を含む映像を撮像する。図1において撮像部は1つであるが、特に1つに限定せず、複数持っていてもよい。複数持つことにより、奥行きの情報を得ることができ、3次元に拡張することが可能となる。
The
抽出部102は、撮像部101から送られる映像から、部分領域とその部分領域情報を抽出する。本実施例では、部分領域とは顔領域およびパーツ領域である。パーツとは、目、眉、鼻、口、頬などの顔の一部分を指す。部分領域情報は、顔領域やパーツ領域の位置、形状、色の情報である。
The
顔領域およびパーツ領域の抽出は、例えばHaar−like特徴量(非特許文献1参照)やHOG特徴量(非特許文献2参照)などの手法を使用する。また、顔領域の抽出に関しては肌色検出などの簡易な手法でも可能である。また、対象者に顔領域を入力してもよい。化粧領域の抽出は化粧をしていない状態との差分にて求めることができる。 For extraction of the face area and the part area, for example, a method such as Haar-like feature quantity (see Non-Patent Document 1) or HOG feature quantity (see Non-Patent Document 2) is used. In addition, a simple technique such as skin color detection can be used to extract the face area. Further, a face area may be input to the subject. The extraction of the makeup area can be obtained by the difference from the state where makeup is not performed.
化粧をしていない状態との差分を求める際には、化粧をしていない映像と現在の映像との対応付けをする必要がある。特徴点の対応付けの方法は、例えば、対応付けたい2枚の画像に対して、Harris作用素(非特許文献3参照)などの特徴点抽出フィルタにより特徴点を抽出する。例えば、各点を中心とする局所領域間の正規化相関値に基づいて相関の高い2点を対応させることで対応付けが可能である。 When obtaining a difference from a state where makeup is not performed, it is necessary to associate an image without makeup with a current image. As a method of associating feature points, for example, feature points are extracted from two images to be associated by a feature point extraction filter such as a Harris operator (see Non-Patent Document 3). For example, two points having high correlation can be associated with each other based on a normalized correlation value between local regions centered on each point.
評価部103は、抽出部102で抽出したパーツ領域の評価値を算出する。評価値とは、各パーツ領域の各々の特徴を評価する値である。例えば、どの程度、外見のバランスが悪いかを表す値になる場合もあり、例えば、パーツごとの回転、大きさ、形状、位置、色分布などや、それらの組み合わせにおいてバランスを表す。
The
評価値を求める方法として、例えば、図5のように評価値を算出するために基準となる基準テンプレートを用意する。抽出部102で抽出したパーツの特徴点を抽出する。そして、用意した基準テンプレートの対応するパーツの特徴点との対応付けを行う。更に、基準テンプレートに対しての回転度θ、倍率α、変形度βを算出し、位置Px、Pyを取得し、それらを評価値とする。変形度βは例えば、変形の仕方を見るためのアフィン変換パラメータである。
As a method for obtaining the evaluation value, for example, a reference template serving as a reference for calculating the evaluation value as shown in FIG. 5 is prepared. Part feature points extracted by the
例えば、図5のように左目の評価値を算出する例を考える。まず、目頭と目尻を抽出し、線で結ぶ。この線とテンプレートの同様の線との傾きの差が、回転度θとして算出できる。次に、目頭と目尻を結ぶ線の垂直二等分線を求め、目の輪郭との接点を求めることで、目の幅と高さを算出できる。これらとテンプレートの目の幅と高さから、目の幅と高さの倍率αw、αhが算出できる。目頭と目尻、そしてそれらを結ぶ線の垂直二等分線と目の輪郭との2つの接点を求める。これらの点の位置をアフィン変換前の値とし、テンプレートにおける同様の点の位置をアフィン変換後の値とすることで、変形度であるアフィン変換パラメータβが算出できる。 For example, consider an example in which the left eye evaluation value is calculated as shown in FIG. First, the head and corners of the eyes are extracted and connected with lines. The difference in inclination between this line and the similar line of the template can be calculated as the degree of rotation θ. Next, the width and height of the eye can be calculated by obtaining a perpendicular bisector of a line connecting the top of the eye and the corner of the eye, and obtaining a contact point with the eye contour. From these and the width and height of the eye of the template, magnifications α w and α h of the eye width and height can be calculated. Find the two points of contact between the eyes and the corners of the eyes, and the perpendicular bisector of the lines connecting them and the contours of the eyes. By using the positions of these points as values before affine transformation and the positions of similar points in the template as values after affine transformation, the affine transformation parameter β, which is the degree of deformation, can be calculated.
基準テンプレートを使用しない方法として、例えば、図6のように、抽出部102で抽出したパーツのうち、左右で対応するパーツがあるパーツに関しては、片側のパーツを反転させ、逆側のパーツと比較する。例えば、すでに述べた方法と同様の方法で逆側のパーツに対しての回転度θ、倍率α、変形度βを算出し、位置Px、Pyを取得する。左右で対応するパーツがないものに関しては、そのパーツの中心線を求め、現在の顔の中心線に対しての回転度θ、中心線の片側を左右反転させたものの逆側に対する倍率α、変形度βを算出し、位置Px、Pyを取得し、評価値とする。
As a method not using the reference template, for example, as shown in FIG. 6, among the parts extracted by the
このとき、顔の中心線は、抽出部102にて抽出した顔領域およびパーツの位置から求める。顔の中心線の求め方は、例えば、中心線の左右にある顔の領域ができるだけ同じ面積になるように分ける直線を算出してもよいし、中心線と左右のパーツの位置までの距離ができるだけ同じになるように分ける直線を算出してもよい。パーツの中心線についても、同様に例えば、パーツの中心線の左右で、パーツの領域ができるだけ同じ面積になるように分ける直線を算出することで求まる。
At this time, the center line of the face is obtained from the face area extracted by the
算出部104は、その算出した評価値が、例えば左右対称になるように外見のバランスを補正するための、バランス補正値を求める。
The
バランス補正値とは、化粧を施すことで、外見のバランスがとれた状態になるようにするために、化粧を追加もしくは更新すべき領域での補正量を示す値で、回転、大きさ、変形、色などの値がある。各パーツにつき、例えば、バランスのとれた左右対称になるように、それらの値を求める。 The balance correction value is a value that indicates the amount of correction in the area where makeup should be added or updated in order to make the appearance balanced by applying makeup. There are values such as color. For each part, for example, those values are obtained so as to be balanced and symmetrical.
左右のパーツでそれらの位置が非対称である場合、大きさや変形の補正値に含ませて補正することもできる。例えば、顔の中心線から眉の位置までの間隔が左右で違う場合、顔の中心線から眉の位置までの間隔が大きいほうの眉の幅について補正する大きさ、ここでは補正する眉の幅を、顔の中心線から逆側の眉と同じ間隔になるような補正量にする。これにより、補正することができる。化粧を追加して補正する場合の例は、片側にチークが塗られた場合などである。 If the positions of the left and right parts are asymmetric, they can be corrected by including them in correction values for size and deformation. For example, if the distance from the center line of the face to the position of the eyebrow is different on the left and right, the size to correct for the width of the eyebrow with the larger distance from the center line of the face to the position of the eyebrow, here the width of the eyebrow to be corrected Is set to a correction amount so as to be the same distance as the eyebrows on the opposite side from the face center line. Thereby, it can correct | amend. An example of correction by adding makeup is when a cheek is applied on one side.
バランス補正値として、逆側の頬に、例えば左右対称となるように、化粧を施す部位の、位置、大きさ、形、色の値を算出する。化粧を更新して補正する場合の例は、先にも挙げた眉など、既にあるものを現在の状態からさらに上書きする場合などである。バランス補正値として、逆側の眉を、例えば左右対称となるように、位置、大きさ、形、色の値に更新する。なお、バランスの補正は左右対称になることだけに限定しない。評価値で算出した位置や位置の差分を利用して、顔の中心線からの距離で評価値に対する重みを変え、重み付きの左右対称を算出するように使用することもできる。 As the balance correction value, the position, size, shape, and color values of the part to be applied are calculated so as to be symmetrical on the opposite cheek, for example. An example of a case where the makeup is updated and corrected is a case where an existing one such as the eyebrows mentioned above is further overwritten from the current state. As the balance correction value, the eyebrow on the opposite side is updated to the position, size, shape, and color values so as to be symmetrical, for example. The balance correction is not limited to being symmetrical. Using the position calculated by the evaluation value and the difference between the positions, the weight for the evaluation value is changed by the distance from the center line of the face, and the weighted left-right symmetry can be calculated.
こうすることで、化粧だけでなく、髪型などまでを含んだバランスを考えることも可能である。例えば、図8で図中(a)の顔のようにもともとの顔の輪郭が対称でなく片側が広くなっている歪みを持つような場合、あえて、髪型のバランスに偏りをもたすことで、全体としてバランスがよくなる。この場合、算出部104は、髪も含む評価値から、バランス補正値を算出する。髪の補正値に関しては、パーツ同様に、補正する大きさや変形度などの値を求めてもよい。
In this way, it is possible to consider a balance that includes not only makeup but also hairstyles. For example, in the case of FIG. 8 where the original face contour is not symmetrical and the distortion is wide on one side like the face in FIG. , The overall balance will be better. In this case, the
しかし、髪の補正は化粧ほどの正確性は求められない上に、正確に算出してもその通りに実現するのは非常に困難なので、左右をどの程度の割合にするか、前髪を分ける場合は割合をどうするか、などの値を大まかに表示だけでもよい。バランス補正値を算出する際に、化粧の重みに対して、髪型を低い重みで扱うことで、髪型については化粧に比べて大まかな値で扱うことが可能となる。 However, correction of hair is not as accurate as makeup, and even if it is calculated accurately, it is very difficult to achieve it exactly. May only display values roughly, such as what to do with the ratio. When calculating the balance correction value, the hairstyle is handled with a lower weight than the makeup weight, so that the hairstyle can be handled with a rough value compared to the makeup weight.
さらに、ファッション、服装、装飾品等に関してのバランスを考えてもよい。図9で図中(a)のように、化粧のバランスがとれていて、髪型に偏りがある場合、逆側にアクセントがあると、バランスがよくなる。この場合、バランスをよくするアドバイスとして、ファッション関するアドバイス、例えば、逆側の肩にリボンなどのアクセントのある服を着る、逆側の目元にラメを追加する、などの指示を出す。 Furthermore, you may consider the balance regarding fashion, clothes, and ornaments. As shown in FIG. 9A, when the makeup is balanced and the hairstyle is biased, the balance is improved if there is an accent on the opposite side. In this case, as advice for improving the balance, an instruction regarding fashion, for example, wearing clothes with accents such as a ribbon on the opposite shoulder, or adding lame to the opposite eye, is given.
ファッションについての指示も髪型同様に、厳密な値より目安となる程度の指示がよいと思われるので、どの辺りにどの程度の何を追加するか、というような簡易な指示がよいと思われる。バランス補正値算出の際に、化粧の重みに対して、髪型同様にファッションを低い重みで扱うことで、ファッションについて、化粧に比べて大まかな値で扱うことが可能となる。 Like the hairstyle, the instruction about the fashion seems to be an instruction that is a guideline rather than a strict value, so it seems that a simple instruction such as what to add to what area is good. When calculating the balance correction value, it is possible to handle the fashion with a rough value compared to the makeup by handling the fashion with a lower weight as with the hairstyle with respect to the weight of the makeup.
生成部105は、バランス補正値に基づいて、バランスを改善するためのバランス補正情報を生成する。バランス補正情報が画像である場合、以下のようになる。算出部104にて算出したバランス補正値に基づき、図10(b)のようなバランス補正画像を生成する。生成したバランス補正画像と撮像部101で撮像した映像とを顔の部位の位置を合わせて重畳する。位置合わせは、例えば、バランス補正画像の目の位置と撮像した画像の目の位置が一致するように行う。
The
このような方法で、図10(a)(b)の2つの画像を足し合わせ、図10(c)のように重畳した画像を作成する。バランス補正重畳画像を作成する際は、バランスが取れるような補正位置、補正量を強調して作成してもよい。また、左右の色の濃淡に差がある場合など、現在の色の濃淡を数値的に表して、画像に表示してもよい。
出力部106は、生成された補正情報を、例えば表示部に、出力する。
By such a method, the two images shown in FIGS. 10A and 10B are added to create an image superimposed as shown in FIG. When creating a balance-corrected superimposed image, it may be created by emphasizing a correction position and a correction amount that can achieve a balance. In addition, when there is a difference between the shades of the left and right colors, the shade of the current color may be expressed numerically and displayed on the image.
The
なお、生成部105は画像を生成することに限定しない。例えば、補正手法を音声による案内の情報として生成し、出力部106が、出力してもよい。また、補正情報をロボットに送信して、補正指示のとおりにロボットが補正を行ってもよい。
The
対象者は、出力部106で出力した補正情報を確認して、化粧を行う。対象者が新たに化粧を行うと、撮像部101にて再度撮像を行って出力部106にて補正情報を出力するまでの前述した処理を繰り返し行う。補正情報は一定時間ごとに更新される。
The subject confirms the correction information output by the
(処理)
続いて、図2に示したフローチャートを用いて、本実施形態の情報処理装置が行う処理について説明する。
(processing)
Next, processing performed by the information processing apparatus of this embodiment will be described using the flowchart shown in FIG.
対象者の顔が撮像部101により撮像される範囲に入った状態にてステップS100にて処理が開始される。この説明では化粧をしていない状態からの処理開始について説明する。
The process is started in step S100 in a state where the subject's face is in the range where the
ステップS101では、撮像部101による顔映像の撮像が行われる。その撮像した映像が抽出部102へと送られると、処理はステップS102へと進む。
In step S <b> 101, a face image is captured by the
ステップS102では、抽出部102において、撮像部101により送られる映像より、顔領域やパーツ領域などの部分領域が抽出される。その抽出した部分領域が評価部103に送られると、処理はステップS110へと進む。
In step S <b> 102, the
ステップS110では、抽出部102により送られる顔領域やパーツ領域などの部分領域が評価部103へと送られることでバランス補正量設定処理が開始される。バランス補正量設定処理が開始されると、ステップS111へと進む。
In step S <b> 110, the balance correction amount setting process is started by sending a partial region such as a face region or a part region sent by the
ステップS111では、評価部103において、抽出部102により送られた部分領域より、部分領域の評価値を算出する。その評価値が算出部104に送られると、処理はステップS112へと進む。
In step S111, the
ステップS112では、算出部104において、評価部103により送られる評価値より、バランスを改善するためのバランス補正値を算出する。その算出したバランス補正値が出力部106に送られると、処理はステップS113へと進む。
In step S <b> 112, the
ステップS113では、生成部105において、算出部104により送られるバランス補正値より、バランス補正画像を生成すると、処理はステップS114へと進む。
In step S113, when the
ステップS114では、生成部105において、撮像部101により送られる映像とバランス補正画像とを重畳し、バランス補正重畳画像を生成すると、処理はステップS115へと進む。
In step S114, when the
ステップS115は、出力部106において、バランス補正重畳画像を表示部に出力する。表示部にバランス補正重畳画像が表示されると、処理はステップS116へと進む。
In step S115, the
ステップS116では、バランス補正量設定処理ステップが終了し、処理はステップS103へと進む。 In step S116, the balance correction amount setting process step ends, and the process proceeds to step S103.
ステップS103では、出力部106よりバランス補正重畳画像が実際の人物の顔の向き等に応じて実時間で追従して表示されたこと受け、対象者である人物は化粧を開始し、処理はステップS104へと進む。
In step S103, the balance correction superimposed image is displayed by the
実際には、化粧前であるこの時点では、対象者が歪み等のバランスの不均等さを持たない場合、補正すべき情報は表示されておらず、出力部106には対象者の顔の画像が表示されているのみである。本装置は、部分的に化粧が施されてから、よりよいバランス状態へ導くために、補正すべき情報を提示することを目的としている。
Actually, at this point in time before makeup, if the subject does not have uneven balance such as distortion, information to be corrected is not displayed, and the
ステップS104では、撮像部101による顔映像の撮像が再度行われる。その撮像した映像が抽出部102へと送られると、処理はステップS105へと進む。
In step S104, the face image is picked up by the
ステップS105では、抽出部102において、撮像部101により送られる映像より、顔領域やパーツ領域に加え、化粧領域などの部分領域が抽出される。その抽出した部分領域が評価部103に送られると、処理はステップS110へと進む。
In step S <b> 105, the
ステップS110内での処理はすでに述べたものと同様で、化粧領域が部分領域に追加されていることのみが違い、その違いのため、ステップS110内の終了時の処理ステップS116で表示されるバランス補正重畳画像は異なる。 The processing in step S110 is the same as that already described, except that the makeup region is added to the partial region. Due to the difference, the balance displayed in the processing step S116 at the end of step S110. The corrected superimposed image is different.
バランス補正重畳画像が更新される際、更新には、以下2つの内容を含む。1つは、前回表示したバランス補正重畳画像の通りに対象者が化粧を施したことにより、化粧が施された箇所の補正量は補正済みのためになくなり、まだ化粧を施されていない補正箇所の補正量のみが補正すべき箇所として表示されるように更新することである。 When the balance correction superimposed image is updated, the update includes the following two contents. One is that the correction amount of the portion where the makeup was applied has disappeared because the subject has applied makeup according to the balance correction superimposed image displayed previously, and the makeup has not been applied yet. The correction amount is updated so that only the correction amount is displayed as a portion to be corrected.
このとき、今回と前回とのバランス補正重畳画像の対応付けを行う必要がある。これは対象者の顔画像の特徴点を追跡してもよいし、Harris作用素などの特徴点抽出フィルタにより特徴点を抽出し、各点を中心とする局所領域間の正規化相関値に基づいて相関の高い2点を対応させることで対応付けてもよい。 At this time, it is necessary to associate the balance-corrected superimposed image between the current time and the previous time. This may be performed by tracking feature points of the subject's face image, or by extracting feature points using a feature point extraction filter such as a Harris operator, and based on normalized correlation values between local regions centered on each point. You may match by making two highly correlated points correspond.
もう1つは、前回表示したバランス補正重畳画像とは違う部分に対象者が化粧を施したことにより、バランス補正値が変わり、補正すべき部分を新たに追加、もしくは補正内容を変更するように今回表示するバランス補正重畳画像を更新することである。 The other is that the balance correction value changes due to the subject applying makeup on a part different from the balance correction superimposed image displayed previously, so that the part to be corrected is newly added or the correction content is changed. The balance correction superimposed image displayed this time is updated.
ステップS110からS116のバランス補正量設定処理ステップが終了し、処理はステップS106へと進む。 The balance correction amount setting processing steps from step S110 to S116 are completed, and the process proceeds to step S106.
ステップS106では、出力部106よりバランス補正重畳画像が更新して表示されたこと受け、化粧を完了するかどうか判断する。このときの判断は対象者にまかせてもよいし、バランス補正値がある範囲内に収まる場合を補正終了とする処理を行ってもよい。この判断において、化粧を完了する場合は、処理はステップS107に進み、処理終了となる。また、この判断において、化粧を完了しない場合は、処理はステップS104へ進み、化粧を続け、ステップS104からS106を繰り返す。
In step S <b> 106, the balance correction superimposed image is updated and displayed from the
〔第2の実施形態〕
本実施形態に係る情報処理装置は、実施例1として示した情報処理装置に個人情報記憶部もしくは好適バランス情報記憶部、もしくはその両方を含める。これにより、以前使用した情報などを使った補正を行うことができる。さらに、通信部および操作部を加えることで、より多様な機能を追加できる。
以下、図を用いて本実施形態にかかる情報処理装置の構成および処理について説明する。
[Second Embodiment]
The information processing apparatus according to the present embodiment includes a personal information storage unit and / or a suitable balance information storage unit in the information processing apparatus shown as Example 1. This makes it possible to perform correction using previously used information. Furthermore, a variety of functions can be added by adding a communication unit and an operation unit.
Hereinafter, the configuration and processing of the information processing apparatus according to the present embodiment will be described with reference to the drawings.
(構成)
図3は、本実施形態に係る情報処理装置の概略を示す図である。図3に示すように、情報処理装置は、図1に示した第一の実施形態に係る情報処理装置に、個人情報記憶部201および好適バランス情報記憶部202および通信部203および操作部204を加えた構成になっている。図1の情報処理装置と共通する構成部分は、第一の実施形態とほぼ同様であるので、詳しい説明は割愛する。
(Constitution)
FIG. 3 is a diagram illustrating an outline of the information processing apparatus according to the present embodiment. As illustrated in FIG. 3, the information processing apparatus includes a personal
撮像部101は、対象者の顔を含む映像を撮像する。
抽出部102は、撮像部101から送られる映像から、顔領域およびパーツ領域を抽出する。
The
The
個人情報記憶部201は、個人固有の特徴に関する情報を記憶する。例えば、実施例1の評価部103で算出される固有の評価値のことである。この固有評価値は個人固有のもので、例えば、パーツの非対称性や、顔の歪みなどの情報を含んだ値である。
The personal
あらかじめ記憶する際には、以下の手順で記憶する。対象者の顔を含む映像から顔領域やパーツ領域などの部分領域を抽出する。部分領域から対象者固有の評価値を算出する。この値を個人固有のバランス情報とし、個人情報記憶部201に記憶する。この記憶しておいた固有のバランス情報を使用する際には、対象者が個人情報記憶部201にて記憶されているどの人物かを特定する必要がある。
When storing in advance, the following procedure is used. A partial area such as a face area or a parts area is extracted from an image including the face of the subject. An evaluation value specific to the subject is calculated from the partial area. This value is stored as personal balance information in the personal
これを実現するためには例えば以下の方法がある。例えば、個人情報記憶部201にて対象者の評価値に加えて顔画像や特徴量も一緒に記憶しておき、顔認証の技術を使用することで特定する方法がある。例えば、個人情報記憶部201にて対象者の評価値に加えて対象者の名前やIDを記憶しておき、操作部204にて対象者に自分の名前やIDなどを入力してもらうことで、記憶した情報の中でどれを使用するかを特定する方法もある。
In order to realize this, for example, there are the following methods. For example, in the personal
好適バランス情報記憶部202は、例えば対象者の化粧完了時における評価値の履歴を記憶する。なお、好適バランス情報記憶部202に記憶するものは、履歴だけに限定せず、例えば、通信部203を介して外部から好適なバランス情報を取り込むことも可能である。通信部はネットワーク越しに情報を受けてもよいし、CD−RやUSBメモリなどのメディアから読み込み装置で情報を読み込んでもよい。
The suitable balance
好適なバランス情報とは、例えば、過去に化粧の講師に施してもらった化粧、雑誌などに載っている化粧、対象者好みの化粧から算出した評価値である。好適バランス情報記憶部202に記憶された好適なバランス情報を使用するにあたり、対象者が好適バランス情報記憶部202にて記憶されているどの人物かを特定する必要がある。この方法については、個人情報記憶部201にて人物を特定した方法と同じ方法が使用できる。
The suitable balance information is, for example, an evaluation value calculated from makeup that has been given by a makeup instructor in the past, makeup that has been placed in a magazine, etc., or makeup that the subject likes. In using the preferred balance information stored in the preferred balance
さらに、1個人に対して複数の好適なバランス情報が候補として存在する場合には、例えば、操作部204を介して対象者に希望の好適なバランス情報を選んでもらう方法が使用できる。例えば、対象者に分かりやすくするために、記憶されている好適なバランス情報に対応した化粧を施したモデルの顔画像を表示するとよい。
Further, when a plurality of suitable balance information exists as candidates for one individual, for example, a method in which the target person selects desired suitable balance information via the
この表示された顔画像から自分の好みの化粧の状態のものを選択するユーザ・インタフェースを用いて、対象者からの入力をうけつける方法がある。他の方法としては、好適なバランス情報の他に、その好適なバランス情報の選択回数を合わせて記憶することで、デフォルト値として最も多い選択回数の好適なバランス情報を設定する方法がある。 There is a method for receiving an input from a target person using a user interface for selecting a desired makeup state from the displayed face images. As another method, there is a method of setting suitable balance information having the largest number of selections as a default value by storing the number of selections of the suitable balance information together with the suitable balance information.
また、希望のバランス状態を対象者に入力してもらい、好適な評価値を算出し、それを好適なバランス情報として好適バランス情報記憶部202に記憶するとともに、現在の評価値を算出するために使用してもよい。希望のバランス状態を対象者に入力してもらう方法としては、例えば、図11のようなユーザ・インタフェースを利用して対象者にインジケータを調整してもらう方法がある。なお、希望のバランス状態とは図11に表示した項目だけに限定するものではない。
In order to have the target person input the desired balance state, calculate a suitable evaluation value, store it in the suitable balance
さらに、好適バランス情報記憶部202に記憶するものとして、髪型やファッションの流行に関する情報も含めることで、髪型やファッションのバランスに関する指示を多様にすることができる。例えば出力部106にて図8や図9のような指示を出す際に、流行にあわせた指示に更新することができる。
Further, by storing information on the hairstyle and fashion trends as what is stored in the preferred balance
評価部103は、抽出部102で抽出したパーツ領域の評価値を算出する。評価値の算出方法は、例えば、図5を用いて説明する。好適なバランス情報をもとに、基準テンプレートの各パーツを前回同等になるようなテンプレートに更新し、すでに説明した手順で各評価値を求める、といった方法をとる。
The
算出部104は、
個人情報記憶部201で記憶している対象者固有のバランス情報および好適バランス情報記憶部202で記憶している好適なバランス情報からバランス補正値を算出する。個人情報記憶部201を持つことで、評価部103にて、化粧をしていない部分の評価値を算出する必要がなくなる。
The
A balance correction value is calculated from the balance information unique to the subject stored in the personal
また、前回化粧時と同じような化粧をする場合、評価部103にて評価値を算出において、好適バランス情報記憶部202で記憶している前回の最終的な評価値である好適なバランス情報を考慮してバランス補正値を算出する。
In addition, when applying makeup similar to the previous makeup, suitable balance information, which is the last final evaluation value stored in the suitable balance
生成部105は、算出したバランス補正値に基づき、バランス補正画像を生成し、生成されたバランス補正画像を撮像部101で撮像した映像と重畳する。
出力部106は、重畳された画像を表示部に出力する。
The
The
なお、個人情報記憶部201および好適バランス情報記憶部202はどちらかだけを持つ構成、両方をもっている構成のいずれでもよい。また、通信部203と操作部204については、どちらかだけを持っている構成、両方持っている構成、両方持っていない構成のいずれでもよい。
Note that the personal
さらに、好適バランス情報記憶部202については、図3のような構成ではなく、算出部104に内包してもよい。その場合の例を説明する。
Further, the preferred balance
好適バランス情報記憶部202に記憶するものは先の説明と同様である。ここでは、説明のため、対象者の前回化粧完了時における評価値の履歴とする。
What is stored in the preferred balance
評価部103にて評価値を算出する際は、抽出部102にて抽出した部分領域から評価値を算出する。もしくは、抽出部102にて抽出した部分領域および個人情報記憶部201から取得した固有バランス情報から評価値を算出する。
When the
算出部104にて、この評価値と記憶している評価値の履歴である好適なバランス情報とを比較して、バランス補正値を算出する。ここでのバランス補正値の算出方法は、例えば、評価部103にて算出した評価値と記憶している好適な評価値との差を計算し、好適な評価値になるような補正値を算出する。
The
ただし、現在化粧を施している領域が前回の履歴で化粧を施した領域に比べて広いなどの理由で、差のみの計算では実現不可能な場合、例えば実現不可能な箇所は履歴を参考にせず、その箇所が例えば左右対称になるように補正値を算出してもよい。もしくは、実現不可能な箇所についても、履歴ではどのような評価値だったか、つまり左右対称だったか、他のパーツに対して相対的な位置はどこかなどの値を参考に、実現可能な中で履歴に最も近い補正値を算出してもよい。 However, if the area where makeup is currently applied is larger than the area where makeup was applied in the previous history, it is not possible to calculate with the difference alone. Instead, the correction value may be calculated so that the location is, for example, symmetrical. Or, even for places that cannot be realized, the evaluation value in the history, that is, the symmetry, the position relative to other parts, etc. The correction value closest to the history may be calculated.
算出部104に好適バランス情報記憶部を内包した場合も、個人情報記憶部201と通信部203と操作部204の有無については問わない。通信部203と操作部204を有する場合、それらとのデータの送受信は、先に説明した図3の好適バランス情報記憶部202とではなく、算出部104内の好適バランス情報記憶部と行う。
Even when a suitable balance information storage unit is included in the
(処理)
続いて、図4に示したフローチャートを用いて、本実施形態の情報処理装置が行う処理について説明する。実施例1で説明したフローと比較し、いくつかのステップが異なるのみで、他は同様であるため、共通の処理については詳しい説明は割愛する。
(processing)
Next, processing performed by the information processing apparatus of this embodiment will be described using the flowchart shown in FIG. Compared with the flow described in the first embodiment, only some steps are different and the others are the same. Therefore, detailed description of common processing is omitted.
対象者の顔が撮像部101により撮像される範囲に入った状態にてステップS200にて処理が開始される。
The process is started in step S200 in a state where the subject's face is in a range where the
ステップS201では、対象者による情報入力が行われる。情報入力とは、例えば、操作部204にて、好適バランス情報記憶部202で記憶している好適なバランス情報の選択などである。他にも、個人情報記憶部201および好適バランス情報記憶部202で記憶している固有バランス情報や好適バランス情報のうちのどれを使うかを特定するためのIDや名前の入力などである。その入力情報が個人情報記憶部201と好適バランス情報記憶部202の両方、もしくはどちらかに送られると、処理はステップS101へと進む。ステップS101からS102までは実施例1と同様の処理が行われる。続いて処理はステップS210へと進む。
In step S201, information input by the subject is performed. The information input is, for example, selection of suitable balance information stored in the suitable balance
ステップS210では、抽出部102により送られる顔領域やパーツ領域などの部分領域が評価部103へと送られることでバランス補正量設定処理が開始される。バランス補正量設定処理が開始されると、ステップS211へと進み、評価部103にて、個人情報記憶部201にて記憶している固有バランス情報、および好適バランス情報記憶部202に記憶している好適なバランス情報を特定する。これらが特定されると、処理はステップS111へと進む。
In step S <b> 210, the balance correction amount setting process is started by sending a partial area such as a face area or a part area sent by the
ステップS111では、部分領域の評価値を算出する。このとき、評価部103において、抽出部102により送られた部分領域、および個人情報記憶部201にて記憶している固有バランス情報、および好適バランス情報記憶部202にて記憶している好適なバランス情報を用いる。その評価値が算出部104に送られると、処理はステップS112へと進む。
In step S111, the evaluation value of the partial area is calculated. At this time, in the
ステップS112からS212までは実施例1と同様の処理が行われる。続いて処理はステップS103へと進む。さらに、ステップS103からS105までは実施例1と同様の処理が行われる。続いて処理はステップS210へと進む。S210内での処理はすでに説明したものと同様である。さらに処理はステップS106へと進み、実施例1と同様の処理が行われる。ただし、実施例1と違い、ステップ106にて化粧を完了する場合、ステップS202へと進む。
From step S112 to S212, the same processing as in the first embodiment is performed. Subsequently, the process proceeds to step S103. Further, processing similar to that in the first embodiment is performed from step S103 to S105. Subsequently, the process proceeds to step S210. The processing in S210 is the same as that already described. Further, the process proceeds to step S106, and the same process as in the first embodiment is performed. However, unlike Example 1, when makeup is completed in
ステップS202は、現在の評価値を好適バランス情報記憶部202に記憶し、ステップS203へと進み、処理は終了する。
In step S202, the current evaluation value is stored in the preferred balance
〔第3の実施形態〕
本実施形態に係る情報処理装置は、実施例1および実施例2で説明した構成と同様のものを使用する。本実施形態では、顔の部分領域としてある部分領域内の色情報およびその位置のみを使用することである。
[Third Embodiment]
The information processing apparatus according to the present embodiment uses the same configuration as that described in the first and second embodiments. In the present embodiment, only the color information and its position in a partial area are used as the partial area of the face.
(構成)
本実施例の構成は上記で説明した実施例1を使用して説明する。実施例1との差異は、抽出部102と評価部103と算出部104である。これらの部分について下記で詳細に説明する。
撮像部101は、対象者の顔を含む映像を撮像する。
(Constitution)
The configuration of the present embodiment will be described using the first embodiment described above. The differences from the first embodiment are an
The
抽出部102は、顔領域とその色情報を抽出する。顔領域を抽出する方法としては、すでに述べた。その顔領域を、例えば、図7のように細かく分割し、それぞれを部分領域とする。パーツという概念は使わず、形状以外のシミ、しわなどの情報も含んでいる。
The
評価部103は、抽出部102で抽出した顔領域内の各部分領域について色情報、例えば色の分布およびその部分領域の位置を取得し、それ自体を評価値とする。
The
算出部104は、評価部103で算出した評価値が全体としてバランスがよくなるようにバランス補正値を算出する。例えば、図7である部分領域の色分布C1が得られた場合、バランスよく左右対称になるような位置に、C1と同じ値を補正値として算出する。また、バランスをよくするために、単純に左右対称にするだけでなく、色により重みを変えて、重みつきの左右対称としてもよい。これは例えば、目立つ色の重みを重くすることで、目立つ色の補正をきつく、目立たない色の補正をゆるくするなど、部位により補正のバランスを調整することができる。
The
生成部105は、算出したバランス補正値に基づき、バランス補正画像を生成し、実施例1と同様に撮像部101で撮像した映像と重畳する。
The
出力部106は、重畳した映像を表示部に出力する。
The
(処理)
本実施形態の情報処理装置が行う処理については、実施例1で使用したものと同じ図2に示したフローチャートにて説明する。実施例1で説明したフローと比較し、いくつかのステップが異なるのみで、他は同様であるため、共通の処理については詳しい説明は割愛する。
(processing)
The processing performed by the information processing apparatus of this embodiment will be described with reference to the flowchart shown in FIG. 2 which is the same as that used in the first embodiment. Compared with the flow described in the first embodiment, only some steps are different and the others are the same. Therefore, detailed description of common processing is omitted.
対象者の顔が撮像部101により撮像される範囲に入った状態にてステップS100にて処理が開始される。処理を開始すると、まず、ステップS101へと進んで、撮像部101による顔映像の撮像が行われる。その撮像した映像が抽出部102へと送られると、処理はステップS102へと進む。
The process is started in step S100 in a state where the subject's face is in the range where the
ステップS102では、抽出部102において、撮像部101により送られる映像より、図7で示すような顔領域内の各部分領域が抽出される。その抽出した部分領域が評価部103に送られると、処理はステップS110へと進む。
In step S102, the
ステップS110では、抽出部102により送られる顔領域内の各部分領域が評価部103へと送られることでバランス補正量設定処理が開始される。バランス補正量設定処理が開始されると、ステップS111へと進み、評価部103において、抽出部102により送られた各部分領域より、部分領域の評価値を算出する。その評価値が算出部104に送られると、処理はステップS112へと進む。ステップS112からS116およびステップS103からS104までは実施例1と同様の処理を行う。続いて処理はステップS105へ進む。
In step S <b> 110, the balance correction amount setting process is started by sending each partial area in the face area sent by the
ステップS105では、抽出部102において、撮像部101により送られる映像より、化粧領域を含む顔領域内の各部分領域が抽出される。その抽出した部分領域が評価部103に送られると、処理はステップS110へと進む。ステップS110からS106は実施例1と同様の処理を行う。S106にて化粧完了の判断を行うと、処理はステップS107へ進み、完了する。
In step S <b> 105, the
〔その他の実施形態〕
図12は、コンピュータの構成例を示す図である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク1204、1207又は各種記憶媒体1202、1203を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ1201(CPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータ読み取り可能な記憶媒体に記憶して提供してもよい。なお、本装置のコンピュータには、入力部1205から処理を実行する指示を入力し、表示部1206で指示した処理の結果を表示してもよい。
[Other Embodiments]
FIG. 12 is a diagram illustrating a configuration example of a computer.
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to the system or apparatus via the
Claims (12)
前記撮像した映像から複数の部分領域を抽出する抽出手段と、
前記抽出した複数の部分領域の各々の評価値を算出する評価手段と、
前記算出された評価値の各々を互いに比較することにより、バランス補正値を算出する算出手段と、
前記バランス補正値に基づいて、前記人物の外見のバランスを補正する手法を示すバランス補正情報を生成する生成手段と、
前記バランス補正情報を出力する出力手段と
を有することを特徴とする情報処理装置。 Imaging means for imaging video including a person's face;
Extracting means for extracting a plurality of partial regions from the captured video;
Evaluation means for calculating an evaluation value of each of the extracted partial regions;
Calculating means for calculating a balance correction value by comparing each of the calculated evaluation values with each other;
Generating means for generating balance correction information indicating a method for correcting the balance of the appearance of the person based on the balance correction value;
An information processing apparatus comprising: output means for outputting the balance correction information.
を更に有し、
前記評価手段が、評価した評価値を前記固有評価値として追加もしくは更新する
ことを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。 Personal information storage means for storing a unique evaluation value of the partial area for each person;
The information processing apparatus according to claim 1, wherein the evaluation unit adds or updates the evaluated evaluation value as the unique evaluation value.
を更に有し、
前記算出手段が、前記好適バランス情報に基づいて、前記バランス補正値を算出する
ことを特徴とする請求項7に記載の情報処理装置。 A suitable balance information storage means for storing a history of evaluation values for each person as suitable balance information;
The information processing apparatus according to claim 7, wherein the calculation unit calculates the balance correction value based on the preferred balance information.
を更に有することを特徴とする請求項8に記載の情報処理装置。 The information processing apparatus according to claim 8, further comprising a communication unit that takes in suitable balance information from the outside into the suitable balance information storage unit.
前記情報処理装置の撮像手段が、前記人物の顔を含む映像を撮像する撮像工程と、
前記情報処理装置の抽出手段が、前記撮像した映像から複数の部分領域を抽出する抽出工程と、
前記情報処理装置の評価手段が、前記抽出した複数の部分領域の各々の評価値を算出する評価工程と、
前記情報処理装置の算出手段が、前記算出された評価値の各々を互いに比較することにより、バランス補正値を算出する算出工程と、
前記情報処理装置の生成手段が、前記バランス補正値に基づいて、前記人物の外見のバランスを補正する手法を示すバランス補正情報を生成する生成工程と、
前記情報処理装置の出力手段が、前記バランス補正情報を出力する出力工程と
を有することを特徴とする情報処理方法。 An information processing method performed by an information processing apparatus,
An imaging step in which the imaging means of the information processing apparatus captures an image including the face of the person;
An extraction step in which the extraction means of the information processing apparatus extracts a plurality of partial areas from the captured video;
An evaluation step in which the evaluation unit of the information processing apparatus calculates an evaluation value of each of the extracted partial regions;
A calculation step of calculating a balance correction value by the calculation means of the information processing apparatus comparing each of the calculated evaluation values with each other;
A generation step of generating balance correction information indicating a method of correcting the balance of the appearance of the person based on the balance correction value;
An information processing method comprising: an output unit that outputs the balance correction information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010278565A JP5656603B2 (en) | 2010-12-14 | 2010-12-14 | Information processing apparatus, information processing method, and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010278565A JP5656603B2 (en) | 2010-12-14 | 2010-12-14 | Information processing apparatus, information processing method, and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012128597A true JP2012128597A (en) | 2012-07-05 |
JP5656603B2 JP5656603B2 (en) | 2015-01-21 |
Family
ID=46645558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010278565A Expired - Fee Related JP5656603B2 (en) | 2010-12-14 | 2010-12-14 | Information processing apparatus, information processing method, and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5656603B2 (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014062984A (en) * | 2012-09-20 | 2014-04-10 | Xing Inc | Sound generating device and program for sound generation |
JP2014149696A (en) * | 2013-02-01 | 2014-08-21 | Panasonic Corp | Makeup support apparatus, makeup support method and makeup support program |
JP2014147561A (en) * | 2013-02-01 | 2014-08-21 | Panasonic Corp | Makeup support device, makeup support system and makeup support method |
JP2015176181A (en) * | 2014-03-13 | 2015-10-05 | パナソニックIpマネジメント株式会社 | Makeup support device and makeup support method |
JP2016055201A (en) * | 2016-01-25 | 2016-04-21 | パナソニックIpマネジメント株式会社 | Makeup support device |
JP2016064307A (en) * | 2016-01-22 | 2016-04-28 | パナソニックIpマネジメント株式会社 | Makeup support device |
JP2016066383A (en) * | 2016-01-22 | 2016-04-28 | パナソニックIpマネジメント株式会社 | Makeup support device and makeup support method |
JP2016116876A (en) * | 2016-01-25 | 2016-06-30 | パナソニックIpマネジメント株式会社 | Makeup support device |
JP2016129027A (en) * | 2016-01-22 | 2016-07-14 | パナソニックIpマネジメント株式会社 | Makeup support apparatus and makeup support method |
JP2016523574A (en) * | 2013-03-15 | 2016-08-12 | スキン リパブリック, インコーポレイテッド | Systems and methods for embodying and formulating custom topical agents |
JP2019063479A (en) * | 2017-09-28 | 2019-04-25 | 麗寶大數據股▲フン▼有限公司 | Body information analysis apparatus and method of auxiliary comparison of eyebrow shape thereof |
JP2020505989A (en) * | 2017-02-01 | 2020-02-27 | エルジー ハウスホールド アンド ヘルスケア リミテッド | Makeup evaluation system and operation method thereof |
US10939742B2 (en) | 2017-07-13 | 2021-03-09 | Shiseido Company, Limited | Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and a method for recommending makeup |
JP2022003505A (en) * | 2020-07-31 | 2022-01-11 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Method, unit and device for converting hairstyle and storage device |
WO2022176279A1 (en) * | 2021-02-16 | 2022-08-25 | 株式会社 資生堂 | Information processing device, information processing method, and program |
US11676157B2 (en) | 2018-07-13 | 2023-06-13 | Shiseido Company, Limited | System and method for adjusting custom topical agents |
US12098956B2 (en) | 2019-04-09 | 2024-09-24 | Shiseido Company, Limited | System and method for creation of topical agents with improved image capture |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508587A (en) * | 2017-09-15 | 2019-03-22 | 丽宝大数据股份有限公司 | Body information analysis device and makeup analysis method thereof |
CN109508581A (en) * | 2017-09-15 | 2019-03-22 | 丽宝大数据股份有限公司 | Body information analysis device and blush analysis method thereof |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002092132A (en) * | 2000-09-13 | 2002-03-29 | Kao Corp | Method for providing advice on makeup |
JP2004357801A (en) * | 2003-06-02 | 2004-12-24 | Fuji Photo Film Co Ltd | Display device for make-up |
JP2006120005A (en) * | 2004-10-22 | 2006-05-11 | Shiseido Co Ltd | Method for shape classification of lip, and classification map |
JP2009213751A (en) * | 2008-03-12 | 2009-09-24 | Sony Ericsson Mobilecommunications Japan Inc | Program, method, and device for makeup evaluation |
JP2010073008A (en) * | 2008-09-19 | 2010-04-02 | Nec Corp | Makeup support apparatus, makeup support method and program |
-
2010
- 2010-12-14 JP JP2010278565A patent/JP5656603B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002092132A (en) * | 2000-09-13 | 2002-03-29 | Kao Corp | Method for providing advice on makeup |
JP2004357801A (en) * | 2003-06-02 | 2004-12-24 | Fuji Photo Film Co Ltd | Display device for make-up |
JP2006120005A (en) * | 2004-10-22 | 2006-05-11 | Shiseido Co Ltd | Method for shape classification of lip, and classification map |
JP2009213751A (en) * | 2008-03-12 | 2009-09-24 | Sony Ericsson Mobilecommunications Japan Inc | Program, method, and device for makeup evaluation |
JP2010073008A (en) * | 2008-09-19 | 2010-04-02 | Nec Corp | Makeup support apparatus, makeup support method and program |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014062984A (en) * | 2012-09-20 | 2014-04-10 | Xing Inc | Sound generating device and program for sound generation |
EP2821966A4 (en) * | 2013-02-01 | 2015-10-14 | Panasonic Ip Man Co Ltd | Makeup application assistance device, makeup application assistance method, and makeup application assistance program |
JP2014147561A (en) * | 2013-02-01 | 2014-08-21 | Panasonic Corp | Makeup support device, makeup support system and makeup support method |
US10299568B2 (en) | 2013-02-01 | 2019-05-28 | Panasonic Intellectual Property Management Co., Ltd. | Makeup application assistance device, makeup application assistance method, and makeup application assistance program |
US10292481B2 (en) | 2013-02-01 | 2019-05-21 | Panasonic Intellectual Property Management Co., Ltd. | Makeup application assistance device, makeup application assistance method, and makeup application assistance program |
US10251463B2 (en) | 2013-02-01 | 2019-04-09 | Panasonic Intellectual Property Management Co., Ltd. | Makeup application assistance device, makeup application assistance method, and makeup application assistance program |
JP2014149696A (en) * | 2013-02-01 | 2014-08-21 | Panasonic Corp | Makeup support apparatus, makeup support method and makeup support program |
US11445803B2 (en) | 2013-03-15 | 2022-09-20 | Shiseido Company, Limited | Systems and methods for specifying and formulating customized topical agents |
JP2019000680A (en) * | 2013-03-15 | 2019-01-10 | マチコ. | System and method for embodying and blending custom external preparation |
JP2016523574A (en) * | 2013-03-15 | 2016-08-12 | スキン リパブリック, インコーポレイテッド | Systems and methods for embodying and formulating custom topical agents |
JP7108501B2 (en) | 2013-03-15 | 2022-07-28 | 株式会社 資生堂 | Systems and methods for embodying and formulating custom topical agents |
US10321748B2 (en) | 2013-03-15 | 2019-06-18 | Shiseido Americas Corporation | Systems and methods for specifying and formulating customized topical agents |
JP2015176181A (en) * | 2014-03-13 | 2015-10-05 | パナソニックIpマネジメント株式会社 | Makeup support device and makeup support method |
JP2016066383A (en) * | 2016-01-22 | 2016-04-28 | パナソニックIpマネジメント株式会社 | Makeup support device and makeup support method |
JP2016064307A (en) * | 2016-01-22 | 2016-04-28 | パナソニックIpマネジメント株式会社 | Makeup support device |
JP2016129027A (en) * | 2016-01-22 | 2016-07-14 | パナソニックIpマネジメント株式会社 | Makeup support apparatus and makeup support method |
JP2016116876A (en) * | 2016-01-25 | 2016-06-30 | パナソニックIpマネジメント株式会社 | Makeup support device |
JP2016055201A (en) * | 2016-01-25 | 2016-04-21 | パナソニックIpマネジメント株式会社 | Makeup support device |
JP2020505989A (en) * | 2017-02-01 | 2020-02-27 | エルジー ハウスホールド アンド ヘルスケア リミテッド | Makeup evaluation system and operation method thereof |
US11748980B2 (en) | 2017-02-01 | 2023-09-05 | Lg Household & Health Care Ltd. | Makeup evaluation system and operating method thereof |
JP7020626B2 (en) | 2017-02-01 | 2022-02-16 | エルジー ハウスホールド アンド ヘルスケア リミテッド | Makeup evaluation system and its operation method |
US10939742B2 (en) | 2017-07-13 | 2021-03-09 | Shiseido Company, Limited | Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and a method for recommending makeup |
US11000107B2 (en) | 2017-07-13 | 2021-05-11 | Shiseido Company, Limited | Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and method for recommending makeup |
US11039675B2 (en) | 2017-07-13 | 2021-06-22 | Shiseido Company, Limited | Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and method for recommending makeup |
US11344102B2 (en) | 2017-07-13 | 2022-05-31 | Shiseido Company, Limited | Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and a method for recommending makeup |
JP2019063479A (en) * | 2017-09-28 | 2019-04-25 | 麗寶大數據股▲フン▼有限公司 | Body information analysis apparatus and method of auxiliary comparison of eyebrow shape thereof |
US10521648B2 (en) | 2017-09-28 | 2019-12-31 | Cal-Comp Big Data, Inc. | Body information analysis apparatus and method of auxiliary comparison of eyebrow shapes thereof |
US11676157B2 (en) | 2018-07-13 | 2023-06-13 | Shiseido Company, Limited | System and method for adjusting custom topical agents |
US12073418B2 (en) | 2018-07-13 | 2024-08-27 | Shiseido Company, Limited | System and method for adjusting custom topical agents |
US12098956B2 (en) | 2019-04-09 | 2024-09-24 | Shiseido Company, Limited | System and method for creation of topical agents with improved image capture |
US11631154B2 (en) | 2020-07-31 | 2023-04-18 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method, apparatus, device and storage medium for transforming hairstyle |
JP2022003505A (en) * | 2020-07-31 | 2022-01-11 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Method, unit and device for converting hairstyle and storage device |
JP7418370B2 (en) | 2020-07-31 | 2024-01-19 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Methods, apparatus, devices and storage media for transforming hairstyles |
WO2022176279A1 (en) * | 2021-02-16 | 2022-08-25 | 株式会社 資生堂 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5656603B2 (en) | 2015-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5656603B2 (en) | Information processing apparatus, information processing method, and program thereof | |
US20240193833A1 (en) | System and method for digital makeup mirror | |
CN108537628B (en) | Method and system for creating customized products | |
US9563975B2 (en) | Makeup support apparatus and method for supporting makeup | |
US10292481B2 (en) | Makeup application assistance device, makeup application assistance method, and makeup application assistance program | |
JP5085636B2 (en) | Makeup face image generating apparatus, method thereof, server and program | |
JP5949331B2 (en) | Image generating apparatus, image generating method, and program | |
EP3182362A1 (en) | Method and sytem for evaluating fitness between eyeglasses wearer and eyeglasses worn thereby | |
CN102043965A (en) | Information processing apparatus, information processing method, and program | |
JP2010211308A (en) | Makeup advice device, the makeup advice method and program | |
JP7278724B2 (en) | Information processing device, information processing method, and information processing program | |
CN111783511A (en) | Beauty treatment method, device, terminal and storage medium | |
JP2005242567A (en) | Movement evaluation device and method | |
CN113344837B (en) | Face image processing method and device, computer readable storage medium and terminal | |
CN110458121B (en) | Method and device for generating face image | |
JP2017194301A (en) | Face shape measuring device and method | |
JP3970573B2 (en) | Facial image recognition apparatus and method | |
JP6098133B2 (en) | Face component extraction device, face component extraction method and program | |
JP4682373B2 (en) | Face image synthesis device, face image synthesis method, and face image synthesis program | |
JP2007114029A (en) | Face center position detection device, face center position detection method, and program | |
CN116670718A (en) | Method and apparatus for hair styling analysis | |
WO2015172229A1 (en) | Virtual mirror systems and methods | |
JP5503432B2 (en) | Beauty counseling system | |
RU2703327C1 (en) | Method of processing a two-dimensional image and a user computing device thereof | |
CN115564638A (en) | Network training method, image face changing method, device and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140715 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141028 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141125 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5656603 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |