JP7539917B2 - 画像取り込みが改善された局所用剤を作成するためのシステムおよび方法 - Google Patents
画像取り込みが改善された局所用剤を作成するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7539917B2 JP7539917B2 JP2021559441A JP2021559441A JP7539917B2 JP 7539917 B2 JP7539917 B2 JP 7539917B2 JP 2021559441 A JP2021559441 A JP 2021559441A JP 2021559441 A JP2021559441 A JP 2021559441A JP 7539917 B2 JP7539917 B2 JP 7539917B2
- Authority
- JP
- Japan
- Prior art keywords
- body part
- image
- data
- illumination
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 201
- 239000012049 topical pharmaceutical composition Substances 0.000 title description 3
- 230000003287 optical effect Effects 0.000 claims description 142
- 238000005286 illumination Methods 0.000 claims description 137
- 238000010801 machine learning Methods 0.000 claims description 85
- 238000001454 recorded image Methods 0.000 claims description 55
- 238000012545 processing Methods 0.000 claims description 51
- 239000002537 cosmetic Substances 0.000 claims description 25
- 230000015654 memory Effects 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 20
- 239000000203 mixture Substances 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000001914 filtration Methods 0.000 claims description 12
- 238000009472 formulation Methods 0.000 claims description 10
- 230000003213 activating effect Effects 0.000 claims description 6
- 230000035945 sensitivity Effects 0.000 claims description 6
- 230000002146 bilateral effect Effects 0.000 claims description 3
- 230000001815 facial effect Effects 0.000 description 77
- 238000012549 training Methods 0.000 description 70
- 210000003491 skin Anatomy 0.000 description 49
- 238000009877 rendering Methods 0.000 description 33
- 239000003086 colorant Substances 0.000 description 26
- 230000008569 process Effects 0.000 description 21
- 238000005259 measurement Methods 0.000 description 14
- 239000013598 vector Substances 0.000 description 13
- 238000012937 correction Methods 0.000 description 11
- 210000001061 forehead Anatomy 0.000 description 11
- 238000003860 storage Methods 0.000 description 11
- 238000013480 data collection Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 8
- 238000005070 sampling Methods 0.000 description 8
- 210000002374 sebum Anatomy 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 239000002131 composite material Substances 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 6
- 239000003860 topical agent Substances 0.000 description 6
- 206010014970 Ephelides Diseases 0.000 description 5
- 208000003351 Melanosis Diseases 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 210000000707 wrist Anatomy 0.000 description 5
- 101100387135 Caenorhabditis elegans dex-1 gene Proteins 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000012417 linear regression Methods 0.000 description 4
- 230000000699 topical effect Effects 0.000 description 4
- 230000037303 wrinkles Effects 0.000 description 4
- 208000002874 Acne Vulgaris Diseases 0.000 description 3
- 206010040954 Skin wrinkling Diseases 0.000 description 3
- 206010000496 acne Diseases 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000005266 casting Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000010200 validation analysis Methods 0.000 description 3
- 206010004950 Birth mark Diseases 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 230000037308 hair color Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000011031 large-scale manufacturing process Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 239000011148 porous material Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 240000005020 Acaciella glauca Species 0.000 description 1
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 208000030984 MIRAGE syndrome Diseases 0.000 description 1
- 241000872198 Serjania polyphylla Species 0.000 description 1
- 206010040829 Skin discolouration Diseases 0.000 description 1
- 206010064127 Solar lentigo Diseases 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 210000003467 cheek Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- -1 e.g. Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 210000002615 epidermis Anatomy 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004874 lower jaw Anatomy 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 235000003499 redwood Nutrition 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000037370 skin discoloration Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000036561 sun exposure Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 229940025703 topical product Drugs 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 210000004873 upper jaw Anatomy 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0264—Electrical interface; User interface
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0272—Handheld
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0289—Field-of-view determination; Aiming or pointing of a spectrometer; Adjusting alignment; Encoding angular position; Size of measurement area; Position tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/46—Measurement of colour; Colour measuring devices, e.g. colorimeters
- G01J3/50—Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/46—Measurement of colour; Colour measuring devices, e.g. colorimeters
- G01J3/52—Measurement of colour; Colour measuring devices, e.g. colorimeters using colour charts
- G01J3/524—Calibration of colorimeters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/46—Measurement of colour; Colour measuring devices, e.g. colorimeters
- G01J3/52—Measurement of colour; Colour measuring devices, e.g. colorimeters using colour charts
- G01J3/526—Measurement of colour; Colour measuring devices, e.g. colorimeters using colour charts for choosing a combination of different colours, e.g. to produce a pleasing effect for an observer
- G01J3/528—Measurement of colour; Colour measuring devices, e.g. colorimeters using colour charts for choosing a combination of different colours, e.g. to produce a pleasing effect for an observer using colour harmony theory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- A—HUMAN NECESSITIES
- A45—HAND OR TRAVELLING ARTICLES
- A45D—HAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
- A45D44/00—Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
- A45D2044/007—Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30088—Skin; Dermal
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/70—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
Landscapes
- Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
センサに対する身体部分画像の位置が、身体部分の画像の記録を可能にするために許容可能であるかどうかを決定することと、センサに関連付けられた照明環境が、身体部分の画像の記録を可能にするために許容可能であるかどうかを決定することと、画像データを有する記録された画像を提供するためにセンサを使用して画像を記録することと、記録された画像を処理して、照明環境に関連付けられた照明モデルデータを決定することと、記録された画像および照明モデルデータに基づいて、ユーザの身体部分に関連付けられた反射率および色特性を決定することとを含む、方法を含む。
をさらに含み、記録された画像を処理して照明モデルデータを決定することは、直接計算を含んでもよい。
センサに関連付けられた照明環境が、身体部分の画像の記録を可能にするために許容可能であるかどうかを決定することと、画像データを有する記録された画像を提供するためにセンサを使用して画像を記録することと、記録された画像を処理して、照明環境に関連付けられた照明モデルデータを決定することと、記録された画像および照明モデルデータに基づいて、ユーザの身体部分に関連付けられた反射率および色特性を決定することとを含む動作を実行させる、システムの実施形態を含んでもよい。
をさらに含んでもよい。別の実施形態では、身体部分の表面色を決定することは、身体部分の記録された画像に関連付けられたデータを、光学ディスプレイの特性を記述するデータおよび画像センサの特性を記述するデータと比較することを含む。方法は、鏡に反射された照明源の記録された画像からのデータを使用して、照明源および画像センサの露出感度を較正することをさらに含んでもよい。そのような実施形態では、身体部分の表面色は、画像センサから身体部分の表面までの距離と、身体部分の記録された画像に関連付けられたデータと、光学ディスプレイの特性を記述するデータと、重み付き関数のネットワークを使用して画像センサの特性を記述するデータとを処理することによって決定され得る。
synthLinearPointは、重みおよび2つの入力頂点を使用して新しい頂点を補間する。
synthTriPointは、2つのポイントの垂直法線、2つのポイントの重心、および新しい頂点を配置する重みを使用して新しい頂点を外挿する。
synthQuadPointは、2つのポイントの垂直法線、第3のポイントの位置、および新しい頂点を配置する重みを使用して新しい頂点を外挿する。
int32 gRightEyeRegion[]={
3,16,17,64,
3,17,18,64,
3,18,19,64,
3,19,20,64,
3,20,21,64,
3,21,22,64,
3,22,23,64,
3,23,16,64,
0
};
int32 gRightEyeTopRegion[]={
4,4,17,16,59,
4,4,5,18,17,
4,5,6,19,18,
4,6,7,20,19,
3,7,50,20,
0
};
int32 gRightCheekUpperRegion[]={
4,16,23,66,59,
4,23,22,68,66,
4,22,21,67,68,
4,21,20,50,67,
3,50,49,67,
0
};
int32 gRightCheekLowerRegion[]={
4,66,68,72,57,
4,68,67,71,72,
4,67,49,48,71,
0
};
int32 gRightJawRegion[]=
{
3,29,72,71,
3,71,75,29,
4,71,48,47,75,
4,30,29,75,77,
4,77,75,47,46,
0
};
int32 gLeftEyeRegion[]={
3,8,9,63,
3,9,10,63,
3,10,11,63,
3,11,12,63,
3,12,13,63,
3,13,14,63,
3,14,15,63,
3,15,8,63,
0
};
int32 gLeftEyeTopRegion[]={
3,8,40,0,
4,0,1,9,8,
4,1,2,10,9,
4,2,3,11,10,
4,3,51,12,11,
0
};
int32 gLeftCheekUpperRegion[]={
4,12,51,93,13,
4,13,93,70,14,
4,14,70,69,15,
4,15,69,40,8,
3,40,69,41,
0
};
int32 gLeftCheekLowerRegion[]={
4,41,69,73,42,
4,69,70,74,73,
4,70,93,53,74,
0
};
int32 gLeftJawRegion[]=
{
3,33,76,73,
3,73,74,33,
4,73,76,43,42,
4,33,32,78,76,
4,76,78,44,43,
0
};
int32 gForeheadRegion[]=
{
4,82,86,0,40,
4,86,88,1,0,
4,88,84,2,1,
4,84,90,3,2,
4,90,80,65,3,
4,80,89,4,65,
4,89,83,5,4,
4,83,87,6,5,
4,87,85,7,6,
4,85,81,50,7,
0
};
int32 *gFaceRegionsRegion[]=
{
gRightEyeRegion,
gRightEyeTopRegion,
gRightCheekUpperRegion,
gRightCheekLowerRegion,
gRightJawRegion,
gLeftEyeRegion,
gLeftEyeTopRegion,
gLeftCheekUpperRegion,
gLeftCheekLowerRegion,
gLeftJawRegion,
gForeheadRegion,
gNoseBridgeRegion,
gNoseRegion,
gUpperMouthRegion,
gUpperLipRegion,
gLowerLipRegion,
gChinRegion,
NULL
};
char *gFaceRegionNames[]={
“RightEye”,
“RightEyeTop”,
“RightCheekUpper”,
“RightCheekLower”,
“RightJaw”,
“LeftEye”,
“LeftEyeTop”,
“LeftCheekUpper”,
“LeftCheekLower”,
“LeftJaw”,
“Forehead”,
“NoseBridge”,
“Nose”,
“UpperMouth”,
“UpperLip”,
“LowerLip”,
“Chin”
};
Vec2f synthQuadPoint(int32Dex0,int32Dex1,int32Dex2,real32 scale)
{
Vec2f diff=uvs[dex2]-uvs[dex0];
Vec2f perpDiff(diff.y,-diff.x);
perpDiff *=scale;
Vec2f result=uvs[dex1]+perpDiff;
return(result);
}
Vec2f synthTriPoint(int32Dex0,int32Dex1,real32 t,real32 scale)
{
Vec2f diff=uvs[dex1]-uvs[dex0];
Vec2f perpDiff(diff.y,-diff.x);
Vec2f midPoint=(diff*t)+uvs[dex0];
perpDiff *=scale;
Vec2f result=midPoint+perpDiff;
return(result);
}
Vec2f synthLinearPoint(int32 dex0,int32 dex1,real32 scale)
{
Vec2f result=((uvs[dex1]-uvs[dex0])* scale)+uvs[dex0];
return(result);
}
void synthUVs(real32 foreheadScale)
{
if(uvs.size()==65)
{
uvs.resize(95);
uvs[65]=synthLinearPoint(3,4,0.5f);// mid brow
uvs[66]=synthQuadPoint(57,58,59,0.2f);// right nose-cheek
uvs[93]=synthQuadPoint(51,52,53,0.2f);// left nose-cheek
uvs[94]=synthLinearPoint(62,61,0.50f);
uvs[67]=synthLinearPoint(49,66,0.30f);// right cheek0
uvs[68]=synthLinearPoint(49,66,0.65f);// right cheek1
uvs[69]=synthLinearPoint(41,93,0.30f);// left cheek0
uvs[70]=synthLinearPoint(41,93,0.65f);// left cheek1
uvs[71]=synthLinearPoint(48,57,0.35f);// right lower cheek0
uvs[72]=synthLinearPoint(48,57,0.7f);// right lower cheek1
uvs[73]=synthLinearPoint(42,53,0.35f);// left lower cheek0
uvs[74]=synthLinearPoint(42,53,0.7f);// left lower cheek1
uvs[75]=synthLinearPoint(47,29,0.5f);// right jaw
uvs[76]=synthLinearPoint(43,33,0.5f);// left jaw
uvs[77]=synthLinearPoint(46,30,0.45f);// right chin
uvs[78]=synthLinearPoint(44,32,0.45f);// left chin
uvs[79]=synthLinearPoint(45,31,0.6f);// mid chin
uvs[80]=synthLinearPoint(45,60,1.0f+foreheadScale);// top forehead
Vec2f rightHeadWidth=uvs[50]-uvs[60];
Vec2f leftHeadWidth=uvs[40]-uvs[60];
Vec2f templeMid=
synthLinearPoint(60,80,0.6f);
uvs[81]=templeMid+rightHeadWidth;// right temple
uvs[82]=templeMid+leftHeadWidth;// left temple
uvs[83]=synthTriPoint(80,81,0.45f,-0.15f);// right mid arc
uvs[84]=synthTriPoint(80,82,0.45f,0.15f);// left mid arc
uvs[85]=synthTriPoint(81,83,0.45f,0.10f);// fill right
uvs[86]=synthTriPoint(82,84,0.45f,-0.10f);// fill left
uvs[87]=synthTriPoint(85,83,0.5f,0.10f);// fill right
uvs[88]=synthTriPoint(86,84,0.5f,-0.10f);// fill left
uvs[89]=synthTriPoint(80,83,0.50f,-0.01f);// fill right
uvs[90]=synthTriPoint(84,80,0.50f,-0.01f);// fill left
uvs[91]=synthQuadPoint(55,56,57,0.45f);// right nostril
uvs[92]=synthQuadPoint(53,54,55,0.45f);// left nostril
}
}
GlobalLightingModelへの入力(InputData)は、以下を含む。
-sRGBとして知られる色空間において赤、緑、および青の値として符号化されたピクセルの2次元アレイの形態でカメラ/デバイス(本明細書ではImageMapと呼ばれる)を使用して取り込まれたユーザのデジタル画像。
-取り込まれたデジタル画像(本明細書ではDepthMapと呼ばれる)に関連付けられた取り込まれた深度画像は、深度値の2次元アレイの形態である。これらの値は、ImageMap内の対応するピクセルまでのカメラの距離の線形表現である。
-本明細書に記載のウィングドエッジポリゴンモデル。
-ユーザのデジタル画像の取り込みに関連して使用される露出設定(すなわち、ISO、シャッタスピード、および絞り)。
-ディスプレイの照明部分の中心に対するカメラ絞りの位置(本明細書ではPositionDataと呼ぶ)。
-ディスプレイの照明部分のサイズ(本明細書ではIlluminationDataと呼ばれる)。
-画像を取り込むために使用されるデバイスのモデルのためのディスプレイの照明部分の較正された光特性。
-ImageMapを取り込むために使用されるカメラ/デバイスのCCDの応答曲線は、デバイスのモデルに合わせて調整され、SI単位を提供する(本明細書ではImageLightCurveと呼ばれる)。曲線は、16ビットピクセル値の直接ルックアップを提供するために、離散値の0...0 x0001000配列として表される。
-ImageToCamera変換は、深度マップx、y、深度ピクセルを、カメラ絞り点を0、0、0としてx、y、zベクトルに変換する4x4変換行列である。
-LightToCamera変換は、Display IlluminantピクセルUVを、カメラ絞り点が0、0、0であるx、y、zベクトルに変換する4x4変換行列である。
-LightSIは、デバイスのモデルの定数SI光源値である。
中間データは、取り込まれたデジタル画像に関連付けられた画像マップ内の照明および表面データを反復的に近似する際に使用するために構築される。
SurfaceMap内の各ピクセルについて、
(SurfaceMap[thisPixel] ].Mask=1)の場合、
3dの頂点を有する三角形は、隣接するピクセルを使用して構築される。
Vertex0は、このピクセルである。
Vertex1は、右の列のピクセルである。
Vertex2は、右の列と下の行のピクセルである。
三角形の頂点は、カメラ空間に変換される。
Vertex0=ImageToCamera * Vertex0…
三角形の法線が求められる。
法線は128.0にスケーリングされる。
法線は128,128だけオフセットされる。
U、Vインデックスが設定され、U=N.x、V=N.y
SphereMapのU、Vピクセルの場合:
SphereMap[V][U].Red+=SurfaceMap[thisPixel] ].Red
SphereMap[V][U].Green+=SurfaceMap[thisPixel] ].Green
SphereMap[V][U].Blue+=SurfaceMap[thisPixel] ].Blue
SphereMap[V][U].Depth+=SurfaceMap[thisPixel] ].Depth
SphereMap[V][U].Accum+=1
SphereMapの各ピクセルについて、
If(SphereMap[thisPixel].Accum > 0)
SphereMap[V][U].Red /=SphereMap[V][U].Accum SphereMap[V][U].Green /=SphereMap[V][U].Accum SphereMap[V][U].Blue /=SphereMap[V][U].Accum SphereMap[V][U].Depth /=SphereMap[V][U].Accum SphereMap[V][U].Accum /=SphereMap[V][U].Accum
LightMap幅=((DisplayWidth in MM)+2.5)/5;
LightMap高さ=((DisplayHeioght in MM)+2.5)/5;
LightMapが割り当てられる。LightMapピクセルが設定され:
LightMap[V][U].xyz=(V,U)* LightToCamera.
SynthSphereMap-SI単位として赤、緑、青の値を含む構造体の2次元配列
CIELAB SurfaceColor-SphereMap UVからの距離が16ピクセルであるSphereMap内のそれらのピクセルの平均値に設定される{128,128}
SpecularGamma=1.8
SpecularScale=0.23
ErrorTerm=Infinity
MaxIteration=1000
MinError=0.02
GetSpherePixelNormal(REAL u,REAL v)-> {a,b,c}
{
a=(u-128)/128
b=(v-128)/128
c=sqrt(1.0-(a*a+b*b))
return({a,b,c}
}
RGBsiToCIELAB(RGB rgb)->{lab}
{
return(XYXtoLAB(LinRGBtoXYX(SiToLinRGB(rgb))))
}
CIELABtoRGBsi(RGB rgb)->{lab}
{
return(LinRGBToRGBsi(XYZ(ToLinRGB(LABToXYZ(rgb))))
}
BlinnPhong(SphereMapValue v,SI light,RGBsi rgb)-> {rgb}
{
toLight=light-v.xyz;
d=length(toLight)
lightNomal=normalize(toLight)
surfaceNormal=GetSpherePixelNormal(v.uv)
halfVector=normalize(surfaceNormal+lightNomal)
falloff=1.0/(d*d)
specular=dot(halfVector,{0,0,1})
specular=pow(specular,SpecularGamma)
specular=specular * SpecularScale
specular=specular * falloff
diffuse=dot(lightNomal,surfaceNormal)* falloff
return((rgb * diffuse)+(specular * LightColor))
}
AdjustSpecular(SpecularAmount,AccumRGBError)-> SpecularAmount
{
error=average(AccumRGBError)
SpecularAmount+=error * 0.1
return(SpecularAmount)
}
1.testRGB=CIELABtoRGBsi(SurfaceColor)
2.While(MaxIteration > 0 and ErrorTerm > MinError)
a.Render SynthSphereMap
i.SphereMapのすべてのピクセルについて
1.SphereMapのすべてのピクセルについて
a.If(SphereMap.accum>0)
i.ライトマップのすべてのピクセルについて
1.SynthSphereMap[currentPixel]=BlinnPhong(SphereMap[currentPixel,LightMap,testRGB)
b.Compare SphereMap and SynthSphereMap
i.RGBsi AccumRGBError=0;
ii.AccumCount=0
iii.SphereMapのすべてのピクセルについて
1.If(SphereMap.accum>0)
a.AccumCount++
b.AccumRGBError+=SphereMap[currentPixel].rgb-SynthSphereMap[currentPixel].rgb)
iv.AccumCountの場合
1.AccumRGBError=AccumRGBError / AccumCount
v.その他
1.エラー、SphereMapにデータなし
c.If(length(AccumRGBError)<ErrorTerm)
i.ErrorTerm=length(AccumRGBError)
d.MaxIteration--.
e.testRGB=testRGB+(AccumRGBError*0.1)
3.SurfaceColor=RGBsiToCIELAB(testRGB)
-露出設定、フレームサイズ、色および深度(3Dデータ)設定、ならびに(2つ以上のカメラが存在する場合)デバイス上のどのカメラが使用されるべきかなど、カメラの低レベル設定を制御する、デバイスカメラアプリケーションプログラミングインタフェース(API)のセットアップを制御することと、
-カメラから画像データを取得し、引き換えに高レベルデータを返す関数のセットを提供するコンピュータビジョンAPI設定の設定を制御する(例えば、顔の画像を表すデータを取得し、特定の顔特徴に対応する2D画像ポイントのリストを返す)ことと、
-自撮りスキャン表示用のビューを初期化することと、
-周囲光通知を提供する(例えば、環境が自撮りスキャンには明るすぎるという通知)ことと、
-最適なデータ収集のために取り込みシーンを調整するようにユーザにシグナリングする(例えば、取り込み対象物とユーザとの間の距離を調整するようにユーザに指示すること)ことと、
-画像取り込みプロセスを制御する(例えば、タイミング、ディスプレイ照明、および露出設定)ことと、
-画像データの処理に関する機能を実行することと、
-エラー情報を記憶し、警告を提供すること、のうちの1つ以上が含まれるが、これらに限定されない。
1.色は、人間の被験者の画像を記録するために使用される手持ち式デバイスの特定のモデルの応答曲線に基づいて補正することができる。これにより、CCD応答が補正される。
2.コサインまたは角度減衰は、デバイスのディスプレイおよびデバイスのカメラに対する頂点の表面法線の向きに基づく。カメラに対して斜めの角度で回転する頂点は、フィルタリングまたは除去することができる。
3.デバイスのディスプレイおよびデバイスのカメラからの頂点の距離に基づく光の振幅フォールオフ。
4.周囲照明を除去するための、照明に基づく頂点の色補正。
FallCorrectedLum=Lum *(Magnitude(vertex.XYZ)2).
CosCorrectedLum=FallCorrectedLum *(1.0/Dot(vertex.ABC,light.Normal)).
1.訓練データは平滑化され、フィルタリングされる。
a.リストAを化粧アーティストの承認色とする。
b.各顔領域のCIELAB色の成分中央値をListMとする。
c.ListTを訓練データ結果とする。
i.ListT=Gaussian(ListA-ListM)+ListM
2.MLシステムは、フィルタリングされたデータを使用して訓練される。
3.MLシステムの結果を検証する。
a.化粧アーティストがMLシステムによって行われた推奨をチェックする試験が実行されてもよい。
1.APIを介してユーザスキャンを色推奨に処理する要求を受信する。
2.特定の被験者の顔モデルデータ(例えば、GLTFファイル)をロードする。
3.必要に応じて機械学習モデルをロードして管理する。
4.ウィングドエッジ頂点にデバイス色補正を適用する。
5.ウィングドエッジ頂点に逆レンダリング補正を適用する。
6.ウィングドエッジ頂点を機械学習入力に変換する。
7.機械学習モデルを実行する。
8.要求に対する機械学習出力データを返す。
[項1]
ユーザによって使用されるデバイスの光学ディスプレイ上に前記ユーザの身体部分の画像を表示することであって、前記デバイスが画像センサを備え、前記ユーザの前記身体部分の前記画像が前記センサによって感知される、ことと、
前記センサに対する前記身体部分画像の位置が、前記身体部分の前記画像の記録を可能にするために許容可能であるかどうかを決定することと、
前記センサに関連付けられた照明環境が、前記身体部分の前記画像の記録を可能にするために許容可能であるかどうかを決定することと、
画像データを有する記録された画像を提供するために前記センサを使用して前記画像を記録することと、
前記記録された画像を処理して、前記照明環境に関連付けられた照明モデルデータを決定することと、
前記記録された画像および前記照明モデルデータに基づいて、前記ユーザの前記身体部分に関連付けられた反射率および色特性を決定することと
を含む、方法。
[項2]
前記センサに対する前記身体部分の前記位置が、前記身体部分の前記画像を記録するために許容可能であるかどうかを決定することは、前記光学ディスプレイに着色光を表示することを含む、項1に記載の方法。
[項3]
前記センサに対する前記身体部分の前記位置が、前記身体部分の前記画像を記録するために許容可能であるかどうかを決定することは、前記身体部分の点灯した輪郭を前記光学ディスプレイに表示することを含む、項1に記載の方法。
[項4]
前記センサに対する前記身体部分の前記位置が、前記身体部分の前記画像を記録するために許容可能であるかどうかを決定することは、前記デバイス上の触知または可聴インジケータを作動させることを含む、項1に記載の方法。
[項5]
前記照明環境が前記身体部分の前記画像を記録するために許容可能であるかどうかを決定することは、前記光学ディスプレイに着色光を表示することを含む、項1に記載の方法。
[項6]
前記照明環境が前記身体部分の前記画像を記録するために許容可能であると決定することは、前記身体部分の点灯した輪郭を表示することを含む、項1に記載の方法。
[項7]
前記照明環境が前記身体部分の前記画像を記録するために許容可能であると決定することは、前記デバイス上の触知または可聴インジケータを作動させることを含む、項1に記載の方法。
[項8]
前記照明モデルを決定することは、
前記デバイスに関連付けられた露出データを測定することと、
前記デバイス上の光源と前記画像センサの絞りとの間の関係を記述するデータを決定することと、
前記照明環境と前記画像センサとの間の関係を記述するデータを決定することと、
前記画像センサ、前記光源、および前記身体部分の表面の間の関係を記述するデータを決定することと
を含む、項1に記載の方法。
[項9]
前記反射率および色特性に部分的に基づいて、カスタマイズされた化粧品配合物を決定すること
をさらに含む、項1に記載の方法。
[項10]
前記光学ディスプレイは、光源を含み、前記照明環境による前記身体部分の照明は、前記光源によって提供される照明の約2%未満であり、前記記録された画像を処理して前記照明モデルデータを決定することは、直接計算を含む、項1に記載の方法。
[項11]
前記光学ディスプレイは、光源を含み、前記照明環境による前記身体部分の照明は、前記光源によって提供される照明の約2%~10%であり、前記記録された画像を処理して前記照明モデルデータを決定することは、画像フィルタリングを実行することを含む、項1に記載の方法。
[項12]
前記光学ディスプレイは、光源を含み、前記照明環境による前記身体部分の照明は、前記光源によって提供される照明の約10%~25%であり、前記記録された画像を処理して前記照明モデルデータを決定することは、左右対称性の統計的推定を実行することを含む、項1に記載の方法。
[項13]
前記光学ディスプレイは、光源を含み、前記照明環境による前記身体部分の照明は、前記光源によって提供される照明の約25%~40%であり、前記記録された画像を処理して前記照明モデルデータを決定することは、機械学習技術を使用することを含む、項1に記載の方法。
[項14]
前記光学ディスプレイは、光源を含み、前記センサに関連付けられた前記照明環境が前記身体部分の前記表現を記録するのに許容できないと判定された場合、前記方法は、
前記身体部分の照明が前記光源によって提供される照明の約2%未満であるように、前記ユーザに前記照明環境を修正するように命令することと、
前記光源を使用して一定の白色光で前記身体部分を照明することと、
前記照明された身体部分が前記センサに対して位置決めされて、前記身体部分の前記画像の記録を可能にするかどうかを、前記身体部分を前記センサの視野内に位置決めするために、前記ユーザの前記身体部分の輪郭を前記光学ディスプレイ上に表示することによって決定することと
をさらに含み、
前記記録された画像を処理して前記照明モデルデータを決定することは、直接計算を含む、項1に記載の方法。
[項15]
システムであって、
1つ以上のプロセッサおよび非一時的メモリと、
前記メモリに記憶された機械可読命令と
を含み、前記命令は、1つ以上のプロセッサによって実行されると、前記システムに、 ユーザによって使用されるデバイスの光学ディスプレイ上に前記ユーザの身体部分の画像を表示することであって、前記デバイスが画像センサを備え、前記ユーザの前記身体部分の前記画像が前記センサによって感知される、ことと、
前記センサに対する前記身体部分画像の位置が、前記身体部分の前記画像の記録を可能にするために許容可能であるかどうかを決定することと、
前記センサに関連付けられた照明環境が、前記身体部分の前記画像の記録を可能にするために許容可能であるかどうかを決定することと、
画像データを有する記録された画像を提供するために前記センサを使用して前記画像を記録することと、
前記記録された画像を処理して、前記照明環境に関連付けられた照明モデルデータを決定することと、
前記記録された画像および前記照明モデルデータに基づいて、前記ユーザの前記身体部分に関連付けられた反射率および色特性を決定することと
を含む動作を実行させる、システム。
[項16]
方法であって、
(a)デバイスの光学ディスプレイに関連付けられた照明源を使用して、既知の強度および色の光でユーザの身体部分を照明することと、
(b)前記光学ディスプレイ上に前記身体部分の表現を表示することであって、前記身体部分は前記光学デバイスの画像センサによって感知され、
前記身体部分の前記表現は、前記身体部分に関連する輪郭を含み、前記表現は、前記ユーザが前記身体部分を前記光学ディスプレイ内に配置することを可能にする、ことと、
(c)前記画像センサによって感知された前記身体部分の画像を記録することと、
(d)前記照明光の前記既知の強度および色を含む前記光学ディスプレイの特性と、前記画像センサの露出設定を含む前記画像センサの特性とを記述するデータを記録することと、
(e)前記身体部分の前記記録された画像に関連するデータ、前記光学ディスプレイの特性を記述する前記データ、前記画像センサの前記特性を記述する前記データに基づいて前記身体部分の表面色を決定することと
を含む、方法。
[項17]
前記画像センサから前記身体部分の前記表面までの距離を決定することであって、前記距離は、前記身体部分の前記表面色を決定するためにさらに使用されること
をさらに含む、項16に記載の方法。
[項18]
前記身体部分の前記表面色を決定することは、前記身体部分の前記記録された画像に関連付けられた前記データを、前記光学ディスプレイの特性を記述する前記データおよび前記画像センサの前記特性を記述する前記データと比較することを含む、項16に記載の方法。
[項19]
鏡に反射された前記照明源の記録された画像からのデータを使用して、前記照明源および前記画像センサの露出感度を較正することと
をさらに含む、項16に記載の方法。
[項20]
前記身体部分の前記表面色は、前記画像センサから前記身体部分の前記表面までの距離と、前記身体部分の前記記録された画像に関連付けられた前記データと、前記光学ディスプレイの特性を記述する前記データと、重み付き関数のネットワークを使用して前記画像センサの特性を記述する前記データとを処理することによって決定される、項17に記載の方法。
[項21]
システムであって、
1つ以上のプロセッサおよび非一時的メモリと、
前記メモリに記憶された機械可読命令と
を含み、前記命令は、1つ以上のプロセッサによって実行されると、前記システムに、 (a)デバイスの光学ディスプレイに関連付けられた照明源を使用して、既知の強度および色の光でユーザの身体部分を照明することと、
(b)前記光学ディスプレイ上に前記身体部分の表現を表示することであって、前記身体部分は前記光学デバイスの画像センサによって感知され、
前記身体部分の前記表現は、前記身体部分に関連する輪郭を含み、前記表現は、前記ユーザが前記身体部分を前記光学ディスプレイ内に配置することを可能にする、ことと、
(c)前記画像センサによって感知された前記身体部分の画像を記録することと、
(d)前記照明光の前記既知の強度および色を含む前記光学ディスプレイの特性と、前記画像センサの露出設定を含む前記画像センサの特性とを記述するデータを記録することと、
(e)前記身体部分の前記記録された画像に関連するデータ、前記光学ディスプレイの特性を記述する前記データ、前記画像センサの前記特性を記述する前記データに基づいて前記身体部分の表面色を決定することと
を含む動作を実行させる、システム。
[項22]
方法であって、
ユーザが使用するデバイスの光学ディスプレイ上に前記ユーザの身体部分の画像を表示することであって、前記デバイスは画像センサを含み、前記ユーザの前記身体部分の前記画像は前記センサによって感知される、ことと、
前記センサを使用して前記身体部分の前記画像の第1のバージョンおよび第2のバージョンを記録して、関連する記録された高ダイナミックレンジ画像を提供することであって、
前記デバイスの前記光学ディスプレイ上の前記ディスプレイ照明は、前記画像の前記第1のバージョンを記録するために白に設定され、
前記デバイスの前記光学ディスプレイ上の前記ディスプレイ照明は、前記画像の前記第2のバージョンを記録するために黒に設定される、ことと、
前記画像の前記第1のバージョンから前記画像の前記第2のバージョンの前記照明の少なくとも一部を除去して、前記画像の第3のバージョンを作成することと、
前記画像の前記第3のバージョンに関連付けられたデータを処理して、前記身体部分の3次元モデルを作成することであって、前記3次元モデルは一連の頂点に関連付けられ、前記頂点の各々はある色に関連付けられている、ことと、
前記センサから前記身体部分までの距離および前記センサから前記身体部分までの角度を考慮して、前記頂点の各々に関連付けられた前記色を補正して、補正された色の頂点を決定することと
機械学習モデルを使用して、前記補正された色の頂点を処理し、前記身体部分の色の特性を推定することと
を含む、方法。
[項23]
アプリケーションを使用して自己ポートレートモードで前記画像センサを動作させることをさらに含む、項22に記載の方法。
[項24]
前記アプリケーションを用いて、前記画像センサを有する前記デバイスの設定を制御することをさらに含む項23に記載の方法。
[項25]
前記画像の前記第1のバージョンを暗い室内照明環境で撮影することをさらに含む、項22に記載の方法。
[項26]
前記光学ディスプレイを白色光で照明することをさらに含む、項25に記載の方法。
[項27]
前記画像の前記第3のバージョンを顔データフォーマットで記憶することをさらに含む、項22に記載の方法。
[項28]
各頂点は、前記身体部分上の前記頂点の位置に関連付けられたラベル、前記画像の前記第3のバージョンから取得されたRGB色、前記画像センサの深度データから取得された前記頂点の深度、前記画像センサの視点に対する前記頂点の空間的位置、および前記画像センサの視点に対する前記頂点の前記投影された法線位置のうちの1つ以上を含む、項27に記載の方法。
[項29]
前記デバイスからの画像データを使用して前記デバイスの種類に基づいて色を補正する前処理ステップをさらに含む、項22に記載の方法。
[項30]
前記機械学習モデルは色補正学習モデルを含み、前記方法は、前記顔色色モデルを訓練しながら前記デバイスの種類を補正することと、前記顔色色モデルの訓練データとして、前記画像センサを有する前記デバイスを含む異なる種類のデバイスからの画像を含むこととをさらに含む、項22に記載の方法。
[項31]
前記機械学習モデルで使用するための訓練データは、前記機械学習モデルを訓練する前に平滑化およびフィルタリングされる、項22に記載の方法。
[項32]
前記機械学習モデルは、被験者からの訓練データを使用して構築および訓練され、前記訓練データは、調査データ、前記被験者からの自己報告データ、色チャートと共に前記被験者の参照写真、グラウンドトゥルース測定として使用される少なくとも1つの顔領域において分光光度計によって測定された前記被験者からの肌色データ、およびユーザからの顔画像データのうちの1つ以上を含む、項22に記載の方法。
[項33]
前記少なくとも1つの顔領域は、手首、額、右頬、左頬、右顎ライン、左顎ライン、およびデコルテから選択される、項32に記載の方法。
[項34]
グラウンドトゥルース測定に使用される前記少なくとも1つの顔領域からの肌色データである前記訓練データは、成分中央値法を使用して単一のCIELAB色に結合され、各顔領域の前記単一のCIELAB色は、機械学習モデルへの入力として使用され、前記機械学習モデルの前記出力は、顔の化粧品の統一色である、項32に記載の方法。
[項35]
グラウンドトゥルース測定に使用される前記少なくとも1つの顔領域からの肌色データである前記訓練データは、前記少なくとも1つの領域のうちのどれがグラウンドトゥルースデータセット内の肌色についての単一のCIELAB値に最もよく一致するかを判定するために、前記少なくとも1つの領域からの前記肌色データが前記少なくとも1つの顔領域にわたって線形重み付けを受ける複合方法を用いて組み合わされる、項32に記載の方法。
[項36]
前記機械学習モデルにおいて、前記少なくとも1つの顔領域の各々に対するCIELABベクトルは前記モデルへの入力であり、グラウンドトゥルース色CIELAB単一ベクトルは前記出力である、項35に記載の方法。
[項37]
前記線形重み付けは、正規化された多変量線形回帰の結果として計算される、項36に記載の方法。
[項38]
前記機械学習モデルは、夏季に取り込まれたグラウンドトゥルースデータおよび冬季に取り込まれたグラウンドトゥルースデータを有するグラウンドトゥルースデータセットを含むことができる、項36に記載の方法。
Claims (21)
- ユーザによって使用されるデバイスの光学ディスプレイ上に前記ユーザの身体部分の画像を表示することであって、前記光学ディスプレイは光源を含み、前記デバイスが画像センサを備え、前記ユーザの前記身体部分の前記画像が前記センサによって感知される、ことと、
前記センサに対する前記身体部分画像の位置が、前記身体部分の前記画像の記録を可能にするために許容可能であるかどうかを決定することと、
前記センサに関連付けられた照明環境が、前記身体部分の前記画像の記録を可能にするために許容可能であるかどうかを決定することと、
画像データを有する記録された画像を提供するために前記センサを使用して前記画像を記録することと、
前記記録された画像を処理して、前記光源によって提供される前記身体部分の照明に対する前記照明環境による前記身体部分の照明の割合に基づいて、前記照明環境に関連付けられた照明モデルデータを決定することと、
前記記録された画像および前記照明モデルデータに基づいて、前記ユーザの前記身体部分に関連付けられた反射率および色特性を決定することと
を含む、方法。 - 前記センサに対する前記身体部分の前記位置が、前記身体部分の前記画像を記録するために許容可能であるかどうかを決定することは、前記光学ディスプレイに着色光を表示することを含む、請求項1に記載の方法。
- 前記センサに対する前記身体部分の前記位置が、前記身体部分の前記画像を記録するために許容可能であるかどうかを決定することは、前記身体部分の点灯した輪郭を前記光学ディスプレイに表示することを含む、請求項1に記載の方法。
- 前記センサに対する前記身体部分の前記位置が、前記身体部分の前記画像を記録するために許容可能であるかどうかを決定することは、前記デバイス上の触知または可聴インジケータを作動させることを含む、請求項1に記載の方法。
- 前記照明環境が前記身体部分の前記画像を記録するために許容可能であるかどうかを決定することは、前記光学ディスプレイに着色光を表示することを含む、請求項1に記載の方法。
- 前記照明環境が前記身体部分の前記画像を記録するために許容可能であると決定することは、前記身体部分の点灯した輪郭を表示することを含む、請求項1に記載の方法。
- 前記照明環境が前記身体部分の前記画像を記録するために許容可能であると決定することは、前記デバイス上の触知または可聴インジケータを作動させることを含む、請求項1に記載の方法。
- ユーザによって使用されるデバイスの光学ディスプレイ上に前記ユーザの身体部分の画像を表示することであって、前記デバイスが画像センサを備え、前記ユーザの前記身体部分の前記画像が前記センサによって感知される、ことと、
前記センサに対する前記身体部分画像の位置が、前記身体部分の前記画像の記録を可能にするために許容可能であるかどうかを決定することと、
前記センサに関連付けられた照明環境が、前記身体部分の前記画像の記録を可能にするために許容可能であるかどうかを決定することと、
画像データを有する記録された画像を提供するために前記センサを使用して前記画像を記録することと、
前記記録された画像を処理して、前記照明環境に関連付けられた照明モデルデータを決定することと、
前記記録された画像および前記照明モデルデータに基づいて、前記ユーザの前記身体部分に関連付けられた反射率および色特性を決定することと
を含み、
前記照明モデルデータを決定することは、
前記デバイスに関連付けられた露出データを測定することと、
前記デバイス上の光源と前記画像センサの絞りとの間の関係を記述するデータを決定することと、
前記照明環境と前記画像センサとの間の関係を記述するデータを決定することと、
前記画像センサ、前記光源、および前記身体部分の表面の間の関係を記述するデータを決定することと
を含む、方法。 - 前記反射率および色特性に部分的に基づいて、カスタマイズされた化粧品配合物を決定すること
をさらに含む、請求項1に記載の方法。 - 前記照明環境による前記身体部分の照明は、前記光源によって提供される照明の約2%未満であり、前記記録された画像を処理して前記照明モデルデータを決定することは、直接計算を含む、請求項1に記載の方法。
- 前記照明環境による前記身体部分の照明は、前記光源によって提供される照明の約2%~10%であり、前記記録された画像を処理して前記照明モデルデータを決定することは、画像フィルタリングを実行することを含む、請求項1に記載の方法。
- 前記照明環境による前記身体部分の照明は、前記光源によって提供される照明の約10%~25%であり、前記記録された画像を処理して前記照明モデルデータを決定することは、左右対称性の統計的推定を実行することを含む、請求項1に記載の方法。
- 前記照明環境による前記身体部分の照明は、前記光源によって提供される照明の約25%~40%であり、前記記録された画像を処理して前記照明モデルデータを決定することは、機械学習技術を使用することを含む、請求項1に記載の方法。
- 前記センサに関連付けられた前記照明環境が前記身体部分の前記表現を記録するのに許容できないと判定された場合、前記方法は、
前記身体部分の照明が前記光源によって提供される照明の約2%未満であるように、前記ユーザに前記照明環境を修正するように命令することと、
前記光源を使用して一定の白色光で前記身体部分を照明することと、
前記照明された身体部分が前記センサに対して位置決めされて、前記身体部分の前記画像の記録を可能にするかどうかを、前記身体部分を前記センサの視野内に位置決めするために、前記ユーザの前記身体部分の輪郭を前記光学ディスプレイ上に表示することによって決定することと
をさらに含み、
前記記録された画像を処理して前記照明モデルデータを決定することは、直接計算を含む、請求項1に記載の方法。 - システムであって、
1つ以上のプロセッサおよび非一時的メモリと、
前記メモリに記憶された機械可読命令と
を含み、前記命令は、1つ以上のプロセッサによって実行されると、前記システムに、 ユーザによって使用されるデバイスの光学ディスプレイ上に前記ユーザの身体部分の画像を表示することであって、前記光学ディスプレイは光源を含み、前記デバイスが画像センサを備え、前記ユーザの前記身体部分の前記画像が前記センサによって感知される、ことと、
前記センサに対する前記身体部分画像の位置が、前記身体部分の前記画像の記録を可能にするために許容可能であるかどうかを決定することと、
前記センサに関連付けられた照明環境が、前記身体部分の前記画像の記録を可能にするために許容可能であるかどうかを決定することと、
画像データを有する記録された画像を提供するために前記センサを使用して前記画像を記録することと、
前記記録された画像を処理して、前記光源によって提供される前記身体部分の照明に対する前記照明環境による前記身体部分の照明の割合に基づいて、前記照明環境に関連付けられた照明モデルデータを決定することと、
前記記録された画像および前記照明モデルデータに基づいて、前記ユーザの前記身体部分に関連付けられた反射率および色特性を決定することと
を含む動作を実行させる、システム。 - 方法であって、
(a)デバイスの光学ディスプレイに関連付けられた照明源を使用して、既知の強度および色の光でユーザの身体部分を照明することと、
(b)前記光学ディスプレイ上に前記身体部分の表現を表示することであって、前記身体部分は前記光学デバイスの画像センサによって感知され、
前記身体部分の前記表現は、前記身体部分に関連する輪郭を含み、前記表現は、前記ユーザが前記身体部分を前記光学ディスプレイ内に配置することを可能にする、ことと、
(c)前記画像センサによって感知された前記身体部分の画像を記録することと、
(d)前記照明光の前記既知の強度および色を含む前記光学ディスプレイの特性と、前記画像センサの露出設定を含む前記画像センサの特性とを記述するデータを記録することと、
(e)前記身体部分の前記記録された画像に関連するデータ、前記光学ディスプレイの特性を記述する前記データ、前記画像センサの前記特性を記述する前記データに基づいて前記身体部分の表面色を決定することと
を含む、方法。 - 前記画像センサから前記身体部分の前記表面までの距離を決定することであって、前記距離は、前記身体部分の前記表面色を決定するためにさらに使用されること
をさらに含む、請求項16に記載の方法。 - 前記身体部分の前記表面色を決定することは、前記身体部分の前記記録された画像に関連付けられた前記データを、前記光学ディスプレイの特性を記述する前記データおよび前記画像センサの前記特性を記述する前記データと比較することを含む、請求項16に記載の方法。
- 鏡に反射された前記照明源の記録された画像からのデータを使用して、前記照明源および前記画像センサの露出感度を較正することと
をさらに含む、請求項16に記載の方法。 - 前記身体部分の前記表面色は、前記画像センサから前記身体部分の前記表面までの距離と、前記身体部分の前記記録された画像に関連付けられた前記データと、前記光学ディスプレイの特性を記述する前記データと、重み付き関数のネットワークを使用して前記画像センサの特性を記述する前記データとを処理することによって決定される、請求項17に記載の方法。
- システムであって、
1つ以上のプロセッサおよび非一時的メモリと、
前記メモリに記憶された機械可読命令と
を含み、前記命令は、1つ以上のプロセッサによって実行されると、前記システムに、 (a)デバイスの光学ディスプレイに関連付けられた照明源を使用して、既知の強度および色の光でユーザの身体部分を照明することと、
(b)前記光学ディスプレイ上に前記身体部分の表現を表示することであって、前記身体部分は前記光学デバイスの画像センサによって感知され、
前記身体部分の前記表現は、前記身体部分に関連する輪郭を含み、前記表現は、前記ユーザが前記身体部分を前記光学ディスプレイ内に配置することを可能にする、ことと、
(c)前記画像センサによって感知された前記身体部分の画像を記録することと、
(d)前記照明光の前記既知の強度および色を含む前記光学ディスプレイの特性と、前記画像センサの露出設定を含む前記画像センサの特性とを記述するデータを記録することと、
(e)前記身体部分の前記記録された画像に関連するデータ、前記光学ディスプレイの特性を記述する前記データ、前記画像センサの前記特性を記述する前記データに基づいて前記身体部分の表面色を決定することと
を含む動作を実行させる、システム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962831667P | 2019-04-09 | 2019-04-09 | |
US62/831,667 | 2019-04-09 | ||
US201962859676P | 2019-06-10 | 2019-06-10 | |
US62/859,676 | 2019-06-10 | ||
US201962951970P | 2019-12-20 | 2019-12-20 | |
US62/951,970 | 2019-12-20 | ||
PCT/IB2020/000271 WO2020208421A1 (en) | 2019-04-09 | 2020-04-03 | System and method for creation of topical agents with improved image capture |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022529230A JP2022529230A (ja) | 2022-06-20 |
JP7539917B2 true JP7539917B2 (ja) | 2024-08-26 |
Family
ID=70978287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021559441A Active JP7539917B2 (ja) | 2019-04-09 | 2020-04-03 | 画像取り込みが改善された局所用剤を作成するためのシステムおよび方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US12098956B2 (ja) |
JP (1) | JP7539917B2 (ja) |
CN (1) | CN114174783B (ja) |
WO (1) | WO2020208421A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7453956B2 (ja) | 2018-07-13 | 2024-03-21 | 株式会社 資生堂 | カスタム外用薬を調整するためのシステムおよび方法 |
JP7539917B2 (ja) | 2019-04-09 | 2024-08-26 | 株式会社 資生堂 | 画像取り込みが改善された局所用剤を作成するためのシステムおよび方法 |
JP6973542B2 (ja) * | 2020-03-25 | 2021-12-01 | カシオ計算機株式会社 | 照明制御装置、撮像装置、照明制御方法及びプログラム |
US11810329B2 (en) * | 2020-11-19 | 2023-11-07 | Huawei Technologies Co., Ltd. | Method, system, and device for color measurement of a surface |
US20220319231A1 (en) * | 2021-03-31 | 2022-10-06 | Snap Inc. | Facial synthesis for head turns in augmented reality content |
CN115439845B (zh) * | 2022-08-02 | 2023-05-02 | 北京邮电大学 | 基于图神经网络的图像外推方法、装置、存储介质及终端 |
US20240069630A1 (en) * | 2022-08-24 | 2024-02-29 | Meta Platform Technologies, LLC | Headset Adjustment |
US20240087229A1 (en) * | 2022-09-12 | 2024-03-14 | Mikhail Vasilkovskii | Three-dimensional asset reconstruction |
US20240403930A1 (en) * | 2023-05-30 | 2024-12-05 | Zazzle Inc. | Globalglobal illumination and printed layer light transport models for customizing physical products designed digitally |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016051482A (ja) | 2014-08-28 | 2016-04-11 | ケビン・アラン・チューシーKevin Alan Tussy | 認証システムにおいてユーザを登録および認証するための方法、顔認証システム、ならびに認証システムにおいてユーザを認証するための方法 |
JP2016523574A (ja) | 2013-03-15 | 2016-08-12 | スキン リパブリック, インコーポレイテッド | カスタム外用剤を具体化および調合するためのシステムおよび方法 |
Family Cites Families (111)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5249263A (en) | 1989-06-16 | 1993-09-28 | International Business Machines Corporation | Color palette display interface for a computer-based image editor |
US5315508A (en) | 1992-09-03 | 1994-05-24 | Monarch Marking System | Label generating and data tracking system for processing purchase orders |
DE69411924T2 (de) | 1993-08-23 | 1998-12-17 | Unilever N.V., Rotterdam | Verfahren und apparat zum anpassen kosmetischer produkte an den kunden |
US5648915A (en) | 1995-11-20 | 1997-07-15 | Triangle Research & Development Corporation | Soft tissue damage assessment system |
US6177093B1 (en) | 1999-03-17 | 2001-01-23 | Color Access, Inc. | Method and system for color customizing cosmetic mass products |
US6510366B1 (en) | 1999-04-23 | 2003-01-21 | Elizabeth Arden Company, Division Of Conopco, Inc. | Apparatus and method for customizing cosmetic products |
TW511040B (en) | 1999-07-07 | 2002-11-21 | Fd Man Inc | Color cosmetic selection system |
FR2799022B1 (fr) * | 1999-09-29 | 2002-02-01 | Oreal | Dispositif d'aide au maquillage et ensemble constitue d'un tel dispositif et d'un dispositif permettant de delivrer un produit ayant une brdf predeterminee, selectionne par le dispositif d'aide au maquillage |
JP4396873B2 (ja) * | 1999-10-01 | 2010-01-13 | 株式会社資生堂 | 口紅又はアイシャドーの選択方法 |
US20020010528A1 (en) | 2000-03-31 | 2002-01-24 | Imx Labs, Inc. | Nail Polish color selection system |
JP4421071B2 (ja) * | 2000-04-21 | 2010-02-24 | 株式会社資生堂 | メーキャップカウンセリング装置 |
CN100426303C (zh) * | 2000-04-21 | 2008-10-15 | 株式会社资生堂 | 化妆咨询装置 |
US6516245B1 (en) | 2000-05-31 | 2003-02-04 | The Procter & Gamble Company | Method for providing personalized cosmetics |
CZ20023561A3 (cs) | 2000-05-31 | 2003-03-12 | The Procter & Gamble Company | Způsoby a systém pro poskytování individuálně zaměřených přípravků |
US7711610B2 (en) | 2000-07-19 | 2010-05-04 | Shiseido Company, Ltd. | Personal color ordering system and personal color ordering method |
US6666216B2 (en) | 2000-07-24 | 2003-12-23 | L'oreal S.A. | Device for applying a product to a surface |
US9064344B2 (en) | 2009-03-01 | 2015-06-23 | Facecake Technologies, Inc. | Image transformation systems and methods |
US7337127B1 (en) | 2000-08-24 | 2008-02-26 | Facecake Marketing Technologies, Inc. | Targeted marketing system and method |
JP2002094868A (ja) | 2000-09-20 | 2002-03-29 | Fuji Photo Optical Co Ltd | リモコン雲台システム |
WO2002027612A1 (en) | 2000-09-27 | 2002-04-04 | Church Diana L | On-line ingredient exchange system and method |
JP2002131135A (ja) | 2000-10-20 | 2002-05-09 | Kao Corp | 基準色票およびメイクシミュレーション装置 |
FR2817745B1 (fr) | 2000-12-08 | 2003-03-28 | Oreal | Nuancier et procede de fabrication |
US20030215471A1 (en) | 2001-01-31 | 2003-11-20 | Wilmott James M. | Surfactant free topical compositions and method for rapid preparation thereof |
US7324668B2 (en) | 2001-10-01 | 2008-01-29 | L'oreal S.A. | Feature extraction in beauty analysis |
US6761697B2 (en) | 2001-10-01 | 2004-07-13 | L'oreal Sa | Methods and systems for predicting and/or tracking changes in external body conditions |
US7634103B2 (en) | 2001-10-01 | 2009-12-15 | L'oreal S.A. | Analysis using a three-dimensional facial image |
FR2840686B1 (fr) | 2002-06-10 | 2008-11-14 | Oreal | Procede pour determiner l'aptitude a diffuser et/ou a absorber la lumiere d'un produit cosmetique |
US20040125996A1 (en) * | 2002-12-27 | 2004-07-01 | Unilever Home & Personal Care Usa, Division Of Conopco, Inc. | Skin diagnostic imaging method and apparatus |
JP3954533B2 (ja) | 2003-06-17 | 2007-08-08 | 株式会社モリテックス | 肌観察装置 |
JP2006106951A (ja) | 2004-10-01 | 2006-04-20 | Dainippon Printing Co Ltd | 化粧品管理システム |
CA2587098C (en) | 2004-11-08 | 2015-12-29 | Julie R. Bartholomew | Automated customized cosmetic dispenser |
KR20060062263A (ko) * | 2004-12-03 | 2006-06-12 | 엘지전자 주식회사 | 이동통신 단말기를 이용한 메이크업 정보 제공장치 및제공 방법 |
JP2006254309A (ja) | 2005-03-14 | 2006-09-21 | Fuji Photo Film Co Ltd | 撮影システム |
FR2883154B1 (fr) | 2005-03-15 | 2008-02-08 | Oreal | Dispositif de mesure du teint |
US8860748B2 (en) | 2005-10-03 | 2014-10-14 | Gary Lynn Campbell | Computerized, personal-color analysis system |
US20070145126A1 (en) | 2005-12-22 | 2007-06-28 | Chevron U.S.A. Inc. | System and method for increasing convenience of gasoline cash purchases |
US20100329995A1 (en) | 2006-02-21 | 2010-12-30 | Ventria Bioscience | Compositions containing lactoferrin, and methods of using same to promote growth of skin cells |
CN101046410A (zh) * | 2006-03-31 | 2007-10-03 | 彭伟春 | 反射式颜色采集设备座 |
US8620038B2 (en) | 2006-05-05 | 2013-12-31 | Parham Aarabi | Method, system and computer program product for automatic and semi-automatic modification of digital images of faces |
US8660319B2 (en) | 2006-05-05 | 2014-02-25 | Parham Aarabi | Method, system and computer program product for automatic and semi-automatic modification of digital images of faces |
US8265351B2 (en) | 2006-05-05 | 2012-09-11 | Parham Aarabi | Method, system and computer program product for automatic and semi-automatic modification of digital images of faces |
CN100493441C (zh) | 2006-07-24 | 2009-06-03 | 许越 | 一种检测护肤品对皮肤刺激强度的方法与装置 |
CA2660723A1 (en) | 2006-09-03 | 2008-03-13 | Todd Basche | Textual combination locking devices and methods |
CN101523169A (zh) * | 2006-10-02 | 2009-09-02 | 强生消费者公司 | 用于使用L*a*b*色空间来分析皮肤的装置和方法 |
US7764303B2 (en) * | 2006-10-02 | 2010-07-27 | Johnson & Johnson Consumer Companies, Inc. | Imaging apparatus and methods for capturing and analyzing digital images of the skin |
JP2010520551A (ja) | 2007-03-08 | 2010-06-10 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | 画像から推定される皮膚色に基づいて製品を推奨するための方法及びシステム |
US20090231356A1 (en) | 2008-03-17 | 2009-09-17 | Photometria, Inc. | Graphical user interface for selection of options from option groups and methods relating to same |
US8521600B2 (en) | 2008-04-23 | 2013-08-27 | Hodge Products, Inc. | Online ordering system and method for keyed devices |
US8425477B2 (en) | 2008-09-16 | 2013-04-23 | Elc Management Llc | Method and system for providing targeted and individualized delivery of cosmetic actives |
FR2933581B1 (fr) | 2008-07-10 | 2011-12-02 | Oreal | Procede de maquillage et dispositif pour la mise en oeuvre d'un tel procede |
WO2010036732A1 (en) | 2008-09-25 | 2010-04-01 | Zeltiq Aesthetics, Inc. | Treatment planning systems and methods for body contouring applications |
JP2010086036A (ja) | 2008-09-29 | 2010-04-15 | Fujifilm Corp | 診断装置及び診断方法 |
KR20100056280A (ko) | 2008-11-19 | 2010-05-27 | 삼성전자주식회사 | 디지털 영상 처리장치 및 그 제어방법 |
US8725560B2 (en) | 2009-02-02 | 2014-05-13 | Modiface Inc. | Method and system for simulated product evaluation via personalizing advertisements based on portrait images |
US8823934B2 (en) | 2009-03-27 | 2014-09-02 | Brightex Bio-Photonics Llc | Methods and systems for imaging and modeling skin using polarized lighting |
US8373859B2 (en) | 2009-03-27 | 2013-02-12 | Brightex Bio-Photonics Llc | Methods and systems for imaging skin using polarized lighting |
JP5606524B2 (ja) | 2009-06-10 | 2014-10-15 | ビーエーエスエフ ソシエタス・ヨーロピア | ポリウレタン分散液の製造における新規の溶媒 |
US9602793B2 (en) | 2009-12-09 | 2017-03-21 | Imagination Technologies Limited | Skin tone detection in a digital camera |
GB0922603D0 (en) | 2009-12-24 | 2010-02-10 | Touch Emas Ltd | Skin colour determining apparatus and method |
FR2955079B1 (fr) | 2010-01-14 | 2012-03-23 | Electricite De France | Dispositif communicant et procede de consignation d'un equipement |
US8550818B2 (en) | 2010-05-21 | 2013-10-08 | Photometria, Inc. | System and method for providing and modifying a personalized face chart |
JP5656603B2 (ja) | 2010-12-14 | 2015-01-21 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびそのプログラム |
FR2969915B1 (fr) | 2011-01-04 | 2014-01-03 | Ergylink | Systeme et procede pour analyser au moins une caracteristique de la peau |
US8791999B2 (en) | 2011-01-21 | 2014-07-29 | Apple Inc. | Systems and methods for display calibration |
FR2975804B1 (fr) * | 2011-05-27 | 2022-06-17 | Lvmh Rech | Procede de caracterisation du teint de la peau ou des phaneres |
JP5231685B1 (ja) | 2011-07-07 | 2013-07-10 | 花王株式会社 | 顔印象分析方法、美容カウンセリング方法および顔画像生成方法 |
US9007588B1 (en) | 2011-08-25 | 2015-04-14 | L'oreal | Cosmetic blending machine for foundation, concealer, tinted moisturizer, primer, skin care products, nail polish, blush, hair dye, lipstick and other products |
US8830468B2 (en) | 2012-09-17 | 2014-09-09 | Larry Y Igarashi | Custom cosmetic blending machine with handheld colorimeter |
US8564778B1 (en) | 2011-08-25 | 2013-10-22 | Larry Y Igarashi | Custom cosmetic blending machine |
US8593634B1 (en) | 2012-06-15 | 2013-11-26 | Larry Y Igarashi | Custom cosmetic blending machine |
CA2845894A1 (en) | 2011-08-31 | 2013-03-07 | Zazzle.Com, Inc. | Product options framework and accessories |
CN102359819B (zh) * | 2011-09-21 | 2013-10-02 | 温州佳易仪器有限公司 | 多光源彩色影像颜色检测方法及其所用的颜色采集箱 |
US8644615B2 (en) | 2011-12-07 | 2014-02-04 | Elwha Llc | User-assistance information at least partially based on an identified possible non-imaged portion of a skin |
FR2987118A1 (fr) * | 2012-02-17 | 2013-08-23 | Franck Hennebelle | Procede et dispositif de mesure de la couleur d'un objet |
US9118876B2 (en) | 2012-03-30 | 2015-08-25 | Verizon Patent And Licensing Inc. | Automatic skin tone calibration for camera images |
US9449412B1 (en) * | 2012-05-22 | 2016-09-20 | Image Metrics Limited | Adaptive, calibrated simulation of cosmetic products on consumer devices |
US9460462B1 (en) | 2012-05-22 | 2016-10-04 | Image Metrics Limited | Monetization using video-based simulation of cosmetic products |
FR2990978A1 (fr) | 2012-05-25 | 2013-11-29 | Exaqtworld | Dispositif antivol d'article commercial |
CN202630927U (zh) * | 2012-06-08 | 2012-12-26 | 刘亮 | 一种获得物体三维和颜色数据的系统 |
US8693768B1 (en) | 2012-07-10 | 2014-04-08 | Lisa LaForgia | Cosmetic base matching system |
CN103256034B (zh) | 2013-01-23 | 2016-12-07 | 于文英 | 提高蒸汽吞吐效果方法 |
US8976252B2 (en) * | 2013-01-30 | 2015-03-10 | Hewlett-Packard Development Company, L.P. | Acquisition of color calibration charts |
US10321747B2 (en) | 2013-02-01 | 2019-06-18 | Panasonic Intellectual Property Management Co., Ltd. | Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program |
AU2014218525B2 (en) * | 2013-02-25 | 2019-01-24 | Commonwealth Scientific And Industrial Research Organisation | 3D imaging method and system |
US11373336B1 (en) | 2013-05-22 | 2022-06-28 | Sephora USA, Inc. | Skin tone scanning tool for cosmetics products matching |
EP3005085A1 (en) | 2013-05-29 | 2016-04-13 | Nokia Technologies Oy | An apparatus and associated methods |
WO2014208067A1 (ja) | 2013-06-28 | 2014-12-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 肌の官能評価装置および肌の評価方法 |
CN105378781A (zh) | 2013-07-09 | 2016-03-02 | 兵神装备株式会社 | 化妆品定制系统以及调配系统 |
CN108537628B (zh) * | 2013-08-22 | 2022-02-01 | 贝斯普客公司 | 用于创造定制产品的方法和系统 |
CN105683724B (zh) | 2013-09-19 | 2018-09-14 | 欧莱雅公司 | 对表面的颜色和光谱进行测量及分类的系统和方法 |
FR3014675A1 (fr) | 2013-12-12 | 2015-06-19 | Oreal | Procede d'evaluation d'au moins un signe clinique du visage |
EP2887275A1 (en) * | 2013-12-20 | 2015-06-24 | BASF Coatings GmbH | Method and system for determining a color formula |
FR3015872B1 (fr) | 2013-12-27 | 2017-03-24 | Oreal | Dispositif de maquillage comportant une pluralite d'encres cosmetiques |
CN106028929A (zh) | 2014-02-18 | 2016-10-12 | 英属开曼群岛商玩美股份有限公司 | 底妆对照系统 |
US9760935B2 (en) | 2014-05-20 | 2017-09-12 | Modiface Inc. | Method, system and computer program product for generating recommendations for products and treatments |
US9881332B2 (en) | 2014-05-22 | 2018-01-30 | LogoMix, Inc. | Systems and methods for customizing search results and recommendations |
US20150346952A1 (en) | 2014-05-30 | 2015-12-03 | Apple Inc. | Control center refinements |
CN104468578B (zh) * | 2014-12-10 | 2017-12-26 | 怀效宁 | 一种无线通讯的优先通讯系统和通讯方法 |
US20160027087A1 (en) | 2014-07-22 | 2016-01-28 | Colormodules Inc. | Methods for providing targeted notifications for color matched consumer products and devices thereof |
EP3692896A1 (en) | 2014-11-04 | 2020-08-12 | Samsung Electronics Co., Ltd. | Electronic device, and method for analyzing face information in electronic device |
US10083345B2 (en) | 2015-05-05 | 2018-09-25 | Myongsu Choe | Makeup supporting methods for creating and applying a makeup guide content to makeup user's face on a real-time basis |
US10395300B2 (en) | 2015-12-21 | 2019-08-27 | International Business Machines Corporation | Method system and medium for personalized expert cosmetics recommendation using hyperspectral imaging |
CA3013931A1 (en) | 2016-02-08 | 2017-08-17 | Equality Cosmetics, Inc. | Apparatus and method for formulation and dispensing of visually customized cosmetics |
JP7161473B2 (ja) | 2016-12-02 | 2022-10-26 | 株式会社 資生堂 | カスタマイズされた局所用剤を製造するためのシステム、方法および装置 |
GB201702008D0 (en) * | 2017-02-07 | 2017-03-22 | Anthropics Tech Ltd | A method of matching colours |
KR102581945B1 (ko) * | 2017-02-07 | 2023-09-25 | 삼성전자주식회사 | 스킨 정보 제공 방법 및 이를 지원하는 전자 장치 |
CA3055319A1 (en) | 2017-03-07 | 2018-09-13 | Shiseido Americas Corporation | System and method for adjusting custom topical agents |
CN107192456B (zh) * | 2017-06-22 | 2018-07-10 | 温州大学 | 一种基于led照明的颜色测量多光谱成像系统 |
WO2019100282A1 (zh) * | 2017-11-23 | 2019-05-31 | 深圳和而泰智能控制股份有限公司 | 一种人脸肤色识别方法、装置和智能终端 |
JP7453956B2 (ja) | 2018-07-13 | 2024-03-21 | 株式会社 資生堂 | カスタム外用薬を調整するためのシステムおよび方法 |
JP7539917B2 (ja) | 2019-04-09 | 2024-08-26 | 株式会社 資生堂 | 画像取り込みが改善された局所用剤を作成するためのシステムおよび方法 |
-
2020
- 2020-04-03 JP JP2021559441A patent/JP7539917B2/ja active Active
- 2020-04-03 WO PCT/IB2020/000271 patent/WO2020208421A1/en active Application Filing
- 2020-04-03 CN CN202080040189.0A patent/CN114174783B/zh active Active
-
2021
- 2021-10-04 US US17/493,519 patent/US12098956B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016523574A (ja) | 2013-03-15 | 2016-08-12 | スキン リパブリック, インコーポレイテッド | カスタム外用剤を具体化および調合するためのシステムおよび方法 |
JP2016051482A (ja) | 2014-08-28 | 2016-04-11 | ケビン・アラン・チューシーKevin Alan Tussy | 認証システムにおいてユーザを登録および認証するための方法、顔認証システム、ならびに認証システムにおいてユーザを認証するための方法 |
Also Published As
Publication number | Publication date |
---|---|
TW202103484A (zh) | 2021-01-16 |
JP2022529230A (ja) | 2022-06-20 |
CN114174783A (zh) | 2022-03-11 |
WO2020208421A1 (en) | 2020-10-15 |
US20220026276A1 (en) | 2022-01-27 |
CN114174783B (zh) | 2024-10-18 |
US12098956B2 (en) | 2024-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7539917B2 (ja) | 画像取り込みが改善された局所用剤を作成するためのシステムおよび方法 | |
KR101799174B1 (ko) | 피부 진단 및 화상 처리 시스템, 장치 및 물품 | |
KR101800102B1 (ko) | 피부 진단 및 화상 처리 방법 | |
JP3575679B2 (ja) | 顔照合方法と該照合方法を格納した記録媒体と顔照合装置 | |
US9449412B1 (en) | Adaptive, calibrated simulation of cosmetic products on consumer devices | |
CN106133796B (zh) | 用于在真实环境的视图中表示虚拟对象的方法和系统 | |
CN105701793B (zh) | 用于数字化真实材料外观的方法及装置 | |
JP6407607B2 (ja) | アピアランスデータをデジタル的に生成する方法および装置 | |
JP2009075109A (ja) | コラーゲンの厚みを測定する方法及び装置 | |
Gevaux et al. | Three-dimensional maps of human skin properties on full face with shadows using 3-D hyperspectral imaging | |
KR20210011966A (ko) | 각도 기반의 색조 매칭을 이용하는 치과용 3d 스캐너 | |
Tominaga et al. | Spectral image acquisition, analysis, and rendering for art paintings | |
JP6323097B2 (ja) | 色測定装置、色測定システム、色測定方法、および、プログラム | |
Lyu et al. | Validation of physics-based image systems simulation with 3-d scenes | |
JP6776004B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US8611674B1 (en) | System and method for invariant-based normal estimation | |
JP2021058361A (ja) | 生体情報取得装置およびプログラム | |
JP7633790B2 (ja) | 質感取得システム、質感取得装置および質感取得プログラム | |
KR20110098275A (ko) | 피부 색상 측정 시스템 및 방법 | |
TWI870399B (zh) | 具改善之影像擷取之用於外用劑之產生的系統及方法 | |
Diaz et al. | Estimating photometric properties from image collections | |
Shinozaki et al. | Correction of color information of a 3D model using a range intensity image | |
JP4615430B2 (ja) | 画像生成装置、画像生成方法および画像生成プログラム | |
Tetzlaff | High-fidelity specular svbrdf acquisition from flash photographs | |
Medina et al. | Objective colorimetric validation of perceptually realistic rendering: a study of paint coating materials |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20211014 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20211014 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7539917 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |