KR102231239B1 - Eyeglasses try-on simulation method - Google Patents
Eyeglasses try-on simulation method Download PDFInfo
- Publication number
- KR102231239B1 KR102231239B1 KR1020180164331A KR20180164331A KR102231239B1 KR 102231239 B1 KR102231239 B1 KR 102231239B1 KR 1020180164331 A KR1020180164331 A KR 1020180164331A KR 20180164331 A KR20180164331 A KR 20180164331A KR 102231239 B1 KR102231239 B1 KR 102231239B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- image
- glasses
- dimension
- reference article
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 title claims abstract description 24
- 239000011521 glass Substances 0.000 claims abstract description 125
- 230000001815 facial effect Effects 0.000 claims abstract description 18
- 238000012937 correction Methods 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 19
- 230000000295 complement effect Effects 0.000 claims description 15
- 230000000694 effects Effects 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 10
- 210000001747 pupil Anatomy 0.000 claims description 8
- 238000005452 bending Methods 0.000 claims description 6
- 210000005069 ears Anatomy 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 abstract description 4
- 210000001508 eye Anatomy 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 210000001331 nose Anatomy 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 정확하게 측정한 얼굴 치수에 근거하여 안경의 3D 안경 모델을 촬영 영상의 얼굴에 맞춰 합성함으로써, 실제 안경을 착용한 얼굴의 모습을 보여줄 수 있는 안경 착용 시뮬레이션 방법에 관한 것으로서, 기설정 배치에 따라 출력한 얼굴 윤곽선(141) 및 기준 물품 윤곽선(142)에 맞춰 얼굴 및 기준 물품을 함께 촬영하고, 촬영하여 얻는 이미지 상에서의 기준 물품 치수를 얼굴 위치의 값으로 보정하여, 보정한 기준 물품 치수, 이미지 상의 얼굴 치수 및 기준 물품의 실물 치수에 따라 실제 얼굴 치수를 얻으며, 실제 얼굴 치수를 반영한 3D 사용자 얼굴 모델에 맞춰 3D 안경 모델을 합성한 가상 안경 체험을 하게 한다.The present invention relates to a spectacle wearing simulation method capable of showing the appearance of a real spectacled face by synthesizing a 3D spectacle model of spectacles according to a face of a photographed image based on an accurately measured face dimension, and The face and the reference article are photographed together in accordance with the facial contour 141 and the reference article contour 142 output according to the following, and the reference article dimension in the image obtained by photographing is corrected with the value of the face position, and the corrected reference article dimension, Real face dimensions are obtained according to the dimensions of the face on the image and the actual dimensions of the reference item, and the 3D glasses model is synthesized according to the 3D user's face model reflecting the actual face dimensions.
Description
본 발명은 정확하게 측정한 얼굴 치수에 근거하여 안경의 3D 안경 모델을 촬영 영상의 얼굴에 맞춰 합성함으로써, 실제 안경을 착용한 얼굴의 모습을 보여줄 수 있는 안경 착용 시뮬레이션 방법에 관한 것이다.The present invention relates to a spectacle wearing simulation method capable of showing the appearance of an actual spectacled face by synthesizing a 3D spectacle model of spectacles according to a face of a photographed image based on an accurately measured face dimension.
최근 온프라인 매장 판매량은 줄어들고 온라인 매장 판매량은 급속히 증가하고 있으며, 온라인으로 구매할 수 있는 물건의 종류도 더욱 다양화되는 추세에 있다. 이에 따라, 웬만한 물건은 온라인으로 구매할 수 있게 되었다.Recently, online store sales have decreased, online store sales have increased rapidly, and the types of items that can be purchased online are also on the trend of becoming more diversified. Accordingly, it is possible to purchase most items online.
이러한 추세에 편승하여, 다양한 종류의 안경 중에 원하는 안경을 온라인을 통해 구매할 수 있게 되었다.Taking advantage of this trend, it has become possible to purchase desired glasses from among various types of glasses online.
그런데, 온라인 구매에서는 잘 어울리는지를 확인하기 위해서 실제 착용해 보는 체험을 할 수 없으므로, 특히 패션 상품으로 인식되고 있는 안경의 온라인 구매를 기피하는 경향이 있었다.However, in order to check whether it fits well in online purchase, there is a tendency to avoid online purchase of eyeglasses, which is recognized as a fashion product, in particular, because it is not possible to actually try on them.
이에, 촬영한 얼굴 영상에 안경 이미지를 오버랩(또는 합성)하여 실제 안경을 착용한 얼굴 모습과 유사하게 보여주는 시뮬레이션 기술이 개발되었고, 이러한 기술을 활용한 온라인 판매도 개시되어서, 다양한 종류의 안경을 순차적으로 착용한 가상의 모습을 보며, 어울리는 안경을 선택 구매할 수 있게 되었다. 또한, 안경 초점을 눈동자에 맞추기 위해서, 양 동공 사이의 간격인 PM 값에 맞춘 안경도 구매할 수 있는 기술도 개발되었다.Accordingly, a simulation technology was developed that overlaps (or synthesizes) the photographed face image with the glasses image to resemble a face wearing the actual glasses, and online sales using this technology were also started, so that various types of glasses were sequentially sold. It is now possible to select and purchase glasses that match while looking at the virtual image worn by him. In addition, in order to focus the glasses on the pupils, a technology that allows the purchase of glasses that match the PM value, which is the interval between the two pupils, has also been developed.
그런데, 안경의 각 부위 치수는 제조단계에서 정해져 있으므로, 영상 내의 얼굴 치수에 맞춰 안경 이미지를 축소하거나 확대하여 합성해야 한다. 이에, 얼굴 치수를 얻어야 하는 데, 종래 기술에서는 얼굴 치수를 사용자가 입력하게 하거나, 또는 카메라와 얼굴 사이의 간격을 일정하게 한 상태에서 촬영하게 함으로써 영상 내의 얼굴 이미지로 치수를 얻을 수 있었다. 또한, 얼굴 영상 내의 치수를 알기 위한 보조적인 물건도 촬영하게 하여 그 물건의 이미지 치수로 얼굴 이미지 치수를 얻을 수 있었다.However, since the dimensions of each part of the glasses are determined at the manufacturing stage, the glasses image must be reduced or enlarged according to the dimensions of the face in the image to be synthesized. Accordingly, it is necessary to obtain the face dimensions. In the prior art, the dimensions can be obtained as a face image in the image by allowing the user to input the face dimensions or taking pictures with a constant distance between the camera and the face. In addition, it was possible to obtain the dimensions of the face image using the image dimensions of the object by photographing an auxiliary object for knowing the dimensions in the face image.
그렇지만, 자신의 얼굴 치수를 알고 있는 사람은 드물고, 촬영 거리를 맞춰 촬영하는 것도 어려우며, 단순히 치수를 알고 있는 보조적인 물건의 촬영 이미지만으로는 촬영 방향의 차이에 따른 오차가 발생하여 얼굴 치수를 정확하게 얻을 수 없으므로, 얻은 얼굴 치수에 오차가 발생할 수 있고, 결국, 얼굴 이미지에 합성하여 보여준 안경 이미지가 얼굴에 매칭되지 아니하고, 어색하게 될 수 있었다.However, few people know the dimensions of their faces, and it is difficult to shoot according to the shooting distance, and an error due to the difference in the shooting direction occurs only with the photographed image of an auxiliary object that knows the dimensions, so that the facial dimensions can be accurately obtained. Therefore, an error may occur in the obtained face dimension, and eventually, the glasses image combined with the face image may not match the face and may become awkward.
이에, 누구라도 얼굴 치수를 간편하게 측정하여, 얼굴 형상에 정확하게 매칭시킨 안경 착용 모습을 보여줄 수 있는 기술이 요구된다.Accordingly, there is a need for a technology that allows anyone to easily measure the face dimension and show the wearing of glasses accurately matched to the shape of the face.
따라서, 본 발명은 얼굴 치수를 간편하면서 정확하게 측정하여, 치수가 정해져 있는 안경 이미지를 얼굴 치수에 정확하게 맞춘 가상 안경 착용 모습을 보여줄 수 있는 안경 착용 시뮬레이션 방법을 제공하는 데 목적을 둔다.Accordingly, an object of the present invention is to provide a spectacle wearing simulation method capable of simply and accurately measuring a face dimension and showing a virtual spectacle wearing state in which a spectacle image having a predetermined dimension is accurately matched to the face dimension.
상기 목적을 달성하기 위해 본 발명은 사용자의 얼굴을 카메라(130)로 촬영하여 얻는 영상과 실제 치수가 정해진 안경의 3D 안경 모델을 이용하여 안경을 착용한 가상 얼굴을 영상처리부(230)로 생성하고 디스플레이부(140)로 보여주는 안경 착용 시뮬레이션 방법에 있어서, 기설정 배치에 따라 디스플레이부(140)에 출력한 얼굴 윤곽선(141) 및 기준 물품 윤곽선(142)에 정면 얼굴 및 기준 물품의 중심을 맞췄을 시에 촬영한 정면 이미지와, 얼굴을 돌리며 촬영한 활동 영상을 카메라(130)를 통해 획득하는 촬영단계(S100); 활동 영상에서 안면 인식하여 3D 사용자 얼굴 모델을 얻는 얼굴 모델 획득단계(S200); 정면 이미지에서 기준 물품의 치수를 얼굴 위치의 값으로 보정한 보정 기준 물품 치수를 얻는 기준물품 치수 보정단계(S300); 정면 이미지에서 얼굴 치수와 보정 기준 물품 치수 사이의 비율, 및 기준 물품의 기설정 실제 치수에 근거하여, 3D 사용자 얼굴 모델의 치수를 결정하는 얼굴 치수 획득단계(S400); 얼굴을 촬영할 시에 영상 내의 얼굴 치수와 3D 사용자 얼굴 모델 치수 사이의 비율에 따라 크기를 조절한 3D 안경 모델을 영상 내 얼굴과 합성하여 디스플레이부(140)로 보여주는 시뮬레이션단계(S600); 를 포함한다.In order to achieve the above object, the present invention generates a virtual face wearing glasses by the
본 발명의 일 실시 예에 따르면, 상기 기준 물품은 실제 크기가 알려진 신용카드로 하고, 상기 촬영단계(S100)는 양 동공 또는 양 귀를 인식하여 정면 얼굴 중심을 좌우 대칭으로 상기 얼굴 윤곽선(141) 중심에 맞추고, 상기 기준 물품은 상기 기준 물품 윤곽선(142)에 맞췄을 시에 촬영하여 정면 이미지를 획득한다.According to an embodiment of the present invention, the reference article is a credit card whose actual size is known, and the photographing step (S100) recognizes both pupils or both ears, and the
본 발명의 일 실시 예에 따르면, 상기 촬영단계(S100)는 얼굴 윤곽선(141)의 좌우 중 어느 한쪽에 기준 물품 윤곽선(142)을 겹쳐 놓아서, 한쪽 눈의 외곽 측에 기준 물품이 배치된 정면 얼굴을 촬영한 정면 이미지를 얻고, 상기 얼굴 치수 획득단계(S400)는 정면 이미지에서 PD값과 보정 기준 물품 치수 사이의 상대적 비율, 및 기준 물품의 기설정 실제 크기에 근거하여 얻는 실제 PD값에 따라 3D 사용자 얼굴 모델의 치수를 결정한다.According to an embodiment of the present invention, in the photographing step (S100), the
본 발명의 일 실시 예에 따르면, 상기 촬영단계(S100)는 정면 이미지를 촬영할 시의 얼굴과 기준 물품을 촬영 방향을 달리하여 함께 촬영한 보완 이미지를 더욱 획득하고, 상기 얼굴 치수 획득단계(S400)는 보완 이미지에서 얼굴과 기준 물품 사이의 깊이 차이를 얻고, 정면 이미지 상의 얼굴 치수와 보정 기준 물품 치수 사이의 상대적 비율을 깊이 차이에 따라 보정한다.According to an embodiment of the present invention, the photographing step (S100) further acquires a complementary image photographed together by different photographing directions of a face and a reference item when photographing a front image, and the facial dimension obtaining step (S400) Obtains a depth difference between the face and the reference article in the complementary image, and corrects the relative ratio between the face dimension on the front image and the correction reference article dimension according to the depth difference.
본 발명의 일 실시 예에 따르면, 상기 보완 이미지는 기준 물품을 얼굴보다 앞에 두어 측면에서 얼굴에 가려지지 않게 한 상태로 측면 촬영한 측면 이미지로 한다.According to an embodiment of the present invention, the complementary image is a side image taken from the side in a state in which the reference item is placed in front of the face so that the face is not covered from the side.
본 발명의 일 실시 예에 따르면, 상기 얼굴 치수 획득단계(S400)에서 결정한 치수를 갖는 3D 사용자 얼굴 모델에 맞춰 3D 안경 모델의 변형 가능한 부위를 가변하여 교정한 3D 안경 모델을 생성하는 안경 모델 교정단계(S500); 를 더욱 포함하고, 교정한 3D 안경 모델을 상기 시뮬레이션단계(S600)에 적용한다.According to an embodiment of the present invention, a glasses model correction step of generating a corrected 3D glasses model by varying a deformable portion of a 3D glasses model according to a 3D user's face model having the dimensions determined in the step of obtaining the face dimensions (S400). (S500); It further includes, and applies the corrected 3D glasses model to the simulation step (S600).
본 발명의 일 실시 예에 따르면, 상기 안경 모델 교정단계(S500)에서 3D 안경 모델의 교정은 안경을 3D 사용자 얼굴 모델에 맞춰 착용하기 위하여, 양측 림(rim)을 연결하는 브릿지(bridge)를 휘는 것, 림(rim)에 고정되어 단부에 힌지(hinge)를 설치할 수 있게 한 조인트(joint)를 휘는 것, 힌지(hinge)에 의해 다리(temple)의 각도를 조절하는 것, 다리(temple)를 휘는 것, 다리(temple)의 단부에 구비하여 귀에 걸 수 있게 한 팁(tip)을 휘는 것 중에 적어도 어느 하나를 포함한다.According to an embodiment of the present invention, in the correction of the 3D glasses model in the glasses model calibration step (S500), in order to wear the glasses according to the 3D user's face model, a bridge connecting both rims is bent. Bending a joint that is fixed to a rim so that a hinge can be installed at the end, adjusting the angle of the temple by means of a hinge, and adjusting the temple It includes at least one of bending, and bending a tip provided at an end of a temple so as to be hung on the ear.
본 발명의 일 실시 예에 따르면, 상기 기준물품 치수 보정단계(S300)는 보정 기준 물품 치수와 정지 이미지 내 기준 물품 치수 사이의 비율을 기준 물품의 방향(132)과 카메라 광축(131) 사이의 각도로 표현한 식을 미리 설정하여 두고, 정지 이미지 내에서 기준 물품의 위치에 따라 기준 물품의 방향(132)을 얻고, 기준 물품의 방향(132)과 카메라 광축(131) 사이의 각도를 얻은 이후, 각도에 대응되는 비율을 적용하여 보정 기준 물품 치수를 얻는다.According to an embodiment of the present invention, in the step of correcting the dimensions of the reference article (S300), the angle between the
상기와 같이 이루어지는 본 발명은 화면 상의 위치가 고정된 얼굴 윤곽선 및 기준 물품 윤곽선에 맞춰 정면 얼굴 및 기준 물품을 함께 촬영하는 간편한 사전 동작에 의해서, 기준 물품을 얼굴 위치에서 촬영하여 얻을 수 있는 영상 내 치수를 일정한 크기의 기준 물품과 윤곽선의 기설정 배치를 이용하여 얻을 수 있고, 정면 얼굴의 수치도 정확하게 측정할 수 있으며, 이를 기반으로 3D 사용자 얼굴 모델의 치수를 정확하게 얻을 수 있고, 치수가 정해진 안경을 실제 얼굴에 착용한 모습처럼 보여줄 수 있다.The present invention made as described above is an image dimension that can be obtained by photographing a reference item at a face position by a simple pre-operation of photographing a front face and a reference item together in accordance with the face outline and the reference item outline at which the position on the screen is fixed. Can be obtained by using a reference item of a certain size and a preset arrangement of outlines, and the numerical value of the front face can also be accurately measured.Based on this, the dimensions of the 3D user's face model can be accurately obtained, and glasses with fixed dimensions can be obtained. It can be shown as if it was worn on a real face.
본 발명의 실시 예에 따르면, 얼굴 크기가 상이하더라도 기준 물품을 기준 물품 윤곽선에 맞추는 방식, 눈과 기준 물품의 깊이를 동일하게 한 상태로 촬영하게 하는 방식, 또는 정면과는 다른 각도로 촬영한 이미지로 기준 물품과 얼굴 사이의 깊이 차이를 얻는 방식을 활용하여, 간편하면서 더욱 정확하게 얼굴 치수를 얻을 수 있다.According to an embodiment of the present invention, even if the face size is different, a method of fitting a reference article to a reference article outline, a method of photographing with the same depth of the eyes and the reference article, or an image taken at a different angle from the front By utilizing the method of obtaining the difference in depth between the reference item and the face, it is possible to obtain the face dimensions more easily and more accurately.
본 발명의 실시 예에 따르면, 3D 안경 모델을 사용자 얼굴에 맞춰 교정하므로, 실제 얼굴 형태에 맞춰 안경을 착용한 모습처럼 보여줄 수 있다.According to an embodiment of the present invention, since the 3D glasses model is corrected according to the user's face, it can be shown as if wearing the glasses according to the actual shape of the face.
도 1은 본 발명의 실시 예에 따른 안경 착용 시뮬레이션 방법의 실현을 위한 예시적인 안경 착용 시뮬레이션 시스템의 블록구성도.
도 2는 본 발명의 실시 예에 따른 안경 착용 시뮬레이션 방법의 순서도.
도 3은 정면 이미지를 얻기 위한 화면(a)과, 정면 이미지를 얻는 중의 화면(b).
도 4는 보완 이미지를 얻는 중의 화면.
도 5는 활동 영상을 얻는 중의 화면.
도 6은 기준물품 치수 보정단계(S300)의 설명을 위해서, 기준 물품의 배치에 따라 나타나는 카메라 영상 내의 이미지 치수 차이를 보여준 도면.
도 7은 안경 모델 교정단계(S500)의 설명을 위해서, 착용 전 3D 안경 모델로 얻은 사시도 및 상면도 이미지(a)와, 3D 사용자 얼굴 모델에 착용한 3D 안경 모델로 얻은 상면도 이미지(b)를 보여준 도면.
도 8은 시뮬레이션단계(S600)의 화면.
도 9는 기준 물품을 눈의 깊이에 맞춰 촬영하기 위한 정지 이미지 촬영용 화면.1 is a block diagram of an exemplary spectacle wearing simulation system for realizing a spectacle wearing simulation method according to an embodiment of the present invention.
2 is a flow chart of a method for simulating wearing glasses according to an embodiment of the present invention.
Fig. 3 is a screen (a) for obtaining a front image, and a screen (b) for obtaining a front image.
4 is a screen while obtaining a complementary image.
5 is a screen while an activity image is being acquired.
6 is a view showing a difference in image dimensions in a camera image appearing according to an arrangement of a reference article for explanation of the reference article dimension correction step (S300).
7 is a perspective view and a top view image (a) obtained from a 3D glasses model before wearing and a top view image (b) obtained from a 3D glasses model worn on a 3D user's face model for explanation of the glasses model correction step (S500). A drawing showing.
8 is a screen of the simulation step (S600).
9 is a screen for photographing a still image for photographing a reference article according to the depth of the eye.
이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 당해 분야에 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 설명한다. 본 발명의 실시 예를 설명함에 있어, 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. In describing an embodiment of the present invention, if it is determined that a detailed description of a related known function or a known configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.
본 발명에 따른 안경 착용 시뮬레이션 방법은 안경의 3D 안경 모델(30)을 사용자 얼굴(10)의 영상에 합성하여 가상의 안경 착용 모습을 보여주기 위한 방법으로서, 치수가 알려진 기준 물품(20)을 이용하여 사용자 얼굴(10)의 치수에 정확하게 맞춘 3D 사용자 얼굴 모델을 얻고, 촬영한 영상 내의 사용자 얼굴(10)에 맞춰 크기 및 방향을 조절한 3D 안경 모델(30)의 이미지(30')를 오버랩하여 실제 안경을 착용한 얼굴(10)과 가장 근접한 모습을 보여준다.The spectacle wear simulation method according to the present invention is a method for showing a virtual spectacle wearing state by synthesizing the
여기서, 3D 안경 모델(30)의 안경은 치수가 정해진 안경으로서, 예를 들어, 기성품 또는 판매할 제품으로서 치수가 이미 정해져 있는 안경, 주문 제작하더라도 주요 부분의 치수는 변경하지 않는 안경, 또는 주문 제작하더라도 치수 변경이 한정된 안경일 수 있다.Here, the glasses of the
본 발명은 정면 얼굴(10)과 기준 물품(20)을 함께 촬영하여 얻는 정면 이미지를 이용하되, 정면 얼굴(10)과 기준 물품(20)의 배치를 미리 지정하여 둔 윤곽선(141, 142)에 맞춘 상태로 촬영하게 하여서, 얼굴 치수를 정면 이미지를 이용하여 정확하게 얻을 수 있다. 이를 기반으로, 3D 사용자 얼굴 모델(40)의 정확한 실제 치수를 얻어서, 실제 치수가 정해진 안경의 3D 안경 모델(30)을 3D 사용자 얼굴 모델(40)에 매칭시킬 수 있고, 이를 기반으로 촬영 영상 내의 얼굴 치수에 맞춰 3D 안경 모델(30)을 크기 및 방향 조절하며 합성한 영상을 보여줄 수 있다.The present invention uses a front image obtained by photographing the
이와 같은 본 발명의 구체적인 실시 예를 실현하기 위한 안경 착용 시뮬레이션 시스템을 예시적으로 먼저 설명한다.A system for simulating wearing glasses for realizing such a specific embodiment of the present invention will be described first by way of example.
도 1은 안경 착용 시뮬레이션 시스템의 블록 구성도이다.1 is a block diagram of a system for simulating wearing glasses.
도 1에 예시한 안경 착용 시뮬레이션 시스템은 온라인 판매를 위해 구축된 서버(200)에 네트워크를 통해 사용자 단말(100)로 접속하여 온라인 구매할 수 있는 시스템을 예로 들었으며, 본 발명에 따른 안경 착용 시뮬레이션 방법을 실현하기 위한 구성요소를 갖추어서, 안경 가상 착용을 체험하며 안경을 선택 구매할 수 있게 되어 있다. The spectacle wearing simulation system illustrated in FIG. 1 is an example of a system for online purchase by connecting to a
상기 사용자 단말(100)은 예시한 바와 같이 네트워트를 통해 서버(200)에 접속할 수 있고, 촬영 기능과 사용자 인터페이스 기능을 갖춘 단말이면 되며, 이를 위해서, 통신모듈(120), 카메라(130), 디스플레이부(140) 및 사용자 단말(100)의 동작제어를 위한 제어부(110)를 구비한 스마트폰, 컴퓨터, 노트북 등으로 구성될 수 있다.The
본 발명의 실시 예에 따르면, 상기 사용자 단말(100)은 상기 서버(200)에 접속하여 판매되는 안경 리스트를 디스플레이부(140)로 보여주고, 가상 안경 착용 서비스를 받을 시에 요구되는 사전 동작을 수행하고, 이후 가상 안경 착용 서비스를 받으며, 안경을 고르게 한다. According to an embodiment of the present invention, the
여기서, 사전 동작은 사용자의 정면 얼굴과 기준 물품을 함께 촬영하여 얻는 정면 이미지, 카메라를 기점으로 정면 얼굴과 기준 물품까지의 거리 차이인 깊이 차이를 알기 위해 추가 촬영하여 얻는 보완 이미지, 및 얼굴의 3D 모델을 얻기 위해 얼굴을 돌리며 촬영하여 얻는 활동 영상을 카메라(130)를 통해 획득하고 서버(200)에 전송하는 동작이다.Here, the preliminary operation is a front image obtained by photographing the user's front face and a reference item together, a supplementary image obtained by additional photographing to know the difference in depth, which is the difference in the distance between the front face and the reference item from the camera, and 3D of the face. In order to obtain a model, an activity image obtained by photographing while turning a face is acquired through the
가상 안경 착용 서비스는 가상 착용할 안경을 선택하여 서버(200)에 알리고, 카메라(130)로 촬영되는 사용자 얼굴(10)의 움직임 정보를 실시간 획득하여 서버(200)에 전송하고 서버(200)에서 합성되어 생성된 영상을 실시간 디스플레이부(140)로 보여주는 기능을 수행한다.The virtual glasses wearing service selects glasses to be worn virtually and informs the
여기서, 사용자 얼굴(10)의 움직임 정보는 3D 사용자 얼굴 모델을 서버(200)로부터 받은 후, 카메라(130)로 촬영되는 영상을 안면 인식처리하여 3D 사용자 얼굴 모델과 비교한 결과로 얻는 방식으로 할 수 있으나, 이에 한정되는 것은 아니며, 카메라(130) 영상을 서버(200)에 전송하고 서버(200)에서 안면 인식처리하여 얻게 하여도 좋다.Here, the motion information of the user's
물론, 안경을 바꿔가며 가상 안경 착용 서비스를 받을 수 있게 한다.Of course, it is possible to receive virtual glasses wearing service by changing glasses.
이러한 사용자 단말(100)은 상기한 사전 동작 및 가상 안경 착용 서비스 동작을 수행할 수 있는 애플리케이션을 설치한 스마트폰 또는 태블릿 PC, 또는 상기한 사전 동작 및 가상 착용 서비스 동작을 서버(200)와의 접속 하에 수행할 수 있는 카메라를 구비한 컴퓨터 또는 노트북으로 구현 가능하다.Such a
상기 서버(200)는 통상적인 온라인 구매 서비스를 제공하는 온라인 판매부(210)를 구비하고, 본 발명의 실시를 위해서 안경 모델 저장부(220) 및 영상처리부(230)를 더욱 구비한다.The
상기 온라인 판매부(210)는 판매할 안경의 리스트를 사용자 단말(100)을 통해 사용자에게 보여주고, 사용자 단말(100)을 통해 선택한 안경의 상세 정보를 보여주며, 구매 결정한 안경의 결제 및 배송 처리를 수행하는 통상적인 구성이므로, 상세 설명을 생략한다. 다만, 본 발명에 따르면, 선택한 안경의 가상 안경 착용 서비스를 이식하였다는 점에서 차이가 있다.The
상기 안경 모델 저장부(220)는 실제 치수가 정해진 다양한 종류의 안경에 대해 각각 생성한 3D 안경 모델이 저장되어 있다. 저장된 3D 안경 모델은 안경의 3차원적 데이터는 물론이고, 각 부위의 치수 데이터를 포함한다.The glasses
상기 영상처리부(210)는 사용자 얼굴의 촬영 영상 또는 이미지를 통상적인 안면 인식 알고리즘으로 처리하는 얼굴 인식부(231), 활동 영상을 얼굴 인식부(231)의 도움을 받아 사용자 얼굴의 3D 사용자 얼굴 모델을 획득하는 얼굴 모델 획득부(232), 단독의 정면 이미지 아니면 정면 이미지와 보완 이미지 모두를 얼굴 인식부(231)로 처리하게 하여 얻는 치수에 따라 기준 물품의 이미지 내 치수를 얻고 이를 기반으로 얼굴의 치수를 결정하여 3D 사용자 얼굴 모델의 치수를 결정하는 치수 산출부(233), 3D 사용자 얼굴 모델에 맞춰 3D 안경 모델의 변형 가능한 부위를 가변하여 교정한 3D 안경 모델을 생성하는 안경 모델 교정부(234) 및 사용자 단말(100)을 통해 실시간 촬영되는 영상 내의 사용자 얼굴 움직임에 맞춰 3D 안경 모델을 합성한 영상, 즉, 가상 안경 착용 얼굴의 영상을 사용자 단말(100)을 통해 보여주는 가상 체험 지원부(235)를 포함한다.The
이와 같이 구성된 안경 착용 시뮬레이션 시스템으로 이루어지는 본 발명에 대해 도 2 내지 도 9를 참조하며 설명한다.The present invention consisting of a simulation system for wearing glasses configured as described above will be described with reference to FIGS. 2 to 9.
하기에서는 온라인 판매 과정의 구체적인 설명은 생략하고, 온라인 판매 과정 중에 안경 가상 착용 서비스를 제공하기 위한 안경 착용 시뮬레이션 방법을 위주로 설명하며, 사용자 단말(100)은 스마트폰으로 구성한 것으로 설명한다.In the following, a detailed description of the online sales process will be omitted, and a method of simulating glasses wearing for providing a virtual glasses wearing service during the online sales process will be mainly described, and the
도 2는 본 발명의 실시 예에 따른 안경 착용 시뮬레이션 방법의 순서도이다.2 is a flowchart of a method for simulating wearing glasses according to an embodiment of the present invention.
도 3은 촬영 단계(S100)의 정면 이미지 획득 단계(S120)를 설명하기 위해서, 정면 이미지를 얻기 위한 화면(a)과, 정면 이미지를 얻는 중의 화면(b)을 예시한 도면이다.Fig. 3 is a diagram illustrating a screen (a) for obtaining a front image and a screen (b) during obtaining a front image in order to explain the front image acquisition step (S120) in the photographing step (S100).
도 4는 촬영 단계(S100)의 보완 이미지 획득 단계(S130)를 설명하기 위해서, 보완 이미지를 얻는 중의 화면을 예시한 도면이다.4 is a diagram illustrating a screen while obtaining a supplementary image in order to explain the step S130 of obtaining a supplementary image in the photographing step S100.
도 5는 촬영 단계(S100)의 활동 영상 획득 단계(S110)를 설명하기 위해서, 활동 영상을 얻는 중의 화면을 예시한 도면이다.FIG. 5 is a diagram illustrating a screen while obtaining an activity image in order to explain the activity image acquisition step S110 of the photographing step S100. FIG.
도 6은 기준물품 치수 보정단계(S300)를 설명하기 위해서, 기준 물품의 배치에 따라 카메라 영상 내 기준 물품 이미지의 치수 차이를 보여준 도면이다.6 is a view showing the difference in dimensions of the reference article image in the camera image according to the arrangement of the reference article in order to explain the reference article dimension correction step (S300).
도 7은 안경 모델 교정단계(S500)를 설명하기 위해서, 착용 전 3D 안경 모델의 사시도 및 상면도(a)와, 부분 변형하여 3D 사용자 얼굴 모델에 착용한 3D 안경 모델의 상면도(b)를 예시한 도면이다.7 is a perspective view and a top view (a) of the 3D glasses model before wearing and a top view (b) of the 3D glasses model worn on the 3D user face model after being partially deformed in order to explain the glasses model correction step (S500). It is an illustrated drawing.
도 8은 시뮬레이션단계(S600)를 설명하기 위해서, 시뮬레이션단계(S600)의 화면을 예시한 도면이다.8 is a diagram illustrating a screen of the simulation step S600 in order to explain the simulation step S600.
도 2에 도시한 바와 같이, 본 발명의 실시 예에 따른 안경 착용 시뮬레이션 방법은 사용자 얼굴을 모델링하기 위한 사전 동작으로서 수행하는 촬영단계(S100), 얼굴 모델 획득단계(S200), 기준물품 치수 보정단계(S300) 및 얼굴 치수 획득단계(S400)와, 사용자 단말(100)에서 안경을 선택하여(S10) 가상 안경 착용 서비스를 요청할 시에 수행하는 안경 모델 교정단계(S500) 및 시뮬레이션단계(S600)를 포함하며, 사용자 단말(100)에서 안경을 변경 선택하면(S20) 변경한 안경에 대해 안경 모델 교정단계(S500) 및 시뮬레이션단계(S600)를 수행한다.As shown in FIG. 2, in the method of simulating wearing glasses according to an embodiment of the present invention, a photographing step (S100), a face model acquisition step (S200), and a reference product dimension correction step performed as a pre-action for modeling a user's face. (S300) and facial dimension acquisition step (S400), and glasses model calibration step (S500) and simulation step (S600) performed when a virtual glasses wearing service is requested by selecting glasses from the user terminal 100 (S10). Including, and when the
상기 촬영단계(S100)는 사용자 단말(100)을 통해 카메라(130)로 촬영하여 얻는 활동 영상, 정면 이미지 및 보완 이미지를 서버(200)로 전송받는 단계이며, 이에, 활동 영상 획득 단계(S110), 정면 이미지 획득 단계(S120) 및 보완 이미지 획득 단계(S130)를 포함하고, 필요한 영상 및 이미지를 얻기 위해서는 사용자가 카메라(130)의 방향을 맞추거나 또는 적절한 촬영 방식을 따르도록 안내해야 한다. 이를 위해 디스플레이부(140) 또는 스피커(미도시)를 통해 각 단계별 사용법을 안내한다.The photographing step (S100) is a step of receiving an activity image, a front image, and a supplemental image obtained by shooting with the
상기 활동 영상 획득 단계(S110)는 도 5에 도시한 바와 같이 카메라(130, 스마트폰의 전면 카메라)로 얼굴(10)을 촬영하며 촬영 영상을 디스플레이부(140)로 보여주는 중에 고개를 좌우로 돌리게 안내함으로써, 얼굴을 돌리며 촬영한 활동 영상을 얻는 단계이다. In the activity image acquisition step (S110), as shown in FIG. 5, the
상기 정면 이미지 획득 단계(S120)는 정면 얼굴(10) 및 기준 물품(20)을 함께 촬영하여 정면 이미지를 획득하는 단계로서, 정면 이미지 상에서 정면 얼굴(10) 및 기준 물품(20)이 기설정 배치에 따른 위치에 놓일 시에 촬영하여 얻는다.The front image acquisition step (S120) is a step of obtaining a front image by photographing the
도 3(a)을 참조하면, 정면 이미지 획득 단계(S120)의 초기에 디스플레이부(140)로 보여주는 화면에는 얼굴 윤곽선(141)과 기준 물품 윤곽선(142)이 기설정된 배치에 따라 화면 상의 지정된 위치에 각각 표시된다. 물론, 카메라(130)의 줌 기능이 사용되면, 윤곽선(141, 142)도 확대 또는 축소되고, 후술하는 각 단계에서도 줌에 따른 화각을 반영하면 되지만, 줌 기능은 사용하지 않는 것으로 설명한다.Referring to FIG. 3(a), in the screen displayed by the
정면 이미지를 얻기 위해서는 먼저, 카메라(130)로 촬영한 영상을 디스플레이부(140)로 보여주면서 사용자의 정면 얼굴(10)을 얼굴 윤곽선(141)의 중심에 맞추고 기준 물품(20)을 기준 물품 윤곽선(142)의 중심에 맞추라고 안내한다. 이에, 사용자는 카메라(130) 방향을 바꾸어 정면 얼굴(10)을 얼굴 윤곽선(141)의 중심에 맞추려 할 것이고, 도면에 도시하지 아니하였지만 한 손에 든 기준 물품(20)의 위치를 바꾸어 기준 물품(20)을 기준 물품 윤곽선(142)의 중심에 맞추려 할 것이다.In order to obtain the front image, first, while displaying the image captured by the
도 3(b)에 도시한 바와 같이, 정면 얼굴(10)을 얼굴 윤곽선(141)의 중심에 맞추고 동시에 기준 물품(20)을 기준 물품 윤곽선(142)의 중심에 맞추면, 이때 촬영하여 얻는 사진 이미지를 정면 이미지로 한다. As shown in Fig. 3(b), if the
사용자 얼굴(10)의 중심 맞춤을 위해서, 사용자 단말(100)은 양 동공 또는 양 귀를 인식하는 프로그램을 제어부(110)에서 실행되게 하거나, 아니면 서버(200)의 영상 처리부(200)에 구비된 얼굴 인식부(231)를 활용함으로써, 정면 얼굴(10) 중심(실질적으로 좌우 양분하는 수직선)을 알아내고, 정면 얼굴(10)을 좌우 대칭으로 하여 중심이 윤곽선 중심에 맞추었는지 확인하게 할 수 있다. 이에, 정면 얼굴(10)을 얼굴 윤곽선(141)의 중심에 맞춘 순간을 촬영할 수 있다. 이와 같은 중심 맞춤 및 좌우 대칭은 카메라(130)의 광축이 사용자 얼굴(10)의 좌우 폭방향의 중심을 지날 때에 가능하게 될 것이다.In order to center the user's
기준 물품(10)의 중심 맞춤을 위해서는 기준 물품(10)의 윤곽선을 추출하는 영상처리 기능을 갖추면 된다. In order to align the center of the
한편, 기준 물품(20)은 기준 물품 윤곽선(142)에 맞췄을 시에 정면 이미지를 획득하는 것이 좋다. 즉, 얼굴(10)은 사용자별로 치수 및 형태가 상이하므로, 얼굴 윤곽선(141) 중심에 맞추면 만족하지만, 치수가 알려진 기준 물품(20)은 기준 물품 윤곽선(142)에 맞춤으로써, 기설정 배치에 따라 카메라와 기준 물품(20) 간의 거리도 일정한 값을 갖게 되며, 결국, 하기에서 도 6을 참조하며 설명하는 바와 같이 얼굴(10) 치수를 보다 쉽게 얻을 수 있게 된다.On the other hand, when the
상기 기준 물품(20)은 누구나 하나씩은 소유하고 항상 휴대하며 실물의 치수가 동일한 것으로 하는 것이 바람직하며, 본 발명의 실시 예에서는 어느 카드사의 것이든 실물 치수가 동일하다고 알려진 신용 카드로 하였다. 물론, 상기 기준 물품 윤곽선(142)은 폭과 상하 길이의 비율을 신용카드의 비율에 맞추고, 신용 카드의 치수는 미리 설정하여 둔다.It is preferable that everyone owns the
여기서, 얼굴(10) 치수는 안면폭, 상하길이, 미간폭, PD값(두 동공 사이의 간격) 등 얼굴(10) 부위별 치수를 포함하는 값으로 볼 수 있고, 기준 물품(20)의 치수는 폭, 길이 등의 값으로 볼 수 있으며, 각각의 부위별 치수 중에 어느 하나를 기준으로 잡는 것이 좋다. 본 발명의 실시 예 설명을 쉽게 이해하기 위해서, 정면 이미지 상의 치수는 얼굴(10)의 PD값과 기준 물품(20)의 폭으로 할 수 있다. 이 경우에, 두 동공의 연장선 상에 기준 물품(20)의 상단이 맞춰지도록 상기한 기설정 배치를 정할 수 있다. 즉, 치수를 알려고 하는 얼굴 부위를 치수 비교할 기준 물품(20)의 부위와 동일 선상에 놓이게 하는 것이 치수 산출식을 간소화한다.Here, the dimensions of the
그런데, 동일 선상에 놓이게 하는 것은 어려움이 있으므로, 본 발명의 실시 예에서는 정면 이미지 상에서 깊이를 인위적으로 상이하게 하는 것으로 하였으며, 그 깊이를 얻기 위해서 상기 보완 이미지 획득 단계(S130)를 추가하였다.However, since it is difficult to lie on the same line, in an embodiment of the present invention, the depth is artificially different on the front image, and the complementary image acquisition step (S130) is added to obtain the depth.
상기 보완 이미지 획득 단계(S130)는 도 4에 도시한 바와 같이 기준 물품을 얼굴보다 앞에 두어 측면에서 측면 얼굴과 함께 촬영할 시에 얼굴에 가려지지 않게 한 상태로 측면에서 촬영하고, 이때 얻는 사진 이미지를 보완 이미지로 한다. 물론, 촬영되게 할 자세를 취하도록 안내한 후 상기 정면 이미지 획득 단계(S120)를 수행하고, 이어서, 동일 자세를 유지한 상태에서 측면 영상을 촬영하라는 안내를 하여서, 상기 보완 이미지 획득 단계(S130)를 수행한다. 보완 이미지를 획득할 시에는 윤곽선(141, 142)이 필요치 않다.In the step of obtaining the supplementary image (S130), as shown in FIG. 4, the reference item is placed in front of the face so that it is not covered by the face when photographing with the side face from the side, and the photographic image obtained at this time is taken. Make it a complementary image. Of course, after guiding to take a posture to be photographed, the front image acquisition step (S120) is performed, and then, the supplementary image acquisition step (S130) by guiding to take a side image while maintaining the same posture. To do. When obtaining a complementary image, the
도 4를 살펴보면, 얼굴의 각 부위 치수 중에 PD값을 기준으로 한다면, 동공(또는 눈)과 기준 물품(20) 사이의 깊이 차, 즉, 정면 이미지 상의 양측 이미지 깊이 차이(d)를 얻을 수 있다.Referring to FIG. 4, if the PD value is based on the dimensions of each part of the face, the difference in depth between the pupil (or eye) and the
그렇지만, 보완 이미지는 측면에서 촬영하지 아니하고, 다른 각도의 촬영 방향으로 얼굴과 기준 물품을 동시 촬영하여 얻어도 좋다. 즉, 정면 이미지를 얻을 시의 촬영 방향과는 다른 방향으로 촬영하여도, 영상처리에 의해 깊이 차를 얻을 수 있다. 그렇지만, 좀 더 쉽고 정확하게 깊이 차이를 얻기 위해서는 측면에서 촬영하여 얻는 것이 좋다.However, the complementary image may not be photographed from the side, and may be obtained by simultaneously photographing a face and a reference article in a photographing direction of a different angle. That is, even when photographing in a direction different from the photographing direction at the time of obtaining the front image, a difference in depth can be obtained through image processing. However, in order to get the depth difference more easily and accurately, it is better to shoot from the side.
부가적으로, 도 3 내지 도 6을 참조하면, 다양한 종류의 안경 리스트(143)를 디스플레이부(140)에 표출함으로써, 안경 리스트(143)의 안경을 하나씩 선택할 수 있게 하였다.Additionally, referring to FIGS. 3 to 6, by displaying various types of glasses list 143 on the
한편, 활동 영상 및 정면 이미지의 획득 순서는 바꾸어도 좋다. 물론, 순서에 맞춰 사용 안내를 하여야 하고, 보완 이미지는 정면 이미지에 이어서 얻어야 한다.On the other hand, the order of acquisition of the active image and the front image may be changed. Of course, guides should be provided in order, and complementary images should be obtained following the front image.
이와 같이 얻은 활동 영상, 정면 이미지 및 보완 이미지는 서버(200)의 영상처리부(220)로 전달되어서, 얼굴 모델 획득단계(S200), 기준물품 치수 보정단계(S300) 및 얼굴 치수 획득단계(S400)에 사용된다.The activity image, the front image, and the complementary image obtained as described above are transmitted to the
상기 얼굴 모델 획득단계(S200)는 전송받은 활동 영상을 얼굴 인식부(231)에서 처리하게 하여 안면 인식함으로써 얼굴의 각 부위 특징점을 얻고, 얼굴 모델 획득부(232)에서 얼굴 인식부(231)의 인식 결과에 따라 3D 사용자 얼굴 모델을 얻게 하는 단계이다. 이와 같이 얻은 3D 사용자 얼굴 모델에 의해서 이목구비의 상대적 위치도 정해지고, 특히, 안경을 착용할 얼굴 부위의 위치도 알 수 있게 된다. 안면 인식 기술 및 3D 사용자 얼굴 모델을 얻는 기술은 공지의 기술이므로 상세 설명은 생략한다.In the face model acquisition step (S200), the
상기 기준물품 치수 보정단계(S300)는 정면 이미지를 얼굴 인식부(231)에서 처리하게 하여 안면 인식하고, 기준 물품도 윤곽선을 인식하며, 치수 산출부(233)에서 얼굴 인식부(231)의 인식 결과에 따라 정면 이미지 상의 기준 물품 치수를 얻은 후 상기한 기설정 배치에 따라 보정하는 단계이다. 물론, 정면 이미지 상의 치수는 차지하는 픽셀수로 얻는다.In the reference product dimension correction step (S300), the front image is processed by the
도 6(a)을 참조하면, 정면 얼굴(10)과 기준 물품(20)을 동시 촬영하여 정면 이미지를 얻을 시에 상기한 기설정 배치를 적용하므로, 정면 얼굴(10)을 촬영하기 위해서 정면 얼굴(10)의 중심을 카메라(130)의 광축 상(131)에 놓이게 하며, 이에, 기준 물품(20)은 광축에서 벗어난 방향(132)에 놓이게 된다. 이에, 정지 이미지 상에서 기준 물품(20)의 촬영 범위(1)는 기준 물품(20)을 얼굴(10)의 위치에 놓이게 한 가상의 기준 물품(20')을 촬영하였을 시의 촬영 범위(2)와 상이하게 되고, 결국, 정지 이미지 상의 치수도 배치 차이에 따라 상이하게 된다. Referring to FIG. 6(a), the above-described preset arrangement is applied when obtaining a front image by simultaneously photographing the
도 6(b)에 예시한 바와 같이, 만약, 얼굴(10)과 동일한 선상에 맞춰 기준 물품(20)을 배치하게 한 후 촬영하더라도 마찬가지이다. 도 6(b)의 예시는 하기에서 도 9를 참조한 설명의 이해를 위해서 첨부하였다.As illustrated in FIG. 6(b), even if the image is taken after placing the
여기서, 기준 물품(20)을 얼굴(10)의 위치에 놓이게 한 가상의 기준 물품(20')을 촬영할 시에 정지 이미지 상에서 얻을 수 있는 치수를 이용하여, 얼굴(10) 치수를 얻는 것이 더욱 정확한 치수를 얻는 데 유리하다.Here, it is more accurate to obtain the dimensions of the
이러한 이유로, 상기 기준물품 치수 보정단계(S300)를 수행하여서, 정면 이미지에서 기준 물품의 치수를 얼굴 위치의 값으로 보정한 보정 기준 물품 치수를 얻는다.For this reason, by performing the reference article dimension correction step (S300), a correction reference article dimension obtained by correcting the dimension of the reference article in the front image by the value of the face position is obtained.
예를 들어, 정지 이미지 상에서 나타난 기준 물품(20)의 위치에 따라 기준 물품(20)의 방향(132)을 얻을 수 있고, 보정 기준 물품 치수는 기준 물품(20)의 방향(132)과 카메라 광축(131) 사이의 각도에 따라 산출하는 식을 세워 얻게 할 수 있다. 이는, 각도 차이에 따라 촬영 이미지 상의 치수가 달라지기 때문이다. 예를 들어 보정 기준 물품 치수와 정지 이미지 상 기준 물품 치수 사이의 비율을 기준 물품(20)의 방향(132)과 카메라 광축(131) 사이의 각도별로 얻어 각도에 따라 정해지는 값으로 정의하여도 좋다. 한편, 상기한 바와 같이 기준 물품(20)을 기준 물품 윤곽선(142)에 맞춰 촬영한 경우, 카메라(130)와 기준 물품(20) 사이의 간격은 상기한 기설정 배치에 의해 정해지므로, 보정 기준 물품 치수를 얻는 식은 더욱 간소화할 수 있다.For example, the
상기 얼굴 치수 획득단계(S400)는 정지 이미지 상에서 얻는 정면 얼굴(10) 치수와 상기 기준물품 치수 보정단계(S300)에서 얻는 보정 기준 물품 치수 사이의 비율을 획득하는 치수 비율 획득단계(S410), 도 4를 참조하며 설명한 바와 같이 얼굴(10)과 기준 물품(20) 사이의 깊이 차이(d)를 보완 이미지를 이용하여 얻어 정면 얼굴(10) 치수와 보정 기준 물품 치수 사이의 치수 비율에 반영함으로써 치수 비율을 보정하는 비율 보정단계(S420), 및 보정한 치수 비율과 기준 물품(20)의 기설정 실제 치수에 근거하여 실제 얼굴 치수를 결정하고, 결정한 얼굴 치수를 3D 사용자 얼굴 모델에 적용하는 치수 맞춤 단계(S430)를 포함한다.The facial dimension acquisition step (S400) is a dimension ratio acquisition step (S410) of acquiring a ratio between the dimensions of the
구체적인 실시 예를 설명하면, 치수 비율 획득단계(S410)에서 획득할 치수 비율은 아래 수식으로 얻는다.When describing a specific embodiment, the dimensional ratio to be obtained in the dimensional ratio obtaining step (S410) is obtained by the following equation.
그리고, 도 6을 참조하여 비율 보정단계(S420)를 설명하면, 카메라 광축(131) 상에 놓인다고 가정한 가상의 기준 물품(20')의 촬영범위(2)를 알 수 있고, 그 가상의 기준 물품(20')의 치수는 보정 기준 물품 치수로 얻었으므로, 그 가상의 기준 물품(20')에서 카메라(130)까지의 거리를 삼각함수로 얻을 수 있다. 이에, 동일 크기의 물품이 카메라로부터 멀어질수록 촬영한 영상 내의 물품 이미지는 작아지는 원리를 이용하여, 얼굴(10)과 기준 물품(20) 사이의 깊이 차이(d)만큼 그 가상의 기준 물품(20')을 카메라로부터 멀어지게 후퇴시켰을 시의 정면 이미지 상 치수를 산출할 수 있다.In addition, referring to FIG. 6, the ratio correction step (S420) will be described, the
즉, 후퇴시켰을 시에 얻게 될 정면 이미지 상의 치수를 수학식 1의 보정 기준 물품 치수에 적용하면 최종적인 치수 비율을 얻게 된다. 이와 같이 보정한 치수 비율은 카메라에서 가상의 기준 물품(20')까지의 거리와, 깊이 차이를 변수로 하는 식으로 얻게 하여도 좋다.That is, when the dimensions on the front image that are to be obtained when retracted are applied to the correction reference product dimensions of
그렇지만, 만약 얼굴(10)의 폭방향 연장선 상에 기준 물품(20)을 놓고 촬영하도록 상기한 기설정 배치를 적용한다면, 보완 이미지를 얻지 아니하므로, 상기 비율 조정단계(S420)를 수행하지 아니한다.However, if the above-described preset arrangement is applied so that the
치수 맞춤 단계(S430)에서는 깊이 차이를 반영한 치수 비율을 적용한다. 즉, 실제 사용자의 얼굴 치수는 기준 물품(20)의 기설정 실제 치수(즉 기준 물품의 실물 치수)에 치수 비율을 곱셈하는 아래 수학식 2로 얻을 수 있다.In the dimension fitting step (S430), the dimension ratio reflecting the difference in depth is applied. That is, the actual user's face dimension can be obtained by
예를 들어, 얼굴 치수를 PD값으로 하여 얻는 경우, 이때의 PD값을 3D 사용자 얼굴 모델에 적용하여 모델 각 부위 치수도 결정한다. 즉, 3D 사용자 얼굴 모델을 사용자 얼굴의 실제 스케일에 맞게 구성한다.For example, when the face size is obtained as a PD value, the size of each part of the model is also determined by applying the PD value at this time to the 3D user's face model. That is, the 3D user face model is configured to fit the actual scale of the user's face.
다음으로, 사용자 단말(100)에서 안경을 선택하면(S10), 선택한 안경의 3D 안경 모델(30)을 안경 모델 저장부(220)에서 불러들이고, 안경 모델 교정단계(S500) 및 시뮬레이션단계(S600)를 수행한다.Next, when glasses are selected in the user terminal 100 (S10), the
상기 안경 모델 교정단계(S500)는 사용자 얼굴의 치수에 맞춘 3D 사용자 얼굴 모델(40)에 맞게 실물 치수를 갖는 3D 안경 모델(30)을 변형함으로써, 합성하였을 시에 실제 사용자 얼굴에 안경을 착용한 모습을 갖게 한다. The glasses model correction step (S500) is performed by transforming the
즉, 상기에서 얻은 3D 사용자 얼굴 모델(40)은 눈, 귀, 코 사이의 상대적 위치 및 안면폭이 사용자별로 상이한 모델로 얻게 되므로, 눈, 귀, 코 사이의 상대적 위치 및 안면폭에 맞춰 변형한다.That is, since the 3D
도 7(a)을 참조하면, 3D 안경 모델(30)은 실제 안경의 구조에 의해서 렌즈(lens, 31), 림(rim, 32), 33 : 브릿지(bridge, 33), 노우즈패드(nosepad, 34), 조인트(joint, 35), 36 : 힌지(hinge, 36), 다리(temple, 37) 및 팁(tip, 38)을 갖게 된다. Referring to FIG. 7(a), the
그리고, 실물 안경을 사용자 얼굴에 실제 착용하기에 앞서서, 사용자 얼굴의 치수에 맞게 양측 림(rim)을 연결하는 브릿지(bridge)를 휘거나, 다리(temple)의 단부에 구비하여 귀에 걸 수 있게 한 팁(tip)을 휘거나, 림(rim)에 고정되어 단부에 힌지(hinge)를 설치할 수 있게 한 조인트(joint)를 휘거나, 또는 다리(temple)를 휘고, 착용한 상태에서는 힌지(hinge)에 의해 다리(temple)의 각도가 조절된다. 즉, 안경은 실제 착용할 시에는 각 부위 중에 변형 가능한 부위를 사용자 얼굴에 맞게 형태 변형된다.And, prior to actually wearing the real glasses on the user's face, the bridge connecting the rims on both sides according to the dimensions of the user's face is bent or provided at the end of the temple so that it can be hung on the ear. The tip is bent, the joint is fixed to the rim so that a hinge can be installed at the end, or the leg is bent, and when worn, a hinge The angle of the temple is adjusted by. That is, when the glasses are actually worn, the deformable part of each part is transformed to fit the user's face.
이에, 도 7(b)에 예시한 바와 같이, 실제 착용된 상태의 안경에 대한 3D 안경 모델(30)을 상기 안경 모델 교정단계(S500)를 수행하여 얻는다. 도 7(b)은 3D 사용자 얼굴 모델(40)의 치수에 따라 조인트(joint, 35)를 휘고, 다리(temple, 37)의 각도를 조절한 모습을 보여주지만, 다른 부위도 변형될 수 있다.Accordingly, as illustrated in FIG. 7(b), the
여기서, 교정하여 얻는 3D 안경 모델(30)은 상기 시뮬레이션단계(S600)에 적용된다.Here, the
상기 시뮬레이션단계(S600)는 사용자 단말(100)에서 얼굴을 촬영할 시에 촬영 영상을 얼굴 인식부(231)로 처리하여 안면 인식함으로써 영상 내의 얼굴 치수를 얻고, 영상 내 얼굴 치수와 3D 사용자 얼굴 모델 치수 사이의 비율에 따라 3D 안경 모델의 크기를 조절하여 합성하고, 합성한 영상을 사용자 단말(100)의 디스플레이부(140)에 출력되게 한다. 물론, 촬영 영상 내의 얼굴 방향에 맞춰 합성한다.In the simulation step (S600), when a face is photographed in the
이에, 도 8에 도시한 바와 같이 사용자 단말(100)의 디스플레이부(140)에 출력되는 영상의 각 프레임은 3D 안경 모델(30)에서 얻은 안경 이미지(30')를 사용자 얼굴 이미지(10)에 합성한 것으로 표출된다.Thus, as shown in FIG. 8, each frame of the image output to the
이와 같이, 정해진 3D 안경 모델(30) 및 3D 사용자 얼굴 모델(40)을 이용하여 가상 안경 체험 영상을 보여주는 기술은 종래기술에 의해 공지된 기술이므로, 더 이상의 상세 설명은 생략한다.As described above, a technology for displaying a virtual glasses experience image using the predetermined
촬영 영상의 안면 인식은 사용자 단말(100)에서 수행할 수 있게 하여도 좋으며, 이때에는 안면 인식에 의해 얻는 이목구비의 상대적 위치 및 간격을 영상 내 얼굴 치수에 대한 정보로 취급하여 서버(200)의 영상처리부(220)에서 받아 사용하게 하여도 좋다.The facial recognition of the captured image may be performed in the
상기 시뮬레이션단계(S600)를 수행하는 중에, 사용자 단말(100)에서 가상 체험할 안경을 변경하면, 변경한 안경의 3D 안경 모델을 안경 모델 저장부(220)에서 불러들여서 상기 안경 모델 교정단계(S500)에 따라 교정하고, 교정한 3D 안경 모델을 적용한 상기 시뮬레이션단계(S600)를 수행한다.While performing the simulation step (S600), if the
도 9는 앞서 언급하고 도 6(b)를 참조하며 살펴본 바와 같이, 정면 얼굴(10)의 폭방향 연장선상에 기준 물품(20)을 배치하여 얼굴(10)과 기준 물품(20) 사이의 깊이 차이(d)를 두지 않는 정면 이미지를 얻을 시에, 깊이 차이(d)를 최소화하는 얼굴 윤곽선(141)과 기준 물품 윤곽선(142)의 배치를 보여준다.9 is the depth between the
도 9를 참조하면, 얼굴 윤곽선(141)의 좌우 중에 어느 한쪽에 기준 물품 윤곽선(142)이 겹쳐 있되, 대략 한쪽 눈의 위치에서 폭방향 외곽으로 치우쳐 있게 겹쳐 있다. Referring to FIG. 9, the
이러한 얼굴 윤곽선(141)과 기준 물품 윤곽선(142)의 배치를 사용할 경우에는 기준 물품(20)을 양 눈의 연장선에 놓이게 하면서 한쪽 눈의 옆에 바짝 붙여 놓게 하라는 안내를 한다. 이에, 얼굴 부위 중에 양 눈의 연장선에 놓인 기준 물품(20)을 얼굴과 함께 촬영한 정면 이미지를 얻을 수 있다.In the case of using such an arrangement of the
그리고, 상기 얼굴 치수 획득단계(S400)에서는 도 6(b)를 참조하며 설명한 바와 같이 정면 이미지에서 인식한 기준 물품(20) 이미지를 양 눈의 중심에 맞춰 촬영할 시에 얻을 수 있는 가상의 기준 물품(20')의 치수, 즉 보정 기준 물품 치수를 산출하고, 정면 이미지 상의 얼굴 치수 중에 PD값을 얻는다. 그리고, PD값과 보정 기준 물품 치수 사이의 상대적 치수 비율을 획득한다. 깊이 차이(d)에 따른 치수 비율 보정단계(S420)는 할 필요가 없다. 그리고, 치수 비율과 기준 물품의 기설정 실제 크기에 근거하여, 실제 PD값을 얻고, 실제 PD값과 동일한 PD값을 갖는 3D 사용자 얼굴 모델을 얻는다.In addition, in the facial dimension obtaining step (S400), as described with reference to FIG. 6(b), a virtual reference item that can be obtained when the image of the
그런데, 얼굴 윤곽선(141)과 기준 물품 윤곽선(142)의 배치는 도 9의 예시와 상이하게 할 수 있으며, 예를 들어, 기준 물품(20)을 한쪽 귀의 폭방향 끝단에 붙이거나 아니면 가깝게 놓고 촬영하도록 그 배치를 설정할 수도 있다. 이 경우, 기준 물품을 이용하여 얻을 얼굴 치수는 양 귀 끝단의 간격으로 하는 것이 좋다.However, the arrangement of the
그렇지만, 안경은 렌즈를 눈에 맞춰 착용하는 것이므로, 얼굴 치수 중에 PD값을 기준 물품을 이용하여 얻는 것이 좋다.However, since spectacles are worn by fitting the lenses to the eyes, it is preferable to obtain a PD value among the face dimensions using a reference article.
이상에서, 본 발명을 안경의 온라인 판매에 적용한 실시 예를 설명하였으나, 이에 한정하는 것은 아니며, 가상의 안경 착용 체험이 필요한 다양한 분야에 적용될 수 있음은 자명하다. In the above, an embodiment in which the present invention is applied to online sales of glasses has been described, but the present invention is not limited thereto, and it is obvious that the present invention can be applied to various fields requiring virtual glasses wearing experience.
또한, 상기에서 설명한 본 발명의 실시 예에서 영상처리부(230)는 서버(200)에 구비하지만, 사용자 단말(100)에 구비되게 할 수도 있으며, 이 경우에 서버(200)는 온라인 구매 서비스 및 안경 모델을 제공하면 된다. In addition, in the embodiment of the present invention described above, the
이상에서 본 발명의 기술적 사상을 예시하기 위해 구체적인 실시 예로 도시하고 설명하였으나, 본 발명은 상기와 같이 구체적인 실시 예와 동일한 구성 및 작용에만 국한되지 않고, 여러가지 변형이 본 발명의 범위를 벗어나지 않는 한도 내에서 실시될 수 있다. 따라서, 그와 같은 변형도 본 발명의 범위에 속하는 것으로 간주해야 하며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.Although shown and described in specific embodiments to illustrate the technical idea of the present invention, the present invention is not limited to the same configuration and operation as the specific embodiment as described above, and various modifications are within the scope of the present invention. Can be carried out in Therefore, such modifications should be regarded as belonging to the scope of the present invention, and the scope of the present invention should be determined by the claims to be described later.
10 : 얼굴
20 : 기준 물품
30 : 3D 안경 모델
31 : 렌즈(lens) 32 : 림(rim) 33 : 브릿지(bridge)
34 : 노우즈패드(nosepad) 35 : 조인트(joint) 36 : 힌지(hinge)
37 : 다리(temple) 38 : 팁(tip)
40 : 3D 사용자 얼굴 모델
100 : 사용자 단말
110 : 제어부
120 : 통신모듈
130 : 카메라
140 : 디스플레이부 141 : 얼굴 윤곽선 142 : 기준 물품 윤곽선
143 : 안경 리스트
200 : 서버
210 : 온라인 판매부
220 : 안경 모델 저장부
230 : 영상처리부10: face
20: reference article
30: 3D glasses model
31: lens 32: rim 33: bridge
34: nose pad 35: joint 36: hinge
37: leg (temple) 38: tip (tip)
40: 3D User Face Model
100: user terminal
110: control unit
120: communication module
130: camera
140: display unit 141: face contour 142: reference article contour
143: glasses list
200: server
210: online sales department
220: glasses model storage unit
230: image processing unit
Claims (8)
기준 물품은 실제 크기가 알려진 신용카드로 하고,
상기 영상처리부(230)에서, 얼굴 윤곽선(141) 및 기준 물품 윤곽선(142)을 기설정 배치에 따라 디스플레이부(140) 화면 상의 지정된 위치에 각각 출력하고 기준 물품을 얼굴보다 앞에 두어 측면에서 얼굴에 가려지지 않도록 디스플레이부(140)로 안내한 후 정면 얼굴 중심을 얼굴 윤곽선(141)의 중심에 맞추고 기준 물품의 중심을 기준 물품 윤곽선(142)의 중심에 맞추어 정면 얼굴을 촬영한 정면 이미지 및 측면 얼굴을 촬영한 보완 이미지와, 얼굴을 돌리며 촬영한 활동 영상을 카메라(130)를 통해 획득하되, 정면 이미지는 양 동공 또는 양 귀를 인식하여 정면 얼굴 중심을 좌우 대칭으로 상기 얼굴 윤곽선(141) 중심에 맞추고, 상기 기준 물품은 상기 기준 물품 윤곽선(142)에 중심 맞췄을 시에 촬영하여 획득하는 촬영단계(S100);
상기 영상처리부(230)에서, 활동 영상에서 안면 인식하여 3D 사용자 얼굴 모델을 얻는 얼굴 모델 획득단계(S200);
상기 영상처리부(230)에서, 정면 이미지에서 기준 물품의 치수를 얼굴 위치의 값으로 보정한 보정 기준 물품 치수를 얻되, 보정 기준 물품 치수와 정면 이미지 내 기준 물품 치수 사이의 비율을 기준 물품의 방향(132)과 카메라 광축(131) 사이의 각도로 표현한 식을 미리 설정하여 두고, 정면 이미지 내에서 기준 물품의 위치에 따라 기준 물품의 방향(132)을 얻고, 기준 물품의 방향(132)과 카메라 광축(131) 사이의 각도를 얻은 이후, 각도에 대응되는 비율을 적용하여 보정 기준 물품 치수를 얻는 기준물품 치수 보정단계(S300);
상기 영상처리부(230)에서, 정면 이미지에서 얼굴 치수와 보정 기준 물품 치수 사이의 상대적 비율을 획득하고, 보완 이미지에서 얼굴과 기준 물품 사이의 깊이 차이를 얻어서, 정면 이미지 상의 얼굴 치수와 보정 기준 물품 치수 사이의 상대적 비율을 깊이 차이에 따라 보정하며, 보정한 상대적 비율 및 기준 물품의 기설정 실제 치수에 근거하여, 3D 사용자 얼굴 모델의 치수를 결정하는 얼굴 치수 획득단계(S400);
상기 영상처리부(230)에서, 얼굴을 촬영할 시에 영상 내의 얼굴 치수와 3D 사용자 얼굴 모델 치수 사이의 비율에 따라 크기를 조절한 3D 안경 모델을 영상 내 얼굴과 합성하여 디스플레이부(140)로 보여주는 시뮬레이션단계(S600);
를 포함하는
안경 착용 시뮬레이션 방법.Using the image obtained by photographing the user's face with the camera 130 and the 3D glasses model of glasses with the actual dimensions determined, a virtual face wearing glasses is created by the image processing unit 230 and displayed on the display unit 140. In the simulation method,
The reference item is a credit card of known actual size,
In the image processing unit 230, the facial contour 141 and the reference article contour 142 are respectively output to a designated position on the screen of the display unit 140 according to a preset arrangement, and the reference article is placed in front of the face to be placed on the face from the side. After guiding to the display unit 140 so as not to be covered, the front face and side faces are taken by aligning the center of the front face with the center of the face outline 141 and aligning the center of the reference item with the center of the reference item outline 142 A complementary image photographed and an activity image photographed while turning a face are acquired through the camera 130, but the front image recognizes both pupils or both ears, so that the center of the front face is symmetrically positioned at the center of the face outline 141. A photographing step (S100) of photographing and obtaining the reference article when the reference article is centered on the reference article outline 142;
A face model acquisition step (S200) of obtaining a 3D user face model by recognizing a face from an active image in the image processing unit 230;
In the image processing unit 230, a correction reference article dimension obtained by correcting the dimension of the reference article in the front image with the value of the face position is obtained, and the ratio between the correction reference article dimension and the reference article dimension in the front image is determined as the direction of the reference article ( 132) and the camera optical axis 131 by setting an equation expressed as the angle between the camera optical axis 131, and obtaining the direction 132 of the reference article according to the position of the reference article in the front image. After obtaining the angle between (131), a reference article dimension correction step (S300) of obtaining a correction reference article dimension by applying a ratio corresponding to the angle;
In the image processing unit 230, by obtaining a relative ratio between the face dimension and the correction reference item dimension in the front image, and obtaining a depth difference between the face and the reference item in the complement image, the face dimension on the front image and the correction reference item dimension A facial dimension obtaining step (S400) of correcting the relative ratio between the two according to the difference in depth, and determining the dimensions of the 3D user's face model based on the corrected relative ratio and a preset actual dimension of the reference article;
The image processing unit 230 synthesizes a 3D glasses model whose size is adjusted according to the ratio between the size of the face in the image and the size of the 3D user's face model when photographing a face, and displays it on the display unit 140 Step S600;
Including
How to simulate wearing glasses.
상기 얼굴 치수 획득단계(S400)에서 결정한 치수를 갖는 3D 사용자 얼굴 모델에 맞춰 3D 안경 모델의 변형 가능한 부위를 가변하여 교정한 3D 안경 모델을 생성하는 안경 모델 교정단계(S500);
를 더욱 포함하고,
교정한 3D 안경 모델을 상기 시뮬레이션단계(S600)에 적용하는
안경 착용 시뮬레이션 방법.The method of claim 1,
A glasses model correction step (S500) of generating a corrected 3D glasses model by varying the deformable portion of the 3D glasses model according to the 3D user's face model having the dimensions determined in the face dimension obtaining step (S400);
Including more,
Applying the corrected 3D glasses model to the simulation step (S600)
How to simulate wearing glasses.
상기 안경 모델 교정단계(S500)에서 3D 안경 모델의 교정은
안경을 3D 사용자 얼굴 모델에 맞춰 착용하기 위하여, 양측 림(rim)을 연결하는 브릿지(bridge)를 휘는 것, 림(rim)에 고정되어 단부에 힌지(hinge)를 설치할 수 있게 한 조인트(joint)를 휘는 것, 힌지(hinge)에 의해 다리(temple)의 각도를 조절하는 것, 다리(temple)를 휘는 것, 다리(temple)의 단부에 구비하여 귀에 걸 수 있게 한 팁(tip)을 휘는 것 중에 적어도 어느 하나를 포함하는
안경 착용 시뮬레이션 방법.The method of claim 6,
In the glasses model calibration step (S500), the calibration of the 3D glasses model is
In order to wear the glasses according to the 3D user's face model, a bridge connecting the two rims is bent, a joint that is fixed to the rim so that a hinge can be installed at the end. Bending, adjusting the angle of a temple by a hinge, bending a temple, bending a tip provided at the end of a temple so that it can be hung on the ear Containing at least any one of
How to simulate wearing glasses.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180164331A KR102231239B1 (en) | 2018-12-18 | 2018-12-18 | Eyeglasses try-on simulation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180164331A KR102231239B1 (en) | 2018-12-18 | 2018-12-18 | Eyeglasses try-on simulation method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200075541A KR20200075541A (en) | 2020-06-26 |
KR102231239B1 true KR102231239B1 (en) | 2021-03-22 |
Family
ID=71136551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180164331A Active KR102231239B1 (en) | 2018-12-18 | 2018-12-18 | Eyeglasses try-on simulation method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102231239B1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220075984A (en) | 2020-11-30 | 2022-06-08 | (주)인터비젼 | Contact Lens Custom Recommendations and Virtual Fitting System |
KR20220079274A (en) * | 2020-12-04 | 2022-06-13 | (주)인터비젼 | Method of glasses wearing simulation |
KR102462481B1 (en) | 2020-12-31 | 2022-11-03 | 주식회사 산업기술경영진흥원 | Glasses wearing simulation system using kiosk |
CN112674710A (en) * | 2021-01-04 | 2021-04-20 | 首都医科大学附属北京同仁医院 | Digital high-precision glasses manufacturing and producing device and method |
CN113592592B (en) * | 2021-07-28 | 2023-11-07 | 严沛熙 | Method for generating glasses frame fitting effect diagram and glasses frame virtual fitting system |
WO2024149011A1 (en) * | 2023-01-12 | 2024-07-18 | 十二毫米健康科技(海南)有限公司 | Glasses system, method for designing glasses frame, and method for flicker detection |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100386962B1 (en) | 2000-11-02 | 2003-06-09 | 김재준 | Method and system for putting eyeglass' image on user's facial image |
KR20040097200A (en) | 2002-03-26 | 2004-11-17 | 김소운 | System and Method for 3-Dimension Simulation of Glasses |
KR20130103153A (en) * | 2012-03-09 | 2013-09-23 | 주식회사 퍼비스코리아 | Customized virtual fitting method for article of eye |
KR101805056B1 (en) | 2015-07-21 | 2017-12-05 | (주)월드트렌드 | Eyeglasses try-on simulation method using augumented reality |
KR101809440B1 (en) * | 2016-11-21 | 2017-12-15 | 김승정 | Size Measuring Method using Augmented Reality of Smart Device |
-
2018
- 2018-12-18 KR KR1020180164331A patent/KR102231239B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
KR20200075541A (en) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102231239B1 (en) | Eyeglasses try-on simulation method | |
US12067689B2 (en) | Systems and methods for determining the scale of human anatomy from images | |
US12130499B2 (en) | Systems and methods for previewing adjustments to stock eyewear frames using a 3D scan of facial features | |
US11783557B2 (en) | Virtual try-on systems and methods for spectacles | |
CN108537628B (en) | Method and system for creating customized products | |
US11307437B2 (en) | Method of designing and placing a lens within a spectacles frame | |
US20150293382A1 (en) | Method and System for Virtual Try-On and Measurement | |
US10222634B2 (en) | Optical measurement aid device | |
KR20100050052A (en) | Virtual glasses wearing method | |
KR20220002280A (en) | How to implement a directed 3D representation of the subject's head in a natural looking posture | |
JP3969842B2 (en) | Method of creating composite image in spectacle wearing simulation | |
JP5327866B2 (en) | Glasses fitting simulation system, glasses fitting simulation method and program | |
US20240249477A1 (en) | Fit prediction based on feature detection in image data | |
US12014462B2 (en) | Generation of a 3D model of a reference object to perform scaling of a model of a user's head | |
TWI663561B (en) | Virtual glasses matching method and system | |
EP4220114A1 (en) | Method and system for determining at least one optical parameter of an optical lens | |
JP7576819B2 (en) | Eyewear provision method | |
EP4086693A1 (en) | Method, processing device and system for determining at least one centration parameter for aligning spectacle lenses in a spectacle frame to eyes of a wearer | |
KR20240158068A (en) | 3d face modeling apparatus for glasses fitting or functional lens designing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20181218 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20200618 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20210316 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210317 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20210317 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20240131 Start annual number: 4 End annual number: 4 |