[go: up one dir, main page]

KR102231239B1 - Eyeglasses try-on simulation method - Google Patents

Eyeglasses try-on simulation method Download PDF

Info

Publication number
KR102231239B1
KR102231239B1 KR1020180164331A KR20180164331A KR102231239B1 KR 102231239 B1 KR102231239 B1 KR 102231239B1 KR 1020180164331 A KR1020180164331 A KR 1020180164331A KR 20180164331 A KR20180164331 A KR 20180164331A KR 102231239 B1 KR102231239 B1 KR 102231239B1
Authority
KR
South Korea
Prior art keywords
face
image
glasses
dimension
reference article
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020180164331A
Other languages
Korean (ko)
Other versions
KR20200075541A (en
Inventor
김재윤
Original Assignee
김재윤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김재윤 filed Critical 김재윤
Priority to KR1020180164331A priority Critical patent/KR102231239B1/en
Publication of KR20200075541A publication Critical patent/KR20200075541A/en
Application granted granted Critical
Publication of KR102231239B1 publication Critical patent/KR102231239B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 정확하게 측정한 얼굴 치수에 근거하여 안경의 3D 안경 모델을 촬영 영상의 얼굴에 맞춰 합성함으로써, 실제 안경을 착용한 얼굴의 모습을 보여줄 수 있는 안경 착용 시뮬레이션 방법에 관한 것으로서, 기설정 배치에 따라 출력한 얼굴 윤곽선(141) 및 기준 물품 윤곽선(142)에 맞춰 얼굴 및 기준 물품을 함께 촬영하고, 촬영하여 얻는 이미지 상에서의 기준 물품 치수를 얼굴 위치의 값으로 보정하여, 보정한 기준 물품 치수, 이미지 상의 얼굴 치수 및 기준 물품의 실물 치수에 따라 실제 얼굴 치수를 얻으며, 실제 얼굴 치수를 반영한 3D 사용자 얼굴 모델에 맞춰 3D 안경 모델을 합성한 가상 안경 체험을 하게 한다.The present invention relates to a spectacle wearing simulation method capable of showing the appearance of a real spectacled face by synthesizing a 3D spectacle model of spectacles according to a face of a photographed image based on an accurately measured face dimension, and The face and the reference article are photographed together in accordance with the facial contour 141 and the reference article contour 142 output according to the following, and the reference article dimension in the image obtained by photographing is corrected with the value of the face position, and the corrected reference article dimension, Real face dimensions are obtained according to the dimensions of the face on the image and the actual dimensions of the reference item, and the 3D glasses model is synthesized according to the 3D user's face model reflecting the actual face dimensions.

Description

안경 착용 시뮬레이션 방법{Eyeglasses try-on simulation method}Eyeglasses try-on simulation method}

본 발명은 정확하게 측정한 얼굴 치수에 근거하여 안경의 3D 안경 모델을 촬영 영상의 얼굴에 맞춰 합성함으로써, 실제 안경을 착용한 얼굴의 모습을 보여줄 수 있는 안경 착용 시뮬레이션 방법에 관한 것이다.The present invention relates to a spectacle wearing simulation method capable of showing the appearance of an actual spectacled face by synthesizing a 3D spectacle model of spectacles according to a face of a photographed image based on an accurately measured face dimension.

최근 온프라인 매장 판매량은 줄어들고 온라인 매장 판매량은 급속히 증가하고 있으며, 온라인으로 구매할 수 있는 물건의 종류도 더욱 다양화되는 추세에 있다. 이에 따라, 웬만한 물건은 온라인으로 구매할 수 있게 되었다.Recently, online store sales have decreased, online store sales have increased rapidly, and the types of items that can be purchased online are also on the trend of becoming more diversified. Accordingly, it is possible to purchase most items online.

이러한 추세에 편승하여, 다양한 종류의 안경 중에 원하는 안경을 온라인을 통해 구매할 수 있게 되었다.Taking advantage of this trend, it has become possible to purchase desired glasses from among various types of glasses online.

그런데, 온라인 구매에서는 잘 어울리는지를 확인하기 위해서 실제 착용해 보는 체험을 할 수 없으므로, 특히 패션 상품으로 인식되고 있는 안경의 온라인 구매를 기피하는 경향이 있었다.However, in order to check whether it fits well in online purchase, there is a tendency to avoid online purchase of eyeglasses, which is recognized as a fashion product, in particular, because it is not possible to actually try on them.

이에, 촬영한 얼굴 영상에 안경 이미지를 오버랩(또는 합성)하여 실제 안경을 착용한 얼굴 모습과 유사하게 보여주는 시뮬레이션 기술이 개발되었고, 이러한 기술을 활용한 온라인 판매도 개시되어서, 다양한 종류의 안경을 순차적으로 착용한 가상의 모습을 보며, 어울리는 안경을 선택 구매할 수 있게 되었다. 또한, 안경 초점을 눈동자에 맞추기 위해서, 양 동공 사이의 간격인 PM 값에 맞춘 안경도 구매할 수 있는 기술도 개발되었다.Accordingly, a simulation technology was developed that overlaps (or synthesizes) the photographed face image with the glasses image to resemble a face wearing the actual glasses, and online sales using this technology were also started, so that various types of glasses were sequentially sold. It is now possible to select and purchase glasses that match while looking at the virtual image worn by him. In addition, in order to focus the glasses on the pupils, a technology that allows the purchase of glasses that match the PM value, which is the interval between the two pupils, has also been developed.

그런데, 안경의 각 부위 치수는 제조단계에서 정해져 있으므로, 영상 내의 얼굴 치수에 맞춰 안경 이미지를 축소하거나 확대하여 합성해야 한다. 이에, 얼굴 치수를 얻어야 하는 데, 종래 기술에서는 얼굴 치수를 사용자가 입력하게 하거나, 또는 카메라와 얼굴 사이의 간격을 일정하게 한 상태에서 촬영하게 함으로써 영상 내의 얼굴 이미지로 치수를 얻을 수 있었다. 또한, 얼굴 영상 내의 치수를 알기 위한 보조적인 물건도 촬영하게 하여 그 물건의 이미지 치수로 얼굴 이미지 치수를 얻을 수 있었다.However, since the dimensions of each part of the glasses are determined at the manufacturing stage, the glasses image must be reduced or enlarged according to the dimensions of the face in the image to be synthesized. Accordingly, it is necessary to obtain the face dimensions. In the prior art, the dimensions can be obtained as a face image in the image by allowing the user to input the face dimensions or taking pictures with a constant distance between the camera and the face. In addition, it was possible to obtain the dimensions of the face image using the image dimensions of the object by photographing an auxiliary object for knowing the dimensions in the face image.

그렇지만, 자신의 얼굴 치수를 알고 있는 사람은 드물고, 촬영 거리를 맞춰 촬영하는 것도 어려우며, 단순히 치수를 알고 있는 보조적인 물건의 촬영 이미지만으로는 촬영 방향의 차이에 따른 오차가 발생하여 얼굴 치수를 정확하게 얻을 수 없으므로, 얻은 얼굴 치수에 오차가 발생할 수 있고, 결국, 얼굴 이미지에 합성하여 보여준 안경 이미지가 얼굴에 매칭되지 아니하고, 어색하게 될 수 있었다.However, few people know the dimensions of their faces, and it is difficult to shoot according to the shooting distance, and an error due to the difference in the shooting direction occurs only with the photographed image of an auxiliary object that knows the dimensions, so that the facial dimensions can be accurately obtained. Therefore, an error may occur in the obtained face dimension, and eventually, the glasses image combined with the face image may not match the face and may become awkward.

이에, 누구라도 얼굴 치수를 간편하게 측정하여, 얼굴 형상에 정확하게 매칭시킨 안경 착용 모습을 보여줄 수 있는 기술이 요구된다.Accordingly, there is a need for a technology that allows anyone to easily measure the face dimension and show the wearing of glasses accurately matched to the shape of the face.

KR 10-2001-0008011 A 2001.02.05.KR 10-2001-0008011 A 2001.02.05. KR 10-2004-0097349 A 2004.11.17.KR 10-2004-0097349 A 2004.11.17. KR 10-2017-0010985 A 2017.02.02.KR 10-2017-0010985 A 2017.02.02.

따라서, 본 발명은 얼굴 치수를 간편하면서 정확하게 측정하여, 치수가 정해져 있는 안경 이미지를 얼굴 치수에 정확하게 맞춘 가상 안경 착용 모습을 보여줄 수 있는 안경 착용 시뮬레이션 방법을 제공하는 데 목적을 둔다.Accordingly, an object of the present invention is to provide a spectacle wearing simulation method capable of simply and accurately measuring a face dimension and showing a virtual spectacle wearing state in which a spectacle image having a predetermined dimension is accurately matched to the face dimension.

상기 목적을 달성하기 위해 본 발명은 사용자의 얼굴을 카메라(130)로 촬영하여 얻는 영상과 실제 치수가 정해진 안경의 3D 안경 모델을 이용하여 안경을 착용한 가상 얼굴을 영상처리부(230)로 생성하고 디스플레이부(140)로 보여주는 안경 착용 시뮬레이션 방법에 있어서, 기설정 배치에 따라 디스플레이부(140)에 출력한 얼굴 윤곽선(141) 및 기준 물품 윤곽선(142)에 정면 얼굴 및 기준 물품의 중심을 맞췄을 시에 촬영한 정면 이미지와, 얼굴을 돌리며 촬영한 활동 영상을 카메라(130)를 통해 획득하는 촬영단계(S100); 활동 영상에서 안면 인식하여 3D 사용자 얼굴 모델을 얻는 얼굴 모델 획득단계(S200); 정면 이미지에서 기준 물품의 치수를 얼굴 위치의 값으로 보정한 보정 기준 물품 치수를 얻는 기준물품 치수 보정단계(S300); 정면 이미지에서 얼굴 치수와 보정 기준 물품 치수 사이의 비율, 및 기준 물품의 기설정 실제 치수에 근거하여, 3D 사용자 얼굴 모델의 치수를 결정하는 얼굴 치수 획득단계(S400); 얼굴을 촬영할 시에 영상 내의 얼굴 치수와 3D 사용자 얼굴 모델 치수 사이의 비율에 따라 크기를 조절한 3D 안경 모델을 영상 내 얼굴과 합성하여 디스플레이부(140)로 보여주는 시뮬레이션단계(S600); 를 포함한다.In order to achieve the above object, the present invention generates a virtual face wearing glasses by the image processing unit 230 using an image obtained by photographing a user's face with a camera 130 and a 3D glasses model of glasses whose actual dimensions are determined. In the spectacle wear simulation method shown by the display unit 140, the center of the front face and the reference article should be aligned with the face contour 141 and the reference article contour 142 output to the display unit 140 according to a preset arrangement. A photographing step (S100) of acquiring a front image captured at the time and an activity image photographed while turning the face through the camera 130; A face model acquisition step of obtaining a 3D user face model by recognizing a face from an activity image (S200); A reference article dimension correction step (S300) of obtaining a correction reference article dimension obtained by correcting the dimension of the reference article by the value of the face position in the front image; A face dimension acquisition step (S400) of determining a dimension of a 3D user's face model based on a ratio between the face dimension and the correction reference article dimension in the front image, and a preset actual dimension of the reference article; A simulation step (S600) of synthesizing a 3D glasses model whose size is adjusted according to a ratio between the dimensions of the face in the image and the dimensions of the 3D user's face model when photographing a face, and displaying it on the display unit 140; Includes.

본 발명의 일 실시 예에 따르면, 상기 기준 물품은 실제 크기가 알려진 신용카드로 하고, 상기 촬영단계(S100)는 양 동공 또는 양 귀를 인식하여 정면 얼굴 중심을 좌우 대칭으로 상기 얼굴 윤곽선(141) 중심에 맞추고, 상기 기준 물품은 상기 기준 물품 윤곽선(142)에 맞췄을 시에 촬영하여 정면 이미지를 획득한다.According to an embodiment of the present invention, the reference article is a credit card whose actual size is known, and the photographing step (S100) recognizes both pupils or both ears, and the face contour 141 is symmetrical to the center of the front face. Aligned to the center, the reference article is photographed when it meets the reference article outline 142 to obtain a front image.

본 발명의 일 실시 예에 따르면, 상기 촬영단계(S100)는 얼굴 윤곽선(141)의 좌우 중 어느 한쪽에 기준 물품 윤곽선(142)을 겹쳐 놓아서, 한쪽 눈의 외곽 측에 기준 물품이 배치된 정면 얼굴을 촬영한 정면 이미지를 얻고, 상기 얼굴 치수 획득단계(S400)는 정면 이미지에서 PD값과 보정 기준 물품 치수 사이의 상대적 비율, 및 기준 물품의 기설정 실제 크기에 근거하여 얻는 실제 PD값에 따라 3D 사용자 얼굴 모델의 치수를 결정한다.According to an embodiment of the present invention, in the photographing step (S100), the reference item outline 142 is superimposed on either side of the left and right of the face outline 141, so that the front face in which the reference item is disposed on the outer side of one eye. Obtaining a front image photographed, and in the step of obtaining face size (S400), 3D according to the relative ratio between the PD value in the front image and the size of the reference product, and the actual PD value obtained based on the preset actual size of the reference product. Determine the dimensions of the user's face model.

본 발명의 일 실시 예에 따르면, 상기 촬영단계(S100)는 정면 이미지를 촬영할 시의 얼굴과 기준 물품을 촬영 방향을 달리하여 함께 촬영한 보완 이미지를 더욱 획득하고, 상기 얼굴 치수 획득단계(S400)는 보완 이미지에서 얼굴과 기준 물품 사이의 깊이 차이를 얻고, 정면 이미지 상의 얼굴 치수와 보정 기준 물품 치수 사이의 상대적 비율을 깊이 차이에 따라 보정한다.According to an embodiment of the present invention, the photographing step (S100) further acquires a complementary image photographed together by different photographing directions of a face and a reference item when photographing a front image, and the facial dimension obtaining step (S400) Obtains a depth difference between the face and the reference article in the complementary image, and corrects the relative ratio between the face dimension on the front image and the correction reference article dimension according to the depth difference.

본 발명의 일 실시 예에 따르면, 상기 보완 이미지는 기준 물품을 얼굴보다 앞에 두어 측면에서 얼굴에 가려지지 않게 한 상태로 측면 촬영한 측면 이미지로 한다.According to an embodiment of the present invention, the complementary image is a side image taken from the side in a state in which the reference item is placed in front of the face so that the face is not covered from the side.

본 발명의 일 실시 예에 따르면, 상기 얼굴 치수 획득단계(S400)에서 결정한 치수를 갖는 3D 사용자 얼굴 모델에 맞춰 3D 안경 모델의 변형 가능한 부위를 가변하여 교정한 3D 안경 모델을 생성하는 안경 모델 교정단계(S500); 를 더욱 포함하고, 교정한 3D 안경 모델을 상기 시뮬레이션단계(S600)에 적용한다.According to an embodiment of the present invention, a glasses model correction step of generating a corrected 3D glasses model by varying a deformable portion of a 3D glasses model according to a 3D user's face model having the dimensions determined in the step of obtaining the face dimensions (S400). (S500); It further includes, and applies the corrected 3D glasses model to the simulation step (S600).

본 발명의 일 실시 예에 따르면, 상기 안경 모델 교정단계(S500)에서 3D 안경 모델의 교정은 안경을 3D 사용자 얼굴 모델에 맞춰 착용하기 위하여, 양측 림(rim)을 연결하는 브릿지(bridge)를 휘는 것, 림(rim)에 고정되어 단부에 힌지(hinge)를 설치할 수 있게 한 조인트(joint)를 휘는 것, 힌지(hinge)에 의해 다리(temple)의 각도를 조절하는 것, 다리(temple)를 휘는 것, 다리(temple)의 단부에 구비하여 귀에 걸 수 있게 한 팁(tip)을 휘는 것 중에 적어도 어느 하나를 포함한다.According to an embodiment of the present invention, in the correction of the 3D glasses model in the glasses model calibration step (S500), in order to wear the glasses according to the 3D user's face model, a bridge connecting both rims is bent. Bending a joint that is fixed to a rim so that a hinge can be installed at the end, adjusting the angle of the temple by means of a hinge, and adjusting the temple It includes at least one of bending, and bending a tip provided at an end of a temple so as to be hung on the ear.

본 발명의 일 실시 예에 따르면, 상기 기준물품 치수 보정단계(S300)는 보정 기준 물품 치수와 정지 이미지 내 기준 물품 치수 사이의 비율을 기준 물품의 방향(132)과 카메라 광축(131) 사이의 각도로 표현한 식을 미리 설정하여 두고, 정지 이미지 내에서 기준 물품의 위치에 따라 기준 물품의 방향(132)을 얻고, 기준 물품의 방향(132)과 카메라 광축(131) 사이의 각도를 얻은 이후, 각도에 대응되는 비율을 적용하여 보정 기준 물품 치수를 얻는다.According to an embodiment of the present invention, in the step of correcting the dimensions of the reference article (S300), the angle between the direction 132 of the reference article and the optical axis of the camera 131 is the ratio between the corrected reference article dimension and the reference article dimension in the still image. After setting the equation expressed as in advance, obtaining the direction 132 of the reference article according to the position of the reference article in the still image, and obtaining the angle between the direction 132 of the reference article and the optical axis of the camera 131, the angle By applying the ratio corresponding to the calibration standard article dimensions are obtained.

상기와 같이 이루어지는 본 발명은 화면 상의 위치가 고정된 얼굴 윤곽선 및 기준 물품 윤곽선에 맞춰 정면 얼굴 및 기준 물품을 함께 촬영하는 간편한 사전 동작에 의해서, 기준 물품을 얼굴 위치에서 촬영하여 얻을 수 있는 영상 내 치수를 일정한 크기의 기준 물품과 윤곽선의 기설정 배치를 이용하여 얻을 수 있고, 정면 얼굴의 수치도 정확하게 측정할 수 있으며, 이를 기반으로 3D 사용자 얼굴 모델의 치수를 정확하게 얻을 수 있고, 치수가 정해진 안경을 실제 얼굴에 착용한 모습처럼 보여줄 수 있다.The present invention made as described above is an image dimension that can be obtained by photographing a reference item at a face position by a simple pre-operation of photographing a front face and a reference item together in accordance with the face outline and the reference item outline at which the position on the screen is fixed. Can be obtained by using a reference item of a certain size and a preset arrangement of outlines, and the numerical value of the front face can also be accurately measured.Based on this, the dimensions of the 3D user's face model can be accurately obtained, and glasses with fixed dimensions can be obtained. It can be shown as if it was worn on a real face.

본 발명의 실시 예에 따르면, 얼굴 크기가 상이하더라도 기준 물품을 기준 물품 윤곽선에 맞추는 방식, 눈과 기준 물품의 깊이를 동일하게 한 상태로 촬영하게 하는 방식, 또는 정면과는 다른 각도로 촬영한 이미지로 기준 물품과 얼굴 사이의 깊이 차이를 얻는 방식을 활용하여, 간편하면서 더욱 정확하게 얼굴 치수를 얻을 수 있다.According to an embodiment of the present invention, even if the face size is different, a method of fitting a reference article to a reference article outline, a method of photographing with the same depth of the eyes and the reference article, or an image taken at a different angle from the front By utilizing the method of obtaining the difference in depth between the reference item and the face, it is possible to obtain the face dimensions more easily and more accurately.

본 발명의 실시 예에 따르면, 3D 안경 모델을 사용자 얼굴에 맞춰 교정하므로, 실제 얼굴 형태에 맞춰 안경을 착용한 모습처럼 보여줄 수 있다.According to an embodiment of the present invention, since the 3D glasses model is corrected according to the user's face, it can be shown as if wearing the glasses according to the actual shape of the face.

도 1은 본 발명의 실시 예에 따른 안경 착용 시뮬레이션 방법의 실현을 위한 예시적인 안경 착용 시뮬레이션 시스템의 블록구성도.
도 2는 본 발명의 실시 예에 따른 안경 착용 시뮬레이션 방법의 순서도.
도 3은 정면 이미지를 얻기 위한 화면(a)과, 정면 이미지를 얻는 중의 화면(b).
도 4는 보완 이미지를 얻는 중의 화면.
도 5는 활동 영상을 얻는 중의 화면.
도 6은 기준물품 치수 보정단계(S300)의 설명을 위해서, 기준 물품의 배치에 따라 나타나는 카메라 영상 내의 이미지 치수 차이를 보여준 도면.
도 7은 안경 모델 교정단계(S500)의 설명을 위해서, 착용 전 3D 안경 모델로 얻은 사시도 및 상면도 이미지(a)와, 3D 사용자 얼굴 모델에 착용한 3D 안경 모델로 얻은 상면도 이미지(b)를 보여준 도면.
도 8은 시뮬레이션단계(S600)의 화면.
도 9는 기준 물품을 눈의 깊이에 맞춰 촬영하기 위한 정지 이미지 촬영용 화면.
1 is a block diagram of an exemplary spectacle wearing simulation system for realizing a spectacle wearing simulation method according to an embodiment of the present invention.
2 is a flow chart of a method for simulating wearing glasses according to an embodiment of the present invention.
Fig. 3 is a screen (a) for obtaining a front image, and a screen (b) for obtaining a front image.
4 is a screen while obtaining a complementary image.
5 is a screen while an activity image is being acquired.
6 is a view showing a difference in image dimensions in a camera image appearing according to an arrangement of a reference article for explanation of the reference article dimension correction step (S300).
7 is a perspective view and a top view image (a) obtained from a 3D glasses model before wearing and a top view image (b) obtained from a 3D glasses model worn on a 3D user's face model for explanation of the glasses model correction step (S500). A drawing showing.
8 is a screen of the simulation step (S600).
9 is a screen for photographing a still image for photographing a reference article according to the depth of the eye.

이하, 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 당해 분야에 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 설명한다. 본 발명의 실시 예를 설명함에 있어, 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. In describing an embodiment of the present invention, if it is determined that a detailed description of a related known function or a known configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.

본 발명에 따른 안경 착용 시뮬레이션 방법은 안경의 3D 안경 모델(30)을 사용자 얼굴(10)의 영상에 합성하여 가상의 안경 착용 모습을 보여주기 위한 방법으로서, 치수가 알려진 기준 물품(20)을 이용하여 사용자 얼굴(10)의 치수에 정확하게 맞춘 3D 사용자 얼굴 모델을 얻고, 촬영한 영상 내의 사용자 얼굴(10)에 맞춰 크기 및 방향을 조절한 3D 안경 모델(30)의 이미지(30')를 오버랩하여 실제 안경을 착용한 얼굴(10)과 가장 근접한 모습을 보여준다.The spectacle wear simulation method according to the present invention is a method for showing a virtual spectacle wearing state by synthesizing the 3D spectacle model 30 of the spectacles to the image of the user's face 10, using a reference article 20 with known dimensions. Thus, a 3D user face model accurately matched to the dimensions of the user's face 10 is obtained, and the image 30' of the 3D glasses model 30 adjusted in size and direction to fit the user's face 10 in the captured image is overlapped. It shows the closest appearance to the face 10 wearing glasses.

여기서, 3D 안경 모델(30)의 안경은 치수가 정해진 안경으로서, 예를 들어, 기성품 또는 판매할 제품으로서 치수가 이미 정해져 있는 안경, 주문 제작하더라도 주요 부분의 치수는 변경하지 않는 안경, 또는 주문 제작하더라도 치수 변경이 한정된 안경일 수 있다.Here, the glasses of the 3D glasses model 30 are glasses whose dimensions are determined, for example, glasses that have dimensions already determined as ready-made products or products to be sold, glasses that do not change the dimensions of major parts even if they are made to order, or made to order. Even if it is, it may be glasses with a limited change in size.

본 발명은 정면 얼굴(10)과 기준 물품(20)을 함께 촬영하여 얻는 정면 이미지를 이용하되, 정면 얼굴(10)과 기준 물품(20)의 배치를 미리 지정하여 둔 윤곽선(141, 142)에 맞춘 상태로 촬영하게 하여서, 얼굴 치수를 정면 이미지를 이용하여 정확하게 얻을 수 있다. 이를 기반으로, 3D 사용자 얼굴 모델(40)의 정확한 실제 치수를 얻어서, 실제 치수가 정해진 안경의 3D 안경 모델(30)을 3D 사용자 얼굴 모델(40)에 매칭시킬 수 있고, 이를 기반으로 촬영 영상 내의 얼굴 치수에 맞춰 3D 안경 모델(30)을 크기 및 방향 조절하며 합성한 영상을 보여줄 수 있다.The present invention uses a front image obtained by photographing the front face 10 and the reference article 20 together, but the arrangement of the front face 10 and the reference article 20 is specified in the outlines 141 and 142 in advance. By allowing them to shoot in a matched state, the dimensions of the face can be accurately obtained using the front image. Based on this, the exact actual dimensions of the 3D user's face model 40 are obtained, and the 3D glasses model 30 of the glasses whose actual dimensions are determined can be matched with the 3D user's face model 40, and based on this, The synthesized image can be displayed by adjusting the size and direction of the 3D glasses model 30 according to the dimensions of the face.

이와 같은 본 발명의 구체적인 실시 예를 실현하기 위한 안경 착용 시뮬레이션 시스템을 예시적으로 먼저 설명한다.A system for simulating wearing glasses for realizing such a specific embodiment of the present invention will be described first by way of example.

도 1은 안경 착용 시뮬레이션 시스템의 블록 구성도이다.1 is a block diagram of a system for simulating wearing glasses.

도 1에 예시한 안경 착용 시뮬레이션 시스템은 온라인 판매를 위해 구축된 서버(200)에 네트워크를 통해 사용자 단말(100)로 접속하여 온라인 구매할 수 있는 시스템을 예로 들었으며, 본 발명에 따른 안경 착용 시뮬레이션 방법을 실현하기 위한 구성요소를 갖추어서, 안경 가상 착용을 체험하며 안경을 선택 구매할 수 있게 되어 있다. The spectacle wearing simulation system illustrated in FIG. 1 is an example of a system for online purchase by connecting to a server 200 built for online sales through a network through a user terminal 100, and a spectacle wearing simulation method according to the present invention Equipped with the components for realizing the glasses, it is possible to select and purchase glasses while experiencing virtual wearing of glasses.

상기 사용자 단말(100)은 예시한 바와 같이 네트워트를 통해 서버(200)에 접속할 수 있고, 촬영 기능과 사용자 인터페이스 기능을 갖춘 단말이면 되며, 이를 위해서, 통신모듈(120), 카메라(130), 디스플레이부(140) 및 사용자 단말(100)의 동작제어를 위한 제어부(110)를 구비한 스마트폰, 컴퓨터, 노트북 등으로 구성될 수 있다.The user terminal 100 can access the server 200 through a network as illustrated, and may be a terminal equipped with a photographing function and a user interface function. To this end, the communication module 120, the camera 130, and the display The unit 140 and the control unit 110 for controlling the operation of the user terminal 100 may include a smart phone, a computer, a laptop, and the like.

본 발명의 실시 예에 따르면, 상기 사용자 단말(100)은 상기 서버(200)에 접속하여 판매되는 안경 리스트를 디스플레이부(140)로 보여주고, 가상 안경 착용 서비스를 받을 시에 요구되는 사전 동작을 수행하고, 이후 가상 안경 착용 서비스를 받으며, 안경을 고르게 한다. According to an embodiment of the present invention, the user terminal 100 displays a list of glasses sold by accessing the server 200 on the display unit 140, and performs a pre-operation required when receiving a virtual glasses wearing service. After performing, receive virtual glasses wearing service, and choose glasses.

여기서, 사전 동작은 사용자의 정면 얼굴과 기준 물품을 함께 촬영하여 얻는 정면 이미지, 카메라를 기점으로 정면 얼굴과 기준 물품까지의 거리 차이인 깊이 차이를 알기 위해 추가 촬영하여 얻는 보완 이미지, 및 얼굴의 3D 모델을 얻기 위해 얼굴을 돌리며 촬영하여 얻는 활동 영상을 카메라(130)를 통해 획득하고 서버(200)에 전송하는 동작이다.Here, the preliminary operation is a front image obtained by photographing the user's front face and a reference item together, a supplementary image obtained by additional photographing to know the difference in depth, which is the difference in the distance between the front face and the reference item from the camera, and 3D of the face. In order to obtain a model, an activity image obtained by photographing while turning a face is acquired through the camera 130 and transmitted to the server 200.

가상 안경 착용 서비스는 가상 착용할 안경을 선택하여 서버(200)에 알리고, 카메라(130)로 촬영되는 사용자 얼굴(10)의 움직임 정보를 실시간 획득하여 서버(200)에 전송하고 서버(200)에서 합성되어 생성된 영상을 실시간 디스플레이부(140)로 보여주는 기능을 수행한다.The virtual glasses wearing service selects glasses to be worn virtually and informs the server 200, acquires motion information of the user's face 10 photographed by the camera 130 in real time, transmits it to the server 200, and transmits it to the server 200. A function of displaying the synthesized and generated image on the real-time display unit 140 is performed.

여기서, 사용자 얼굴(10)의 움직임 정보는 3D 사용자 얼굴 모델을 서버(200)로부터 받은 후, 카메라(130)로 촬영되는 영상을 안면 인식처리하여 3D 사용자 얼굴 모델과 비교한 결과로 얻는 방식으로 할 수 있으나, 이에 한정되는 것은 아니며, 카메라(130) 영상을 서버(200)에 전송하고 서버(200)에서 안면 인식처리하여 얻게 하여도 좋다.Here, the motion information of the user's face 10 is obtained as a result of comparing the 3D user's face model with the 3D user's face model by receiving the 3D user's face model from the server 200 and then performing facial recognition processing on the image captured by the camera 130. However, the present invention is not limited thereto, and may be obtained by transmitting the camera 130 image to the server 200 and performing facial recognition processing in the server 200.

물론, 안경을 바꿔가며 가상 안경 착용 서비스를 받을 수 있게 한다.Of course, it is possible to receive virtual glasses wearing service by changing glasses.

이러한 사용자 단말(100)은 상기한 사전 동작 및 가상 안경 착용 서비스 동작을 수행할 수 있는 애플리케이션을 설치한 스마트폰 또는 태블릿 PC, 또는 상기한 사전 동작 및 가상 착용 서비스 동작을 서버(200)와의 접속 하에 수행할 수 있는 카메라를 구비한 컴퓨터 또는 노트북으로 구현 가능하다.Such a user terminal 100 is a smartphone or tablet PC installed with an application capable of performing the above-described pre-operation and virtual glasses wearing service operation, or the pre-operation and virtual wearing service operation under connection with the server 200. It can be implemented as a computer or laptop equipped with a camera capable of performing.

상기 서버(200)는 통상적인 온라인 구매 서비스를 제공하는 온라인 판매부(210)를 구비하고, 본 발명의 실시를 위해서 안경 모델 저장부(220) 및 영상처리부(230)를 더욱 구비한다.The server 200 includes an online sales unit 210 that provides a conventional online purchase service, and further includes a glasses model storage unit 220 and an image processing unit 230 for the implementation of the present invention.

상기 온라인 판매부(210)는 판매할 안경의 리스트를 사용자 단말(100)을 통해 사용자에게 보여주고, 사용자 단말(100)을 통해 선택한 안경의 상세 정보를 보여주며, 구매 결정한 안경의 결제 및 배송 처리를 수행하는 통상적인 구성이므로, 상세 설명을 생략한다. 다만, 본 발명에 따르면, 선택한 안경의 가상 안경 착용 서비스를 이식하였다는 점에서 차이가 있다.The online sales unit 210 shows a list of glasses to be sold to the user through the user terminal 100, shows detailed information of the glasses selected through the user terminal 100, and performs payment and delivery processing of the glasses determined to be purchased. Since it is a typical configuration to be performed, detailed descriptions are omitted. However, according to the present invention, there is a difference in that the virtual glasses wearing service of the selected glasses is implanted.

상기 안경 모델 저장부(220)는 실제 치수가 정해진 다양한 종류의 안경에 대해 각각 생성한 3D 안경 모델이 저장되어 있다. 저장된 3D 안경 모델은 안경의 3차원적 데이터는 물론이고, 각 부위의 치수 데이터를 포함한다.The glasses model storage unit 220 stores 3D glasses models each generated for various types of glasses whose actual dimensions are determined. The stored 3D glasses model includes not only the 3D data of the glasses, but also dimension data of each part.

상기 영상처리부(210)는 사용자 얼굴의 촬영 영상 또는 이미지를 통상적인 안면 인식 알고리즘으로 처리하는 얼굴 인식부(231), 활동 영상을 얼굴 인식부(231)의 도움을 받아 사용자 얼굴의 3D 사용자 얼굴 모델을 획득하는 얼굴 모델 획득부(232), 단독의 정면 이미지 아니면 정면 이미지와 보완 이미지 모두를 얼굴 인식부(231)로 처리하게 하여 얻는 치수에 따라 기준 물품의 이미지 내 치수를 얻고 이를 기반으로 얼굴의 치수를 결정하여 3D 사용자 얼굴 모델의 치수를 결정하는 치수 산출부(233), 3D 사용자 얼굴 모델에 맞춰 3D 안경 모델의 변형 가능한 부위를 가변하여 교정한 3D 안경 모델을 생성하는 안경 모델 교정부(234) 및 사용자 단말(100)을 통해 실시간 촬영되는 영상 내의 사용자 얼굴 움직임에 맞춰 3D 안경 모델을 합성한 영상, 즉, 가상 안경 착용 얼굴의 영상을 사용자 단말(100)을 통해 보여주는 가상 체험 지원부(235)를 포함한다.The image processing unit 210 includes a face recognition unit 231 that processes a photographed image or image of a user's face with a conventional facial recognition algorithm, and a 3D user face model of the user's face with the help of the face recognition unit 231. The face model acquisition unit 232 that acquires the image, or a single front image, or both the front image and the complementary image, are processed by the face recognition unit 231 to obtain the dimensions within the image of the reference product and based on the A dimension calculation unit 233 that determines dimensions and determines the dimensions of the 3D user's face model, and a glasses model correction unit 234 that generates a corrected 3D glasses model by varying the deformable portion of the 3D glasses model according to the 3D user's face model. ) And a virtual experience support unit 235 showing an image of a 3D glasses model synthesized according to the movement of a user's face in an image captured in real time through the user terminal 100, that is, an image of a face wearing virtual glasses through the user terminal 100 Includes.

이와 같이 구성된 안경 착용 시뮬레이션 시스템으로 이루어지는 본 발명에 대해 도 2 내지 도 9를 참조하며 설명한다.The present invention consisting of a simulation system for wearing glasses configured as described above will be described with reference to FIGS. 2 to 9.

하기에서는 온라인 판매 과정의 구체적인 설명은 생략하고, 온라인 판매 과정 중에 안경 가상 착용 서비스를 제공하기 위한 안경 착용 시뮬레이션 방법을 위주로 설명하며, 사용자 단말(100)은 스마트폰으로 구성한 것으로 설명한다.In the following, a detailed description of the online sales process will be omitted, and a method of simulating glasses wearing for providing a virtual glasses wearing service during the online sales process will be mainly described, and the user terminal 100 will be described as being configured with a smartphone.

도 2는 본 발명의 실시 예에 따른 안경 착용 시뮬레이션 방법의 순서도이다.2 is a flowchart of a method for simulating wearing glasses according to an embodiment of the present invention.

도 3은 촬영 단계(S100)의 정면 이미지 획득 단계(S120)를 설명하기 위해서, 정면 이미지를 얻기 위한 화면(a)과, 정면 이미지를 얻는 중의 화면(b)을 예시한 도면이다.Fig. 3 is a diagram illustrating a screen (a) for obtaining a front image and a screen (b) during obtaining a front image in order to explain the front image acquisition step (S120) in the photographing step (S100).

도 4는 촬영 단계(S100)의 보완 이미지 획득 단계(S130)를 설명하기 위해서, 보완 이미지를 얻는 중의 화면을 예시한 도면이다.4 is a diagram illustrating a screen while obtaining a supplementary image in order to explain the step S130 of obtaining a supplementary image in the photographing step S100.

도 5는 촬영 단계(S100)의 활동 영상 획득 단계(S110)를 설명하기 위해서, 활동 영상을 얻는 중의 화면을 예시한 도면이다.FIG. 5 is a diagram illustrating a screen while obtaining an activity image in order to explain the activity image acquisition step S110 of the photographing step S100. FIG.

도 6은 기준물품 치수 보정단계(S300)를 설명하기 위해서, 기준 물품의 배치에 따라 카메라 영상 내 기준 물품 이미지의 치수 차이를 보여준 도면이다.6 is a view showing the difference in dimensions of the reference article image in the camera image according to the arrangement of the reference article in order to explain the reference article dimension correction step (S300).

도 7은 안경 모델 교정단계(S500)를 설명하기 위해서, 착용 전 3D 안경 모델의 사시도 및 상면도(a)와, 부분 변형하여 3D 사용자 얼굴 모델에 착용한 3D 안경 모델의 상면도(b)를 예시한 도면이다.7 is a perspective view and a top view (a) of the 3D glasses model before wearing and a top view (b) of the 3D glasses model worn on the 3D user face model after being partially deformed in order to explain the glasses model correction step (S500). It is an illustrated drawing.

도 8은 시뮬레이션단계(S600)를 설명하기 위해서, 시뮬레이션단계(S600)의 화면을 예시한 도면이다.8 is a diagram illustrating a screen of the simulation step S600 in order to explain the simulation step S600.

도 2에 도시한 바와 같이, 본 발명의 실시 예에 따른 안경 착용 시뮬레이션 방법은 사용자 얼굴을 모델링하기 위한 사전 동작으로서 수행하는 촬영단계(S100), 얼굴 모델 획득단계(S200), 기준물품 치수 보정단계(S300) 및 얼굴 치수 획득단계(S400)와, 사용자 단말(100)에서 안경을 선택하여(S10) 가상 안경 착용 서비스를 요청할 시에 수행하는 안경 모델 교정단계(S500) 및 시뮬레이션단계(S600)를 포함하며, 사용자 단말(100)에서 안경을 변경 선택하면(S20) 변경한 안경에 대해 안경 모델 교정단계(S500) 및 시뮬레이션단계(S600)를 수행한다.As shown in FIG. 2, in the method of simulating wearing glasses according to an embodiment of the present invention, a photographing step (S100), a face model acquisition step (S200), and a reference product dimension correction step performed as a pre-action for modeling a user's face. (S300) and facial dimension acquisition step (S400), and glasses model calibration step (S500) and simulation step (S600) performed when a virtual glasses wearing service is requested by selecting glasses from the user terminal 100 (S10). Including, and when the user terminal 100 selects to change the glasses (S20), the glasses model calibration step (S500) and the simulation step (S600) are performed on the changed glasses.

상기 촬영단계(S100)는 사용자 단말(100)을 통해 카메라(130)로 촬영하여 얻는 활동 영상, 정면 이미지 및 보완 이미지를 서버(200)로 전송받는 단계이며, 이에, 활동 영상 획득 단계(S110), 정면 이미지 획득 단계(S120) 및 보완 이미지 획득 단계(S130)를 포함하고, 필요한 영상 및 이미지를 얻기 위해서는 사용자가 카메라(130)의 방향을 맞추거나 또는 적절한 촬영 방식을 따르도록 안내해야 한다. 이를 위해 디스플레이부(140) 또는 스피커(미도시)를 통해 각 단계별 사용법을 안내한다.The photographing step (S100) is a step of receiving an activity image, a front image, and a supplemental image obtained by shooting with the camera 130 through the user terminal 100 to the server 200, and thus, the activity image acquisition step (S110) , A front image acquisition step (S120) and a supplementary image acquisition step (S130), and in order to obtain a necessary image and image, the user must guide the camera 130 to align the direction or follow an appropriate photographing method. To this end, how to use each step is guided through the display unit 140 or a speaker (not shown).

상기 활동 영상 획득 단계(S110)는 도 5에 도시한 바와 같이 카메라(130, 스마트폰의 전면 카메라)로 얼굴(10)을 촬영하며 촬영 영상을 디스플레이부(140)로 보여주는 중에 고개를 좌우로 돌리게 안내함으로써, 얼굴을 돌리며 촬영한 활동 영상을 얻는 단계이다. In the activity image acquisition step (S110), as shown in FIG. 5, the face 10 is photographed with the camera 130 (front camera of the smartphone) and the head is turned left and right while the photographed image is displayed on the display unit 140. This is the step of obtaining an activity video shot while turning your face by guiding.

상기 정면 이미지 획득 단계(S120)는 정면 얼굴(10) 및 기준 물품(20)을 함께 촬영하여 정면 이미지를 획득하는 단계로서, 정면 이미지 상에서 정면 얼굴(10) 및 기준 물품(20)이 기설정 배치에 따른 위치에 놓일 시에 촬영하여 얻는다.The front image acquisition step (S120) is a step of obtaining a front image by photographing the front face 10 and the reference article 20 together, and the front face 10 and the reference article 20 are preset on the front image. It is obtained by shooting when placed in a position according to.

도 3(a)을 참조하면, 정면 이미지 획득 단계(S120)의 초기에 디스플레이부(140)로 보여주는 화면에는 얼굴 윤곽선(141)과 기준 물품 윤곽선(142)이 기설정된 배치에 따라 화면 상의 지정된 위치에 각각 표시된다. 물론, 카메라(130)의 줌 기능이 사용되면, 윤곽선(141, 142)도 확대 또는 축소되고, 후술하는 각 단계에서도 줌에 따른 화각을 반영하면 되지만, 줌 기능은 사용하지 않는 것으로 설명한다.Referring to FIG. 3(a), in the screen displayed by the display unit 140 at the beginning of the front image acquisition step (S120), a face outline 141 and a reference item outline 142 are designated positions on the screen according to a preset arrangement. Are indicated in each. Of course, when the zoom function of the camera 130 is used, the outlines 141 and 142 are also enlarged or reduced, and the angle of view according to the zoom may be reflected in each step to be described later, but it will be described that the zoom function is not used.

정면 이미지를 얻기 위해서는 먼저, 카메라(130)로 촬영한 영상을 디스플레이부(140)로 보여주면서 사용자의 정면 얼굴(10)을 얼굴 윤곽선(141)의 중심에 맞추고 기준 물품(20)을 기준 물품 윤곽선(142)의 중심에 맞추라고 안내한다. 이에, 사용자는 카메라(130) 방향을 바꾸어 정면 얼굴(10)을 얼굴 윤곽선(141)의 중심에 맞추려 할 것이고, 도면에 도시하지 아니하였지만 한 손에 든 기준 물품(20)의 위치를 바꾸어 기준 물품(20)을 기준 물품 윤곽선(142)의 중심에 맞추려 할 것이다.In order to obtain the front image, first, while displaying the image captured by the camera 130 on the display unit 140, align the user's front face 10 with the center of the face contour 141, and then set the reference article 20 to the reference article contour. Instruct them to align to the center of (142). Accordingly, the user will try to align the front face 10 with the center of the facial contour 141 by changing the direction of the camera 130, and although not shown in the drawing, the position of the reference item 20 held in one hand is changed to We will try to center (20) the reference article contour 142.

도 3(b)에 도시한 바와 같이, 정면 얼굴(10)을 얼굴 윤곽선(141)의 중심에 맞추고 동시에 기준 물품(20)을 기준 물품 윤곽선(142)의 중심에 맞추면, 이때 촬영하여 얻는 사진 이미지를 정면 이미지로 한다. As shown in Fig. 3(b), if the front face 10 is aligned with the center of the facial contour 141 and the reference article 20 is aligned with the center of the reference article contour 142, a photographic image obtained at this time Is the front image.

사용자 얼굴(10)의 중심 맞춤을 위해서, 사용자 단말(100)은 양 동공 또는 양 귀를 인식하는 프로그램을 제어부(110)에서 실행되게 하거나, 아니면 서버(200)의 영상 처리부(200)에 구비된 얼굴 인식부(231)를 활용함으로써, 정면 얼굴(10) 중심(실질적으로 좌우 양분하는 수직선)을 알아내고, 정면 얼굴(10)을 좌우 대칭으로 하여 중심이 윤곽선 중심에 맞추었는지 확인하게 할 수 있다. 이에, 정면 얼굴(10)을 얼굴 윤곽선(141)의 중심에 맞춘 순간을 촬영할 수 있다. 이와 같은 중심 맞춤 및 좌우 대칭은 카메라(130)의 광축이 사용자 얼굴(10)의 좌우 폭방향의 중심을 지날 때에 가능하게 될 것이다.In order to center the user's face 10, the user terminal 100 allows the controller 110 to execute a program that recognizes both pupils or both ears, or is provided in the image processing unit 200 of the server 200. By using the face recognition unit 231, it is possible to find out the center of the front face 10 (a vertical line that substantially divides the left and right), and make sure that the center of the front face 10 is aligned with the center of the outline by making the front face 10 symmetrical. . Accordingly, a moment when the front face 10 is aligned with the center of the face outline 141 can be photographed. Such centering and left-right symmetry will be possible when the optical axis of the camera 130 passes the center of the user's face 10 in the left-right width direction.

기준 물품(10)의 중심 맞춤을 위해서는 기준 물품(10)의 윤곽선을 추출하는 영상처리 기능을 갖추면 된다. In order to align the center of the reference article 10, an image processing function for extracting the outline of the reference article 10 may be provided.

한편, 기준 물품(20)은 기준 물품 윤곽선(142)에 맞췄을 시에 정면 이미지를 획득하는 것이 좋다. 즉, 얼굴(10)은 사용자별로 치수 및 형태가 상이하므로, 얼굴 윤곽선(141) 중심에 맞추면 만족하지만, 치수가 알려진 기준 물품(20)은 기준 물품 윤곽선(142)에 맞춤으로써, 기설정 배치에 따라 카메라와 기준 물품(20) 간의 거리도 일정한 값을 갖게 되며, 결국, 하기에서 도 6을 참조하며 설명하는 바와 같이 얼굴(10) 치수를 보다 쉽게 얻을 수 있게 된다.On the other hand, when the reference article 20 matches the reference article outline 142, it is preferable to obtain a front image. That is, since the face 10 has different dimensions and shapes for each user, it is satisfactory if it is aligned with the center of the face contour 141, but the reference article 20 of known dimensions is aligned with the reference article contour 142, so that it can be arranged in a preset arrangement. Accordingly, the distance between the camera and the reference article 20 also has a constant value, and as a result, it is possible to more easily obtain the dimensions of the face 10 as described below with reference to FIG. 6.

상기 기준 물품(20)은 누구나 하나씩은 소유하고 항상 휴대하며 실물의 치수가 동일한 것으로 하는 것이 바람직하며, 본 발명의 실시 예에서는 어느 카드사의 것이든 실물 치수가 동일하다고 알려진 신용 카드로 하였다. 물론, 상기 기준 물품 윤곽선(142)은 폭과 상하 길이의 비율을 신용카드의 비율에 맞추고, 신용 카드의 치수는 미리 설정하여 둔다.It is preferable that everyone owns the reference item 20 and always carries it, and has the same physical dimensions. In the embodiment of the present invention, a credit card known to have the same physical dimensions is used for any card company. Of course, the reference article outline 142 matches the ratio of the width and the top and bottom length to the ratio of the credit card, and the dimensions of the credit card are set in advance.

여기서, 얼굴(10) 치수는 안면폭, 상하길이, 미간폭, PD값(두 동공 사이의 간격) 등 얼굴(10) 부위별 치수를 포함하는 값으로 볼 수 있고, 기준 물품(20)의 치수는 폭, 길이 등의 값으로 볼 수 있으며, 각각의 부위별 치수 중에 어느 하나를 기준으로 잡는 것이 좋다. 본 발명의 실시 예 설명을 쉽게 이해하기 위해서, 정면 이미지 상의 치수는 얼굴(10)의 PD값과 기준 물품(20)의 폭으로 할 수 있다. 이 경우에, 두 동공의 연장선 상에 기준 물품(20)의 상단이 맞춰지도록 상기한 기설정 배치를 정할 수 있다. 즉, 치수를 알려고 하는 얼굴 부위를 치수 비교할 기준 물품(20)의 부위와 동일 선상에 놓이게 하는 것이 치수 산출식을 간소화한다.Here, the dimensions of the face 10 can be viewed as values including dimensions for each part of the face 10, such as face width, vertical length, glabellar width, and PD value (the gap between two pupils), and the dimensions of the reference article 20 Can be viewed as values such as width and length, and it is better to set it based on any one of the dimensions of each part. In order to easily understand the description of the embodiment of the present invention, the dimensions on the front image may be the PD value of the face 10 and the width of the reference article 20. In this case, the above-described preset arrangement may be determined so that the upper end of the reference article 20 is aligned on the extension line of the two pupils. That is, making the face part for which the dimensions are to be known be placed on the same line as the part of the reference article 20 for which the dimensions are to be compared simplifies the dimension calculation formula.

그런데, 동일 선상에 놓이게 하는 것은 어려움이 있으므로, 본 발명의 실시 예에서는 정면 이미지 상에서 깊이를 인위적으로 상이하게 하는 것으로 하였으며, 그 깊이를 얻기 위해서 상기 보완 이미지 획득 단계(S130)를 추가하였다.However, since it is difficult to lie on the same line, in an embodiment of the present invention, the depth is artificially different on the front image, and the complementary image acquisition step (S130) is added to obtain the depth.

상기 보완 이미지 획득 단계(S130)는 도 4에 도시한 바와 같이 기준 물품을 얼굴보다 앞에 두어 측면에서 측면 얼굴과 함께 촬영할 시에 얼굴에 가려지지 않게 한 상태로 측면에서 촬영하고, 이때 얻는 사진 이미지를 보완 이미지로 한다. 물론, 촬영되게 할 자세를 취하도록 안내한 후 상기 정면 이미지 획득 단계(S120)를 수행하고, 이어서, 동일 자세를 유지한 상태에서 측면 영상을 촬영하라는 안내를 하여서, 상기 보완 이미지 획득 단계(S130)를 수행한다. 보완 이미지를 획득할 시에는 윤곽선(141, 142)이 필요치 않다.In the step of obtaining the supplementary image (S130), as shown in FIG. 4, the reference item is placed in front of the face so that it is not covered by the face when photographing with the side face from the side, and the photographic image obtained at this time is taken. Make it a complementary image. Of course, after guiding to take a posture to be photographed, the front image acquisition step (S120) is performed, and then, the supplementary image acquisition step (S130) by guiding to take a side image while maintaining the same posture. To do. When obtaining a complementary image, the outlines 141 and 142 are not required.

도 4를 살펴보면, 얼굴의 각 부위 치수 중에 PD값을 기준으로 한다면, 동공(또는 눈)과 기준 물품(20) 사이의 깊이 차, 즉, 정면 이미지 상의 양측 이미지 깊이 차이(d)를 얻을 수 있다.Referring to FIG. 4, if the PD value is based on the dimensions of each part of the face, the difference in depth between the pupil (or eye) and the reference article 20, that is, the difference in depth of both images on the front image (d) can be obtained. .

그렇지만, 보완 이미지는 측면에서 촬영하지 아니하고, 다른 각도의 촬영 방향으로 얼굴과 기준 물품을 동시 촬영하여 얻어도 좋다. 즉, 정면 이미지를 얻을 시의 촬영 방향과는 다른 방향으로 촬영하여도, 영상처리에 의해 깊이 차를 얻을 수 있다. 그렇지만, 좀 더 쉽고 정확하게 깊이 차이를 얻기 위해서는 측면에서 촬영하여 얻는 것이 좋다.However, the complementary image may not be photographed from the side, and may be obtained by simultaneously photographing a face and a reference article in a photographing direction of a different angle. That is, even when photographing in a direction different from the photographing direction at the time of obtaining the front image, a difference in depth can be obtained through image processing. However, in order to get the depth difference more easily and accurately, it is better to shoot from the side.

부가적으로, 도 3 내지 도 6을 참조하면, 다양한 종류의 안경 리스트(143)를 디스플레이부(140)에 표출함으로써, 안경 리스트(143)의 안경을 하나씩 선택할 수 있게 하였다.Additionally, referring to FIGS. 3 to 6, by displaying various types of glasses list 143 on the display unit 140, the glasses of the glasses list 143 can be selected one by one.

한편, 활동 영상 및 정면 이미지의 획득 순서는 바꾸어도 좋다. 물론, 순서에 맞춰 사용 안내를 하여야 하고, 보완 이미지는 정면 이미지에 이어서 얻어야 한다.On the other hand, the order of acquisition of the active image and the front image may be changed. Of course, guides should be provided in order, and complementary images should be obtained following the front image.

이와 같이 얻은 활동 영상, 정면 이미지 및 보완 이미지는 서버(200)의 영상처리부(220)로 전달되어서, 얼굴 모델 획득단계(S200), 기준물품 치수 보정단계(S300) 및 얼굴 치수 획득단계(S400)에 사용된다.The activity image, the front image, and the complementary image obtained as described above are transmitted to the image processing unit 220 of the server 200, so that the face model acquisition step (S200), the reference product dimension correction step (S300), and the face dimension acquisition step (S400) Used for

상기 얼굴 모델 획득단계(S200)는 전송받은 활동 영상을 얼굴 인식부(231)에서 처리하게 하여 안면 인식함으로써 얼굴의 각 부위 특징점을 얻고, 얼굴 모델 획득부(232)에서 얼굴 인식부(231)의 인식 결과에 따라 3D 사용자 얼굴 모델을 얻게 하는 단계이다. 이와 같이 얻은 3D 사용자 얼굴 모델에 의해서 이목구비의 상대적 위치도 정해지고, 특히, 안경을 착용할 얼굴 부위의 위치도 알 수 있게 된다. 안면 인식 기술 및 3D 사용자 얼굴 모델을 얻는 기술은 공지의 기술이므로 상세 설명은 생략한다.In the face model acquisition step (S200), the face recognition unit 231 processes the received active image to recognize the face, thereby obtaining feature points of each region of the face, and the face model acquisition unit 232 This is the step of obtaining a 3D user's face model according to the recognition result. The relative position of the features is also determined by the 3D user's face model obtained as described above, and in particular, the position of the face to be worn with glasses can be known. Since the facial recognition technology and the technology for obtaining a 3D user face model are known technologies, detailed descriptions are omitted.

상기 기준물품 치수 보정단계(S300)는 정면 이미지를 얼굴 인식부(231)에서 처리하게 하여 안면 인식하고, 기준 물품도 윤곽선을 인식하며, 치수 산출부(233)에서 얼굴 인식부(231)의 인식 결과에 따라 정면 이미지 상의 기준 물품 치수를 얻은 후 상기한 기설정 배치에 따라 보정하는 단계이다. 물론, 정면 이미지 상의 치수는 차지하는 픽셀수로 얻는다.In the reference product dimension correction step (S300), the front image is processed by the face recognition unit 231 to recognize the face, the reference product also recognizes the outline, and the face recognition unit 231 recognizes the dimension calculation unit 233 This is a step of obtaining the dimensions of the reference article on the front image according to the result and then correcting according to the above-described preset arrangement. Of course, the dimensions on the front image are obtained by the number of occupied pixels.

도 6(a)을 참조하면, 정면 얼굴(10)과 기준 물품(20)을 동시 촬영하여 정면 이미지를 얻을 시에 상기한 기설정 배치를 적용하므로, 정면 얼굴(10)을 촬영하기 위해서 정면 얼굴(10)의 중심을 카메라(130)의 광축 상(131)에 놓이게 하며, 이에, 기준 물품(20)은 광축에서 벗어난 방향(132)에 놓이게 된다. 이에, 정지 이미지 상에서 기준 물품(20)의 촬영 범위(1)는 기준 물품(20)을 얼굴(10)의 위치에 놓이게 한 가상의 기준 물품(20')을 촬영하였을 시의 촬영 범위(2)와 상이하게 되고, 결국, 정지 이미지 상의 치수도 배치 차이에 따라 상이하게 된다. Referring to FIG. 6(a), the above-described preset arrangement is applied when obtaining a front image by simultaneously photographing the front face 10 and the reference article 20, so that the front face is The center of (10) is placed on the optical axis 131 of the camera 130, and thus, the reference article 20 is placed in a direction 132 away from the optical axis. Accordingly, the shooting range 1 of the reference article 20 on the still image is the shooting range when the virtual reference article 20 ′ having the reference article 20 placed at the position of the face 10 is photographed (2) And, as a result, the dimensions of the still image also differ according to the difference in placement.

도 6(b)에 예시한 바와 같이, 만약, 얼굴(10)과 동일한 선상에 맞춰 기준 물품(20)을 배치하게 한 후 촬영하더라도 마찬가지이다. 도 6(b)의 예시는 하기에서 도 9를 참조한 설명의 이해를 위해서 첨부하였다.As illustrated in FIG. 6(b), even if the image is taken after placing the reference article 20 in line with the face 10, it is the same. The example of FIG. 6(b) is attached for understanding of the description with reference to FIG. 9 below.

여기서, 기준 물품(20)을 얼굴(10)의 위치에 놓이게 한 가상의 기준 물품(20')을 촬영할 시에 정지 이미지 상에서 얻을 수 있는 치수를 이용하여, 얼굴(10) 치수를 얻는 것이 더욱 정확한 치수를 얻는 데 유리하다.Here, it is more accurate to obtain the dimensions of the face 10 by using the dimensions that can be obtained on the still image when photographing the virtual reference article 20' in which the reference article 20 is placed at the position of the face 10. It is advantageous to get the dimensions.

이러한 이유로, 상기 기준물품 치수 보정단계(S300)를 수행하여서, 정면 이미지에서 기준 물품의 치수를 얼굴 위치의 값으로 보정한 보정 기준 물품 치수를 얻는다.For this reason, by performing the reference article dimension correction step (S300), a correction reference article dimension obtained by correcting the dimension of the reference article in the front image by the value of the face position is obtained.

예를 들어, 정지 이미지 상에서 나타난 기준 물품(20)의 위치에 따라 기준 물품(20)의 방향(132)을 얻을 수 있고, 보정 기준 물품 치수는 기준 물품(20)의 방향(132)과 카메라 광축(131) 사이의 각도에 따라 산출하는 식을 세워 얻게 할 수 있다. 이는, 각도 차이에 따라 촬영 이미지 상의 치수가 달라지기 때문이다. 예를 들어 보정 기준 물품 치수와 정지 이미지 상 기준 물품 치수 사이의 비율을 기준 물품(20)의 방향(132)과 카메라 광축(131) 사이의 각도별로 얻어 각도에 따라 정해지는 값으로 정의하여도 좋다. 한편, 상기한 바와 같이 기준 물품(20)을 기준 물품 윤곽선(142)에 맞춰 촬영한 경우, 카메라(130)와 기준 물품(20) 사이의 간격은 상기한 기설정 배치에 의해 정해지므로, 보정 기준 물품 치수를 얻는 식은 더욱 간소화할 수 있다.For example, the direction 132 of the reference article 20 can be obtained according to the position of the reference article 20 shown on the still image, and the correction reference article dimension is the direction 132 of the reference article 20 and the optical axis of the camera. (131) It can be obtained by establishing an equation that is calculated according to the angle between. This is because the dimensions on the photographed image vary according to the angle difference. For example, the ratio between the correction reference product dimension and the reference product dimension on a still image may be obtained for each angle between the direction 132 of the reference product 20 and the optical axis 131 of the camera, and defined as a value determined according to the angle. . On the other hand, when the reference article 20 is photographed in accordance with the reference article outline 142 as described above, since the distance between the camera 130 and the reference article 20 is determined by the above-described preset arrangement, the correction standard The equation for obtaining the article dimensions can be further simplified.

상기 얼굴 치수 획득단계(S400)는 정지 이미지 상에서 얻는 정면 얼굴(10) 치수와 상기 기준물품 치수 보정단계(S300)에서 얻는 보정 기준 물품 치수 사이의 비율을 획득하는 치수 비율 획득단계(S410), 도 4를 참조하며 설명한 바와 같이 얼굴(10)과 기준 물품(20) 사이의 깊이 차이(d)를 보완 이미지를 이용하여 얻어 정면 얼굴(10) 치수와 보정 기준 물품 치수 사이의 치수 비율에 반영함으로써 치수 비율을 보정하는 비율 보정단계(S420), 및 보정한 치수 비율과 기준 물품(20)의 기설정 실제 치수에 근거하여 실제 얼굴 치수를 결정하고, 결정한 얼굴 치수를 3D 사용자 얼굴 모델에 적용하는 치수 맞춤 단계(S430)를 포함한다.The facial dimension acquisition step (S400) is a dimension ratio acquisition step (S410) of acquiring a ratio between the dimensions of the front face 10 obtained on the still image and the correction reference product dimensions obtained in the reference product dimension correction step (S300), FIG. As described with reference to 4, the depth difference (d) between the face 10 and the reference article 20 is obtained using a complementary image and reflected in the dimensional ratio between the front face 10 dimension and the corrected reference article dimension. A ratio correction step (S420) of correcting the ratio, and dimension alignment in which the actual face dimension is determined based on the corrected dimension ratio and the preset actual dimension of the reference article 20, and the determined face dimension is applied to the 3D user's face model It includes step S430.

구체적인 실시 예를 설명하면, 치수 비율 획득단계(S410)에서 획득할 치수 비율은 아래 수식으로 얻는다.When describing a specific embodiment, the dimensional ratio to be obtained in the dimensional ratio obtaining step (S410) is obtained by the following equation.

Figure 112018127353307-pat00001
Figure 112018127353307-pat00001

그리고, 도 6을 참조하여 비율 보정단계(S420)를 설명하면, 카메라 광축(131) 상에 놓인다고 가정한 가상의 기준 물품(20')의 촬영범위(2)를 알 수 있고, 그 가상의 기준 물품(20')의 치수는 보정 기준 물품 치수로 얻었으므로, 그 가상의 기준 물품(20')에서 카메라(130)까지의 거리를 삼각함수로 얻을 수 있다. 이에, 동일 크기의 물품이 카메라로부터 멀어질수록 촬영한 영상 내의 물품 이미지는 작아지는 원리를 이용하여, 얼굴(10)과 기준 물품(20) 사이의 깊이 차이(d)만큼 그 가상의 기준 물품(20')을 카메라로부터 멀어지게 후퇴시켰을 시의 정면 이미지 상 치수를 산출할 수 있다.In addition, referring to FIG. 6, the ratio correction step (S420) will be described, the shooting range 2 of the virtual reference article 20 ′ assumed to be placed on the camera optical axis 131 can be known, and the virtual Since the dimension of the reference article 20' is obtained as the correction reference article dimension, the distance from the virtual reference article 20' to the camera 130 can be obtained by a trigonometric function. Accordingly, using the principle that the image of the article in the captured image decreases as the article of the same size moves away from the camera, the virtual reference article ( 20') can be calculated on the front image of the city when it is retracted away from the camera.

즉, 후퇴시켰을 시에 얻게 될 정면 이미지 상의 치수를 수학식 1의 보정 기준 물품 치수에 적용하면 최종적인 치수 비율을 얻게 된다. 이와 같이 보정한 치수 비율은 카메라에서 가상의 기준 물품(20')까지의 거리와, 깊이 차이를 변수로 하는 식으로 얻게 하여도 좋다.That is, when the dimensions on the front image that are to be obtained when retracted are applied to the correction reference product dimensions of Equation 1, the final dimensional ratio is obtained. The dimensional ratio corrected in this way may be obtained by using the distance from the camera to the virtual reference article 20' and the difference in depth as variables.

그렇지만, 만약 얼굴(10)의 폭방향 연장선 상에 기준 물품(20)을 놓고 촬영하도록 상기한 기설정 배치를 적용한다면, 보완 이미지를 얻지 아니하므로, 상기 비율 조정단계(S420)를 수행하지 아니한다.However, if the above-described preset arrangement is applied so that the reference article 20 is placed on the extension line in the width direction of the face 10 and photographed, a complementary image is not obtained, and thus the ratio adjustment step S420 is not performed.

치수 맞춤 단계(S430)에서는 깊이 차이를 반영한 치수 비율을 적용한다. 즉, 실제 사용자의 얼굴 치수는 기준 물품(20)의 기설정 실제 치수(즉 기준 물품의 실물 치수)에 치수 비율을 곱셈하는 아래 수학식 2로 얻을 수 있다.In the dimension fitting step (S430), the dimension ratio reflecting the difference in depth is applied. That is, the actual user's face dimension can be obtained by Equation 2 below, which is multiplied by a dimension ratio by a preset actual dimension of the reference article 20 (that is, the actual dimension of the reference article).

Figure 112018127353307-pat00002
Figure 112018127353307-pat00002

예를 들어, 얼굴 치수를 PD값으로 하여 얻는 경우, 이때의 PD값을 3D 사용자 얼굴 모델에 적용하여 모델 각 부위 치수도 결정한다. 즉, 3D 사용자 얼굴 모델을 사용자 얼굴의 실제 스케일에 맞게 구성한다.For example, when the face size is obtained as a PD value, the size of each part of the model is also determined by applying the PD value at this time to the 3D user's face model. That is, the 3D user face model is configured to fit the actual scale of the user's face.

다음으로, 사용자 단말(100)에서 안경을 선택하면(S10), 선택한 안경의 3D 안경 모델(30)을 안경 모델 저장부(220)에서 불러들이고, 안경 모델 교정단계(S500) 및 시뮬레이션단계(S600)를 수행한다.Next, when glasses are selected in the user terminal 100 (S10), the 3D glasses model 30 of the selected glasses is loaded from the glasses model storage unit 220, and the glasses model calibration step (S500) and the simulation step (S600) ).

상기 안경 모델 교정단계(S500)는 사용자 얼굴의 치수에 맞춘 3D 사용자 얼굴 모델(40)에 맞게 실물 치수를 갖는 3D 안경 모델(30)을 변형함으로써, 합성하였을 시에 실제 사용자 얼굴에 안경을 착용한 모습을 갖게 한다. The glasses model correction step (S500) is performed by transforming the 3D glasses model 30 having real dimensions to fit the 3D user face model 40 adapted to the dimensions of the user's face. Give it a look.

즉, 상기에서 얻은 3D 사용자 얼굴 모델(40)은 눈, 귀, 코 사이의 상대적 위치 및 안면폭이 사용자별로 상이한 모델로 얻게 되므로, 눈, 귀, 코 사이의 상대적 위치 및 안면폭에 맞춰 변형한다.That is, since the 3D user face model 40 obtained above is obtained as a model whose relative position and face width between eyes, ears and nose are different for each user, it is transformed according to the relative position and face width between eyes, ears and nose. .

도 7(a)을 참조하면, 3D 안경 모델(30)은 실제 안경의 구조에 의해서 렌즈(lens, 31), 림(rim, 32), 33 : 브릿지(bridge, 33), 노우즈패드(nosepad, 34), 조인트(joint, 35), 36 : 힌지(hinge, 36), 다리(temple, 37) 및 팁(tip, 38)을 갖게 된다. Referring to FIG. 7(a), the 3D glasses model 30 includes lenses 31, rims 32, 33: bridges 33, and nose pads according to the structure of the actual glasses. 34), joint (35), 36: has a hinge (36), a leg (temple, 37) and a tip (38).

그리고, 실물 안경을 사용자 얼굴에 실제 착용하기에 앞서서, 사용자 얼굴의 치수에 맞게 양측 림(rim)을 연결하는 브릿지(bridge)를 휘거나, 다리(temple)의 단부에 구비하여 귀에 걸 수 있게 한 팁(tip)을 휘거나, 림(rim)에 고정되어 단부에 힌지(hinge)를 설치할 수 있게 한 조인트(joint)를 휘거나, 또는 다리(temple)를 휘고, 착용한 상태에서는 힌지(hinge)에 의해 다리(temple)의 각도가 조절된다. 즉, 안경은 실제 착용할 시에는 각 부위 중에 변형 가능한 부위를 사용자 얼굴에 맞게 형태 변형된다.And, prior to actually wearing the real glasses on the user's face, the bridge connecting the rims on both sides according to the dimensions of the user's face is bent or provided at the end of the temple so that it can be hung on the ear. The tip is bent, the joint is fixed to the rim so that a hinge can be installed at the end, or the leg is bent, and when worn, a hinge The angle of the temple is adjusted by. That is, when the glasses are actually worn, the deformable part of each part is transformed to fit the user's face.

이에, 도 7(b)에 예시한 바와 같이, 실제 착용된 상태의 안경에 대한 3D 안경 모델(30)을 상기 안경 모델 교정단계(S500)를 수행하여 얻는다. 도 7(b)은 3D 사용자 얼굴 모델(40)의 치수에 따라 조인트(joint, 35)를 휘고, 다리(temple, 37)의 각도를 조절한 모습을 보여주지만, 다른 부위도 변형될 수 있다.Accordingly, as illustrated in FIG. 7(b), the 3D glasses model 30 for the glasses in the actual worn state is obtained by performing the glasses model calibration step (S500). 7(b) shows a state in which the joint 35 is bent and the angle of the leg 37 is adjusted according to the dimensions of the 3D user's face model 40, but other parts may also be modified.

여기서, 교정하여 얻는 3D 안경 모델(30)은 상기 시뮬레이션단계(S600)에 적용된다.Here, the 3D glasses model 30 obtained by calibrating is applied to the simulation step S600.

상기 시뮬레이션단계(S600)는 사용자 단말(100)에서 얼굴을 촬영할 시에 촬영 영상을 얼굴 인식부(231)로 처리하여 안면 인식함으로써 영상 내의 얼굴 치수를 얻고, 영상 내 얼굴 치수와 3D 사용자 얼굴 모델 치수 사이의 비율에 따라 3D 안경 모델의 크기를 조절하여 합성하고, 합성한 영상을 사용자 단말(100)의 디스플레이부(140)에 출력되게 한다. 물론, 촬영 영상 내의 얼굴 방향에 맞춰 합성한다.In the simulation step (S600), when a face is photographed in the user terminal 100, the photographed image is processed by the face recognition unit 231 to recognize the face to obtain the face dimension in the image, and the face dimension in the image and the 3D user face model dimension The size of the 3D glasses model is adjusted and synthesized according to the ratio therebetween, and the synthesized image is output to the display unit 140 of the user terminal 100. Of course, it is synthesized according to the direction of the face in the captured image.

이에, 도 8에 도시한 바와 같이 사용자 단말(100)의 디스플레이부(140)에 출력되는 영상의 각 프레임은 3D 안경 모델(30)에서 얻은 안경 이미지(30')를 사용자 얼굴 이미지(10)에 합성한 것으로 표출된다.Thus, as shown in FIG. 8, each frame of the image output to the display unit 140 of the user terminal 100 is a glasses image 30' obtained from the 3D glasses model 30 to the user's face image 10. It is expressed as a synthetic one.

이와 같이, 정해진 3D 안경 모델(30) 및 3D 사용자 얼굴 모델(40)을 이용하여 가상 안경 체험 영상을 보여주는 기술은 종래기술에 의해 공지된 기술이므로, 더 이상의 상세 설명은 생략한다.As described above, a technology for displaying a virtual glasses experience image using the predetermined 3D glasses model 30 and the 3D user face model 40 is a technology known by the prior art, and a detailed description thereof will be omitted.

촬영 영상의 안면 인식은 사용자 단말(100)에서 수행할 수 있게 하여도 좋으며, 이때에는 안면 인식에 의해 얻는 이목구비의 상대적 위치 및 간격을 영상 내 얼굴 치수에 대한 정보로 취급하여 서버(200)의 영상처리부(220)에서 받아 사용하게 하여도 좋다.The facial recognition of the captured image may be performed in the user terminal 100, and in this case, the relative position and spacing of the features obtained by facial recognition are treated as information on the dimensions of the face in the image, and the image of the server 200 It may be received from the processing unit 220 and used.

상기 시뮬레이션단계(S600)를 수행하는 중에, 사용자 단말(100)에서 가상 체험할 안경을 변경하면, 변경한 안경의 3D 안경 모델을 안경 모델 저장부(220)에서 불러들여서 상기 안경 모델 교정단계(S500)에 따라 교정하고, 교정한 3D 안경 모델을 적용한 상기 시뮬레이션단계(S600)를 수행한다.While performing the simulation step (S600), if the user terminal 100 changes the glasses to be virtually experienced, the 3D glasses model of the changed glasses is retrieved from the glasses model storage unit 220, and the glasses model calibration step (S500) ) And performs the simulation step (S600) in which the corrected 3D glasses model is applied.

도 9는 앞서 언급하고 도 6(b)를 참조하며 살펴본 바와 같이, 정면 얼굴(10)의 폭방향 연장선상에 기준 물품(20)을 배치하여 얼굴(10)과 기준 물품(20) 사이의 깊이 차이(d)를 두지 않는 정면 이미지를 얻을 시에, 깊이 차이(d)를 최소화하는 얼굴 윤곽선(141)과 기준 물품 윤곽선(142)의 배치를 보여준다.9 is the depth between the face 10 and the reference article 20 by arranging the reference article 20 on the extension line in the width direction of the front face 10 as described above and with reference to FIG. 6(b) When obtaining a front image that does not have a difference d, the arrangement of the face contour 141 and the reference article contour 142 minimizing the depth difference d is shown.

도 9를 참조하면, 얼굴 윤곽선(141)의 좌우 중에 어느 한쪽에 기준 물품 윤곽선(142)이 겹쳐 있되, 대략 한쪽 눈의 위치에서 폭방향 외곽으로 치우쳐 있게 겹쳐 있다. Referring to FIG. 9, the reference article outline 142 is overlapped on either side of the left and right of the face outline 141, but overlapped so as to be skewed outward in the width direction at the position of one eye.

이러한 얼굴 윤곽선(141)과 기준 물품 윤곽선(142)의 배치를 사용할 경우에는 기준 물품(20)을 양 눈의 연장선에 놓이게 하면서 한쪽 눈의 옆에 바짝 붙여 놓게 하라는 안내를 한다. 이에, 얼굴 부위 중에 양 눈의 연장선에 놓인 기준 물품(20)을 얼굴과 함께 촬영한 정면 이미지를 얻을 수 있다.In the case of using such an arrangement of the facial contour 141 and the reference article contour 142, a guide is given to put the reference article 20 close to the side of one eye while placing the reference article 20 on the extension lines of both eyes. Accordingly, it is possible to obtain a front image of the reference article 20, which is placed on the extension line of both eyes, taken together with the face.

그리고, 상기 얼굴 치수 획득단계(S400)에서는 도 6(b)를 참조하며 설명한 바와 같이 정면 이미지에서 인식한 기준 물품(20) 이미지를 양 눈의 중심에 맞춰 촬영할 시에 얻을 수 있는 가상의 기준 물품(20')의 치수, 즉 보정 기준 물품 치수를 산출하고, 정면 이미지 상의 얼굴 치수 중에 PD값을 얻는다. 그리고, PD값과 보정 기준 물품 치수 사이의 상대적 치수 비율을 획득한다. 깊이 차이(d)에 따른 치수 비율 보정단계(S420)는 할 필요가 없다. 그리고, 치수 비율과 기준 물품의 기설정 실제 크기에 근거하여, 실제 PD값을 얻고, 실제 PD값과 동일한 PD값을 갖는 3D 사용자 얼굴 모델을 얻는다.In addition, in the facial dimension obtaining step (S400), as described with reference to FIG. 6(b), a virtual reference item that can be obtained when the image of the reference item 20 recognized in the front image is taken in alignment with the center of both eyes. The dimension of (20'), that is, the correction reference product dimension, is calculated, and a PD value is obtained among the face dimensions on the front image. Then, a relative dimensional ratio between the PD value and the correction reference article dimension is obtained. There is no need to perform the dimensional ratio correction step (S420) according to the depth difference (d). Then, based on the dimensional ratio and a preset actual size of the reference article, an actual PD value is obtained, and a 3D user face model having the same PD value as the actual PD value is obtained.

그런데, 얼굴 윤곽선(141)과 기준 물품 윤곽선(142)의 배치는 도 9의 예시와 상이하게 할 수 있으며, 예를 들어, 기준 물품(20)을 한쪽 귀의 폭방향 끝단에 붙이거나 아니면 가깝게 놓고 촬영하도록 그 배치를 설정할 수도 있다. 이 경우, 기준 물품을 이용하여 얻을 얼굴 치수는 양 귀 끝단의 간격으로 하는 것이 좋다.However, the arrangement of the facial contour 141 and the reference article contour 142 may be different from the example of FIG. 9, and for example, the reference article 20 is attached to the end of one ear in the width direction or placed close to each other for a photograph. You can also set the layout to do so. In this case, the size of the face to be obtained using the reference product is preferably the distance between the ends of both ears.

그렇지만, 안경은 렌즈를 눈에 맞춰 착용하는 것이므로, 얼굴 치수 중에 PD값을 기준 물품을 이용하여 얻는 것이 좋다.However, since spectacles are worn by fitting the lenses to the eyes, it is preferable to obtain a PD value among the face dimensions using a reference article.

이상에서, 본 발명을 안경의 온라인 판매에 적용한 실시 예를 설명하였으나, 이에 한정하는 것은 아니며, 가상의 안경 착용 체험이 필요한 다양한 분야에 적용될 수 있음은 자명하다. In the above, an embodiment in which the present invention is applied to online sales of glasses has been described, but the present invention is not limited thereto, and it is obvious that the present invention can be applied to various fields requiring virtual glasses wearing experience.

또한, 상기에서 설명한 본 발명의 실시 예에서 영상처리부(230)는 서버(200)에 구비하지만, 사용자 단말(100)에 구비되게 할 수도 있으며, 이 경우에 서버(200)는 온라인 구매 서비스 및 안경 모델을 제공하면 된다. In addition, in the embodiment of the present invention described above, the image processing unit 230 is provided in the server 200, but may be provided in the user terminal 100. In this case, the server 200 provides an online purchase service and glasses. Just provide the model.

이상에서 본 발명의 기술적 사상을 예시하기 위해 구체적인 실시 예로 도시하고 설명하였으나, 본 발명은 상기와 같이 구체적인 실시 예와 동일한 구성 및 작용에만 국한되지 않고, 여러가지 변형이 본 발명의 범위를 벗어나지 않는 한도 내에서 실시될 수 있다. 따라서, 그와 같은 변형도 본 발명의 범위에 속하는 것으로 간주해야 하며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.Although shown and described in specific embodiments to illustrate the technical idea of the present invention, the present invention is not limited to the same configuration and operation as the specific embodiment as described above, and various modifications are within the scope of the present invention. Can be carried out in Therefore, such modifications should be regarded as belonging to the scope of the present invention, and the scope of the present invention should be determined by the claims to be described later.

10 : 얼굴
20 : 기준 물품
30 : 3D 안경 모델
31 : 렌즈(lens) 32 : 림(rim) 33 : 브릿지(bridge)
34 : 노우즈패드(nosepad) 35 : 조인트(joint) 36 : 힌지(hinge)
37 : 다리(temple) 38 : 팁(tip)
40 : 3D 사용자 얼굴 모델
100 : 사용자 단말
110 : 제어부
120 : 통신모듈
130 : 카메라
140 : 디스플레이부 141 : 얼굴 윤곽선 142 : 기준 물품 윤곽선
143 : 안경 리스트
200 : 서버
210 : 온라인 판매부
220 : 안경 모델 저장부
230 : 영상처리부
10: face
20: reference article
30: 3D glasses model
31: lens 32: rim 33: bridge
34: nose pad 35: joint 36: hinge
37: leg (temple) 38: tip (tip)
40: 3D User Face Model
100: user terminal
110: control unit
120: communication module
130: camera
140: display unit 141: face contour 142: reference article contour
143: glasses list
200: server
210: online sales department
220: glasses model storage unit
230: image processing unit

Claims (8)

사용자의 얼굴을 카메라(130)로 촬영하여 얻는 영상과 실제 치수가 정해진 안경의 3D 안경 모델을 이용하여 안경을 착용한 가상 얼굴을 영상처리부(230)로 생성하고 디스플레이부(140)로 보여주는 안경 착용 시뮬레이션 방법에 있어서,
기준 물품은 실제 크기가 알려진 신용카드로 하고,
상기 영상처리부(230)에서, 얼굴 윤곽선(141) 및 기준 물품 윤곽선(142)을 기설정 배치에 따라 디스플레이부(140) 화면 상의 지정된 위치에 각각 출력하고 기준 물품을 얼굴보다 앞에 두어 측면에서 얼굴에 가려지지 않도록 디스플레이부(140)로 안내한 후 정면 얼굴 중심을 얼굴 윤곽선(141)의 중심에 맞추고 기준 물품의 중심을 기준 물품 윤곽선(142)의 중심에 맞추어 정면 얼굴을 촬영한 정면 이미지 및 측면 얼굴을 촬영한 보완 이미지와, 얼굴을 돌리며 촬영한 활동 영상을 카메라(130)를 통해 획득하되, 정면 이미지는 양 동공 또는 양 귀를 인식하여 정면 얼굴 중심을 좌우 대칭으로 상기 얼굴 윤곽선(141) 중심에 맞추고, 상기 기준 물품은 상기 기준 물품 윤곽선(142)에 중심 맞췄을 시에 촬영하여 획득하는 촬영단계(S100);
상기 영상처리부(230)에서, 활동 영상에서 안면 인식하여 3D 사용자 얼굴 모델을 얻는 얼굴 모델 획득단계(S200);
상기 영상처리부(230)에서, 정면 이미지에서 기준 물품의 치수를 얼굴 위치의 값으로 보정한 보정 기준 물품 치수를 얻되, 보정 기준 물품 치수와 정면 이미지 내 기준 물품 치수 사이의 비율을 기준 물품의 방향(132)과 카메라 광축(131) 사이의 각도로 표현한 식을 미리 설정하여 두고, 정면 이미지 내에서 기준 물품의 위치에 따라 기준 물품의 방향(132)을 얻고, 기준 물품의 방향(132)과 카메라 광축(131) 사이의 각도를 얻은 이후, 각도에 대응되는 비율을 적용하여 보정 기준 물품 치수를 얻는 기준물품 치수 보정단계(S300);
상기 영상처리부(230)에서, 정면 이미지에서 얼굴 치수와 보정 기준 물품 치수 사이의 상대적 비율을 획득하고, 보완 이미지에서 얼굴과 기준 물품 사이의 깊이 차이를 얻어서, 정면 이미지 상의 얼굴 치수와 보정 기준 물품 치수 사이의 상대적 비율을 깊이 차이에 따라 보정하며, 보정한 상대적 비율 및 기준 물품의 기설정 실제 치수에 근거하여, 3D 사용자 얼굴 모델의 치수를 결정하는 얼굴 치수 획득단계(S400);
상기 영상처리부(230)에서, 얼굴을 촬영할 시에 영상 내의 얼굴 치수와 3D 사용자 얼굴 모델 치수 사이의 비율에 따라 크기를 조절한 3D 안경 모델을 영상 내 얼굴과 합성하여 디스플레이부(140)로 보여주는 시뮬레이션단계(S600);
를 포함하는
안경 착용 시뮬레이션 방법.
Using the image obtained by photographing the user's face with the camera 130 and the 3D glasses model of glasses with the actual dimensions determined, a virtual face wearing glasses is created by the image processing unit 230 and displayed on the display unit 140. In the simulation method,
The reference item is a credit card of known actual size,
In the image processing unit 230, the facial contour 141 and the reference article contour 142 are respectively output to a designated position on the screen of the display unit 140 according to a preset arrangement, and the reference article is placed in front of the face to be placed on the face from the side. After guiding to the display unit 140 so as not to be covered, the front face and side faces are taken by aligning the center of the front face with the center of the face outline 141 and aligning the center of the reference item with the center of the reference item outline 142 A complementary image photographed and an activity image photographed while turning a face are acquired through the camera 130, but the front image recognizes both pupils or both ears, so that the center of the front face is symmetrically positioned at the center of the face outline 141. A photographing step (S100) of photographing and obtaining the reference article when the reference article is centered on the reference article outline 142;
A face model acquisition step (S200) of obtaining a 3D user face model by recognizing a face from an active image in the image processing unit 230;
In the image processing unit 230, a correction reference article dimension obtained by correcting the dimension of the reference article in the front image with the value of the face position is obtained, and the ratio between the correction reference article dimension and the reference article dimension in the front image is determined as the direction of the reference article ( 132) and the camera optical axis 131 by setting an equation expressed as the angle between the camera optical axis 131, and obtaining the direction 132 of the reference article according to the position of the reference article in the front image. After obtaining the angle between (131), a reference article dimension correction step (S300) of obtaining a correction reference article dimension by applying a ratio corresponding to the angle;
In the image processing unit 230, by obtaining a relative ratio between the face dimension and the correction reference item dimension in the front image, and obtaining a depth difference between the face and the reference item in the complement image, the face dimension on the front image and the correction reference item dimension A facial dimension obtaining step (S400) of correcting the relative ratio between the two according to the difference in depth, and determining the dimensions of the 3D user's face model based on the corrected relative ratio and a preset actual dimension of the reference article;
The image processing unit 230 synthesizes a 3D glasses model whose size is adjusted according to the ratio between the size of the face in the image and the size of the 3D user's face model when photographing a face, and displays it on the display unit 140 Step S600;
Including
How to simulate wearing glasses.
삭제delete 삭제delete 삭제delete 삭제delete 제 1항에 있어서,
상기 얼굴 치수 획득단계(S400)에서 결정한 치수를 갖는 3D 사용자 얼굴 모델에 맞춰 3D 안경 모델의 변형 가능한 부위를 가변하여 교정한 3D 안경 모델을 생성하는 안경 모델 교정단계(S500);
를 더욱 포함하고,
교정한 3D 안경 모델을 상기 시뮬레이션단계(S600)에 적용하는
안경 착용 시뮬레이션 방법.
The method of claim 1,
A glasses model correction step (S500) of generating a corrected 3D glasses model by varying the deformable portion of the 3D glasses model according to the 3D user's face model having the dimensions determined in the face dimension obtaining step (S400);
Including more,
Applying the corrected 3D glasses model to the simulation step (S600)
How to simulate wearing glasses.
제 6항에 있어서,
상기 안경 모델 교정단계(S500)에서 3D 안경 모델의 교정은
안경을 3D 사용자 얼굴 모델에 맞춰 착용하기 위하여, 양측 림(rim)을 연결하는 브릿지(bridge)를 휘는 것, 림(rim)에 고정되어 단부에 힌지(hinge)를 설치할 수 있게 한 조인트(joint)를 휘는 것, 힌지(hinge)에 의해 다리(temple)의 각도를 조절하는 것, 다리(temple)를 휘는 것, 다리(temple)의 단부에 구비하여 귀에 걸 수 있게 한 팁(tip)을 휘는 것 중에 적어도 어느 하나를 포함하는
안경 착용 시뮬레이션 방법.
The method of claim 6,
In the glasses model calibration step (S500), the calibration of the 3D glasses model is
In order to wear the glasses according to the 3D user's face model, a bridge connecting the two rims is bent, a joint that is fixed to the rim so that a hinge can be installed at the end. Bending, adjusting the angle of a temple by a hinge, bending a temple, bending a tip provided at the end of a temple so that it can be hung on the ear Containing at least any one of
How to simulate wearing glasses.
삭제delete
KR1020180164331A 2018-12-18 2018-12-18 Eyeglasses try-on simulation method Active KR102231239B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180164331A KR102231239B1 (en) 2018-12-18 2018-12-18 Eyeglasses try-on simulation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180164331A KR102231239B1 (en) 2018-12-18 2018-12-18 Eyeglasses try-on simulation method

Publications (2)

Publication Number Publication Date
KR20200075541A KR20200075541A (en) 2020-06-26
KR102231239B1 true KR102231239B1 (en) 2021-03-22

Family

ID=71136551

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180164331A Active KR102231239B1 (en) 2018-12-18 2018-12-18 Eyeglasses try-on simulation method

Country Status (1)

Country Link
KR (1) KR102231239B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220075984A (en) 2020-11-30 2022-06-08 (주)인터비젼 Contact Lens Custom Recommendations and Virtual Fitting System
KR20220079274A (en) * 2020-12-04 2022-06-13 (주)인터비젼 Method of glasses wearing simulation
KR102462481B1 (en) 2020-12-31 2022-11-03 주식회사 산업기술경영진흥원 Glasses wearing simulation system using kiosk
CN112674710A (en) * 2021-01-04 2021-04-20 首都医科大学附属北京同仁医院 Digital high-precision glasses manufacturing and producing device and method
CN113592592B (en) * 2021-07-28 2023-11-07 严沛熙 Method for generating glasses frame fitting effect diagram and glasses frame virtual fitting system
WO2024149011A1 (en) * 2023-01-12 2024-07-18 十二毫米健康科技(海南)有限公司 Glasses system, method for designing glasses frame, and method for flicker detection

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100386962B1 (en) 2000-11-02 2003-06-09 김재준 Method and system for putting eyeglass' image on user's facial image
KR20040097200A (en) 2002-03-26 2004-11-17 김소운 System and Method for 3-Dimension Simulation of Glasses
KR20130103153A (en) * 2012-03-09 2013-09-23 주식회사 퍼비스코리아 Customized virtual fitting method for article of eye
KR101805056B1 (en) 2015-07-21 2017-12-05 (주)월드트렌드 Eyeglasses try-on simulation method using augumented reality
KR101809440B1 (en) * 2016-11-21 2017-12-15 김승정 Size Measuring Method using Augmented Reality of Smart Device

Also Published As

Publication number Publication date
KR20200075541A (en) 2020-06-26

Similar Documents

Publication Publication Date Title
KR102231239B1 (en) Eyeglasses try-on simulation method
US12067689B2 (en) Systems and methods for determining the scale of human anatomy from images
US12130499B2 (en) Systems and methods for previewing adjustments to stock eyewear frames using a 3D scan of facial features
US11783557B2 (en) Virtual try-on systems and methods for spectacles
CN108537628B (en) Method and system for creating customized products
US11307437B2 (en) Method of designing and placing a lens within a spectacles frame
US20150293382A1 (en) Method and System for Virtual Try-On and Measurement
US10222634B2 (en) Optical measurement aid device
KR20100050052A (en) Virtual glasses wearing method
KR20220002280A (en) How to implement a directed 3D representation of the subject's head in a natural looking posture
JP3969842B2 (en) Method of creating composite image in spectacle wearing simulation
JP5327866B2 (en) Glasses fitting simulation system, glasses fitting simulation method and program
US20240249477A1 (en) Fit prediction based on feature detection in image data
US12014462B2 (en) Generation of a 3D model of a reference object to perform scaling of a model of a user's head
TWI663561B (en) Virtual glasses matching method and system
EP4220114A1 (en) Method and system for determining at least one optical parameter of an optical lens
JP7576819B2 (en) Eyewear provision method
EP4086693A1 (en) Method, processing device and system for determining at least one centration parameter for aligning spectacle lenses in a spectacle frame to eyes of a wearer
KR20240158068A (en) 3d face modeling apparatus for glasses fitting or functional lens designing

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20181218

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200618

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20210316

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20210317

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20210317

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20240131

Start annual number: 4

End annual number: 4