[go: up one dir, main page]

KR102013928B1 - Image transformation apparatus and the method - Google Patents

Image transformation apparatus and the method Download PDF

Info

Publication number
KR102013928B1
KR102013928B1 KR1020120156999A KR20120156999A KR102013928B1 KR 102013928 B1 KR102013928 B1 KR 102013928B1 KR 1020120156999 A KR1020120156999 A KR 1020120156999A KR 20120156999 A KR20120156999 A KR 20120156999A KR 102013928 B1 KR102013928 B1 KR 102013928B1
Authority
KR
South Korea
Prior art keywords
image
user
face
reference image
angle information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020120156999A
Other languages
Korean (ko)
Other versions
KR20140086463A (en
Inventor
김도완
알렉산더 리모노프
이진성
정길수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120156999A priority Critical patent/KR102013928B1/en
Priority to PCT/KR2013/006878 priority patent/WO2014104521A1/en
Priority to US14/024,113 priority patent/US9195881B2/en
Priority to EP13197698.7A priority patent/EP2750100A3/en
Priority to CN201310746057.1A priority patent/CN103916588B/en
Publication of KR20140086463A publication Critical patent/KR20140086463A/en
Application granted granted Critical
Publication of KR102013928B1 publication Critical patent/KR102013928B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Collating Specific Patterns (AREA)

Abstract

영상 변형 장치가 개시된다. 본 영상 변형 장치는 사용자 이미지 및 레퍼런스 이미지로부터 얼굴 영역의 특징점 및 얼굴의 각도 정보를 검출하는 검출부, 검출된 각도 정보를 이용하여 사용자 이미지 또는 레퍼런스 이미지의 특징점을 보정하는 특징점 보정부, 보정된 특징점을 이용하여 사용자 이미지 및 레퍼런스 이미지에 포함된 얼굴 특징을 비교하는 얼굴 분석부 및 얼굴 특징에 대한 비교 결과를 이용하여 사용자 이미지를 변형하는 영상 변형부를 포함한다.An image transformation apparatus is disclosed. The image deforming device includes a detector for detecting feature points of a face region and angle information of a face from a user image and a reference image, a feature point corrector for correcting a feature point of a user image or a reference image using the detected angle information, and a corrected feature point. And a face analyzer configured to compare face features included in the user image and the reference image, and an image deformer configured to deform the user image using a comparison result of the face features.

Description

영상 변형 장치 및 그 방법{IMAGE TRANSFORMATION APPARATUS AND THE METHOD}Image transforming apparatus and its method {IMAGE TRANSFORMATION APPARATUS AND THE METHOD}

본 발명은 영상 변형 장치 및 그 방법에 관한 것으로, 보다 상세하게는 사용자 이미지를 변형시키는 영상 변형 장치 및 그 방법에 관한 것이다.The present invention relates to an image transformation apparatus and a method thereof, and more particularly, to an image transformation apparatus and method for transforming a user image.

최근 SNS(Social Network Service) 등 인터넷을 통한 커뮤니티가 급속도로 발전하는 추세에 있다. 사용자들이 SNS에 자신 또는 친구들의 사진을 업로드 할 때 보다 예쁘게 보이기 위하여 업로드할 이미지를 변형하는 경우가 많다. Recently, the community through the Internet such as SNS (Social Network Service) is rapidly developing. When users upload photos of themselves or their friends on SNS, they often modify the images to upload in order to look more beautiful.

기존의 영상 변형 방법은 사용자가 직접 입력하여 이미지에 변형을 가하거나, 얼굴의 각 부위별로 변형하는 등 사용자에게 많은 조작을 요구하고 있다. 그러나, 영상 변형이 익숙하지 않은 일반적인 사용자는 변형할 포인트와 변형 정도를 결정하는데 어려움을 겪을 수 있다. 이에 따라, 사용자가 보다 쉽게 영상을 변형할 수 있는 방안이 요청된다.Existing image transformation methods require a lot of manipulation from the user, such as directly modifying the image by directly inputting the image or modifying each portion of the face. However, a general user who is not familiar with image deformation may have difficulty determining points and degree of deformation. Accordingly, a method for more easily transforming an image by a user is required.

본 발명은 상술한 필요성에 따른 것으로, 본 발명의 목적은 영상 변형이 익숙하지 않은 일반적인 사용자가 쉽게 영상 변형을 수행할 수 있도록 레퍼런스 이미지를 이용하는 영상 변형 장치 및 그 방법을 제공함에 있다.SUMMARY OF THE INVENTION The present invention is directed to the above-described needs, and an object of the present invention is to provide an image transformation apparatus and method using a reference image so that a general user who is not familiar with image transformation can easily perform image transformation.

이상의 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 영상 변형 장치는, 사용자 이미지 및 레퍼런스 이미지로부터 얼굴 영역의 특징점 및 얼굴의 각도 정보를 검출하는 검출부, 상기 검출된 각도 정보를 이용하여 상기 사용자 이미지 또는 레퍼런스 이미지의 특징점을 보정하는 특징점 보정부, 상기 보정된 특징점을 이용하여 상기 사용자 이미지 및 상기 레퍼런스 이미지에 포함된 얼굴 특징을 비교하는 얼굴 분석부 및 상기 얼굴 특징에 대한 비교 결과를 이용하여 상기 사용자 이미지를 변형하는 영상 변형부를 포함한다.According to an embodiment of the present invention, an image transformation apparatus includes: a detector configured to detect feature points of a face region and angle information of a face from a user image and a reference image, and the user image using the detected angle information. Or a feature point corrector to correct a feature point of a reference image, a face analyzer to compare face features included in the user image and the reference image using the corrected feature point, and the user using a comparison result of the face feature. It includes an image transformation unit for deforming the image.

여기서, 상기 특징점 보정부는, 상기 사용자 이미지 및 상기 레퍼런스 이미지의 얼굴 각도가 서로 일치되도록 상기 사용자 이미지 또는 레퍼런스 이미지의 특징점을 보정할 수 있다.The feature point corrector may correct the feature point of the user image or the reference image such that the face angles of the user image and the reference image coincide with each other.

또한, 상기 얼굴 분석부는, 상기 사용자 이미지에 포함된 특징점 간의 거리 및 상기 레퍼런스 이미지에 포함된 특징점 간의 거리를 비교하여 차이를 산출할 수 있으며, 상기 영상 변형부는, 상기 산출된 상대적 거리의 차이에 기초하여 상기 사용자 이미지의 특징점을 변형할 수 있다.The face analyzer may calculate a difference by comparing a distance between feature points included in the user image and a distance between feature points included in the reference image, and the image transformation unit is based on the calculated difference of relative distances. The feature point of the user image may be modified.

그리고, 상기 얼굴 특징은, 눈 형태, 코 형태, 입 형태 및 턱선 형태 중 적어도 하나를 포함할 수 있다.The facial feature may include at least one of an eye shape, a nose shape, a mouth shape, and a jawline shape.

그리고, 상기 영상 변형 장치는 사용자 정보에 기초하여 적어도 하나의 레퍼런스 이미지를 추천하는 이미지 추천부 및 상기 추천된 레퍼런스 이미지 중 적어도 하나를 선택하기 위한 사용자 명령을 입력받는 입력부를 더 포함할 수 있다.The image transformation apparatus may further include an image recommending unit recommending at least one reference image and an input unit receiving a user command for selecting at least one of the recommended reference images based on user information.

여기서, 상기 이미지 추천부는, 사용자의 성별, 연령, 사용자 이미지 분석 결과, 사용자의 일정, 사용자의 이미지 변형 의도 및 사용자의 현재 위치 중 적어도 하나에 기초하여 상기 레퍼런스 이미지를 추천할 수 있다.Here, the image recommendation unit may recommend the reference image based on at least one of a gender, an age, a user image analysis result, a schedule of the user, an image transformation intention of the user, and a current location of the user.

그리고, 상기 사용자 이미지 및 상기 레퍼런스 이미지는 2D 이미지일 수 있다.The user image and the reference image may be 2D images.

한편, 본 발명의 일 실시 예에 따른 영상 변형 방법은, 사용자 이미지 및 레퍼런스 이미지로부터 얼굴 영역의 특징점 및 얼굴의 각도 정보를 검출하는 단계, 상기 검출된 각도 정보를 이용하여 상기 사용자 이미지 또는 레퍼런스 이미지의 특징점을 보정하는 단계, 상기 보정된 특징점을 이용하여 상기 사용자 이미지 및 상기 레퍼런스 이미지에 포함된 얼굴 특징을 비교하는 단계 및 상기 얼굴 특징에 대한 비교 결과를 이용하여 상기 사용자 이미지를 변형하는 단계를 포함할 수 있다.On the other hand, the image transformation method according to an embodiment of the present invention, detecting the feature point of the facial region and the angle information of the face from the user image and the reference image, by using the detected angle information of the user image or reference image Correcting a feature point, comparing a face feature included in the user image and the reference image using the corrected feature point, and modifying the user image using a comparison result of the face feature. Can be.

여기서, 상기 특징점을 보정하는 단계는, 상기 사용자 이미지 및 상기 레퍼런스 이미지의 얼굴 각도가 서로 일치되도록 상기 사용자 이미지 또는 레퍼런스 이미지의 특징점을 보정할 수 있다.Here, in the correcting of the feature point, the feature point of the user image or the reference image may be corrected such that the face angles of the user image and the reference image coincide with each other.

또한, 상기 얼굴 특징을 비교하는 단계는, 상기 사용자 이미지에 포함된 특징점 간의 거리 및 상기 레퍼런스 이미지에 포함된 특징점 간의 거리를 비교하여 차이를 산출하는 단계를 포함할 수 있으며, 상기 사용자 이미지를 변형하는 단계는, 상기 산출된 상대적 거리의 차이에 기초하여 상기 사용자 이미지의 특징점을 변형하는 단계를 포함할 수 있다.The comparing of the facial features may include calculating a difference by comparing a distance between feature points included in the user image and a distance between feature points included in the reference image, and deforming the user image. The method may include modifying a feature point of the user image based on the calculated difference of relative distances.

그리고, 상기 얼굴 특징은, 눈 형태, 코 형태, 입 형태 및 턱선 형태 중 적어도 하나를 포함할 수 있다.The facial feature may include at least one of an eye shape, a nose shape, a mouth shape, and a jawline shape.

그리고, 상기 영상 변형 방법은 사용자 정보에 기초하여 적어도 하나의 레퍼런스 이미지를 추천하는 단계 및 상기 추천된 레퍼런스 이미지 중 적어도 하나를 선택하기 위한 사용자 명령을 입력받는 단계를 더 포함할 수 있다.The image transformation method may further include recommending at least one reference image based on user information, and receiving a user command for selecting at least one of the recommended reference images.

여기서, 상기 이미지를 추천하는 단계는, 사용자의 성별, 연령, 사용자 이미지 분석 결과, 사용자의 일정, 사용자의 이미지 변형 의도 및 사용자의 현재 위치 중 적어도 하나에 기초하여 상기 레퍼런스 이미지를 추천할 수 있다.The recommending of the image may include recommending the reference image based on at least one of a gender, an age of the user, a result of analyzing the user image, a schedule of the user, an intention of modifying the image of the user, and a current location of the user.

여기서, 상기 사용자 이미지 및 상기 레퍼런스 이미지는 2D 이미지일 수 있다.Here, the user image and the reference image may be a 2D image.

이상과 같은 본 발명의 다양한 실시 예에 따르면, 영상 변형 장치의 사용자는 영상 변형에 특별한 지식이 없더라도 쉽게 영상 변형을 수행할 수 있게 된다.According to various embodiments of the present disclosure as described above, a user of an image transformation apparatus may easily perform image transformation even without special knowledge on image transformation.

도 1은 본 발명의 일 실시 예에 따른 영상 변형 장치의 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 특징점 검출 결과를 나타내는 도면이다.
도 3은 본 발명의 일 실시 예에 따른 얼굴 분석부의 구체적인 동작을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 얼굴 변형과정을 설명하기 위한 도면이다.
도 5는 본 발명의 다른 실시 예에 따른 영상 변형 장치의 구성을 나타내는 블럭도이다.
도 6은 본 발명의 일 실시 예에 따른 영상 변형 방법을 설명하기 위한 흐름도이다.
1 is a diagram illustrating a configuration of an image transformation apparatus according to an exemplary embodiment.
2 is a diagram illustrating a feature point detection result according to an exemplary embodiment.
3 is a view for explaining a detailed operation of the face analyzer according to an embodiment of the present invention.
4 is a view for explaining a face deformation process according to an embodiment of the present invention.
5 is a block diagram illustrating a configuration of an image transformation apparatus according to another exemplary embodiment.
6 is a flowchart illustrating an image transformation method according to an exemplary embodiment.

이하에서, 첨부된 도면을 참조하여 본 발명에 대해 구체적으로 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail with respect to the present invention.

도 1은 본 발명의 일 실시 예에 따른 영상 변형 장치의 구성을 나타내는 도면이다. 도 1에 따르면 영상 변형 장치(100)는 검출부(110), 특징점 보정부(120), 얼굴 분석부(130) 및 영상 변형부(140)를 포함한다. 이러한 영상 변형 장치는 스마트 폰, TV, 노트북 PC, 테블릿 PC, 전자 책, 전자 액자, 키오스크 등과 같은 다양한 장치로 구현될 수 있다.1 is a diagram illustrating a configuration of an image transformation apparatus according to an exemplary embodiment. According to FIG. 1, the image transformation apparatus 100 includes a detector 110, a feature point corrector 120, a face analyzer 130, and an image deformer 140. The image transformation apparatus may be implemented by various devices such as a smart phone, a TV, a notebook PC, a tablet PC, an e-book, an electronic picture frame, a kiosk, and the like.

검출부(110)는 사용자 이미지 및 레퍼런스 이미지로부터 얼굴 영역의 특징점 및 얼굴의 각도 정보를 검출한다. 여기서, 사용자 이미지 및 레퍼런스 이미지는 모두 얼굴 영역을 포함하며, 사용자 이미지는 변형될 얼굴을 포함하는 이미지이며, 레퍼런스 이미지는 사용자 이미지의 얼굴 변형시 참조하기 위한 이미지이다. 사용자 이미지 및 레퍼런스 이미지는 2D 및 3D 이미지일 수 있으며, 바람직하게는 2D 이미지일 수 있다.The detector 110 detects feature points of the face region and angle information of the face from the user image and the reference image. Here, both the user image and the reference image includes a face area, the user image is an image including a face to be deformed, and the reference image is an image for reference when deforming the face of the user image. The user image and the reference image may be 2D and 3D images, preferably 2D images.

도 2는 본 발명의 일 실시 예에 따른 특징점 검출 결과를 나타내는 도면이다. 도 2와 같이 검출부(110)는 미리 학습된 알고리즘에 따라 얼굴 영역의 특징점을 검출할 수 있다. 특히, 검출부는 AAM(Active Appearance Model) 기법 등을 이용하여 얼굴 패턴을 미리 학습하여 특징점 위치를 자동적으로 검출할 수 있다. 또한, 검출부(100)는 검출된 특징점의 위치를 이용하여 머리 회전각에 기초한 얼굴 각도를 검출할 수 있다. 이하에서, 얼굴 각도 정보를 검출하는 과정에 대해 구체적으로 설명한다. 검출부(110)는 특징점 위치를 이용하여 얼굴의 좌측 면적과 우측 면적을 구할 수 있다. 이 때, 검출부(110)는 얼굴 미간의 중간에 위치한 특징점 위치, 얼굴의 윤곽을 나타내는 특징점 위치, 코 끝에 대응하는 특징점 위치, 입술 주위에 위치한 특징점 위치와 같은 대표 특징점들의 위치를 이용하여 얼굴의 좌측 면적과 우측 면적을 구할 수 있다.2 is a diagram illustrating a feature point detection result according to an exemplary embodiment. As illustrated in FIG. 2, the detector 110 may detect a feature point of the face region according to a previously learned algorithm. In particular, the detection unit may automatically detect a feature point position by learning a face pattern in advance using an AAM (Active Appearance Model) technique. In addition, the detector 100 may detect a face angle based on the head rotation angle using the detected position of the feature point. Hereinafter, a process of detecting face angle information will be described in detail. The detector 110 may obtain a left area and a right area of the face by using the feature point position. At this time, the detection unit 110 uses the positions of the representative feature points such as the feature point position located in the middle of the facial brow, the feature point position representing the contour of the face, the feature point position corresponding to the tip of the nose, and the feature point position around the lips. The area and the right side area can be found.

구체적으로, 검출부(110)는 대표 특정점들의 위치를 기초로 삼각형을 만들고, 삼각형 면적의 합을 계산하여 얼굴의 좌측 면적과 우측 면적을 구할 수 있다. 이후, 검출부(110)는 얼굴의 좌측 면적과 우측 면적의 비율로부터 얼굴의 각도 정보를 검출할 수 있다. 사용자의 머리가 오른쪽으로 회전하면 머리 회전각은 양의 값을 가지고, 사용자의 머리가 왼쪽으로 회전하면 머리 회전각은 음의 값을 가진다고 가정한다. 이 때, 사용자의 머리가 오른쪽으로 회전한 경우, 머리 회전각의 범위를 0°≤θ≤45°로 가정한다. 이 때, 얼굴의 좌측 면적(LHP)은 하기 수학식 1로 표현되고, 얼굴의 우측 면적(RHP)은 하기 수학식 2로 표현될 수 있다.Specifically, the detector 110 may make a triangle based on the positions of the representative specific points, and calculate the sum of the triangle areas to obtain the left area and the right area of the face. Thereafter, the detector 110 may detect angle information of the face from the ratio of the left area and the right area of the face. It is assumed that the head rotation angle has a positive value when the user's head is rotated to the right, and the head rotation angle has a negative value when the user's head is rotated to the left. At this time, when the user's head is rotated to the right, it is assumed that the range of the head rotation angle is 0 ° ≤ θ ≤ 45 °. In this case, the left area LHP of the face may be represented by Equation 1 below, and the right area RHP of the face may be expressed by Equation 2 below.

Figure 112012109285338-pat00001
Figure 112012109285338-pat00001

Figure 112012109285338-pat00002
Figure 112012109285338-pat00002

여기서, θ는 머리 회전각을 의미한다. 그리고, w1은 얼굴의 좌측 폭, w2는 얼굴의 우측 폭, h1은 얼굴의 볼에 대응하는 길이, h2은 얼굴의 턱에 대응하는 길이를 의미한다. 또한, r은 머리의 중심으로부터 머리의 외각선까지의 거리를 의미한다.Here, θ means the head rotation angle. W1 is the left width of the face, w2 is the right width of the face, h1 is the length corresponding to the cheek of the face, and h2 is the length corresponding to the chin of the face. In addition, r means the distance from the center of the head to the outline of the head.

그러면, 얼굴의 좌측 면적과 우측 면적의 비율은 하기 수학식 3에 따라 결정되고, 머리 회전각은 하기 수학식 4에 따라 추정될 수 있다.Then, the ratio of the left area and the right area of the face may be determined according to Equation 3 below, and the head rotation angle may be estimated according to Equation 4 below.

Figure 112012109285338-pat00003
Figure 112012109285338-pat00003

Figure 112012109285338-pat00004
Figure 112012109285338-pat00004

반대로, 사용자의 머리가 왼쪽으로 회전한 경우, 머리 회전각의 범위를 -45°≤θ≤0로 가정한다. 이 때, 얼굴의 좌측 면적(LHP)은 하기 수학식 5로 표현되고, 얼굴의 우측 면적(RHP)은 하기 수학식 6으로 표현될 수 있다.In contrast, when the user's head is rotated to the left, the range of the head rotation angle is assumed to be -45 ° ≤θ≤0. In this case, the left area LHP of the face may be expressed by Equation 5 below, and the right area RHP of the face may be expressed by Equation 6 below.

Figure 112012109285338-pat00005
Figure 112012109285338-pat00005

Figure 112012109285338-pat00006
Figure 112012109285338-pat00006

여기서, θ는 머리 회전각을 의미한다. 그리고, w1은 얼굴의 좌측 폭, w2은 얼굴의 우측 폭, h1은 얼굴의 볼에 대응하는 길이, h2은 얼굴의 턱에 대응하는 길이를 의미한다. 또한, r은 머리의 중심으로부터 머리의 외각선까지의 거리를 의미한다.Here, θ means the head rotation angle. W1 is the left width of the face, w2 is the right width of the face, h1 is the length corresponding to the cheek of the face, and h2 is the length corresponding to the chin of the face. In addition, r means the distance from the center of the head to the outline of the head.

그러면, 얼굴의 좌측 면적과 우측 면적의 비율은 하기 수학식 7에 따라 결정되고, 머리 회전각은 하기 수학식 8에 따라 추정될 수 있다.Then, the ratio of the left area and the right area of the face is determined according to Equation 7, and the head rotation angle can be estimated according to Equation 8.

Figure 112012109285338-pat00007
Figure 112012109285338-pat00007

Figure 112012109285338-pat00008
Figure 112012109285338-pat00008

이와 같은 방법을 통해 검출부(110)는 yaw, pitch, roll 방향의 얼굴 각도 정보를 검출할 수 있다. roll, pitch, yaw 방향의 각도 정보는 x, y, z 축에 대한 회전 각도에 대응될 수 있다.Through the above method, the detector 110 may detect face angle information in the yaw, pitch, and roll directions. The angle information in the roll, pitch, and yaw directions may correspond to rotation angles about the x, y, and z axes.

특징점 보정부(120)는 검출부(110)에서 검출된 각도 정보를 이용하여 사용자 이미지 또는 레퍼런스 이미지의 특징점을 보정한다. 구체적으로, 특징점 보정부(120)는 사용자 이미지에서 검출한 각도 정보와 레퍼런스 이미지에서 검출한 얼굴의 각도 정보가 상이한 경우 얼굴 각도가 일치되도록 사용자 이미지 또는 레퍼런스 이미지의 특징점을 보정할 수 있다. 특히, 사용자 이미지에 대해 영상 변형이 수행되므로 사용자 이미지의 얼굴 각도를 변경하지 않고, 레퍼런스 이미지의 얼굴 각도를 사용자 이미지와 일치되도록 보정하는 것이 바람직하다. 다만, 사용자 이미지의 얼굴 각도를 레퍼런스 이미지와 일치되록 보정하는 것도 가능하며, 사용자 이미지 및 레퍼런스 이미지의 얼굴 각도를 모두 정면으로 보정하는 것과 같이 사용자 이미지 및 레퍼런스 이미지 모두를 보정하는 것도 가능하다.The feature point corrector 120 corrects the feature point of the user image or the reference image by using the angle information detected by the detector 110. In detail, when the angle information detected from the user image and the angle information of the face detected from the reference image are different from each other, the feature point corrector 120 may correct the feature point of the user image or the reference image to match the face angle. In particular, since image transformation is performed on the user image, it is preferable to correct the face angle of the reference image to match the user image without changing the face angle of the user image. However, it is possible to correct the face angle of the user image to match the reference image, and to correct both the user image and the reference image, such as correcting the face angles of both the user image and the reference image in front.

한편, 특징점 보정부(120)는 사용자 이미지 및 레퍼런스 이미지에 포함된 얼굴의 크기가 차이가 있는 경우 사용자 이미지 또는 레퍼런스 이미지에 스케일링으 수행하여 사이즈를 일치시킬 수 있다. Meanwhile, if the size of the face included in the user image and the reference image is different, the feature point corrector 120 may scale the user image or the reference image to match the size.

얼굴 분석부(130)는 보정된 특징점을 이용하여 사용자 이미지 및 레퍼런스 이미지에 포함된 얼굴 특징을 비교한다. 여기서, 얼굴 특징이란 눈, 코, 입, 턱선, 얼굴 비율 등 얼굴을 구성하는 주요 요소들의 형태를 의미한다. 구체적으로, 얼굴 분석부(130)는 사용자 이미지에 포함된 특징점 간의 상대적 거리 및 레퍼런스 이미지에 포함된 특징점 간의 거리를 비교하여 차이를 산출할 수 있다. 특히, 얼굴 특징에 대응되는 특징점 간의 상대적 거리를 비교할 수 있다. 도 2를 참조하여 얼굴 분석부(130)에 대해 보다 구체적으로 설명한다.The face analyzer 130 compares the facial features included in the user image and the reference image by using the corrected feature points. Here, the facial feature refers to the shape of the main elements constituting the face, such as eyes, nose, mouth, jawline, face ratio. In detail, the face analyzer 130 may calculate a difference by comparing the distance between the feature points included in the user image and the distance between the feature points included in the reference image. In particular, it is possible to compare relative distances between feature points corresponding to facial features. The face analyzer 130 will be described in more detail with reference to FIG. 2.

도 3은 본 발명의 일 실시 예에 따른 얼굴 분석부의 구체적인 동작을 설명하기 위한 도면이다. 특히, 도 3은 사용자 이미지 및 레퍼런스 이미지에서 턱선을 비교하는 동작을 설명하기 위한 도면이다. 도 3에서와 같이 얼굴 분석부(130)는 사용지 이미지 및 레퍼런스 이미지의 얼굴의 턱선을 구성하는 특징점들 간의 길이를 산출할 수 있다. 이 때, 턱선을 구성하는 모든 특징점들 간의 거리를 구할 필요는 없으며 얼굴 특성을 결정하는데 필요한 일부 특징점들 간의 거리만을 산출할 수도 있다. 도 3에서는 참조하면 사용자 이미지 및 레퍼런스 이미지의 얼굴의 턱선을 구성하는 특징점들로부터 r1 내지 r7, d1 내지 d8 및 r1' 내지 r7', d1' 내지 d8'의 거리를 산출하였다. 다만, 이에 한정되는 것은 아니며 필요에 따라 다양한 특징점들 간의 거리를 산출할 수 있다.3 is a view for explaining a detailed operation of the face analyzer according to an embodiment of the present invention. In particular, FIG. 3 is a diagram for describing an operation of comparing jaw lines in a user image and a reference image. As shown in FIG. 3, the face analyzer 130 may calculate a length between feature points constituting the jaw line of the face of the used image and the reference image. In this case, the distance between all the feature points constituting the jaw line need not be calculated, and only the distance between some feature points necessary for determining the facial feature may be calculated. In FIG. 3, distances of r1 to r7, d1 to d8 and r1 'to r7', d1 'to d8' are calculated from feature points constituting the jaw line of the face of the user image and the reference image. However, the present invention is not limited thereto, and distances between various feature points may be calculated as necessary.

이후, 얼굴 분석부(130)는 산출된 특징점들 간의 거리에 기초하여 사용자 이미지 및 레퍼런스 이미지에서 각각 대응되는 특징점들 간의 거리의 차이를 분석한다. 예를 들어, 도 3에서 r1과 r1', r2와 r2', d1과 d2 등 대응되는 특징점들 간의 거리를 각각 비교할 수 있다. Thereafter, the face analyzer 130 analyzes the difference between the distances between the corresponding feature points in the user image and the reference image, based on the calculated distances between the feature points. For example, in FIG. 3, distances between corresponding feature points such as r1 and r1 ', r2 and r2', and d1 and d2 may be compared.

한편, 도 3에서는 턱선에 대한 비교 과정만을 설명하였으나, 다른 얼굴 특징에 대해서도 동일한 방법으로 비교할 수 있다. 특히, 눈, 코, 입 등 주요 얼굴 특징을 비교할 수 있다. 한편, 얼굴 분석부(130)는 얼굴 전체, 눈, 코, 입 등의 가로 길이 및 세로 길이의 비율 등을 비교할 수도 있다.Meanwhile, in FIG. 3, only the comparison process for the jawline has been described, but other facial features may be compared in the same manner. In particular, you can compare key facial features such as eyes, nose and mouth. Meanwhile, the face analyzer 130 may compare the ratio of the horizontal length and the vertical length of the entire face, eyes, nose, mouth, and the like.

영상 변형부(140)는 얼굴 분석부(130)의 얼굴 특징에 대한 비교 결과를 이용하여 사용자 이미지를 변형할 수 있다. 특히, 영상 변형부(140)는 얼굴 분석부(130)에서 산출된 특징점들 간의 거리의 차이에 기초하여 사용자 이미지의 특징점들을 변형함으로써 사용자 이미지를 변형할 수 있다. 사용자 이미지 및 레퍼런스 이미지는 동일한 개수의 특징점을 가지며 각각의 특징점은 1:1로 대응될 수 있다. The image deformer 140 may deform the user image by using a comparison result of the facial features of the face analyzer 130. In particular, the image deformer 140 may deform the user image by modifying the feature points of the user image based on the difference in the distance between the feature points calculated by the face analyzer 130. The user image and the reference image have the same number of feature points, and each feature point may correspond to 1: 1.

사용자 이미지를 어느 정도 변형할지 여부는 다양하게 설정될 수 있다. 영상 변형 장치(100)는 사용자에게 어느 정도의 변형을 가할지 여부를 문의하여 사용자 입력에 따라 변형 정도를 결정할 수 있다. 또는, 기 설정된 비율에 따라 자동적으로 변형될 수 있다. 이에 대해, 도 4를 참조하여 보다 구체적으로 설명한다.The degree of deformation of the user image may be variously set. The image transformation apparatus 100 may inquire the user of how much deformation to apply, and determine the degree of deformation according to the user input. Alternatively, the deformation may be automatically performed according to a preset ratio. This will be described in more detail with reference to FIG. 4.

도 4는 본 발명의 일 실시 예에 따른 얼굴 변형과정을 설명하기 위한 도면이다. 특히, 도 4는 사용자 이미지 및 레퍼런스 이미지의 턱선을 비교한 도면이다. 영상 변형부(140)는 얼굴 분석부(130)의 비교 결과에 따라 도 4에서 보는 바와 같이 사용자 이미지의 턱선 및 레퍼런스 이미지의 턱선의 차이를 알 수 있다. 여기서, 사용자 이미지의 특징점을 대응되는 레퍼런스 이미지의 특징점과 동일하게 변형하는 경우를 1로 가정하면 0.2, 0.5 또는 0.8 등 기 설정된 비율에 따라 사용자 이미지의 특징점을 변형할 수 있다.4 is a view for explaining a face deformation process according to an embodiment of the present invention. In particular, Figure 4 is a view comparing the jawline of the user image and the reference image. As shown in FIG. 4, the image deforming unit 140 may recognize a difference between the jaw line of the user image and the jaw line of the reference image, as shown in FIG. 4. Herein, assuming that the feature point of the user image is modified to be the same as the feature point of the corresponding reference image, the feature point of the user image may be modified according to a preset ratio such as 0.2, 0.5, or 0.8.

또한, 영상 변형부(140)는 얼굴 분석부(130)에서 비교된 특징점들 간의 거리, 비율 등을 이용하여 사용자 이미지를 어느 정보 변형할 것인가를 자동적으로 결정할 수 있다. 예를 들어, 사용자 이미지와 레퍼런스 이미지의 차이가 크지 않은 경우에는 0.5, 0.7 등 높은 비율로 변형하고, 사용자 이미지와 레퍼런스 이미지의 차이가 큰 경우에는 과도한 변형을 방지하기 위해 0.2, 0.3 등 낮은 비율로 변형할 수 있다.In addition, the image transformation unit 140 may automatically determine which information is to be transformed using the distance and the ratio between the feature points compared by the face analyzer 130. For example, if the difference between the user image and the reference image is not large, it is transformed at a high ratio such as 0.5 and 0.7. If the difference between the user image and the reference image is large, it is used at a low ratio such as 0.2 and 0.3 to prevent excessive deformation. It can be modified.

한편, 얼굴의 모든 특징점을 일괄적인 비율로 변형하는 경우 변형 결과가 부자연스럽게 나타나는 경우가 있을 수 있다. 이러한 경우, 영상 변형부(140)는 특징점들 간의 거리, 비율 등에 기초하여 얼굴의 각 영역별로 변화 비율을 상이하게 설정할 수 있다. 예를 들어, 도 4에서 A, B, C 부분을 비교해보면, 사용자 이미지 및 레퍼런스 이미지는 차이는 B > A > C 순으로 크다. 이 때, B는 0.5 비율로, A는 0.3 비율로, C는 0.2 비율로 변화 비율을 상이하게 설정할 수 있다. 또한, 영상 변형부(140)는 가로와 세로의 비율을 고려하여 보다 자연스럽게 보여지는 비율을 결정할 수 있다.On the other hand, when all the feature points of the face are deformed in a batch ratio, the deformation result may appear unnatural. In this case, the image transformation unit 140 may set the change rate differently for each area of the face based on the distance, the ratio, etc. between the feature points. For example, when comparing the portions A, B, and C in FIG. 4, the difference between the user image and the reference image is B> A> C. In this case, B may be set differently at a rate of 0.5, A at a rate of 0.3, and C at a rate of 0.2. In addition, the image transformation unit 140 may determine the ratio that is more naturally seen in consideration of the ratio between the width and the length.

도 5는 본 발명의 다른 실시 예에 따른 영상 변형 장치의 구성을 나타내는 블럭도이다. 도 5에 따르면 영상 변형 장치(100)는 검출부(110), 특징점 보정부(120), 얼굴 분석부(130) 및 영상 변형부(140) 뿐만 아니라 이미지 추천부(150), 입력부(160), 디스플레이부(170), 촬상부(180), 통신부(185), 저장부(190) 및 제어부(195)를 더 포함할 수 있다.5 is a block diagram illustrating a configuration of an image transformation apparatus according to another exemplary embodiment. According to FIG. 5, the image transformation apparatus 100 may include the image detector 150, the inputter 160, as well as the detector 110, the feature point corrector 120, the face analyzer 130, and the image deformer 140. The apparatus may further include a display unit 170, an imaging unit 180, a communication unit 185, a storage unit 190, and a controller 195.

이미지 추천부(150)는 사용자 정보에 기초하여 레퍼런스 이미지를 추천할 수 있다. 본 발명에 따른 영상 변형 장치(100)는 사용자 이미지의 변형을 위해 레퍼런스 이미지가 필요하다. 사용자 이미지 및 레퍼런스 이미지는 입력부(160)를 통해 사용자가 선택할 수 있다. 그러나, 저장부(190)에 사용자가 참조하고자 하는 레퍼런스 이미지가 저장되어 있지 않아 사용자가 직접 레퍼런스 이미지를 검색해야 하는 경우에는 사용자 불편이 있을 수 있다. 이에 따라, 영상 변형 장치(100)는 여러가지 사용자 정보를 이용하여 레퍼런스 이미지를 자동적으로 검색하여 추천할 수 있다. 사용자 정보는 사용자의 성별, 연령, 사용자 이미지 분석 결과, 사용자의 일정, 사용자의 이미지 변형 의도 및 사용자의 현재 위치 중 적어도 하나를 포함할 수 있다. 사용자의 이미지 변형 의도란 예를 들어, 사용자 이미지를 청순하게 또는 섹시하게 변형하고자 하는 사용자 의도를 말한다. The image recommender 150 may recommend a reference image based on the user information. The image transformation apparatus 100 according to the present invention requires a reference image for deformation of a user image. The user image and the reference image may be selected by the user through the input unit 160. However, when the reference image to be referred to by the user is not stored in the storage 190, the user may need to search for the reference image directly. Accordingly, the image transformation apparatus 100 may automatically search for and recommend a reference image using various user information. The user information may include at least one of a user's gender, age, a user image analysis result, a user's schedule, a user's image transformation intention, and a user's current location. The user's intention to modify the image refers to, for example, a user's intention to deform the user's image in an innocent or sexy manner.

사용자의 성별, 연령 사용자의 이미지 변형 의도는 입력부(160)를 통해 입력받을 수 있다. 사용자의 일정은 일정 관리 어플리케이션 등과 연동되어 사용자 일정에 대한 정보를 얻을 수 있으며, 사용자의 현재 위치는 영상 변형 장치(100) 내에 포함된 GPS(Global Positioning System) 또는 Wifi 등으로부터 얻을 수 있다. 그리고, 사용자 이미지 분석 결과는 검출부(110)로부터 얻을 수 있다. The user's gender and age may be input through the input unit 160. The user's schedule may be linked with a schedule management application to obtain information on the user's schedule, and the current position of the user may be obtained from a GPS (Global Positioning System) or Wifi included in the image transformation apparatus 100. The user image analysis result may be obtained from the detector 110.

이미지 추천부(150)는 상술한 사용자 정보를 이용하여 저장부(190) 내에 저장된 이미지 또는 인터넷, 외부 서버 등으로부터 검색한 이미지 등을 레퍼런스 이미지로 추천할 수 있다. 한편, 레퍼런스 이미지에 대한 정보(예를 들어, 성별, 연령)는 인덱스 처리되어 저장부(190) 또는 외부 서버에 저장될 수 있다. 이에 따라 이미지 추천부(150)는 사용자의 성별, 연령과 유사한 이미지를 검색할 수 있으며, 레퍼런스 이미지의 분석 결과를 사용자 이미지 분석 결과와 비교하여 변형에 적합한 레퍼런스 이미지를 추천할 수 있다. 또한, 사용자의 이미지 변형 의도가 입력된 경우 섹시한 이미지, 지적인 이미지 또는 청순한 이미지 등 특정 의도에 맞는 레퍼런스 이미지를 추천할 수 있다. 사용자의 일정 또는 현재 위치는 특정 장소 또는 상황에 맞는 이미지를 추천하기 위해 이용될 수 있다. 예를 들어, 사용자의 일정이 공부, 현재 위치가 학교로 파악된 경우 지적인 이미지를 가지는 레퍼런스 이미지가 추천될 수 있다. The image recommender 150 may recommend an image stored in the storage 190 or an image retrieved from the Internet, an external server, or the like as the reference image using the above-described user information. On the other hand, information (eg, gender, age) about the reference image may be indexed and stored in the storage 190 or an external server. Accordingly, the image recommendation unit 150 may search for an image similar to the gender and age of the user, and recommend a reference image suitable for deformation by comparing the analysis result of the reference image with the user image analysis result. In addition, when a user intends to modify an image, a reference image suitable for a specific intention, such as a sexy image, an intelligent image, or an innocent image, may be recommended. The user's schedule or current location may be used to recommend images suitable for a particular place or situation. For example, when a user's schedule is studied and the current location is identified as a school, a reference image having an intelligent image may be recommended.

입력부(160)는 사용자 명령을 입력받는다. 특히, 입력부(160)는 사용자 이미지 및 레퍼런스 이미지를 선택하기 위한 사용자 명령을 입력받을 수 있으며, 사용자의 성별, 연령 등 사용자 정보를 입력받을 수 있다. 또한, 레퍼런스 이미지가 추천된 경우 추천된 레퍼런스 이미지 중 적어도 하나를 선택하기 위한 사용자 명령을 입력받을 수 있다. 한편, 입력부(160)는 마우스, 키보드, 터치패드, 터치 스크린, 모션 센서 등 다양한 유형의 입력 장치로 구현될 수 있다. The input unit 160 receives a user command. In particular, the input unit 160 may receive a user command for selecting a user image and a reference image, and may receive user information such as gender and age of the user. In addition, when the reference image is recommended, a user command for selecting at least one of the recommended reference images may be input. The input unit 160 may be implemented as various types of input devices such as a mouse, a keyboard, a touch pad, a touch screen, a motion sensor, and the like.

디스플레이부(170)는 이미지를 디스플레이한다. 구체적으로, 영상 변형부(140)에 의해 변형된 사용자 이미지를 디스플레이할 수 있다. 이러한 디스플레이부(170)는 CRT(Cathod Ray Tube), LCD(Liquid Criystal Display), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diode) 등과 같은 다양한 디스플레이 패널로 구현될 수 있다.The display unit 170 displays an image. In detail, the user image modified by the image transformation unit 140 may be displayed. The display unit 170 may be implemented as various display panels such as a cathode ray tube (CRT), a liquid crystal display (LCD), a plasma display panel (PDP), and an organic light emitting diode (OLED).

촬상부(180)는 사용자 이미지를 촬상한다. 구체적으로, 촬상부(180)는 사용자의 얼굴 영역이 포함된 사용자 이미지를 촬상할 수 있다. 즉, 영상 변형 장치(100)의 사용자는 저장부(190)에 저장된 이미지뿐만 아니라 촬상부(180)를 통해 직접 촬상한 이미지를 사용자 이미지로 선택할 수도 있다. 이를 위해, 촬상부(180)는 카메라로 구현될 수 있다. 촬상부(180)는 영상 변형 장치(100)에 내장될 수도 있으며, 영상 변형 장치(100)와 유, 무선으로 연결된 외부 장치로 구현될 수도 있다.The imaging unit 180 captures a user image. In detail, the imaging unit 180 may capture a user image including a face area of the user. That is, the user of the image transformation apparatus 100 may select not only an image stored in the storage 190 but also an image directly captured by the image capturer 180 as a user image. To this end, the imaging unit 180 may be implemented as a camera. The imaging unit 180 may be built in the image transformation apparatus 100 or may be implemented as an external device that is connected to the image transformation apparatus 100 by wire or wirelessly.

통신부(185)는 외부 장치와 통신한다. 특히, 통신부(185)는 인터넷 또는 외부 서버로부터 레퍼런스 이미지를 수신할 수 있으며, 변형된 사용자 이미지를 외부 장치로 전송할 수 있다. 통신부(180)는 근거리 무선 통신 모듈(미도시), 무선 통신 모듈(미도시), GPS 모듈 등과 같은 다양한 통신 모듈을 포함할 수 있다. 여기에서, 근거리 무선 통신 모듈이란 블루투스, 지그비 방식 등과 같은 근거리 무선 통신 방식에 따라, 근거리에 위치한 외부 기기와 통신을 수행하기 위한 모듈이다. 또한, 무선 통신 모듈이란 WiFi, IEEE 등과 같은 무선 통신 프로토콜에 따라 외부 네트워크에 연결되어 통신을 수행하는 모듈이다. 이 밖에 무선 통신 모듈은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 이동 통신 규격에 따라 이동 통신 망에 접속하여 통신을 수행하는 이동 통신 모듈을 포함할 수도 있다.The communication unit 185 communicates with an external device. In particular, the communication unit 185 may receive a reference image from the Internet or an external server, and transmit the modified user image to the external device. The communicator 180 may include various communication modules such as a short range wireless communication module (not shown), a wireless communication module (not shown), a GPS module, and the like. Here, the short range wireless communication module is a module for performing communication with an external device located in a short range according to a short range wireless communication scheme such as Bluetooth, ZigBee. In addition, the wireless communication module is a module connected to an external network and performing communication according to a wireless communication protocol such as WiFi or IEEE. In addition, the wireless communication module may include a mobile communication module for accessing and communicating with a mobile communication network according to various mobile communication standards such as 3rd generation (3G), 3rd generation partnership project (3GPP), long term evolution (LTE), and the like. It may be.

저장부(190)는 사용자 이미지, 레퍼런스 이미지 및 변형된 사용자 이미지를 저장할 수 있다. 또한, 사용자에 의해 입력된 성별, 연령 등의 사용자 정보를 저장할 수 있다. The storage 190 may store a user image, a reference image, and a modified user image. In addition, user information such as gender and age input by the user may be stored.

제어부(195)는 영상 변형 장치(100)의 전반적인 동작을 제어한다. 구체적으로, 제어부(195)는 검출부(110), 특징점 보정부(120), 얼굴 분석부(130), 영상 변형부(140), 이미지 추천부(150), 입력부(160), 디스플레이부(170), 촬상부(180), 통신부(185), 저장부(190) 각각을 제어하여 사용자 이미지를 변형하도록 제어할 수 있다. The controller 195 controls the overall operation of the image transformation apparatus 100. In detail, the controller 195 may include the detector 110, the feature point corrector 120, the face analyzer 130, the image deformer 140, the image recommender 150, the inputter 160, and the display 170. ), The image capturing unit 180, the communication unit 185, and the storage unit 190 may be controlled to deform the user image.

도 6은 본 발명의 일 실시 예에 따른 영상 변형 방법을 설명하기 위한 흐름도이다. 도 6에 따르면 먼저 사용자 이미지 및 레퍼런스 이미지로부터 특징점 및 각도 정보를 검출한다(S610). 여기서, 사용자 이미지 및 레퍼런스 이미지는 사용자 명령에 의해 선택될 수 있다. 사용자 이미지는 촬상부에 의해 촬상되거나 저장부에 저장된 이미지가 사용될 수 있다. 한편, 사용자 이미지가 선택되면 영상 변형 장치(100)는 사용자 정보에 기초하여 적어도 하나의 레퍼런스 이미지를 추천할 수 있다. 레퍼런스 이미지는 사용자의 성별, 연령, 사용자의 일정, 사용자 이미지 분석 결과, 사용자의 이미지 변형 의도 및 사용자의 현재 위치 중 적어도 하나에 기초하여 추천될 수 있다. 이후, 추천된 레퍼런스 이미지 중 적어도 하나를 선택하기 위한 사용자 명령을 입력될 수 있다. 그리고, 선택된 사용자 이미지 및 레퍼런스 이미지로부터 얼굴 영역의 특징점 및 얼굴의 각도 정보를 검출할 수 있다. 특히, AAM(Active Appearance Model) 기법 등을 이용하여 얼굴 패턴을 미리 학습하여 특징점 위치를 자동적으로 검출할 수 있다. 이에 대해서는 도 2를 참조하여 구체적으로 설명하였으므로 구체적인 생략은 생략하기로 한다.6 is a flowchart illustrating an image transformation method according to an exemplary embodiment. Referring to FIG. 6, first, feature points and angle information are detected from a user image and a reference image (S610). Here, the user image and the reference image may be selected by a user command. The user image may be an image captured by the image pickup unit or an image stored in the storage unit. When the user image is selected, the image transformation apparatus 100 may recommend at least one reference image based on the user information. The reference image may be recommended based on at least one of the gender, age of the user, the schedule of the user, the analysis result of the user image, the intention of the user to modify the image, and the current location of the user. Thereafter, a user command for selecting at least one of the recommended reference images may be input. Then, feature points of the face region and angle information of the face may be detected from the selected user image and the reference image. In particular, by using the AAM (Active Appearance Model) technique, the facial pattern can be learned in advance to automatically detect the feature point position. Since this has been described in detail with reference to FIG. 2, a detailed description thereof will be omitted.

이후, 검출된 각도 정보를 이용하여 사용자 이미지 또는 레퍼런스 이미지의 특징점을 보정한다. 구체적으로, 사용자 이미지 및 레퍼런스 이미지의 얼굴 각도가 상이한 경우 서로 일치되도록 사용자 이미지 또는 레퍼런스 이미지의 특징점을 보정할 수 있다. Then, the feature point of the user image or the reference image is corrected using the detected angle information. In detail, when face angles of the user image and the reference image are different, the feature points of the user image or the reference image may be corrected to match each other.

그리고, 보정된 특징점을 이용하여 사용자 이미지 및 레퍼런스 이미지에 포함된 얼굴 특징을 비교한다(S630). 얼굴 특징은 눈 형태, 코 형태, 입형태 및 턱성 형태 중 적어도 하나를 포함할 수 있다. 구체적으로, 사용자 이미지에 포함된 특징점 간의 상대적 거리 및 레퍼런스 이미지에 포함된 특징점 간의 거리를 비교하여 차이를 산출할 수 있다. 또한, 얼굴 전체, 눈, 코, 입 등의 얼굴 특징에 대해서는 가로 및 세로의 비율 등이 비교될 수도 있다. 얼굴 특징을 비교하는 과정에 대해서는 도 3을 참조하여 구체적으로 설명하였으므로 구체적인 설명은 생략한다.The facial features included in the user image and the reference image are compared using the corrected feature points (S630). Facial features may include at least one of eye shape, nose shape, mouth shape and jaw shape. In detail, the difference may be calculated by comparing the distance between the feature points included in the user image and the distance between the feature points included in the reference image. In addition, the aspect ratio of the entire face, eyes, nose, mouth and the like may be compared with the ratio of the horizontal and vertical. Since the process of comparing facial features has been described in detail with reference to FIG. 3, a detailed description thereof will be omitted.

그리고, 얼굴 특징에 대한 비교 결과를 이용하여 사용자 이미지를 변형한다(S640). 구체적으로, 사용자 이미지의 특징점을 변형함으로써 사용자 이미지를 변형할 수 있다. In operation S640, the user image is modified by using a comparison result with respect to facial features. Specifically, the user image may be modified by modifying the feature points of the user image.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 얼굴 변형 방법은 단말 장치에서 실행 가능한 프로그램으로 구현될 수 있다. 그리고, 이러한 프로그램은 다양한 유형의 기록 매체에 저장되어 사용될 수 있다. Meanwhile, the face transformation method according to the various embodiments of the present disclosure described above may be implemented as a program executable in the terminal device. Such a program can be stored and used in various types of recording media.

구체적으로는, 상술한 방법들을 수행하기 위한 코드는, 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 다양한 유형의 비휘발성 기록 매체에 저장되어 있을 수 있다. Specifically, the code for performing the above-described methods may include a flash memory, a read only memory (ROM), an erasable programmable ROM (EPROM), an electronically erasable and programmable ROM (EPEROM), a hard disk, a removable disk, a memory card, It may be stored in various types of nonvolatile recording media, such as USB memory, CD-ROM, and the like.

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
While the above has been shown and described with respect to preferred embodiments of the present invention, the present invention is not limited to the specific embodiments described above, it is usually in the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.

100 : 얼굴 변형 장치 110 : 검출부
120 : 특징점 보정부 130 : 얼굴 분석부
140 : 영상 변형부
100: facial deformation device 110: detection unit
120: feature point correction unit 130: face analysis unit
140: image transformation unit

Claims (14)

사용자 이미지 및 레퍼런스 이미지로부터 얼굴 영역의 특징점 및 얼굴의 각도 정보를 검출하는 검출부;
상기 검출된 각도 정보를 이용하여 상기 사용자 이미지 또는 레퍼런스 이미지의 특징점을 보정하는 특징점 보정부;
상기 보정된 특징점을 이용하여 상기 사용자 이미지 및 상기 레퍼런스 이미지에 포함된 얼굴 특징을 비교하는 얼굴 분석부; 및
상기 얼굴 특징에 대한 비교 결과를 이용하여 상기 사용자 이미지를 변형하는 영상 변형부;를 포함하며,
상기 사용자 이미지의 얼굴 각도 정보가 상기 레퍼런스 이미지의 얼굴 각도 정보와 상이한 경우, 상기 레퍼런스 이미지의 얼굴 각도 정보가 상기 사용자 이미지의 얼굴 각도 정보와 매칭되도록 상기 레퍼런스 이미지의 특징점이 보정되거나,
상기 사용자 이미지의 얼굴 각도 정보가 상기 레퍼런스 이미지의 얼굴 각도 정보와 매칭되도록 상기 사용자 이미지의 특징점이 보정되며,
상기 얼굴 분석부는,
상기 사용자 이미지에 포함된 특징점 간의 거리 및 상기 레퍼런스 이미지에 포함된 특징점 간의 거리를 비교하여 차이를 산출하고,
상기 영상 변형부는,
산출된 거리의 차이에 기초하여 상기 사용자 이미지의 특징점의 변형 비율을 상이하게 조정하는 영상 변형 장치.
A detector for detecting feature points of the face region and angle information of the face from the user image and the reference image;
A feature point corrector for correcting a feature point of the user image or the reference image by using the detected angle information;
A face analyzer which compares facial features included in the user image and the reference image by using the corrected feature points; And
And an image deformer configured to deform the user image by using a comparison result of the facial features.
If the face angle information of the user image is different from the face angle information of the reference image, the feature point of the reference image is corrected so that the face angle information of the reference image matches the face angle information of the user image,
The feature point of the user image is corrected such that the face angle information of the user image matches the face angle information of the reference image,
The face analyzer,
Calculating a difference by comparing a distance between feature points included in the user image and a distance between feature points included in the reference image,
The image transformation unit,
And a different ratio of deformation of feature points of the user image based on the calculated difference in distance.
삭제delete 삭제delete 제1항에 있어서,
상기 얼굴 특징은,
눈 형태, 코 형태, 입 형태 및 턱선 형태 중 적어도 하나를 포함하는 것을 특징으로 하는 영상 변형 장치.
The method of claim 1,
The facial feature,
And an eye shape, a nose shape, a mouth shape, and a jawline shape.
제1항에 있어서,
사용자 정보에 기초하여 적어도 하나의 레퍼런스 이미지를 추천하는 이미지 추천부; 및
상기 추천된 레퍼런스 이미지 중 적어도 하나를 선택하기 위한 사용자 명령을 입력받는 입력부;를 더 포함하는 것을 특징으로 하는 영상 변형 장치.
The method of claim 1,
An image recommending unit recommending at least one reference image based on user information; And
And an input unit configured to receive a user command for selecting at least one of the recommended reference images.
제5항에 있어서,
상기 이미지 추천부는,
사용자의 성별, 연령, 사용자 이미지 분석 결과, 사용자의 일정, 사용자의 이미지 변형 의도 및 사용자의 현재 위치 중 적어도 하나에 기초하여 상기 레퍼런스 이미지를 추천하는 것을 특징으로 하는 영상 변형 장치.
The method of claim 5,
The image recommendation unit,
And recommending the reference image based on at least one of a user's gender, age, a user image analysis result, a user's schedule, a user's image transformation intention, and a user's current location.
제1항에 있어서,
상기 사용자 이미지 및 상기 레퍼런스 이미지는 2D 이미지인 것을 특징으로 하는 영상 변형 장치.
The method of claim 1,
And the user image and the reference image are 2D images.
사용자 이미지 및 레퍼런스 이미지로부터 얼굴 영역의 특징점 및 얼굴의 각도 정보를 검출하는 단계;
상기 검출된 각도 정보를 이용하여 상기 사용자 이미지 또는 레퍼런스 이미지의 특징점을 보정하는 단계;
상기 보정된 특징점을 이용하여 상기 사용자 이미지 및 상기 레퍼런스 이미지에 포함된 얼굴 특징을 비교하는 단계; 및
상기 얼굴 특징에 대한 비교 결과를 이용하여 상기 사용자 이미지를 변형하는 단계;를 포함하며,
상기 사용자 이미지의 얼굴 각도 정보가 상기 레퍼런스 이미지의 얼굴 각도 정보와 상이한 경우, 상기 레퍼런스 이미지의 얼굴 각도 정보가 상기 사용자 이미지의 얼굴 각도 정보와 매칭되도록 상기 레퍼런스 이미지의 특징점이 보정되거나,
상기 사용자 이미지의 얼굴 각도 정보가 상기 레퍼런스 이미지의 얼굴 각도 정보와 매칭되도록 상기 사용자 이미지의 특징점이 보정되며,
상기 얼굴 특징을 비교하는 단계는,
상기 사용자 이미지에 포함된 특징점 간의 거리 및 상기 레퍼런스 이미지에 포함된 특징점 간의 거리를 비교하여 차이를 산출하고,
상기 사용자 이미지를 변형하는 단계는,
산출된 거리의 차이에 기초하여 상기 사용자 이미지의 특징점의 변형 비율을 상이하게 조정하는 영상 변형 방법.
Detecting feature points of the face region and angle information of the face from the user image and the reference image;
Correcting a feature point of the user image or the reference image by using the detected angle information;
Comparing facial features included in the user image and the reference image using the corrected feature points; And
And modifying the user image by using the comparison result with respect to the facial feature.
If the face angle information of the user image is different from the face angle information of the reference image, the feature point of the reference image is corrected so that the face angle information of the reference image matches the face angle information of the user image,
The feature point of the user image is corrected such that the face angle information of the user image matches the face angle information of the reference image,
Comparing the facial features,
Calculating a difference by comparing a distance between feature points included in the user image and a distance between feature points included in the reference image,
Deforming the user image,
And a distortion ratio of the feature points of the user image is differently adjusted based on the calculated distance difference.
삭제delete 삭제delete 제8항에 있어서,
상기 얼굴 특징은,
눈 형태, 코 형태, 입 형태 및 턱선 형태 중 적어도 하나를 포함하는 것을 특징으로 하는 영상 변형 방법.
The method of claim 8,
The facial feature,
And at least one of an eye shape, a nose shape, a mouth shape, and a jawline shape.
제8항에 있어서,
사용자 정보에 기초하여 적어도 하나의 레퍼런스 이미지를 추천하는 단계; 및
상기 추천된 레퍼런스 이미지 중 적어도 하나를 선택하기 위한 사용자 명령을 입력받는 단계;를 더 포함하는 것을 특징으로 하는 영상 변형 방법.
The method of claim 8,
Recommending at least one reference image based on the user information; And
And receiving a user command for selecting at least one of the recommended reference images.
제12항에 있어서,
상기 이미지를 추천하는 단계는,
사용자의 성별, 연령, 사용자 이미지 분석 결과, 사용자의 일정, 사용자의 이미지 변형 의도 및 사용자의 현재 위치 중 적어도 하나에 기초하여 상기 레퍼런스 이미지를 추천하는 것을 특징으로 하는 영상 변형 방법.
The method of claim 12,
Recommend the image,
And recommending the reference image based on at least one of a user's gender, age, a user image analysis result, a user's schedule, a user's image transformation intention, and a user's current location.
제8항에 있어서,
상기 사용자 이미지 및 상기 레퍼런스 이미지는 2D 이미지인 것을 특징으로 하는 영상 변형 방법.
The method of claim 8,
And the user image and the reference image are 2D images.
KR1020120156999A 2012-12-28 2012-12-28 Image transformation apparatus and the method Expired - Fee Related KR102013928B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020120156999A KR102013928B1 (en) 2012-12-28 2012-12-28 Image transformation apparatus and the method
PCT/KR2013/006878 WO2014104521A1 (en) 2012-12-28 2013-07-31 Image transformation apparatus and method
US14/024,113 US9195881B2 (en) 2012-12-28 2013-09-11 Image transformation apparatus and method
EP13197698.7A EP2750100A3 (en) 2012-12-28 2013-12-17 Image transformation apparatus and method
CN201310746057.1A CN103916588B (en) 2012-12-28 2013-12-30 Image translation device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120156999A KR102013928B1 (en) 2012-12-28 2012-12-28 Image transformation apparatus and the method

Publications (2)

Publication Number Publication Date
KR20140086463A KR20140086463A (en) 2014-07-08
KR102013928B1 true KR102013928B1 (en) 2019-08-23

Family

ID=49955823

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120156999A Expired - Fee Related KR102013928B1 (en) 2012-12-28 2012-12-28 Image transformation apparatus and the method

Country Status (5)

Country Link
US (1) US9195881B2 (en)
EP (1) EP2750100A3 (en)
KR (1) KR102013928B1 (en)
CN (1) CN103916588B (en)
WO (1) WO2014104521A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220053678A (en) * 2020-05-17 2022-04-29 코어포토닉스 리미티드 Image stitching in the presence of a full-field reference image

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6311372B2 (en) * 2014-03-13 2018-04-18 オムロン株式会社 Image processing apparatus and image processing method
EP2919142B1 (en) * 2014-03-14 2023-02-22 Samsung Electronics Co., Ltd. Electronic apparatus and method for providing health status information
CN104657716A (en) * 2015-02-12 2015-05-27 杭州秋樽网络科技有限公司 SNS multi-image fusion method
CN105405094A (en) * 2015-11-26 2016-03-16 掌赢信息科技(上海)有限公司 Method for processing face in instant video and electronic device
CN105979331A (en) * 2015-12-01 2016-09-28 乐视致新电子科技(天津)有限公司 Smart television data recommend method and device
TW201727537A (en) * 2016-01-22 2017-08-01 鴻海精密工業股份有限公司 Face recognition system and face recognition method
CN105956997B (en) * 2016-04-27 2019-07-05 腾讯科技(深圳)有限公司 The method and apparatus of image deformation processing
KR20170134256A (en) * 2016-05-26 2017-12-06 주식회사 시어스랩 Method and apparatus for correcting face shape
CN106204665B (en) * 2016-06-27 2019-04-30 深圳市金立通信设备有限公司 A kind of image processing method and terminal
CN107330408B (en) * 2017-06-30 2021-04-20 北京乐蜜科技有限责任公司 Video processing method and device, electronic equipment and storage medium
CN108876934B (en) * 2017-12-20 2022-01-28 北京旷视科技有限公司 Key point marking method, device and system and storage medium
CN110555353B (en) * 2018-06-04 2022-11-15 北京嘀嘀无限科技发展有限公司 Action recognition method and device
CN109003224B (en) * 2018-07-27 2024-10-15 北京微播视界科技有限公司 Face-based deformation image generation method and device
CN113588667B (en) * 2019-05-22 2024-06-14 合肥联宝信息技术有限公司 Method and device for detecting appearance of object
CN110555796B (en) * 2019-07-24 2021-07-06 广州视源电子科技股份有限公司 Image adjusting method, device, storage medium and equipment
CN110532965B (en) * 2019-08-30 2022-07-26 京东方科技集团股份有限公司 Age identification method, storage medium and electronic device
US11647878B2 (en) 2019-11-13 2023-05-16 Emerson Electric Co. Vacuum cleaner motor assemblies and methods of operating same
KR102266158B1 (en) * 2021-02-04 2021-06-16 한철희 System for correcting studio shot images using user's sns contents

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034724A (en) * 2005-07-27 2007-02-08 Glory Ltd Image processor, image processing method and image processing program
JP2008504760A (en) * 2004-06-30 2008-02-14 ソニー エリクソン モバイル コミュニケーションズ, エービー Face image correction
JP2012094048A (en) * 2010-10-28 2012-05-17 Fujimikku:Kk Clothing simulation system, clothing simulation method and clothing simulation program

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2973676B2 (en) * 1992-01-23 1999-11-08 松下電器産業株式会社 Face image feature point extraction device
CN1313979C (en) * 2002-05-03 2007-05-02 三星电子株式会社 Apparatus and method for generating 3-D cartoon
CN100565588C (en) * 2004-04-15 2009-12-02 松下电器产业株式会社 Face image creating device and method
JP4359784B2 (en) * 2004-11-25 2009-11-04 日本電気株式会社 Face image synthesis method and face image synthesis apparatus
KR100764130B1 (en) 2005-03-29 2007-10-05 (주)제니텀 엔터테인먼트 컴퓨팅 Automatic face extraction based virtual face shaping method and system
KR100714724B1 (en) * 2005-08-17 2007-05-07 삼성전자주식회사 Face Pose Estimation Apparatus, Estimation Method and Face Recognition System
KR20070097794A (en) 2006-03-29 2007-10-05 엠디에스테크놀로지 주식회사 How to Set Morph Response Points Using Mobile Devices
US7751599B2 (en) 2006-08-09 2010-07-06 Arcsoft, Inc. Method for driving virtual facial expressions by automatically detecting facial expressions of a face image
US8199152B2 (en) * 2007-01-16 2012-06-12 Lucasfilm Entertainment Company Ltd. Combining multiple session content for animation libraries
US20080174795A1 (en) 2007-01-23 2008-07-24 Accenture Global Services Gmbh Reshaping an image to thin or fatten a face
KR20090000635A (en) 2007-03-12 2009-01-08 주식회사 케이티 3D face shaping system and method for satisfying user's preference
JP4946730B2 (en) * 2007-08-27 2012-06-06 ソニー株式会社 Face image processing apparatus, face image processing method, and computer program
CN101159064B (en) * 2007-11-29 2010-09-01 腾讯科技(深圳)有限公司 Image generation system and method for generating image
JP2010170184A (en) * 2009-01-20 2010-08-05 Seiko Epson Corp Specifying position of characteristic portion of face image
JP2011090466A (en) * 2009-10-21 2011-05-06 Sony Corp Information processing apparatus, method, and program
KR20120059994A (en) * 2010-12-01 2012-06-11 삼성전자주식회사 Apparatus and method for control avatar using expression control point
KR101733512B1 (en) 2010-12-22 2017-05-10 에스케이플래닛 주식회사 Virtual experience system based on facial feature and method therefore

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008504760A (en) * 2004-06-30 2008-02-14 ソニー エリクソン モバイル コミュニケーションズ, エービー Face image correction
JP2007034724A (en) * 2005-07-27 2007-02-08 Glory Ltd Image processor, image processing method and image processing program
JP2012094048A (en) * 2010-10-28 2012-05-17 Fujimikku:Kk Clothing simulation system, clothing simulation method and clothing simulation program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220053678A (en) * 2020-05-17 2022-04-29 코어포토닉스 리미티드 Image stitching in the presence of a full-field reference image
KR102495627B1 (en) 2020-05-17 2023-02-06 코어포토닉스 리미티드 Image stitching in the presence of a full-field reference image
KR20230020585A (en) * 2020-05-17 2023-02-10 코어포토닉스 리미티드 Image stitching in the presence of a full field of view reference image
KR102674601B1 (en) 2020-05-17 2024-06-11 코어포토닉스 리미티드 Image stitching in the presence of a full field of view reference image

Also Published As

Publication number Publication date
CN103916588A (en) 2014-07-09
EP2750100A3 (en) 2017-02-22
KR20140086463A (en) 2014-07-08
CN103916588B (en) 2018-11-23
EP2750100A2 (en) 2014-07-02
US9195881B2 (en) 2015-11-24
US20140185939A1 (en) 2014-07-03
WO2014104521A1 (en) 2014-07-03

Similar Documents

Publication Publication Date Title
KR102013928B1 (en) Image transformation apparatus and the method
EP3323249B1 (en) Three dimensional content generating apparatus and three dimensional content generating method thereof
US11494929B2 (en) Distance measurement device
US20190244369A1 (en) Display device and method for image processing
TWI489320B (en) Method and apparatus for marking electronic document
US20170316582A1 (en) Robust Head Pose Estimation with a Depth Camera
US20170147866A1 (en) Image processing device and image display device
TW201126298A (en) Data processing device and method for regulating the lighting power of a display
CN113936324A (en) Gaze detection method, control method of electronic equipment, and related equipment
CN109002248B (en) VR scene screenshot method, device and storage medium
EP4002261A1 (en) Method and device for processing image, electronic equipment, and storage medium
EP2755164A2 (en) Display apparatus and control method for adjusting the eyes of a photographed user
US9400924B2 (en) Object recognition method and object recognition apparatus using the same
US10162997B2 (en) Electronic device, computer readable storage medium and face image display method
US20180270424A1 (en) Repositioning camera lenses during capturing of media
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
US9536133B2 (en) Display apparatus and control method for adjusting the eyes of a photographed user
JP2015032883A (en) Imaging apparatus and image display method
US10013736B1 (en) Image perspective transformation system
KR20140095601A (en) Pose classification apparatus and pose classification method
TW202046169A (en) Electronic device and face recognition method
JP6347604B2 (en) Image projection apparatus, image projection method and program
TW201724013A (en) Electronic apparatus, computer readable recording medium storing program and facial image displaying method
KR20160115081A (en) Method for fontand image size automatic adjustment of mobile device and the mobile device
JP2017044822A (en) Display controller, display device, control method for display controller and control program

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20121228

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20171201

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20121228

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20180907

Patent event code: PE09021S01D

AMND Amendment
E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20190327

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20180907

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

AMND Amendment
PX0901 Re-examination

Patent event code: PX09011S01I

Patent event date: 20190327

Comment text: Decision to Refuse Application

Patent event code: PX09012R01I

Patent event date: 20181107

Comment text: Amendment to Specification, etc.

PX0701 Decision of registration after re-examination

Patent event date: 20190522

Comment text: Decision to Grant Registration

Patent event code: PX07013S01D

Patent event date: 20190425

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

Patent event date: 20190327

Comment text: Decision to Refuse Application

Patent event code: PX07011S01I

Patent event date: 20181107

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

X701 Decision to grant (after re-examination)
GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20190819

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20190820

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20230530