[go: up one dir, main page]

KR101507410B1 - Live make-up photograpy method and apparatus of mobile terminal - Google Patents

Live make-up photograpy method and apparatus of mobile terminal Download PDF

Info

Publication number
KR101507410B1
KR101507410B1 KR1020140142852A KR20140142852A KR101507410B1 KR 101507410 B1 KR101507410 B1 KR 101507410B1 KR 1020140142852 A KR1020140142852 A KR 1020140142852A KR 20140142852 A KR20140142852 A KR 20140142852A KR 101507410 B1 KR101507410 B1 KR 101507410B1
Authority
KR
South Korea
Prior art keywords
beauty effect
mobile terminal
live
makeup
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020140142852A
Other languages
Korean (ko)
Inventor
이성호
Original Assignee
주식회사 모리아타운
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 모리아타운 filed Critical 주식회사 모리아타운
Priority to KR1020140142852A priority Critical patent/KR101507410B1/en
Application granted granted Critical
Publication of KR101507410B1 publication Critical patent/KR101507410B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 카메라가 구비된 모바일 단말의 라이브 메이크업 촬영방법에 있어서, 사용자 영상을 실시간으로 입력받는 단계, 상기 사용자 영상으로부터 뷰티 이펙트가 적용될 인물 영역을 검출하는 단계, 상기 인물 영역에 대응되는 인물의 인물 정보를 결정하는 단계, 상기 인물 영역으로부터 얼굴의 각 부위에 대한 아웃 라인을 검출하는 단계, 상기 인물 정보에 기초하여 상기 각 부위에 적용될 뷰티 이펙트를 결정하는 단계, 상기 아웃 라인을 따라서 상기 각 부위에 상기 뷰티 이펙트를 적용하는 단계 및 상기 뷰티 이펙트가 적용된 상기 사용자 영상을 상기 모바일 단말을 통해 디스플레이하는 단계를 포함한다. A method for photographing live makeup of a mobile terminal equipped with a camera, the method comprising: receiving a user image in real time; detecting a character area to which a beauty effect is to be applied from the user image; Determining a beauty effect to be applied to each of the parts based on the person information, determining a beauty effect to be applied to each part on the basis of the outline, Applying the beauty effect, and displaying the user image to which the beauty effect is applied through the mobile terminal.

Description

모바일 단말의 라이브 메이크업 촬영 방법 및 장치{LIVE MAKE-UP PHOTOGRAPY METHOD AND APPARATUS OF MOBILE TERMINAL} TECHNICAL FIELD [0001] The present invention relates to a live make-up photographing method and apparatus for a mobile terminal,

본 발명은 모바일 단말의 라이브 메이크업 촬영 방법 및 장치에 관한 것이다.
The present invention relates to a method and apparatus for photographing live make-up of a mobile terminal.

최근 사용자들은 영상 및 이미지 촬영시 뷰티샷 촬영을 사용하여 자신의 얼굴이 보다 아름답게 나오기를 원한다. 여기서의 뷰티샷 촬영이란 사진 속 피부의 색상을 밝게 하고, 잡티 등을 제거하여 얼굴을 깨끗하게 보이도록 처리한 인물 사진에 대한 보정 기능 중 하나이다. Recently, users want to use their beauty shoots to make their faces more beautiful when shooting images and images. The beauty shot here is one of the correction functions for portrait photographs that brighten the color of the skin in the photograph and remove the dirt and the like and make the face look clean.

그러나, 종래의 뷰티샷 촬영 기술은 성별, 연령, 인종에 따라 피부 타입 및 피부색이 다양한 사용자들에게 적절한 영상 또는 이미지를 제공하지 못하고 있다. 즉, 사용자의 성별, 연령, 인종에 따라 적절한 뷰티샷 촬영이 적용되지 않는다. 예컨대, 할아버지 또는 남성에게 적당하지 않은 아시아계의 젊은 여성들이 선호하는 색조화장효과가 적용된 영상 또는 이미지가 출력될 수 있다. However, the conventional beauty shot shooting technique does not provide appropriate images or images for users with various skin types and skin colors according to sex, age, and race. That is, the appropriate beauty shot is not applied according to the user's sex, age, and race. For example, an image or an image to which a color cosmetic effect, which is favored by Asian young women who are not suitable for a grandfather or a man, may be output.

이러한 문제를 해결하기 위하여, 종래의 뷰티샷 촬영 기술은 특정 계층, 예컨대 아시아계 젊은 여성들이 선호하는 진한 색조화장효과를 적용 및 단일화하지 않는다. 예컨대, 특정 계층, 예컨대 아시아계 젊은 여성들이 선호하는 진한 색조화장효과를 적용 및 단일화할 경우, 아시아계 젊은 여성에게만 적용할 수 있는 뷰티샷 촬영이 할아버지 또는 남성에게도 적용될 수 있기 때문이다. 또한, 종래의 뷰티샷 촬영 기술은 얼굴의 각 부위가 아닌 다른 위치에 적용될 수 있는 문제점을 갖는다. 예컨대, 하얀 눈에 푸른 색조화장효과가 적용되고, 하얀 이에 빨간 립스팁 효과가 적용되는 문제가 있다. In order to solve this problem, conventional beauty shot techniques do not apply and unify a particular layer, for example, the deep-toned cosmetic effect preferred by Asian young women. For example, a beauty shot that can be applied only to Asian young women can be applied to a grandfather or a man when a specific layer, for example, a dark color cosmetic effect preferred by Asian young women, is applied and unified. In addition, the conventional beauty shot shooting technique has a problem that it can be applied to a position other than each part of the face. For example, there is a problem that a blue color cosmetic effect is applied to a white eye and a red lip tip effect is applied to a white color.

따라서, 성별, 연령, 인종에 따라 적절한 뷰티샷 촬영이 적용된 영상을 출력할뿐 아니라, 특정 계층, 예컨대 아시아계 젊은 여성들이 선호하는 진한 색조화장효과를 적용 및 단일화하고, 보다 정확한 위치에 색조화장효과를 적용할 수 있는 뷰티샷 촬영기술이 필요하다.
Accordingly, not only an image with appropriate beauty shot shooting according to sex, age, and race is outputted, but also a specific layer such as a dark color cosmetic effect preferred by Asian young women is applied and unified, and a cosmetic effect You need an applicable beauty shot technique.

본 발명은 사용자 영상으로부터 인물 영역을 검출하고, 인물 영역으로부터 얼굴의 각 부위에 대한 아웃 라인을 검출함으로써, 각 부위에 대한 아웃 라인을 정확하게 인식할 수 있고, 각 부위의 보다 정확한 위치에 뷰티 이펙트를 적용할 수 있는 모바일 단말의 라이브 메이크업 촬영 방법 및 장치를 제공하는 것을 목적으로 한다. The present invention detects a person area from a user image and detects an outline for each part of the face from a person area, thereby accurately recognizing an outline for each part, and applying a beauty effect to a more accurate position of each part And to provide a live makeup shooting method and apparatus of a mobile terminal that can be applied.

또한, 본 발명은, 사용자들의 성별, 연령, 인종에 따라 다양한 뷰티 이펙트를 적용할 수 있으므로, 다양한 사용자들이 원하는 적절한 영상 및 이미지를 생성할 수 있는 모바일 단말의 라이브 메이크업 촬영 방법 및 장치를 제공하는 것을 목적으로 한다. The present invention also provides a method and apparatus for photographing live make-up of a mobile terminal capable of generating appropriate images and images desired by various users because various beauty effects can be applied according to sex, age, and race of users The purpose.

또한, 본 발명은, 사용자 영상에 대하여 데이터베이스로부터 다양한 뷰티 이펙트를 빠르게 결정할 수 있으므로, 사용자 영상에 대해 실시간으로 적용되고, 단일화된 영상을 디스플레이할 수 있는 모바일 단말의 라이브 메이크업 촬영 방법 및 장치를 제공하는 것을 목적으로 한다. The present invention also provides a method and apparatus for photographing live makeup of a mobile terminal capable of quickly determining various beauty effects from a database with respect to a user image, .

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned can be understood by the following description and more clearly understood by the embodiments of the present invention. It will also be readily apparent that the objects and advantages of the invention may be realized and attained by means of the instrumentalities and combinations particularly pointed out in the appended claims.

이러한 목적을 달성하기 위한 본 발명은 카메라가 구비된 모바일 단말의 라이브 메이크업 촬영방법에 있어서, 사용자 영상을 실시간으로 입력받는 단계, 상기 사용자 영상으로부터 뷰티 이펙트가 적용될 인물 영역을 검출하는 단계, 상기 인물 영역에 대응되는 인물의 인물 정보를 결정하는 단계, 상기 인물 영역으로부터 얼굴의 각 부위에 대한 아웃 라인을 검출하는 단계, 상기 인물 정보에 기초하여 상기 각 부위에 적용될 뷰티 이펙트를 결정하는 단계, 상기 아웃 라인을 따라서 상기 각 부위에 상기 뷰티 이펙트를 적용하는 단계 및 상기 뷰티 이펙트가 적용된 상기 사용자 영상을 상기 모바일 단말을 통해 디스플레이하는 단계를 포함하는 것을 특징으로 한다. According to an aspect of the present invention, there is provided a method for photographing live makeup of a mobile terminal equipped with a camera, the method comprising the steps of: receiving a user image in real time; detecting a person area to which a beauty effect is to be applied, Determining an outline for each part of the face from the person area, determining a beauty effect to be applied to each part based on the person information, Applying the beauty effect to each part according to the beauty effect, and displaying the user image to which the beauty effect is applied through the mobile terminal.

또한, 본 발명은 카메라가 구비된 모바일 단말의 라이브 메이크업 촬영장치에 있어서, 사용자 영상을 실시간으로 입력받는 입력부, 상기 사용자 영상으로부터 뷰티 이펙트가 적용될 인물 영역을 검출하고, 상기 인물 영역으로부터 얼굴의 각 부위에 대한 아웃 라인을 검출하는 검출부, 상기 인물 영역에 대응되는 인물의 인물 정보를 결정하고, 상기 인물 정보에 기초하여 상기 각 부위에 적용될 뷰티 이펙트를 결정하는 결정부, 상기 아웃 라인을 따라서 상기 각 부위에 상기 뷰티 이펙트를 적용하고, 상기 뷰티 이펙트가 적용된 상기 사용자 영상을 상기 모바일 단말을 통해 디스플레이하는 뷰티 이펙트 처리부를 포함하는 것을 특징으로 한다.
In addition, the present invention provides an apparatus for photographing live makeup of a mobile terminal equipped with a camera, comprising: an input unit for inputting a user image in real time; a character area detecting unit for detecting a character area to which a beauty effect is to be applied, A determination unit for determining the personality information of a person corresponding to the person area and determining a beauty effect to be applied to each of the parts based on the person information, And a beauty effect processor for applying the beauty effect to the user and displaying the user image to which the beauty effect is applied through the mobile terminal.

전술한 바와 같은 본 발명에 의하면, 사용자 영상으로부터 인물 영역을 검출하고, 인물 영역으로부터 얼굴의 각 부위에 대한 아웃 라인을 검출함으로써, 각 부위에 대한 아웃 라인을 정확하게 인식할 수 있고, 각 부위의 보다 정확한 위치에 뷰티 이펙트를 적용할 수 있는 효과가 있다. According to the present invention as described above, the outline for each part can be accurately recognized by detecting the character area from the user image and detecting the outline for each part of the face from the character area, Beauty effect can be applied to exact position.

또한, 본 발명에 의하면, 사용자들의 성별, 연령, 인종에 따라 다양한 뷰티 이펙트를 적용할 수 있으므로, 다양한 사용자들이 원하는 적절한 영상 및 이미지를 생성할 수 있는 효과가 있다. In addition, according to the present invention, a variety of beauty effects can be applied according to the sex, age, and race of users, so that it is possible to generate appropriate images and images desired by various users.

또한, 본 발명에 의하면, 사용자 영상에 대하여 데이터베이스로부터 다양한 뷰티 이펙트를 빠르게 결정할 수 있으므로, 사용자 영상에 대해 실시간으로 적용되고, 단일화된 영상을 디스플레이할 수 있는 효과가 있다. In addition, according to the present invention, since various beauty effects can be quickly determined from a database with respect to a user image, there is an effect that a single image can be displayed and applied to a user image in real time.

도 1은 본 발명의 실시 예에 따른 라이브 메이크업 촬영 시스템의 구성도이다.
도 2는 라이브 메이크업 촬영장치(100)의 동작을 설명하는 도이다.
도 3은 데이터베이스부에 저장된 뷰티 이펙트의 실시 예이다.
도 4는 본 발명의 실시 예에 따른 라이브 메이크업 촬영 장치의 동작 순서도이다.
1 is a configuration diagram of a live makeup photographing system according to an embodiment of the present invention.
2 is a diagram for explaining the operation of the live-makeup photographing apparatus 100. Fig.
3 is an example of a beauty effect stored in the database unit.
4 is an operational flowchart of a live makeup photographing apparatus according to an embodiment of the present invention.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above and other objects, features, and advantages of the present invention will become more apparent by describing in detail exemplary embodiments thereof with reference to the attached drawings, which are not intended to limit the scope of the present invention. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to denote the same or similar elements.

도 1은 본 발명의 실시 예에 따른 라이브 메이크업 촬영 시스템의 구성도이다. 1 is a configuration diagram of a live makeup photographing system according to an embodiment of the present invention.

도 1을 참조하면, 라이브 메이크업 촬영 시스템(500)은 카메라(10), 라이브 메이크업 촬영장치(100) 및 디스플레이부(200)를 포함한다. 라이브 메이크업 촬영 시스템(500)은 카메라(10)와 디스플레이부(200)가 구비되어 영상 통화를 수행할 수 있는 모바일 단말(500)일 수 있다. 예컨대, 모바일 단말(500)은 노트북, 이동통신 단말, 스마트폰(Smart phone), PMP(Portable Media Player), PDA(Personal Digital Assistant), 태블릿 PC(Tablet PC), 셋탑박스(Set-top box), 스마트 TV 등 다양한 장치가 될 수 있다. Referring to FIG. 1, a live makeup shooting system 500 includes a camera 10, a live makeup shooting device 100, and a display unit 200. The live make-up photographing system 500 may be a mobile terminal 500 having a camera 10 and a display unit 200 to perform a video call. For example, the mobile terminal 500 may be a notebook, a mobile communication terminal, a smart phone, a portable media player (PMP), a personal digital assistant (PDA), a tablet PC, a set- , Smart TV, and the like.

본 발명의 실시 예에 따른 라이브 메이크업 촬영 시스템(500)은 카메라(10)를 통해 촬영된 사용자 영상에 뷰티 이펙트를 적용하여 디스플레이부(200)를 통해 실시간으로 뷰티 이펙트가 적용된 사용자 영상을 디스플레이할 수 있다. The live makeup photographing system 500 according to the embodiment of the present invention can apply a beauty effect to a user image photographed through the camera 10 and display a user image to which a beauty effect is applied in real time through the display unit 200 have.

여기에서, 뷰티 이펙트는 아이라이너, 눈동자 색채, 속눈썹, 아이쉐도우, 눈의 밝기, 다크 써클 제거, 점 제거, 파운데이션, 볼 리프팅(볼 들어올리기), 코 강화(코 높이기), 립스틱 및 치아 미백에 대한 설정 값일 수 있다. 예컨대, 눈의 밝기의 설정 값은 1~10의 단계로 표현될 수 있다. 즉, 눈의 밝기 1은 눈을 최소한으로 밝게 조절하기 위하여 미리 설정된 값이고, 눈의 밝기 10은 눈을 최대한으로 밝게 조절하기 위하여 미리 설정된 값일 수 있다. Here, the beauty effects are based on eyeliner, eyelid color, eyelash, eye shadow, brightness of the eyes, dark circles removal, removal of points, foundation, ball lifting (raising the ball), nose strengthening (nose raising), lipstick and tooth whitening May be a setting value. For example, the set value of the brightness of the eye can be expressed by a step of 1 to 10. That is, the brightness 1 of the eyes is a predetermined value for adjusting the brightness of the eyes to the minimum brightness, and the brightness 10 of the eyes may be a predetermined value for adjusting the brightness of the eyes to the maximum brightness.

이때, 카메라(10)는 사용자의 영상 및 이미지를 촬영할 수 있는 장치로서, 라이브 메이크업 촬영장치(100)에 촬영된 영상 및 이미지를 전송할 수 있다. 예컨대, 카메라(10)는 모바일 단말(500)의 전면 카메라 또는 후면 카메라일 수 있다. At this time, the camera 10 is an apparatus that can capture a user's image and image, and can transmit the photographed image and image to the live makeup photographing apparatus 100. For example, the camera 10 may be a front camera or a rear camera of the mobile terminal 500.

라이브 메이크업 촬영장치(100)는 카메라(10)로부터 촬영된 사용자 영상 또는 이미지를 입력받아 뷰티 이펙트가 적용된 사용자 영상 또는 이미지를 디스플레이부(200)를 통해 디스플레이할 수 있다. The live makeup photographing apparatus 100 may display a user image or an image to which the beauty effect is applied through the display unit 200 by receiving a user image or an image photographed from the camera 10. [

이하, 도 2를 참조하여 라이브 메이크업 촬영장치(100)에 대하여 구체적으로 설명한다. Hereinafter, the live-makeup photographing apparatus 100 will be described in detail with reference to Fig.

도 2는 라이브 메이크업 촬영장치(100)의 동작을 설명하는 도이다. 2 is a diagram for explaining the operation of the live-makeup photographing apparatus 100. Fig.

도 1과 도 2를 참조하면, 라이브 메이크업 촬영장치(100)는 입력부(30), 검출부(40), 결정부(50) 및 뷰티 이펙트 처리부(60)를 포함한다. 실시 예에 따라 라이브 메이크업 촬영장치(100)는 데이터베이스부(70)를 더 포함할 수 있다. 1 and 2, the live makeup photographing apparatus 100 includes an input unit 30, a detection unit 40, a determination unit 50, and a beauty effect processing unit 60. According to the embodiment, the live makeup photographing apparatus 100 may further include a database unit 70.

입력부(30)는 카메라(10)로부터 촬영된 사용자 영상(31)을 실시간으로 입력받아 검출부(40)에 전송할 수 있다. 여기에서, 사용자 영상(31)은 시간 순서대로 나열된 다수의 이미지들일 수 있다. 즉, 입력부(30)는 카메라(10)로부터 촬영된 사용자 영상(31)이 시간 순서대로 나열된 다수의 이미지들을 입력받은 시간 순서대로 검출부(40)에 전송할 수 있다. 이에 따라, 입력부(30)는 카메라(10)로부터 촬영된 사용자 영상(31) 뿐만 아니라 사용자 이미지를 검출부(40)에 전송할 수 있다. The input unit 30 can receive the user image 31 photographed from the camera 10 in real time and transmit it to the detection unit 40. Here, the user image 31 may be a plurality of images arranged in chronological order. That is, the input unit 30 can transmit to the detection unit 40 a plurality of images in which the user images 31 photographed from the camera 10 are arranged in chronological order, in the order of time in which the images are received. Accordingly, the input unit 30 can transmit not only the user image 31 photographed by the camera 10 but also a user image to the detection unit 40.

그리고, 검출부(40)는 입력부(30)로부터 전송된 사용자 영상(31)으로부터 뷰티 이펙트가 적용될 인물 영역(41)을 검출할 수 있다. 이때, 사용자 영상(31)은 인물 영역뿐만 아니라 배경 영역(미도시)을 포함할 수 있다. 즉, 검출부(40)는 사용자 영상(31)으로부터 인물의 얼굴 및 신체를 검출하고, 검출된 얼굴 및 신체의 크기에 대응하는 인물 영역(41)을 검출할 수 있다. 예컨대, 검출부(40)는 인물 검출 알고리즘인 Haar-like feature 알고리즘을 이용하여 인물 영역(41)을 검출할 수 있다. The detection unit 40 can detect the person area 41 to which the beauty effect is to be applied from the user image 31 transmitted from the input unit 30. [ At this time, the user image 31 may include a background area (not shown) as well as a character area. That is, the detection unit 40 can detect the face and the body of the person from the user image 31, and detect the person area 41 corresponding to the detected face and the size of the body. For example, the detection unit 40 can detect the character area 41 using Haar-like feature algorithm, which is a character detection algorithm.

또한, 검출부(40)는 인물 영역(41)으로부터 얼굴의 각 부위에 대한 아웃 라인(42)을 검출할 수 있다. 여기서, 아웃 라인은 얼굴의 눈썹, 눈, 코, 입술, 볼에 대한 윤곽선을 의미할 수 있다. 보다 구체적으로, 검출부(40)는 얼굴의 눈썹, 눈, 코, 입술, 볼에 대한 윤곽선을 검출하기 위하여 인물 영역(41)의 눈썹으로부터 일정한 거리에 위치하는 포인트들, 인물 영역(41)의 눈으로부터 일정한 거리에 위치하는 포인트들, 인물 영역(41)의 코로부터 일정한 거리에 위치하는 포인트들, 인물 영역(41)의 입술로부터 일정한 거리에 위치하는 포인트들, 및 인물 영역(41)의 볼로부터 일정한 거리에 위치하는 포인트들을 검출할 수 있다. 본 발명의 실시 예에 따라 검출부(40)는 눈썹에 3개, 눈에 4개, 코에 2개, 입술에 4개 및 볼에 2개의 포인트들을 검출할 수 있다. 다른 실시 예에 따라, 검출부(40)는 눈썹에 3개, 눈에 4개, 코에 2개, 입술에 4개 및 볼에 2개 포인트들의 개수를 조절할 수 있다. 따라서, 검출부(40)는 사용자 영상(31)으로부터 인물 영역(41)을 검출하고, 인물 영역(41)으로부터 얼굴의 각 부위에 대한 아웃 라인을 검출함으로써, 각 부위에 대한 아웃 라인을 정확하게 인식할 수 있고, 각 부위의 보다 정확한 위치에 뷰티 이펙트를 적용할 수 있는 효과가 있다. Further, the detection unit 40 can detect the outline 42 for each part of the face from the person area 41. [ Here, the outline may mean the contours of the eyebrows, eyes, nose, lips, and balls of the face. More specifically, the detecting unit 40 detects the points located at a certain distance from the eyebrows of the person area 41, the points of the eyes of the person area 41, the eyes of the person area 41, Points located at a certain distance from the nose of the person area 41, points located at a certain distance from the lips of the person area 41, and points located at a certain distance from the nose of the person area 41, It is possible to detect points located at a certain distance. According to the embodiment of the present invention, the detecting unit 40 can detect three points on the eyebrow, four points on the eye, two points on the nose, four points on the lips, and two points on the ball. According to another embodiment, the detector 40 can adjust the number of points on the eyebrows 3, 4 on the eye, 2 on the nose, 4 on the lips and 2 on the ball. Therefore, the detection unit 40 detects the person area 41 from the user image 31 and detects the outline for each part of the face from the person area 41, thereby accurately recognizing the outline for each part And the beauty effect can be applied to a more accurate position of each part.

다음으로, 결정부(50)는 검출부(40)로부터 검출된 인물 영역(41)에 대응되는 인물의 인물 정보(51)를 결정할 수 있다. 이때, 인물 정보(51)는 성별, 연령 및 인종에 대한 정보일 수 있다. 예컨대, 인물 정보(51)는 아시아계의 28세 남성을 의미할 수 있다. 보다 구체적으로, 결정부(50)는 검출부(40)로부터 검출된 인물 영역(41)의 피부색에 기초하여 인종을 판단 및 결정하고, 검출부(40)로부터 검출된 인물 영역(41)의 주름 형태 및 주름 량에 기초하여 연령을 판단 및 결정하고, 검출부(40)로부터 검출된 머리 스타일에 기초하여 성별을 판단 및 결정할 수 있다. 다른 실시 예에 따라, 결정부(50)는 사용자로부터 인물 영역(51)에 대응되는 사용자의 인물 정보를 직접 입력받을 수 있다. Next, the determination unit 50 can determine the person information 51 of the person corresponding to the person area 41 detected by the detection unit 40. [ At this time, the person information 51 may be information on sex, age, and race. For example, the person information 51 may mean a 28-year-old Asian male. More specifically, the determination unit 50 determines and determines the race on the basis of the skin color of the character area 41 detected by the detection unit 40, and determines the shape of the character area 41 detected by the detection unit 40 It is possible to determine and determine the age based on the amount of wrinkles, and to determine and determine the sex based on the hair style detected from the detection unit 40. [ According to another embodiment, the determination unit 50 can directly receive the user's personal information corresponding to the person area 51 from the user.

또한, 결정부(50)는 판단 및 결정된 인물 정보(51) 또는 직접 입력받은 인물 정보(51)에 기초하여 얼굴의 각 부위에 적용될 뷰티 이펙트(52)를 결정하기 위하여 데이터베이스부(70)를 검색할 수 있다. 다른 실시 예에 따라 결정부(50)는 인종, 성별 및 연령인 인물 정보(51)에 따라 다수의 뷰티 이펙트가 미리 저장된 모바일 단말(500)의 메모리 또는 유무선망을 통해 접속할 수 있는 서버를 검색할 수 있다. 즉, 결정부(50)는 판단 및 결정된 인물 정보(51) 또는 직접 입력받은 인물 정보(51)에 기초하여 데이터베이스부(70)의 데이터 정보(71~7N) 중 대응되는 얼굴의 각 부위에 적용될 뷰티 이펙트(52)를 검색할 수 있다. The determination unit 50 also searches the database unit 70 to determine the beauty effect 52 to be applied to each part of the face based on the determined and determined person information 51 or directly inputted person information 51 can do. According to another embodiment, the determining unit 50 may search the memory of the mobile terminal 500 in which a plurality of beauty effects are stored in advance according to the person information 51 of the race, sex and age, or a server that can access through the wired / wireless network . That is, the determination unit 50 is applied to each part of the corresponding face of the data information 71 to 7N of the database unit 70 based on the determined and determined person information 51 or directly inputted person information 51 The beauty effect 52 can be searched.

이하, 도 3을 참조하여 데이터베이스부(70)를 설명한다. Hereinafter, the database unit 70 will be described with reference to FIG.

도 3은 데이터베이스부에 저장된 다수의 뷰티 이펙트에 대한 실시 예이다. 3 is an embodiment of a plurality of beauty effects stored in the database unit.

도 3을 참조하면, 데이터베이스부(70)에는 데이터 정보(71~7N)를 미리 저장할 수 있다. 여기에서, 데이터 정보(71~7N)는 인물 정보에 따라 각각의 뷰티 이펙트를 포함한다. 예컨대, 데이터 정보(71~7N)는 아시아계 10대인 남성에 따라 아이라이너에 대한 설정값 1, 코 강화에 대한 설정 값 3을 포함하고, 유럽계 30대 여성에 따라 점제거에 대한 설정값 7, 다크써클제거에 대한 설정값 9를 포함한다. 보다 구체적으로, 데이터베이스부(70)는 인물 정보인 인종, 성별 및 연령에 따라 아이라이너, 눈동자 색채, 속눈썹, 아이쉐도우, 눈의 밝기, 다크 써클 제거, 점 제거, 파운데이션, 볼 리프팅(볼 들어올리기), 코 강 화(코 높이기), 립스틱 및 치아 미백에 대한 설정 값인 뷰티 이펙트를 포함한 데이터 정보(71~7N)를 미리 저장할 수 있다. 다른 실시 예에 따라 사용자는 데이터 정보(71~7N)에 인물 정보에 따라 각각의 뷰티 이펙트를 직접 저장함으로써 뷰티 이펙트를 변경할 수 있다. Referring to FIG. 3, the database unit 70 may store data information 71 to 7N in advance. Here, the data information 71 to 7N includes respective beauty effects according to the person information. For example, the data information 71 to 7N includes a set value 1 for the eyeliner and a set value 3 for the nose reinforcement depending on the male in the Asian teenager, And a set value 9 for the removal of the circle. More specifically, the database unit 70 stores the eyeliner, the eyelash color, the eyelash, the eye shadow, the brightness of the eyes, the dark circle removal, the dot removal, the foundation, the ball lifting ), Nose strengthening (nose elevation), lipstick, and tooth whitening can be stored in advance. According to another embodiment, the user can change the beauty effect by directly storing each beauty effect in the data information 71 to 7N according to the person information.

따라서, 도 2의 결정부(50)는 판단 및 결정된 인물 정보(51) 또는 직접 입력받은 인물 정보(51)에 기초하여 데이터베이스부(70)의 데이터 정보(71~7N)들 중 인물 정보(51)에 대응되는 인종, 성별 및 연령에 따라 뷰티 이펙트를 검색하고, 검색된 얼굴의 각 부위에 적용될 뷰티 이펙트(52)를 결정할 수 있다. 예컨대, 판단 및 결정된 인물 정보(51) 또는 직접 입력받은 인물 정보(51)가 아시아계 10대 여성인 경우, 결정부(50)는 데이터베이스부(70)로부터 각 부위에 적용될 아이라이너에 대한 설정값 7, 립스틱에 대한 설정 값 5인 뷰티 이펙트(52)를 결정할 수 있다. Therefore, the determination unit 50 of FIG. 2 determines whether or not the character information 51 (FIG. 2) among the data information 71 to 7N of the database unit 70, based on the determined and determined person information 51 or directly inputted person information 51 Sexiness, age, and the like, and determine the beauty effect 52 to be applied to each part of the searched face. For example, when the determined and determined person information 51 or the person information 51 directly inputted is the Asian teenager, the determination unit 50 determines the setting value 7 for the eyeliner to be applied to each part from the database unit 70 , And a beauty effect 52 with a set value of 5 for lipstick.

이후, 뷰티 이펙트 처리부(60)는 검출부(40)로부터 검출된 얼굴의 각 부위에 대한 아웃 라인(42)을 따라서 결정부(50)에서 결정된 각 부위에 뷰티 이펙트(52)를 입력부(30)로부터 입력받은 사용자 영상(31)에 적용할 수 있다. 이때, 뷰티 이펙트 처리부(60)는 결정부(50)에서 결정된 뷰티 이펙트(52)에 기초하여 각 부위의 채도 값, 명도 값, 색상 값 및 선명도 값 중 적어도 하나를 조절할 수 있다. 예컨대, 결정부(50)에서 결정된 각 부위에 뷰티 이펙트(52)가 립스틱에 대한 설정 값 5인 경우, 뷰티 이펙트 처리부(60)는 입술에 대한 채도, 명도, 색상 및 선명도를 각각 조절함으로써, 뷰티 이펙트(51)를 사용자 영상(31)에 적용할 수 있다. Thereafter, the beauty effect processor 60 outputs the beauty effect 52 to each part determined by the determination unit 50 along the outline 42 for each part of the face detected from the detection unit 40, from the input unit 30 And can be applied to the input user image 31. At this time, the beauty effect processor 60 can adjust at least one of the saturation value, the brightness value, the hue value, and the sharpness value of each region based on the beauty effect 52 determined by the determination unit 50. [ For example, when the beauty effect 52 for each part determined by the determination unit 50 is the set value 5 for the lipstick, the beauty effect processing unit 60 adjusts the saturation, brightness, The effect 51 can be applied to the user image 31. [

즉, 뷰티 이펙트 처리부(60)는 뷰티 이펙트(52)에 기초하는 각 부위의 채도 값, 명도 값, 색상 값 및 선명도 값 중 적어도 하나를 조절하여 뷰티 이펙트(52)가 적용된 출력 영상(61)을 생성할 수 있다. 이렇게, 뷰티 이펙트 처리부(60)는 뷰티 이펙트(52)가 적용된 출력 영상(61)을 사용자에게 제공할 수 있다. That is, the beauty effect processor 60 adjusts at least one of the saturation value, the brightness value, the hue value, and the sharpness value of each part based on the beauty effect 52 to output the output image 61 to which the beauty effect 52 is applied Can be generated. In this way, the beauty effect processor 60 can provide the user with an output image 61 to which the beauty effect 52 is applied.

이때, 디스플레이부(200)는 뷰티 이펙트 처리부(60)로부터 생성된 출력영상(61)을 디스플레이할 수 있다. At this time, the display unit 200 can display the output image 61 generated from the beauty effect processor 60.

본 발명의 실시 예에 따라 결정부(50)가 사용자 영상(31)에 대하여 데이터베이스부(70)로부터 인물 정보(51)에 기초하는 다양한 뷰티 이펙트를 결정할 수 있으므로, 뷰티 이펙트 처리부(60)는 다양한 사용자들이 원하는 적절한 영상 및 이미지를 생성하고, 사용자 영상(31)에 대해 실시간으로 적용 및 단일화된 영상을 디스플레이부(200)를 통해 디스플레이할 수 있다. According to the embodiment of the present invention, since the determination unit 50 can determine various beauty effects based on the person information 51 from the database unit 70 with respect to the user image 31, the beauty effect processing unit 60 It is possible to generate an appropriate image and an image desired by the users, and display the combined and applied image on the user image 31 through the display unit 200 in real time.

도 4는 본 발명의 실시 예에 따른 라이브 메이크업 촬영 장치의 동작순서도이다. 4 is an operational flowchart of a live makeup photographing apparatus according to an embodiment of the present invention.

도 1 내지 도 4를 참조하면, 입력부(30)는 사용자로부터 카메라(10)를 통해 촬영된 제1 이미지를 입력받는다(S100). 검출부(40)는 입력부(30)로부터 입력받은 제1 이미지로부터 뷰티 이펙트가 적용될 인물 영역을 검출한다(S110). 이후, 결정부(50)는 검출부(40)로부터 검출된 인물 영역에 대응되는 인물의 인물 정보를 결정한다(S120). 이때, 검출부(40)는 검출된 인물 영역으로부터 얼굴의 각 부위에 대한 아웃 라인을 검출한다(S130). 그리고, 결정부(50)는 인물 정보에 기초하여 각 부위에 적용될 뷰티 이펙트를 결정한다(S140). 이에 따라, 뷰티 이펙트 처리부(60)는 검출부(40)로부터 검출된 아웃 라인을 따라서 각 부위에 결정부(50)로부터 결정된 뷰티 이펙트를 적용하고(S150), 뷰티 이펙트가 적용된 제1 이미지를 상기 디스플레이부(200)를 통해 디스플레이한다(S160). Referring to FIGS. 1 to 4, the input unit 30 receives a first image captured by a user via the camera 10 (S100). The detection unit 40 detects a person area to which the beauty effect is applied from the first image received from the input unit 30 (S110). Then, the determination unit 50 determines the person information of the person corresponding to the person area detected from the detection unit 40 (S120). At this time, the detection unit 40 detects an outline for each part of the face from the detected person area (S130). Then, the determination unit 50 determines a beauty effect to be applied to each region based on the person information (S140). Accordingly, the beauty effect processing unit 60 applies the determined beauty effect from the determination unit 50 to each part along the outline detected from the detection unit 40 (S150), and outputs the first image, to which the beauty effect is applied, Through the display unit 200 (S160).

본 발명의 실시예에 따라, 라이브 메이크업 촬영 장치(100)는 사용자에게 디스플레이부(200)를 통해 실시간으로 뷰티 이펙트가 적용된 영상을 제공하기 위하여, 제1 이미지에 대하여 입력부(30), 검출부(40), 결정부(50) 및 뷰티 이펙트 처리부(60)의 S100 내지 S160의 동작을 수행한 이후, 다음 이미지에 대하여 입력부(30), 검출부(40), 결정부(50) 및 뷰티 이펙트 처리부(60)의 S100 내지 S160의 동작을 수행할 수 있다. 즉, 라이브 메이크업 촬영 장치(100)는 입력부(30), 검출부(40), 결정부(50) 및 뷰티 이펙트 처리부(60)의 S100 내지 S160의 반복적인 동작을 통해 사용자에게 실시간으로 뷰티 이펙트가 적용된 사용자 영상을 디스플레이 할 수 있다.
According to an embodiment of the present invention, the live-makeup photographing apparatus 100 may include an input unit 30, a detection unit 40 The detection unit 40, the determination unit 50, and the beauty effect processing unit 60 (hereinafter, referred to as " the image processing unit 60 ") for the next image after performing the operations S100 to S160 of the determination unit 50, ) From step S100 to step S160. That is, the live-makeup photographing apparatus 100 is configured to perform a real-time beauty effect application to the user through the repetitive operations S100 to S160 of the input unit 30, the detection unit 40, the determination unit 50 and the beauty effect processing unit 60 The user image can be displayed.

10: 카메라
30: 입력부
31: 사용자 영상
40: 검출부
41: 인물 영역
50: 결정부
51: 인물 정보
52: 뷰티 이펙트
60: 뷰티 이펙트 처리부
61: 출력 영상
70: 데이터베이스부
71~7N: 데이터 정보
100: 라이브 메이크업 장치
200: 디스플레이부
500: 라이브 메이크업 시스템 또는 모바일 단말
10: Camera
30: Input unit
31: User picture
40:
41: Character area
50:
51: People information
52: Beauty effect
60: Beauty effect processor
61: Output video
70:
71 ~ 7N: Data information
100: Live makeup device
200:
500: Live make-up system or mobile terminal

Claims (10)

카메라가 구비된 모바일 단말의 라이브 메이크업 촬영방법에 있어서,
사용자 영상을 실시간으로 입력받는 단계;
상기 사용자 영상으로부터 뷰티 이펙트가 적용될 인물 영역을 검출하는 단계;
사용자로부터 상기 인물 영역에 대응되는 인물의 인물 정보를 입력받아 상기 인물의 인물 정보를 결정하는 단계;
상기 인물 영역으로부터 얼굴의 각 부위에 대한 아웃 라인을 검출하는 단계;
상기 인물 정보에 기초하여 미리 저장된 데이터 정보 중 대응되는 상기 각 부위에 적용될 뷰티 이펙트를 검색하고, 검색된 상기 뷰티 이펙트를 결정하는 단계;
상기 아웃 라인을 따라서 상기 각 부위에 상기 뷰티 이펙트를 적용하는 단계; 및
상기 뷰티 이펙트가 적용된 상기 사용자 영상을 디스플레이부를 통해 디스플레이하는 단계를
포함하는 모바일 단말의 라이브 메이크업 촬영방법.
A method for photographing live makeup of a mobile terminal equipped with a camera,
Receiving a user image in real time;
Detecting a person area to which a beauty effect is to be applied from the user image;
Receiving person information of a person corresponding to the person area from a user and determining person information of the person;
Detecting an outline for each part of the face from the person area;
Searching for a beauty effect to be applied to each corresponding part of the data information stored in advance based on the person information, and determining the searched beauty effect;
Applying the beauty effect to each of the parts along the outline; And
Displaying the user image to which the beauty effect is applied through a display unit
A method of shooting a live makeup of a mobile terminal, comprising:
삭제delete 제1항에 있어서,
상기 인물 정보는 성별, 연령 및 인종에 대한 정보인
모바일 단말의 라이브 메이크업 촬영방법.
The method according to claim 1,
The person information includes information on sex, age, and race
A method for photographing live makeup of a mobile terminal.
제1항에 있어서, 상기 뷰티 이펙트를 적용하는 단계는,
상기 각 부위의 채도 값, 명도 값, 색상 값 및 선명도 값 중 적어도 하나를 조절하는 단계를
더 포함하는 모바일 단말의 라이브 메이크업 촬영방법.
The method of claim 1, wherein applying the beauty effect comprises:
Adjusting at least one of a saturation value, a brightness value, a hue value, and a sharpness value of each of the parts
Further comprising the steps of:
제1항에 있어서, 상기 뷰티 이펙트는,
아이라이너, 눈동자 색채, 속눈썹, 아이쉐도우, 눈의 밝기, 다크 써클 제거, 점 제거, 파운데이션, 볼 리프팅, 코 강화, 립스틱 및 치아 미백에 대한 설정 값인
모바일 단말의 라이브 메이크업 촬영방법.
The method of claim 1, wherein the beauty effect comprises:
Set values for eye liner, eye color, eyelashes, eye shadow, brightness of eyes, removal of dark circles, removal of points, foundation, ball lifting, strengthening of nose, lipstick and tooth whitening
A method for photographing live makeup of a mobile terminal.
카메라가 구비된 모바일 단말의 라이브 메이크업 촬영장치에 있어서,
사용자 영상을 실시간으로 입력받는 입력부;
상기 사용자 영상으로부터 뷰티 이펙트가 적용될 인물 영역을 검출하고, 상기 인물 영역으로부터 얼굴의 각 부위에 대한 아웃 라인을 검출하는 검출부;
사용자로부터 상기 인물 영역에 대응되는 상기 인물의 인물 정보를 입력받아 상기 인물의 인물 정보를 결정하며, 상기 인물 정보에 기초하여 미리 저장된 데이터 정보 중 대응되는 상기 각 부위에 적용될 뷰티 이펙트를 검색하고, 검색된 상기 뷰티 이펙트를 결정하는 결정부; 및
상기 아웃 라인을 따라서 상기 각 부위에 상기 뷰티 이펙트를 적용하고, 상기 뷰티 이펙트가 적용된 상기 사용자 영상을 디스플레이부를 통해 디스플레이하는 뷰티 이펙트 처리부를
포함하는 모바일 단말의 라이브 메이크업 촬영장치.
A live makeup photographing apparatus of a mobile terminal equipped with a camera,
An input unit for inputting a user image in real time;
A detecting unit detecting a person area to which a beauty effect is to be applied from the user image and detecting an outline for each part of the face from the person area;
The information processing apparatus according to any one of claims 1 to 3, further comprising: a display unit configured to receive character information of the character corresponding to the character area from a user, determine character information of the character, A determining unit for determining the beauty effect; And
A beauty effect processor for applying the beauty effect to the respective parts along the outline and displaying the user image to which the beauty effect is applied through a display unit
Wherein the mobile terminal comprises:
삭제delete 제6항에 있어서,
상기 인물 정보는 성별, 연령 및 인종에 대한 정보인
모바일 단말의 라이브 메이크업 촬영장치.
The method according to claim 6,
The person information includes information on sex, age, and race
A live makeup shooting device of a mobile terminal.
제6항에 있어서,
상기 뷰티 이펙트 처리부는 상기 각 부위의 채도 값, 명도 값, 색상 값 및 선명도 값 중 적어도 하나를 조절하는 단계를
모바일 단말의 라이브 메이크업 촬영장치.
The method according to claim 6,
Wherein the beauty effect processing unit adjusts at least one of a saturation value, a brightness value, a hue value, and a sharpness value of each part
A live makeup shooting device of a mobile terminal.
제6항에 있어서, 상기 뷰티 이펙트는,
아이라이너, 눈동자 색채, 속눈썹, 아이쉐도우, 눈의 밝기, 다크 써클 제거, 점 제거, 파운데이션, 볼 리프팅, 코 강화, 립스틱 및 치아 미백에 대한 설정 값인
모바일 단말의 라이브 메이크업 촬영장치.





7. The method of claim 6,
Set values for eye liner, eye color, eyelashes, eye shadow, brightness of eyes, removal of dark circles, removal of points, foundation, ball lifting, strengthening of nose, lipstick and tooth whitening
A live makeup shooting device of a mobile terminal.





KR1020140142852A 2014-10-21 2014-10-21 Live make-up photograpy method and apparatus of mobile terminal Active KR101507410B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140142852A KR101507410B1 (en) 2014-10-21 2014-10-21 Live make-up photograpy method and apparatus of mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140142852A KR101507410B1 (en) 2014-10-21 2014-10-21 Live make-up photograpy method and apparatus of mobile terminal

Publications (1)

Publication Number Publication Date
KR101507410B1 true KR101507410B1 (en) 2015-03-31

Family

ID=53028974

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140142852A Active KR101507410B1 (en) 2014-10-21 2014-10-21 Live make-up photograpy method and apparatus of mobile terminal

Country Status (1)

Country Link
KR (1) KR101507410B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220019614A (en) * 2020-08-10 2022-02-17 주식회사 타키온비앤티 Rewarding system for posting image with selectively applied makeup effects
KR20220019613A (en) * 2020-08-10 2022-02-17 주식회사 타키온비앤티 System for applying selective makeup effect through sourcing of cosmetic object
KR20220022433A (en) * 2020-08-18 2022-02-25 주식회사 타키온비앤티 System for buying service of cosmetic object and applying selective makeup effect

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080086996A (en) * 2006-01-17 2008-09-29 가부시키가이샤 시세이도 Makeup simulation system, makeup simulation device, makeup simulation method and makeup simulation program
JP2009253324A (en) 2008-04-01 2009-10-29 Seiko Epson Corp Image processing unit, image processing method, and program
KR20120046652A (en) * 2010-11-02 2012-05-10 에스케이플래닛 주식회사 System and method for recommending hair based on face recognition
JP2012113747A (en) 2007-08-10 2012-06-14 Shiseido Co Ltd Makeup simulation system, makeup simulation device, makeup simulation method and makeup simulation program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080086996A (en) * 2006-01-17 2008-09-29 가부시키가이샤 시세이도 Makeup simulation system, makeup simulation device, makeup simulation method and makeup simulation program
JP2012113747A (en) 2007-08-10 2012-06-14 Shiseido Co Ltd Makeup simulation system, makeup simulation device, makeup simulation method and makeup simulation program
JP2009253324A (en) 2008-04-01 2009-10-29 Seiko Epson Corp Image processing unit, image processing method, and program
KR20120046652A (en) * 2010-11-02 2012-05-10 에스케이플래닛 주식회사 System and method for recommending hair based on face recognition

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220019614A (en) * 2020-08-10 2022-02-17 주식회사 타키온비앤티 Rewarding system for posting image with selectively applied makeup effects
KR20220019613A (en) * 2020-08-10 2022-02-17 주식회사 타키온비앤티 System for applying selective makeup effect through sourcing of cosmetic object
KR102372523B1 (en) * 2020-08-10 2022-03-10 주식회사 타키온비앤티 Rewarding system for posting image with selectively applied makeup effects
KR102372522B1 (en) * 2020-08-10 2022-03-10 주식회사 타키온비앤티 System for applying selective makeup effect through sourcing of cosmetic object
KR20220022433A (en) * 2020-08-18 2022-02-25 주식회사 타키온비앤티 System for buying service of cosmetic object and applying selective makeup effect
KR102372524B1 (en) * 2020-08-18 2022-03-10 주식회사 타키온비앤티 System for buying service of cosmetic object and applying selective makeup effect

Similar Documents

Publication Publication Date Title
EP3582187B1 (en) Face image processing method and apparatus
US10617301B2 (en) Information processing device and information processing method
CN108012081B (en) Intelligent beautifying method, device, terminal and computer readable storage medium
CN105243371B (en) A kind of detection method, system and the camera terminal of face U.S. face degree
US9443307B2 (en) Processing of images of a subject individual
CN106682632B (en) Method and device for processing face image
JP5949331B2 (en) Image generating apparatus, image generating method, and program
WO2022179025A1 (en) Image processing method and apparatus, electronic device, and storage medium
CN106161939B (en) Photo shooting method and terminal
CN107862653B (en) Image display method, device, storage medium and electronic device
CN107808136A (en) Image processing method, device, readable storage medium storing program for executing and computer equipment
KR101827998B1 (en) Virtual experience system based on facial feature and method therefore
JP2017211970A (en) Care information acquisition method, care information sharing method, and electronic device for those methods
WO2021197186A1 (en) Auxiliary makeup method, terminal device, storage medium and program product
CN107302662A (en) A kind of method, device and mobile terminal taken pictures
CN107862274A (en) Beautifying method, device, electronic device and computer-readable storage medium
CN111627117B (en) Image display special effect adjusting method and device, electronic equipment and storage medium
KR20120070985A (en) Virtual experience system based on facial feature and method therefore
CN107958223B (en) Face recognition method and device, mobile equipment and computer readable storage medium
CN110866139A (en) Cosmetic treatment method, device and equipment
CN113610723B (en) Image processing method and related device
WO2018019068A1 (en) Photographing method and device, and mobile terminal
CN107705245A (en) Image processing method and device
CN107844764A (en) Image processing method, device, electronic equipment and computer-readable recording medium
KR20220026252A (en) Mobile terminal, server and method for composing beauty style

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20141021

PA0201 Request for examination
PA0302 Request for accelerated examination

Patent event date: 20141021

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20141124

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20150319

PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20150325

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20150325

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20171222

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20171222

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20181226

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20181226

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20191224

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20191224

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20201224

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20211224

Start annual number: 8

End annual number: 8

PR1001 Payment of annual fee

Payment date: 20230110

Start annual number: 9

End annual number: 9

PR1001 Payment of annual fee

Payment date: 20240110

Start annual number: 10

End annual number: 10

PR1001 Payment of annual fee

Payment date: 20241226

Start annual number: 11

End annual number: 11