KR102842211B1 - Apparatus for provinding guidance to sell cosmetics unattended - Google Patents
Apparatus for provinding guidance to sell cosmetics unattendedInfo
- Publication number
- KR102842211B1 KR102842211B1 KR1020230098768A KR20230098768A KR102842211B1 KR 102842211 B1 KR102842211 B1 KR 102842211B1 KR 1020230098768 A KR1020230098768 A KR 1020230098768A KR 20230098768 A KR20230098768 A KR 20230098768A KR 102842211 B1 KR102842211 B1 KR 102842211B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- cosmetic
- diagnosis result
- guidance
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F9/00—Details other than those peculiar to special kinds or types of apparatus
- G07F9/02—Devices for alarm or indication, e.g. when empty; Advertising arrangements in coin-freed apparatus
- G07F9/023—Arrangements for display, data presentation or advertising
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/442—Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/443—Evaluating skin constituents, e.g. elastin, melanin, water
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/14—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
- G06K7/1404—Methods for optical code recognition
- G06K7/1408—Methods for optical code recognition the method being specifically adapted for the type of code
- G06K7/1413—1D bar codes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0282—Rating or review of business operators or products
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F9/00—Details other than those peculiar to special kinds or types of apparatus
- G07F9/006—Details of the software used for the vending machines
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Pathology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Accounting & Taxation (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Dermatology (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Entrepreneurship & Innovation (AREA)
- Electromagnetism (AREA)
- Game Theory and Decision Science (AREA)
- Toxicology (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
본 발명은 무인 화장품 판매를 위한 안내문 제공 장치에 관한 것으로 본 발명의 일면에 따른 무인 화장품 판매를 위한 안내문 제공 장치는 매장내부를 촬영하는 카메라로부터 영상데이터를 입력받는 영상입력부, 매장에 설치된 피부진단기로부터 수분, 색소침착, 탄력, 유분 중 적어도 하나를 포함하는 평가항목에 대한 점수를 포함하는 진단결과를 입력받는 진단결과 입력부, 영상입력부로 입력된 영상데이터에서 사용자에 대응하는 적어도 하나의 객체를 검출하고 진단결과 입력부로 진단결과가 입력된 시점에 영상데이터에서 기설정된 제1위치에 위치한 어느 하나의 객체를 선택해 다른 사용자와 구분하기 위한 사용자코드를 부여하는 객체식별부, 진단결과 입력부에서 입력된 진단결과와 진단결과가 입력된 것에 대응하여 객체식별부에서 부여된 사용자코드를 매칭시켜 저장하는 매칭부, 영상입력부로 입력된 영상데이터에서 검출된 객체 중 객체식별부에서 사용자코드가 부여된 각 객체의 위치 변화를 추적하는 객체추적부, 사용자가 미리 정해진 위치에 화장품을 놓는 것에 대응하여 화장품바코드를 인식하여 화장품바코드에 따라 각 화장품에 대응하여 미리 저장된 화장품명을 포함하는 복수의 화장품정보 중 어느 하나의 화장품정보를 선택하는 화장품 인식부, 화장품 인식부에서 화장품정보가 선택되면 상기 객체추적부에서 추적중인 객체의 위치에 따라 매칭부에 저장된 진단결과를 추출하는 진단결과 추출부, 진단결과 추출부에서 추출한 진단결과와 화장품 인식부에서 선택한 화장품정보를 이용해 안내문을 생성하는 안내문 생성부 및 안내문 생성부에서 생성한 안내문을 출력하는 표시부를 포함한다.The present invention relates to a device for providing guidance for unmanned cosmetics sales, and according to one aspect of the present invention, the device for providing guidance for unmanned cosmetics sales comprises: an image input unit for receiving image data from a camera filming the inside of a store; a diagnosis result input unit for receiving a diagnosis result including a score for an evaluation item including at least one of moisture, pigmentation, elasticity, and oil from a skin diagnosis device installed in the store; an object identification unit for detecting at least one object corresponding to a user from the image data inputted to the image input unit, selecting one object located at a first position preset in the image data at the time when the diagnosis result is inputted to the diagnosis result input unit, and assigning a user code for distinguishing the object from other users; a matching unit for matching and storing the diagnosis result inputted from the diagnosis result input unit and the user code assigned by the object identification unit in response to the input of the diagnosis result; an object tracking unit for tracking a change in the position of each object assigned a user code by the object identification unit among objects detected from the image data inputted to the image input unit; a cosmetic barcode for recognizing a cosmetic barcode in response to a user placing a cosmetic at a preset position, and storing a pre-stored corresponding to each cosmetic according to the cosmetic barcode. It includes a cosmetic recognition unit that selects one cosmetic information from among a plurality of cosmetic information including a cosmetic name, a diagnosis result extraction unit that extracts a diagnosis result stored in a matching unit according to the location of an object being tracked by the object tracking unit when cosmetic information is selected in the cosmetic recognition unit, a guidance generation unit that generates a guidance using the diagnosis result extracted from the diagnosis result extraction unit and the cosmetic information selected by the cosmetic recognition unit, and a display unit that outputs the guidance generated by the guidance generation unit.
Description
본 발명은 무인 화장품 판매가 가능하도록 하는 기술에 관한 것으로, 더욱 상세하게는 무인으로 화장품에 대한 안내를 제공하는 기술에 관한 것이다.The present invention relates to a technology that enables unmanned cosmetics sales, and more specifically, to a technology that provides guidance on cosmetics unmanned.
화장품은 작은 규모의 매장에 방문시 좁은 공간에서 직원과 대면해야 하므로 제품을 체험하기에 부담되고, 자유롭게 제품을 둘러보기에 어려움이 있다. 이에 따라 직원의 간섭이 적어 편하게 제품을 체험할 수 있는 대형매장에 고객 쏠림 현상이 나타나고 있다. 그러나 대형매장의 경우 큰 공간이 필요하고, 관리비와 인건비가 많이 드는 문제가 있다.When visiting a small cosmetics store, customers face the challenge of trying out products in confined spaces and interacting with staff, making it difficult to freely browse the selection. Consequently, customers are flocking to larger stores, where they can experience products with less interference from staff. However, these larger stores require more space and incur higher management and labor costs.
이와 관련해, 직원에 의한 부담감이 없으며 인건비와 같은 운영비를 절감할 수 있는 무인 판매 기술이 개시되고 있다. 특히 코로나로 인해 비대면 판매를 위한 기술 개발과 적용이 활발하게 이뤄지며 음식 서비스, 편의점, 영화관 등 여러 분야에서 무인 판매 서비스가 제공되고 있다.In this regard, unmanned vending technology is being developed that eliminates the burden on employees and reduces operating costs such as labor costs. The COVID-19 pandemic has led to active development and application of technologies for contactless sales, with unmanned vending services now being offered in various sectors, including food service, convenience stores, and movie theaters.
다만, 화장품은 필요에 따라 고객의 피부에 맞는 제품을 추천하는 등의 상담 서비스가 필요하여, 단순 판매 서비스만을 제공하는 종래의 무인 판매 기술을 적용하기에는 어려움이 있다.However, cosmetics require consulting services, such as recommending products that suit the customer's skin type, depending on the customer's needs, making it difficult to apply conventional unmanned sales technology that only provides simple sales services.
이와 관련해 사용자의 피부를 진단한 결과에 따라 화장품을 추천하는 무인 화장품 판매 기술이 개시되나, 이러한 종래의 기술은 여러 사용자가 들어왔을 때 사용자를 구분해서 추천하기 위한 구성을 개시하지 못해 한번에 사용자 한 명만 받을 수 있는 한계가 있다.In relation to this, an unmanned cosmetics sales technology has been introduced that recommends cosmetics based on the results of diagnosing the user's skin. However, this conventional technology has a limitation in that it can only accept one user at a time because it cannot initiate a configuration to distinguish and recommend users when multiple users enter.
본 발명의 목적은 상기 문제점을 해결하기 위한 것으로, 영상에서 검출된 사용자의 위치에 따라 사용자를 구분해 각 사용자의 진단결과와 인식시킨 화장품에 따라 맞춤형 안내가 가능하도록 하는 무인 화장품 판매를 위한 안내문 제공 장치를 제공하는 것이다.The purpose of the present invention is to solve the above problem, and to provide a guidance provision device for unmanned cosmetics sales that distinguishes users based on their locations detected in an image and provides customized guidance based on the diagnosis results and recognized cosmetics of each user.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The purpose of the present invention is not limited to the purposes mentioned above, and other purposes not mentioned can be clearly understood from the description below.
전술한 목적을 달성하기 위한 본 발명의 일면에 따른 무인 화장품 판매를 위한 안내문 제공 장치는 매장내부를 촬영하는 카메라로부터 영상데이터를 입력받는 영상입력부, 매장에 설치된 피부진단기로부터 수분, 색소침착, 탄력, 유분 중 적어도 하나를 포함하는 평가항목에 대한 점수를 포함하는 진단결과를 입력받는 진단결과 입력부, 영상입력부로 입력된 영상데이터에서 사용자에 대응하는 적어도 하나의 객체를 검출하고 진단결과 입력부로 진단결과가 입력된 시점에 영상데이터에서 기설정된 제1위치에 위치한 어느 하나의 객체를 선택해 다른 사용자와 구분하기 위한 사용자코드를 부여하는 객체식별부, 진단결과 입력부에서 입력된 진단결과와 진단결과가 입력된 것에 대응하여 객체식별부에서 부여된 사용자코드를 매칭시켜 저장하는 매칭부, 영상입력부로 입력된 영상데이터에서 검출된 객체 중 객체식별부에서 사용자코드가 부여된 각 객체의 위치 변화를 추적하는 객체추적부, 사용자가 미리 정해진 위치에 화장품을 놓는 것에 대응하여 화장품바코드를 인식하여 화장품바코드에 따라 각 화장품에 대응하여 미리 저장된 화장품명을 포함하는 복수의 화장품정보 중 어느 하나의 화장품정보를 선택하는 화장품 인식부, 화장품 인식부에서 화장품정보가 선택되면 상기 객체추적부에서 추적중인 객체의 위치에 따라 매칭부에 저장된 진단결과를 추출하는 진단결과 추출부, 진단결과 추출부에서 추출한 진단결과와 화장품 인식부에서 선택한 화장품정보를 이용해 안내문을 생성하는 안내문 생성부 및 안내문 생성부에서 생성한 안내문을 출력하는 표시부를 포함한다.In order to achieve the above-described object, a device for providing guidance for unmanned cosmetics sales according to one aspect of the present invention comprises: an image input unit for receiving image data from a camera filming the inside of a store; a diagnosis result input unit for receiving a diagnosis result including a score for an evaluation item including at least one of moisture, pigmentation, elasticity, and oil from a skin diagnosis device installed in the store; an object identification unit for detecting at least one object corresponding to a user from the image data inputted to the image input unit and selecting one of the objects located at a first position preset in the image data at the time when the diagnosis result is inputted to the diagnosis result input unit and assigning a user code for distinguishing the object from other users; a matching unit for matching and storing the diagnosis result inputted from the diagnosis result input unit and the user code assigned by the object identification unit in response to the input of the diagnosis result; an object tracking unit for tracking a change in the position of each object assigned a user code by the object identification unit among the objects detected from the image data inputted to the image input unit; a cosmetic barcode for recognizing a cosmetic barcode in response to a user placing a cosmetic at a predetermined position and storing one of a plurality of cosmetic information including a cosmetic name pre-stored in response to each cosmetic according to the cosmetic barcode. It includes a cosmetics recognition unit that selects cosmetics information, a diagnosis result extraction unit that extracts a diagnosis result stored in a matching unit according to the location of an object being tracked by the object tracking unit when cosmetics information is selected in the cosmetics recognition unit, a guidance generation unit that generates a guidance using the diagnosis result extracted in the diagnosis result extraction unit and the cosmetics information selected in the cosmetics recognition unit, and a display unit that outputs the guidance generated in the guidance generation unit.
본 발명에 따르면 영상에서 검출된 사용자의 위치에 따라 사용자를 구분해 각 사용자의 진단결과와 인식시킨 화장품에 따라 맞춤형 안내가 가능하도록 하는 무인 화장품 판매를 위한 안내문 제공 장치를 제공하는 효과가 있다.According to the present invention, there is provided an effect of providing a guidance provision device for unmanned cosmetics sales that distinguishes users based on their locations detected in an image and provides customized guidance based on the diagnosis results and recognized cosmetics of each user.
본 발명에 따르면 다수가 이용시에도 각 사용자에 맞춤형 안내가 제공되도록 함으로써 무인 화장품 판매 매장의 활용성이 향상되도록 한다.According to the present invention, the usability of an unmanned cosmetics sales store is improved by providing customized guidance to each user even when multiple users use the store.
본 발명의 효과는 상기에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 일 실시예에 따른 무인 화장품 판매를 위한 안내문 제공 장치의 블록도이다.
도 2는 본 발명의 다른 실시예에 따른 무인 화장품 판매를 위한 안내문 제공 방법의 순서도이다.
도 3은 본 발명의 실시예들에 있어서 사용자에게 제공되는 안내문을 나타낸 제1예시도이다.
도 4는 본 발명의 실시예들에 있어서 사용자에게 제공되는 안내문을 나타낸 제2예시도이다.
도 5는 본 발명의 실시예에 따른 무인 화장품 판매를 위한 안내문 제공 장치가 적용된 무인 화장품 판매 매장의 내부 배치를 나타낸 예시도이다.FIG. 1 is a block diagram of a device for providing guidance for unmanned cosmetics sales according to one embodiment of the present invention.
Figure 2 is a flowchart of a method for providing guidance for unmanned cosmetics sales according to another embodiment of the present invention.
FIG. 3 is a first example showing guidance provided to a user in embodiments of the present invention.
FIG. 4 is a second example showing guidance provided to a user in embodiments of the present invention.
FIG. 5 is an exemplary diagram showing the internal layout of an unmanned cosmetics sales store to which a guide provision device for unmanned cosmetics sales according to an embodiment of the present invention is applied.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것으로서, 본 발명은 청구항의 기재에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.The advantages and features of the present invention, and the methods for achieving them, will become clearer with reference to the embodiments described in detail below together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms. These embodiments are provided only to ensure that the disclosure of the present invention is complete and to fully inform those skilled in the art of the scope of the invention, and the present invention is defined only by the description of the claims. Meanwhile, the terminology used in this specification is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular includes the plural unless specifically stated otherwise.
도 1은 본 발명의 일 실시예에 따른 무인 화장품 판매를 위한 안내문 제공 장치의 블록도이고, 도 2는 본 발명의 다른 실시예에 따른 무인 화장품 판매를 위한 안내문 제공 방법의 순서도이다.FIG. 1 is a block diagram of a device for providing information for unmanned cosmetics sales according to one embodiment of the present invention, and FIG. 2 is a flowchart of a method for providing information for unmanned cosmetics sales according to another embodiment of the present invention.
본 발명의 다른 실시예에 따른 무인 화장품 판매를 위한 안내문 제공 방법은 본 발명의 일 실시예에 따른 무인 화장품 판매를 위한 안내문 제공 장치에 의해 수행될 수 있다.A method for providing guidance for unmanned cosmetics sales according to another embodiment of the present invention can be performed by a guidance providing device for unmanned cosmetics sales according to one embodiment of the present invention.
한편, 첨부된 블록도의 블록과 순서도의 단계는 데이터 프로세싱이 가능한 전자 장치(예를 들어 범용 컴퓨터, 특수용 컴퓨터, 휴대용 노트북 컴퓨터, 네트워크 컴퓨터)의 프로세서나 메모리에 탑재되어 지정된 기능들을 수행하는 컴퓨터 명령들(instructions)로 구현될 수 있다. 이들 컴퓨터 프로그램 명령들은 컴퓨터에서 판독 가능한 메모리에 저장될 수 있기 때문에, 블록도의 블록 또는 흐름도의 단계에서 설명된 기능들은 이를 수행하는 명령 수단을 내포하는 제조물로 생산될 수도 있다.Meanwhile, the blocks in the attached block diagram and the steps in the flowchart may be implemented as computer instructions that are loaded into the processor or memory of an electronic device capable of data processing (e.g., a general-purpose computer, a special-purpose computer, a portable laptop computer, a network computer) and perform designated functions. Since these computer program instructions can be stored in a computer-readable memory, the functions described in the blocks in the block diagram or the steps in the flowchart may also be produced as a product that includes instruction means for performing them.
이하 설명의 편의를 위해 동일한 구성에 대해서는 도면 부호를 일치시키고 중복하여 설명하지 않도록 한다.For the convenience of explanation below, the drawing symbols for identical configurations are used interchangeably and duplicate explanations are avoided.
무인 화장품 판매를 위한 안내문 제공 장치(30)는 매장 내부를 촬영하며 영상데이터를 생성하는 카메라(10)와 사용자의 입력에 따라 사용자의 피부를 진단한 진단결과를 생성하는 피부진단기(20)가 설치된 무인 화장품 판매 매장에 구비될 수 있다.A device (30) for providing guidance for unmanned cosmetics sales can be installed in an unmanned cosmetics sales store equipped with a camera (10) that captures the interior of the store and generates image data, and a skin diagnosis device (20) that generates a diagnosis result of diagnosing the user's skin according to the user's input.
도 5를 참조하면, 본 발명에 따른 무인 화장품 판매를 위한 안내문 제공 장치(30)가 적용되는 무인 화장품 판매 매장은 화장품을 진열하는 진열공간과, 화장품을 직접 체험하고 화장품을 바른 모습을 확인할 수 있게 하는 체험공간과, 화장품을 결제하기 위한 계산대와, 매장내부를 촬영하는 카메라(10)와, 사용자의 입력에 따라 사용자의 피부를 진단한 진단결과를 생성하는 피부진단기(20)를 포함할 수 있다. Referring to FIG. 5, an unmanned cosmetics sales store to which an information provision device (30) for unmanned cosmetics sales according to the present invention is applied may include a display space for displaying cosmetics, an experience space for experiencing cosmetics directly and confirming the appearance of applying cosmetics, a cash register for paying for cosmetics, a camera (10) for photographing the inside of the store, and a skin diagnosis device (20) for generating a diagnosis result of diagnosing the user's skin according to the user's input.
카메라(10)는 무인 화장품 판매 매장 내에 설치되어 무인 화장품 판매 매장 내부를 촬영함에 따라 영상데이터를 생성하고 생성한 영상데이터를 외부로 출력할 수 있다.A camera (10) is installed inside an unmanned cosmetics sales store and can generate image data by filming the inside of the unmanned cosmetics sales store and output the generated image data to the outside.
피부진단기(20)는 무인 화장품 판매 매장 내에 설치되고, 사용자의 피부를 촬영하기 위한 촬영부와 사용자의 피부를 촬영한 영상을 분석하여 수분, 색소침착, 탄력, 유분 중 적어도 하나를 포함하는 평가항목 각각에 대한 점수를 포함하는 진단결과를 생성하는 분석부가 구비되어, 사용자의 입력에 따라 진단결과를 생성하고 생성한 진단결과를 외부로 출력할 수 있다.A skin diagnosis device (20) is installed in an unmanned cosmetics sales store and is equipped with a photographing unit for taking pictures of the user's skin and an analysis unit for analyzing the image of the user's skin to generate a diagnosis result including a score for each evaluation item including at least one of moisture, pigmentation, elasticity, and oil, so that the diagnosis result can be generated according to the user's input and the generated diagnosis result can be output to the outside.
진단결과는 수분, 색소침착, 탄력, 유분 각각에 대응하는 복수의 평가항목에 대한 점수를 포함할 수 있다.The diagnostic results may include scores for multiple evaluation items corresponding to moisture, pigmentation, elasticity, and oiliness, respectively.
피부진단기(20)는 수분, 색소침착, 탄력, 유분 중 적어도 하나를 포함하는 평가항목 각각에 대한 점수를 포함하는 진단결과를 생성하는 기존의 피부진단기 중 어느 하나가 적용될 수 있다.The skin diagnosis device (20) may be any of the existing skin diagnosis devices that generate diagnosis results including scores for each evaluation item including at least one of moisture, pigmentation, elasticity, and oil.
무인 화장품 판매를 위한 안내문 제공 장치(30)는 카메라(10) 및 피부진단기(20)와 전기적으로 연결되어 카메라(10)로부터 영상데이터를 입력받고, 피부진단기(20)로부터 진단결과를 입력받을 수 있다.A device (30) for providing guidance for unmanned cosmetics sales is electrically connected to a camera (10) and a skin diagnosis device (20) to receive image data from the camera (10) and diagnosis results from the skin diagnosis device (20).
또한 무인 화장품 판매를 위한 안내문 제공 장치(30)는 사용자가 미리 정해진 위치에 화장품을 놓는 것에 대응하여 화장품을 인식하고, 진단결과와 인식한 화장품의 정보를 이용해 안내문을 생성해 표시할 수 있다.In addition, the device (30) for providing guidance for unmanned cosmetics sales can recognize cosmetics in response to a user placing the cosmetics in a predetermined location, and generate and display guidance using the diagnosis results and information on the recognized cosmetics.
본 발명에 따르면 무인 화장품 판매 매장에 방문한 사용자의 피부 진단결과와 사용자가 인식시킨 화장품을 기반으로 안내문을 제공함으로써, 무인으로 사용자 맞춤형 화장품 카운슬링이 가능하도록 한다.According to the present invention, by providing guidance based on the skin diagnosis results of a user visiting an unmanned cosmetics sales store and the cosmetics recognized by the user, customized cosmetics counseling is made possible unmanned.
특히, 본 발명에 따른 무인 화장품 판매를 위한 안내문 제공 장치(30)는 진단결과가 입력된 시점과 화장품이 인식된 각 시점에서 영상데이터에서 검출된 객체의 위치에 따라 사용자를 식별하여, 매장내의 사용자들 중 화장품을 인식시킨 사용자에게 맞춤형 안내를 제공하는 것을 특징으로 한다.In particular, the device (30) for providing guidance for unmanned cosmetics sales according to the present invention is characterized in that it identifies a user based on the location of an object detected in image data at each time point when a diagnosis result is input and when a cosmetic is recognized, and provides customized guidance to a user who has recognized a cosmetic among users in the store.
구체적으로, 무인 화장품 판매를 위한 안내문 제공 장치(30)는 영상입력부(310), 진단결과 입력부(320), 객체식별부(330), 매칭부(340), 객체추적부(350), 화장품 인식부(360), 진단결과 추출부(370), 안내문 생성부(380), 표시부(390)를 포함할 수 있다.Specifically, a device (30) for providing guidance for unmanned cosmetics sales may include an image input unit (310), a diagnosis result input unit (320), an object identification unit (330), a matching unit (340), an object tracking unit (350), a cosmetics recognition unit (360), a diagnosis result extraction unit (370), a guidance generation unit (380), and a display unit (390).
영상입력부(310)는 매장내부를 촬영하는 카메라(10)로부터 영상데이터를 입력받을 수 있다(S101).The video input unit (310) can receive video data from a camera (10) that films the inside of the store (S101).
진단결과 입력부(320)는 매장에 설치된 피부진단기(20)로부터 수분, 색소침착, 탄력, 유분 중 적어도 하나를 포함하는 평가항목에 대한 점수를 포함하는 진단결과를 입력받을 수 있다(S103).The diagnosis result input unit (320) can receive a diagnosis result including a score for an evaluation item including at least one of moisture, pigmentation, elasticity, and oil from a skin diagnosis device (20) installed in a store (S103).
진단결과는 수분, 색소침착, 탄력, 유분 각각에 대응하는 복수의 평가항목에 대한 점수를 포함할 수 있다.The diagnostic results may include scores for multiple evaluation items corresponding to moisture, pigmentation, elasticity, and oiliness, respectively.
예를 들어, 수분, 색소침착, 탄력, 유분 각각에 대응하는 복수의 평가항목에 대한 점수의 최솟값이 0이고 최댓값이 10인 경우, 진단결과는 평가항목 수분에 대한 점수 3, 평가항목 색소침착에 대한 점수 6, 평가항목 탄력에 대한 점수 5, 평가항목 유분에 대한 점수 4를 포함할 수 있다.For example, if the minimum score for multiple evaluation items corresponding to moisture, pigmentation, elasticity, and oil is 0 and the maximum score is 10, the diagnosis result may include a score of 3 for the evaluation item moisture, a score of 6 for the evaluation item pigmentation, a score of 5 for the evaluation item elasticity, and a score of 4 for the evaluation item oil.
객체식별부(330)는 영상입력부(310)로 입력된 영상데이터에서 사용자에 대응하는 적어도 하나의 객체를 검출하고 진단결과 입력부(320)로 진단결과가 입력된 시점에 영상데이터에서 기설정된 제1위치에 위치한 어느 하나의 객체를 선택해 다른 사용자와 구분하기 위한 사용자코드를 부여할 수 있다(S105).The object identification unit (330) detects at least one object corresponding to a user from image data inputted to the image input unit (310), and at the time when the diagnosis result is inputted to the diagnosis result input unit (320), selects one object located at a preset first position in the image data and assigns a user code to distinguish it from other users (S105).
객체식별부(330)는 진단결과 입력부(320)에서 진단결과가 입력된 것에 대응하여 영상입력부(310)로 입력된 영상데이터에서 사용자에 대응하는 객체를 검출하고 검출한 객체 중 기설정된 제1위치에 위치한 어느 하나의 객체에 대해 사용자를 다른 사용자와 구분하기 위한 사용자코드를 부여할 수 있다(S105).The object identification unit (330) detects an object corresponding to a user from image data input into the image input unit (310) in response to the diagnosis result input into the diagnosis result input unit (320), and assigns a user code to one of the detected objects located at a preset first position to distinguish the user from other users (S105).
여기서, 제1위치는 영상입력부(310)로 입력된 영상데이터에서 피부진단기가 표시되는 지점에 대응되도록 미리 설정될 수 있다.Here, the first position can be preset to correspond to the point where the skin diagnosis device is displayed in the image data input to the image input unit (310).
제1위치는 영상데이터에서 피부진단기가 표시되는 영역에 포함된 어느 하나의 픽셀의 좌표로 미리 설정될 수 있다.The first position can be preset as the coordinates of any pixel included in the area where the skin diagnosis device is displayed in the image data.
객체식별부(330)는 진단결과 입력부(320)에서 진단결과가 입력된 것에 대응하여 영상에서 사람에 대응하는 객체를 라벨링한 학습데이터를 입력받아 외부로부터 입력된 영상데이터에서 사람에 대응하는 객체를 검출하도록 미리 학습된 학습모델을 이용해 영상입력부(310)로 입력된 영상데이터로부터 사용자에 대응하는 적어도 하나의 객체를 검출할 수 있다.The object identification unit (330) receives learning data labeling objects corresponding to people in an image in response to the diagnosis results input from the diagnosis result input unit (320), and uses a learning model learned in advance to detect objects corresponding to people in image data input from the outside, thereby detecting at least one object corresponding to a user from image data input to the image input unit (310).
그리고, 객체식별부(330)는 검출한 객체 중 객체의 중심 좌표가 기설정된 제1위치의 좌표를 기준으로 가장 가까운 객체에 사용자를 다른 사용자와 구분하기 위한 사용자코드를 부여할 수 있다(S105).In addition, the object identification unit (330) can assign a user code to the object that is closest to the coordinates of the first location where the center coordinates of the object are preset among the detected objects to distinguish the user from other users (S105).
이때, 가장 가까운 객체는 중심좌표와 제1위치의 좌표의 차이에 따라 산출한 거리가 가장 작은 객체를 의미한다.At this time, the closest object means the object with the smallest distance calculated based on the difference between the center coordinate and the coordinate of the first position.
상기한 구성에 따라 객체식별부(330)는 사용자가 피부진단기(20)를 사용하여 진단결과가 입력되면 영상데이터에서 피부진단기가 표시되는 위치에서 검출된 객체에 사용자코드를 부여하여, 피부를 진단한 사용자를 사용자코드로 구분할 수 있도록 한다.According to the above configuration, when a user uses a skin diagnosis device (20) and a diagnosis result is input, the object identification unit (330) assigns a user code to an object detected at a location where the skin diagnosis device is displayed in the image data, so that the user who diagnosed the skin can be distinguished by the user code.
즉, 객체식별부(330)는 복수의 사용자 중 피부진단 결과가 입력되었을 때 피부진단기 인근에 위치한 객체를 피부 진단한 사용자로 식별할 수 있도록 한다.That is, the object identification unit (330) enables an object located near the skin diagnosis device to be identified as the user who performed the skin diagnosis when the skin diagnosis result is input among multiple users.
매칭부(340)는 진단결과 입력부(320)에서 입력된 진단결과와, 진단결과가 입력된 것에 대응하여 객체식별부(330)에서 검출한 객체에 대해 부여된 사용자코드를 매칭시켜 저장할 수 있다(S107).The matching unit (340) can match and store the diagnosis results input from the diagnosis result input unit (320) and the user code assigned to the object detected by the object identification unit (330) corresponding to the input diagnosis results (S107).
객체추적부(350)는 영상입력부(310)로 입력된 영상데이터에서 검출된 객체 중 객체식별부(330)에서 사용자코드가 부여된 각 객체의 위치 변화를 추적할 수 있다(S109).The object tracking unit (350) can track the change in position of each object detected from the image data input by the image input unit (310) and assigned a user code by the object identification unit (330) (S109).
객체추적부(350)는 객체식별부(330)가 영상데이터에서 객체에 사용자코드를 부여한 것에 대응하여 사용자코드가 부여된 객체를 포함하는 영역의 픽셀값 분포에 따른 특징을 사용자코드와 매칭시켜 저장하고, 사용자코드별로 미리 저장된 특징과의 유사도에 따라 영상데이터에서 각 사용자코드에 대응하는 객체를 검출하며 사용자코드가 부여된 각 객체의 위치 변화를 추적할 수 있다(S109).The object tracking unit (350) matches and stores features according to the pixel value distribution of an area including an object to which a user code has been assigned in response to the object identification unit (330) assigning a user code to an object in the image data, and detects an object corresponding to each user code in the image data according to the similarity with the features stored in advance for each user code, and can track the change in the location of each object to which a user code has been assigned (S109).
객체추적부(350)는 객체식별부(330)에서 객체에 사용자코드를 부여한 이후 영상입력부(310)로 입력된 영상데이터에서 검출된 객체 중 픽셀값의 분포에 따른 특징이 사용자코드에 대해 미리 저장된 특징과 유사도가 가장 높은 객체를 각 사용자코드에 대응하는 객체로 검출해 사용자코드가 부여된 객체의 위치 변화를 추적할 수 있다(S109).The object tracking unit (350) detects an object among the objects detected in the image data inputted to the image input unit (310) after the object identification unit (330) assigns a user code to the object, and the object whose features according to the distribution of pixel values have the highest similarity to the features stored in advance for the user code is detected as an object corresponding to each user code, thereby tracking the change in the location of the object assigned the user code (S109).
여기서 특징간의 유사도는 평균제곱차이 유사도를 적용하여 각 객체가 포함된 영역에 포함된 픽셀들 각각에서 픽셀값의 차이를 제곱해서 합함에 따라 산출될 수 있다.Here, the similarity between features can be calculated by applying the mean square difference similarity and summing the squares of the differences in pixel values in each pixel included in the area containing each object.
화장품 인식부(360)는 사용자가 미리 정해진 위치에 화장품을 놓는 것에 대응하여 화장품바코드를 인식하여 화장품바코드에 따라 각 화장품에 대응하여 미리 저장된 화장품명을 포함하는 복수의 화장품정보 중 어느 하나의 화장품정보를 선택할 수 있다.The cosmetics recognition unit (360) recognizes a cosmetics barcode in response to a user placing a cosmetics at a predetermined location, and selects one of a plurality of cosmetics information items including the name of the cosmetics stored in advance in response to each cosmetic according to the cosmetics barcode.
화장품 인식부(360)는 복수의 화장품 각각에 대한 화장품코드, 화장품명, 화장품에 포함된 성분을 나타내는 복수의 성분명으로 구성된 복수의 화장품정보를 저장할 수 있다.The cosmetics recognition unit (360) can store a plurality of cosmetic information consisting of a cosmetic code, a cosmetic name, and a plurality of ingredient names indicating ingredients contained in the cosmetics for each of a plurality of cosmetics.
화장품 인식부(360)는 사용자가 미리 정해진 위치에 화장품을 놓는 것에 대응하여 화장품바코드를 입력받기 위한 바코드인식수단을 구비하고, 화장품바코드가 입력되는지를 판단할 수 있다(S111).The cosmetics recognition unit (360) is equipped with a barcode recognition means for receiving a cosmetics barcode in response to a user placing a cosmetics at a predetermined location, and can determine whether a cosmetics barcode is input (S111).
화장품 인식부(360)는 사용자가 바코드인식수단에 화장품을 높는 동작에 대응하여 화장품바코드가 입력되면 미리 저장된 화장품정보 중 입력된 화장품바코드에서 인식된 화장품코드와 대응하는 화장품코드를 포함하는 화장품정보를 선택할 수 있다(S113).The cosmetics recognition unit (360) can select cosmetics information that includes a cosmetics code corresponding to the cosmetics code recognized in the input cosmetics barcode among the pre-stored cosmetics information when a cosmetics barcode is input in response to a user's action of placing a cosmetics on a barcode recognition means (S113).
진단결과 추출부(370)는 화장품 인식부(360)에서 화장품정보가 선택되면 객체추적부(350)에서 추적하고 있는 사용자코드가 부여된 객체의 위치에 따라 매칭부(340)에 저장된 진단결과를 추출할 수 있다(S115).When cosmetic information is selected in the cosmetic recognition unit (360), the diagnosis result extraction unit (370) can extract the diagnosis result stored in the matching unit (340) according to the location of the object to which the user code is assigned and being tracked in the object tracking unit (350) (S115).
진단결과 추출부(370)는 화장품 인식부(360)에서 화장품정보가 선택된 것에 대응하여 객체식별부(330)에서 위치 변화를 추적하던 적어도 하나의 객체 중 화장품 인식부(360)에서 화장품정보가 선택된 시점에 영상데이터에서 기설정된 제2위치에 위치한 객체를 선택하고, 매칭부(340)에 각 사용자코드와 매칭된 진단결과 중 제2위치에 위치한 객체의 사용자코드가 매칭된 하나의 진단결과를 추출할 수 있다(S115).The diagnosis result extraction unit (370) selects an object located at a preset second position in the image data at the time when the cosmetic information is selected in the cosmetic recognition unit (360) among at least one object whose position change was tracked in the object identification unit (330) in response to the selection of cosmetic information in the cosmetic recognition unit (360), and extracts one diagnosis result in which the user code of the object located at the second position is matched among the diagnosis results matched with each user code in the matching unit (340) (S115).
여기서 제2위치는 영상데이터에서 무인 화장품 판매를 위한 안내문 제공 장치(30)가 표시되는 지점에 대응되도록 미리 설정될 수 있다.Here, the second position can be preset to correspond to the point where the device (30) providing guidance for unmanned cosmetics sales is displayed in the video data.
제2위치는 영상데이터에서 무인 화장품 판매를 위한 안내문 제공 장치(30)가 표시되는 영역에 포함된 어느 하나의 픽셀의 좌표로 미리 설정될 수 있다.The second position can be preset as the coordinates of any one pixel included in the area where the device (30) providing guidance for unmanned cosmetics sales is displayed in the image data.
진단결과 추출부(370)는 객체식별부(330)에서 위치 변화를 추적하던 적어도 하나의 객체 중 화장품 인식부(360)에서 화장품정보가 선택된 시점에 중심좌표가 영상데이터에서 기설정된 제2위치의 좌표와 가장 가까운 하나의 객체를 선택해서, 매칭부(340)에 저장된 진단결과 중 선택한 객체의 사용자코드가 매칭된 하나의 진단결과를 추출할 수 있다(S115).The diagnosis result extraction unit (370) selects one object whose center coordinates are closest to the coordinates of the second position preset in the image data at the time when cosmetic information is selected in the cosmetic recognition unit (360) among at least one object whose position change was tracked in the object identification unit (330), and extracts one diagnosis result that matches the user code of the selected object among the diagnosis results stored in the matching unit (340) (S115).
즉, 진단결과 추출부(370)는 화장품정보가 선택된 시점에 영상데이터에서 무인 화장품 판매를 위한 안내문 제공 장치와 인접하고 사용자코드가 부여된 객체를 기준으로, 화장품을 인식시킨 사용자의 진단결과를 추출할 수 있다.That is, the diagnosis result extraction unit (370) can extract the diagnosis result of the user who recognized the cosmetics based on an object adjacent to the device providing information for unmanned cosmetics sales and assigned a user code at the time when the cosmetics information is selected from the image data.
안내문 생성부(380)는 진단결과 추출부(370)에서 추출한 진단결과와 화장품 인식부(360)에서 선택한 화장품정보를 이용해 안내문을 생성할 수 있다(S117).The guidance generation unit (380) can generate a guidance message using the diagnosis results extracted from the diagnosis results extraction unit (370) and the cosmetic information selected from the cosmetic recognition unit (360) (S117).
안내문 생성부(380)는 진단결과 추출부(370)에서 추출한 진단결과에 포함된 수분, 색소침착, 탄력, 유분 중 적어도 하나를 포함하는 평가항목에 대한 점수 중 가장 낮은 점수에 대응하는 평가항목을 선택하고, 화장품 인식부(360)에서 선택한 화장품정보의 화장품명과 선택한 평가항목에 대해 기설정된 평가항목텍스트를 기설정된 템플릿에 입력함에 따라 안내문을 생성할 수 있다(S117).The guidance generation unit (380) selects an evaluation item corresponding to the lowest score among the evaluation items including at least one of moisture, pigmentation, elasticity, and oil included in the diagnosis results extracted from the diagnosis result extraction unit (370), and generates a guidance by inputting the cosmetic name of the cosmetic information selected from the cosmetic recognition unit (360) and the evaluation item text preset for the selected evaluation item into a preset template (S117).
안내문 생성부(380)는 복수의 평가항목 각각에 대해 각 평가항목을 표시하기 위해 기설정된 복수의 평가항목텍스트, 안내문을 생성하기 위해 기설정된 템플릿, 복수의 화장품명 각각에 수분, 색소침착, 탄력, 유분 중 어느 하나에 대한 항목코드로 구성된 복수의 유효정보를 저장할 수 있다.The guidance generation unit (380) can store a plurality of valid information consisting of a plurality of evaluation item texts preset to display each evaluation item for each of a plurality of evaluation items, a preset template to generate a guidance, and an item code for one of moisture, pigmentation, elasticity, and oil for each of a plurality of cosmetic names.
유효정보는 화장품의 화장품명과, 수분, 색소침착, 탄력, 유분에 대응하는 복수의 항목코드 중 어느 하나로 구성될 수 있다.Valid information may consist of the cosmetic product name and one of multiple item codes corresponding to moisture, pigmentation, elasticity, and oil.
각 화장품명에 대한 항목코드는 각 화장품명에 대응하는 수분, 색소침착, 탄력, 유분 중 화장품이 개선 효과를 제공하는 항목을 나타내기 위해 사용자의 입력에 따라 미리 설정될 수 있다.The item code for each cosmetic name can be preset based on the user's input to indicate the item for which the cosmetic provides an improvement effect among moisture, pigmentation, elasticity, and oil corresponding to each cosmetic name.
안내문 생성부(380)는 안내문 생성부(380)는 진단결과 추출부(370)에서 추출한 진단결과에 포함된 수분, 색소침착, 탄력, 유분 중 적어도 하나를 포함하는 평가항목에 대한 점수 중 가장 낮은 점수에 대응하는 평가항목을 선택하고, 화장품 인식부(360)에서 선택한 화장품정보의 화장품명에 대한 유효정보를 추출하며, 추출한 유효정보의 항목코드에 따른 항목이 선택된 평가항목과 일치하는지에 따라, 유효정보의 항목코드에 따른 항목이 선택된 평가항목과 일치하면 점수가 가장 낮은 항목에 대해 사용자가 인식시킨 화장품의 사용을 추천하기 위해 미리 저장되며, 기설정된 제1기본텍스트가 표시되는 텍스트영역과, 텍스트영역상에서 제1기본텍스트와 구분되어 평가항목명을 표시하기 위한 제1입력영역과, 텍스트영역상에서 제1기본텍스트 및 제1입력영역과 구분되어 화장품명을 표시하기 위한 제2입력영역을 포함하는 제1템플릿을 가져와, 제1템플릿의 제1입력영역에 선택한 평가항목에 대해 기설정된 평가항목텍스트를 입력하고 제2입력영역에 선택한 화장품정보의 화장품명을 입력함에 따라 안내문을 생성할 수 있다(S117).The guidance generating unit (380) selects an evaluation item corresponding to the lowest score among the scores for evaluation items including at least one of moisture, pigmentation, elasticity, and oil included in the diagnosis results extracted by the diagnosis result extracting unit (370), extracts valid information on the cosmetic name of the cosmetic information selected by the cosmetic recognition unit (360), and, depending on whether the item according to the item code of the extracted valid information matches the selected evaluation item, if the item according to the item code of the valid information matches the selected evaluation item, recommends the use of the cosmetic recognized by the user for the item with the lowest score, and brings in a first template including a text area in which a preset first basic text is displayed, a first input area for displaying the evaluation item name in the text area, separated from the first basic text, and a second input area for displaying the cosmetic name in the text area, separated from the first basic text and the first input area, and inputs the preset evaluation item text for the selected evaluation item in the first input area of the first template and inputs the selected cosmetic information in the second input area. A guide can be generated by entering the name of the cosmetic product (S117).
안내문 생성부(380)는 화장품 인식부(360)에서 선택한 화장품정보의 화장품명인 제1화장품명에 대해 추출한 유효정보의 항목코드에 따른 항목이 선택된 평가항목과 일치하지 않으면 선택된 평가항목에 대응하는 항목의 항목코드를 포함하는 유효정보가 매칭된 어느 하나의 화장품명인 제2화장품명을 선택하고, 점수가 가장 낮은 항목에 대해 사용자가 인식시킨 화장품 외의 다른 화장품을 추천하기 위해 미리 저장된 제2템플릿을 가져와 제2템플릿에 선택한 평가항목에 대해 기설정된 평가항목텍스트, 제1화장품명, 제2화장품명을 입력함에 따라 안내문을 생성할 수 있다.The guidance generation unit (380) selects a second cosmetic name, which is one of the cosmetic names that matches the valid information including the item code of the item corresponding to the selected evaluation item, if the item according to the item code of the valid information extracted for the first cosmetic name, which is the cosmetic name of the cosmetic information selected by the cosmetic recognition unit (360), does not match the selected evaluation item, and for the item with the lowest score, it can bring in a second template that is stored in advance to recommend a cosmetic other than the cosmetic recognized by the user, and generate a guidance by inputting the preset evaluation item text, the first cosmetic name, and the second cosmetic name for the selected evaluation item into the second template.
여기서, 제2템플릿은 기설정된 제2기본텍스트가 표시되는 텍스트영역과, 텍스트영역상에서 제2기본텍스트와 구분되어 평가항목명을 표시하기 위한 제1입력영역과, 텍스트영역상에서 제2기본텍스트 및 제1입력영역과 구분되어 제1화장품명을 표시하기 위한 제2입력영역, 텍스트영역상에서 제2기본텍스트, 제1입력영역, 및 제2입력영역과 구분되어 제2화장품명을 표시하기 위한 제2입력영역을 포함할 수 있다.Here, the second template may include a text area in which a preset second basic text is displayed, a first input area for displaying an evaluation item name in the text area and separated from the second basic text, a second input area for displaying a first cosmetic product name in the text area and separated from the second basic text and the first input area, and a second input area for displaying a second cosmetic product name in the text area and separated from the second basic text, the first input area, and the second input area.
안내문 생성부(380)는 제2템플릿의 제1입력영역에 선택한 평가항목에 대해 기설정된 평가항목텍스트를 입력하고, 제1입력영역에 제1화장품명을 입력하며, 제2입력영역에 제2화장품명을 입력함에 따라, 사용자가 인식시킨 화장품 외에 다른 화장품을 추천해주는 안내문을 생성할 수 있다.The guidance generation unit (380) can generate a guidance text recommending cosmetics other than the cosmetics recognized by the user by inputting a preset evaluation item text for the selected evaluation item in the first input area of the second template, inputting the name of the first cosmetic product in the first input area, and inputting the name of the second cosmetic product in the second input area.
안내문 생성부(380)는 사용자가 인식시킨 화장품이 사용자의 피부 진단결과 가장 점수가 낮은 평가항목에 대해 효과가 있는 것으로 설정된 화장품인지에 따라 사용자가 인식시킨 화장품을 추천하는 안내문 또는 사용자가 인식시킨 화장품 외의 다른 화장품을 추천하는 안내문을 생성할 수 있다.The guidance generation unit (380) can generate a guidance recommending a cosmetic product recognized by the user or a guidance recommending a cosmetic product other than the cosmetic product recognized by the user, depending on whether the cosmetic product recognized by the user is the cosmetic product that is set to be effective for the evaluation item with the lowest score in the user's skin diagnosis results.
따라서, 안내문을 통해 사용자의 진단결과에 맞춰 사용자가 인식시킨 화장품의 사용을 추천하거나, 사용자가 인식시킨 화장품 외의 다른 화장품을 추천하며 무인으로 사용자 맞춤형 카운슬링이 가능하도록 한다.Therefore, through guidance, the use of cosmetics recognized by the user is recommended based on the user's diagnosis results, or cosmetics other than those recognized by the user are recommended, enabling unmanned customized counseling for the user.
표시부(390)는 안내문 생성부(380)에서 생성한 안내문을 출력할 수 있다(S119).The display unit (390) can output the guidance text generated by the guidance text generation unit (380) (S119).
표시부(390)는 안내문 생성부(380)에서 생성한 안내문을 사용자가 확인 가능하도록 표시할 수 있다(S119).The display unit (390) can display the guidance text generated by the guidance text generation unit (380) so that the user can check it (S119).
도 3을 참조하면, 사용자가 인식시킨 화장품에 대해 매칭된 항목과 사용자의 진단결과에서 점수가 가장 낮은 평가항목이 일치하는 경우 표시부(390)에는 사용자가 인식시킨 화장품의 사용을 추천하기 위한 제1기본텍스트와 사용자의 진단결과에서 점수가 가장 낮은 평가항목이 표시되는 제1입력영역(1110)과 사용자가 인식시킨 화장품명이 표시되는 제2입력영역(1110)을 포함하는 안내문(1100)이 표시될 수 있다.Referring to FIG. 3, when the matching item for the cosmetic recognized by the user matches the evaluation item with the lowest score in the user's diagnosis result, a guide (1100) including a first basic text for recommending the use of the cosmetic recognized by the user, a first input area (1110) in which the evaluation item with the lowest score in the user's diagnosis result is displayed, and a second input area (1110) in which the name of the cosmetic recognized by the user is displayed may be displayed on the display unit (390).
도 4를 참조하면, 사용자가 인식시킨 화장품에 대해 매칭된 항목과 사용자의 진단결과에서 점수가 가장 낮은 평가항목이 일치하지 않는 경우 표시부(390)에는 사용자가 인식시킨 화장품 외의 다른 화장품의 사용을 추천하기 위한 제2기본텍스트와 사용자의 진단결과에서 점수가 가장 낮은 평가항목이 표시되는 제1입력영역(1210)과 사용자가 인식시킨 화장품명이 표시되는 제2입력영역(1220)과 사용자가 인식한 화장품 외에 사용자의 진단결과에서 점수가 가장 낮은 평가항목에 대한 개선 기능을 제공하는 다른 화장품명이 표시되는 제3입력영역(1230)을 포함하는 안내문(1200)이 표시될 수 있다.Referring to FIG. 4, if the matching item for the cosmetic recognized by the user does not match the evaluation item with the lowest score in the user's diagnosis result, a display unit (390) may display a guide (1200) including a second basic text for recommending the use of a cosmetic other than the cosmetic recognized by the user, a first input area (1210) in which the evaluation item with the lowest score in the user's diagnosis result is displayed, a second input area (1220) in which the name of the cosmetic recognized by the user is displayed, and a third input area (1230) in which the name of another cosmetic that provides an improvement function for the evaluation item with the lowest score in the user's diagnosis result is displayed, in addition to the cosmetic recognized by the user.
본 발명에 따르면 영상에서 검출된 사용자의 위치에 따라 화장품을 인식시킨 사용자를 구분해서 사용자의 피부 진단결과를 기반으로 사용자가 인식시킨 화장품을 사용해도 괜찮을 지 다른 화장품을 사용하는게 괜찮을 지 안내가 가능하다.According to the present invention, it is possible to distinguish users who have recognized cosmetics based on the location of the user detected in the image, and to provide guidance on whether it is okay for the user to use the recognized cosmetics or whether it is okay to use other cosmetics based on the user's skin diagnosis results.
본 발명에 따르면, 영상 분석을 기반으로 피부 진단한 사용자화 화장품을 인식한 사용자를 구분함으로써, 다수가 무인 매장을 이용할 때에도 각 사용자에 맞춤형 안내가 가능하도록 한다.According to the present invention, by distinguishing users who have recognized customized cosmetics based on skin diagnosis based on image analysis, customized guidance can be provided to each user even when multiple users use an unmanned store.
이에 따라, 무인 화장품 판매 매장의 활용성과 이용 편의를 높이는 효과도 기대할 수 있다.Accordingly, it is expected that the usability and convenience of unmanned cosmetics stores will be improved.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art will appreciate that the present invention can be implemented in other specific forms without altering its technical spirit or essential characteristics. Therefore, the embodiments described above should be understood as illustrative in all respects and not restrictive. The scope of the present invention is defined by the claims below rather than the detailed description above, and all changes or modifications derived from the claims and their equivalents should be construed as being included within the scope of the present invention.
10 : 카메라
20 : 피부진단기
30 : 무인 화장품 판매를 위한 안내문 제공 장치
310 : 영상입력부
320 : 진단결과 입력부
330 : 객체식별부
340 : 매칭부
350 : 객체추적부
360 : 화장품 인식부
370 : 진단결과 추출부
380 : 안내문 생성부
390 : 표시부10: Camera
20: Skin diagnostic device
30: Device for providing guidance for unmanned cosmetics sales
310: Video input section
320: Diagnostic result input section
330: Object identification section
340: Matching Department
350: Object Tracking Unit
360: Cosmetics Recognition Department
370: Diagnostic result extraction section
380: Guidance generation section
390: Display
Claims (3)
매장에 설치된 피부진단기로부터 수분, 색소침착, 탄력, 유분 중 적어도 하나를 포함하는 평가항목에 대한 점수를 포함하는 진단결과를 입력받는 진단결과 입력부;
상기 영상입력부로 입력된 영상데이터에서 사용자에 대응하는 적어도 하나의 객체를 검출하고 상기 진단결과 입력부로 진단결과가 입력된 시점에 상기 영상데이터에서 기설정된 제1위치에 위치한 어느 하나의 객체를 선택해 다른 사용자와 구분하기 위한 사용자코드를 부여하는 객체식별부;
상기 진단결과 입력부에서 입력된 진단결과와 상기 진단결과가 입력된 것에 대응하여 상기 객체식별부에서 부여된 사용자코드를 매칭시켜 저장하는 매칭부;
상기 영상입력부로 입력된 영상데이터에서 검출된 객체 중 상기 객체식별부에서 사용자코드가 부여된 각 객체의 위치 변화를 추적하는 객체추적부;
사용자가 미리 정해진 위치에 화장품을 놓는 것에 대응하여 화장품바코드를 인식하여 상기 화장품바코드에 따라 각 화장품에 대응하여 미리 저장된 화장품명을 포함하는 복수의 화장품정보 중 어느 하나의 화장품정보를 선택하는 화장품 인식부;
상기 화장품 인식부에서 화장품정보가 선택되면 상기 객체추적부에서 추적중인 객체의 위치에 따라 상기 매칭부에 저장된 진단결과를 추출하는 진단결과 추출부;
상기 진단결과 추출부에서 추출한 진단결과와 상기 화장품 인식부에서 선택한 화장품정보를 이용해 안내문을 생성하는 안내문 생성부; 및
상기 안내문 생성부에서 생성한 안내문을 출력하는 표시부;를 포함하는 무인 화장품 판매를 위한 안내문 제공 장치.A video input unit that receives video data from a camera filming the inside of a store;
A diagnosis result input unit that receives a diagnosis result including a score for at least one of the evaluation items including moisture, pigmentation, elasticity, and oil from a skin diagnosis device installed in a store;
An object identification unit that detects at least one object corresponding to a user from image data input to the image input unit, selects one object located at a preset first position from the image data at the time when the diagnosis result is input to the diagnosis result input unit, and assigns a user code to distinguish it from other users;
A matching unit that matches and stores the diagnosis results input in the above diagnosis result input unit and the user code assigned in the above object identification unit in response to the input diagnosis results;
An object tracking unit that tracks changes in the location of each object detected from the image data input to the image input unit and assigned a user code by the object identification unit;
A cosmetic recognition unit that recognizes a cosmetic barcode in response to a user placing a cosmetic at a predetermined location and selects one cosmetic information from among a plurality of cosmetic information items including a cosmetic name stored in advance corresponding to each cosmetic according to the cosmetic barcode;
A diagnosis result extraction unit that extracts the diagnosis result stored in the matching unit according to the location of the object being tracked by the object tracking unit when cosmetic information is selected in the cosmetic recognition unit;
A guidance generation unit that generates a guidance using the diagnosis results extracted from the above diagnosis result extraction unit and the cosmetic information selected from the above cosmetic recognition unit; and
A device for providing guidance for unmanned cosmetics sales, including a display unit that outputs guidance generated by the guidance generation unit.
상기 진단결과 추출부는
상기 화장품 인식부에서 화장품정보가 선택된 것에 대응하여 상기 객체식별부에서 위치 변화를 추적하던 적어도 하나의 객체 중 상기 화장품 인식부에서 화장품정보가 선택된 시점에 기설정된 제2위치에 위치한 객체를 선택하고, 상기 매칭부에 각 사용자코드와 매칭된 진단결과 중 상기 제2위치에 위치한 객체의 사용자코드가 매칭된 하나의 진단결과를 추출하는 것
인 무인 화장품 판매를 위한 안내문 제공 장치.In the first paragraph,
The above diagnostic result extraction section
In response to the selection of cosmetic information in the cosmetic recognition unit, the object located at the second position preset at the time when the cosmetic information was selected in the cosmetic recognition unit is selected from among at least one object whose position change was being tracked in the object identification unit, and in the matching unit, one diagnosis result is extracted in which the user code of the object located at the second position matches among the diagnosis results matched with each user code.
A device for providing guidance for unmanned cosmetics sales.
상기 안내문 생성부는
상기 진단결과 추출부에서 추출한 진단결과에 포함된 수분, 색소침착, 탄력, 유분 중 적어도 하나를 포함하는 평가항목에 대한 점수 중 가장 낮은 점수에 대응하는 평가항목을 선택하고, 상기 화장품 인식부에서 선택한 화장품정보의 화장품명과 선택한 상기 평가항목에 대해 기설정된 평가항목텍스트를 기설정된 템플릿에 입력함에 따라 안내문을 생성하는 것
인 무인 화장품 판매를 위한 안내문 제공 장치.In the second paragraph,
The above guidance generation section
Selecting an evaluation item corresponding to the lowest score among the scores for evaluation items including at least one of moisture, pigmentation, elasticity, and oil included in the diagnosis results extracted from the above diagnosis result extraction unit, and generating a guide by entering the cosmetic name of the cosmetic information selected from the above cosmetics recognition unit and the preset evaluation item text for the selected evaluation item into a preset template.
A device for providing guidance for unmanned cosmetics sales.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020230098768A KR102842211B1 (en) | 2023-07-28 | 2023-07-28 | Apparatus for provinding guidance to sell cosmetics unattended |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020230098768A KR102842211B1 (en) | 2023-07-28 | 2023-07-28 | Apparatus for provinding guidance to sell cosmetics unattended |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20250017845A KR20250017845A (en) | 2025-02-04 |
| KR102842211B1 true KR102842211B1 (en) | 2025-08-01 |
Family
ID=94605163
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020230098768A Active KR102842211B1 (en) | 2023-07-28 | 2023-07-28 | Apparatus for provinding guidance to sell cosmetics unattended |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102842211B1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101661588B1 (en) | 2015-10-26 | 2016-10-04 | 주식회사 엘지유플러스 | Method for analyzing skin surface and apparatus therefor |
| KR102184177B1 (en) | 2020-03-10 | 2020-11-27 | 주식회사 만컴퍼니 | Apparatus and method for recommending cosmetics by analyzing a face image acquired using a user's mobile device |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20170039463A (en) * | 2015-10-01 | 2017-04-11 | 에스케이플래닛 주식회사 | User equipment, beacon, service providing device, payment system comprising the same, control method thereof and computer readable medium having computer program recorded thereon |
| EP3663623A1 (en) | 2018-12-05 | 2020-06-10 | Bayer AG | Pressure stabilizer |
| KR102257992B1 (en) | 2019-07-08 | 2021-05-28 | 삼성전기주식회사 | Capacitor component |
| KR102261518B1 (en) * | 2019-07-30 | 2021-06-07 | (주)트라이큐빅스코리아 | Custumer recognition method for tracking the custumer in offline virtual product display store and system therefore |
-
2023
- 2023-07-28 KR KR1020230098768A patent/KR102842211B1/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101661588B1 (en) | 2015-10-26 | 2016-10-04 | 주식회사 엘지유플러스 | Method for analyzing skin surface and apparatus therefor |
| KR102184177B1 (en) | 2020-03-10 | 2020-11-27 | 주식회사 만컴퍼니 | Apparatus and method for recommending cosmetics by analyzing a face image acquired using a user's mobile device |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20250017845A (en) | 2025-02-04 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11132737B2 (en) | Dynamic customer checkout experience within an automated shopping environment | |
| US10380603B2 (en) | Assessing personality and mood characteristics of a customer to enhance customer satisfaction and improve chances of a sale | |
| US10559102B2 (en) | Makeup simulation assistance apparatus, makeup simulation assistance method, and non-transitory computer-readable recording medium storing makeup simulation assistance program | |
| US10290031B2 (en) | Method and system for automated retail checkout using context recognition | |
| US20220344044A1 (en) | User-customized skin diagnosis system and method | |
| CN109816441B (en) | Policy pushing method, system and related device | |
| US20140363059A1 (en) | Retail customer service interaction system and method | |
| US20170213268A1 (en) | Method for facilitating a transaction using a humanoid robot | |
| CN109166007A (en) | A kind of Method of Commodity Recommendation and its device based on automatic vending machine | |
| US20160203499A1 (en) | Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system | |
| US12387319B2 (en) | Systems and methods for acne counting, localization and visualization | |
| US11475500B2 (en) | Device and method for item recommendation based on visual elements | |
| KR102400172B1 (en) | Method and system for recommending products based on eye tracking | |
| JP4910717B2 (en) | Age confirmation device, age confirmation method, and age confirmation program | |
| KR102561883B1 (en) | Custumer recognition method for tracking the custumer in offline virtual product display store and system therefore | |
| KR20160011804A (en) | The method for providing marketing information for the customers of the stores based on the information about a customers' genders and ages detected by using face recognition technology | |
| JP6476678B2 (en) | Information processing apparatus and information processing program | |
| CN113392295A (en) | Data annotation method, platform, electronic equipment and computer storage medium | |
| KR102842211B1 (en) | Apparatus for provinding guidance to sell cosmetics unattended | |
| CN110110688B (en) | Information analysis method and system | |
| KR102925772B1 (en) | Apparatus and method for measuring interest of visitors in exhibition space | |
| JP7206806B2 (en) | Information processing device, analysis method, and program | |
| US20260024119A1 (en) | Store system with automated customer reply and customer behavior tracking | |
| JP2024176134A (en) | Information processing program, information processing method, and information processing device | |
| EP4386649A1 (en) | Information processing program, information processing method, and information processing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| F11 | Ip right granted following substantive examination |
Free format text: ST27 STATUS EVENT CODE: A-2-4-F10-F11-EXM-PR0701 (AS PROVIDED BY THE NATIONAL OFFICE) |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| U11 | Full renewal or maintenance fee paid |
Free format text: ST27 STATUS EVENT CODE: A-2-2-U10-U11-OTH-PR1002 (AS PROVIDED BY THE NATIONAL OFFICE) Year of fee payment: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| Q13 | Ip right document published |
Free format text: ST27 STATUS EVENT CODE: A-4-4-Q10-Q13-NAP-PG1601 (AS PROVIDED BY THE NATIONAL OFFICE) |