KR102708485B1 - Apparatus and method for monitoring eating - Google Patents
Apparatus and method for monitoring eating Download PDFInfo
- Publication number
- KR102708485B1 KR102708485B1 KR1020210142899A KR20210142899A KR102708485B1 KR 102708485 B1 KR102708485 B1 KR 102708485B1 KR 1020210142899 A KR1020210142899 A KR 1020210142899A KR 20210142899 A KR20210142899 A KR 20210142899A KR 102708485 B1 KR102708485 B1 KR 102708485B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- user
- meal
- food
- store
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/12—Hotels or restaurants
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/06009—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
- G06K19/06037—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/067—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
- G06K19/07—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
- G06K19/0723—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Primary Health Care (AREA)
- Marketing (AREA)
- Human Resources & Organizations (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Child & Adolescent Psychology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
본 발명은 식사 모니터링 장치 및 방법에 관한 것이다. 본 발명의 일 실시예에 따른 식사 모니터링 장치는 저장부; 적어도 하나의 이용자가 식사하는 식사공간 및 상기 식사공간 내의 식기를 포함한 영상을 수신하는 통신부; 및 상기 이용자 단말을 기반으로 상기 식사공간 내의 상기 이용자의 식사 위치 정보를 획득하고, 상기 영상 내에서 상기 식기에 담겨진 음식물을 인식하여 상기 음식물을 기반으로 식사 정보를 생성한 후, 상기 영상 및 상기 식사 정보를 연계시켜 저장하도록 제어하되, 상기 영상 내의 메타 정보 내에 상기 식사 위치 정보 및 상기 식사 위치 정보의 획득 시간 정보를 포함하여 저장하도록 제어하는 제어부;를 포함하며, 상기 식사 위치 정보는, 상기 이용자 단말이 상기 식사공간 내의 적어도 하나의 인식수단을 인식하도록 함으로써 획득하는 제1 방식, 상기 영상 분석을 기반으로 획득하는 제2 방식, 상기 이용자 단말에 대한 GPS 위치 정보를 기반으로 획득하는 제3 방식 및 현재 접속된 무선 인터넷 망에 대한 상기 이용자 단말의 통신 강도를 기반으로 획득하는 제4 방식 중 적어도 하나를 이용하여 획득되며, 상기 식사 위치 정보는 상기 식사공간 내에서 상기 이용자가 위치한 영역 정보, 상기 식사공간 내에 배치된 적어도 하나 이상의 테이블 중 이용자가 착석한 테이블 정보, 상기 식사공간 내에 배치된 테이블에서 해당 이용자가 착석한 좌석 정보 중 적어도 하나를 포함할 수 있다.The present invention relates to a meal monitoring device and method. A meal monitoring device according to one embodiment of the present invention comprises: a storage unit; a communication unit for receiving an image including a dining space where at least one user eats and dishes within the dining space; And a control unit which obtains meal location information of the user within the dining space based on the user terminal, recognizes food contained in the dish within the image, generates meal information based on the food, and then controls to link and store the image and the meal information, and controls to store the meal location information and acquisition time information of the meal location information within meta information within the image; wherein the meal location information is obtained by using at least one of a first method for obtaining the user terminal by recognizing at least one recognition means within the dining space, a second method for obtaining the information based on image analysis, a third method for obtaining the information based on GPS location information of the user terminal, and a fourth method for obtaining the information based on the communication strength of the user terminal for the currently connected wireless Internet network, and the meal location information may include at least one of information on an area where the user is located within the dining space, information on a table at which the user is seated among at least one table arranged within the dining space, and information on a seat at which the user is seated at a table arranged within the dining space.
Description
본 발명은 식사 모니터링 장치 및 방법에 관한 것으로, 보다 상세하게는 이용자의 섭취 정보를 통해 이용자 및 매장 관리자에게 유익한 정보를 제공할 수 있도록 하는 식사 모니터링 장치 및 방법에 관한 것이다.The present invention relates to a meal monitoring device and method, and more particularly, to a meal monitoring device and method that can provide useful information to users and store managers through the user's intake information.
전세계적으로 해마다 버려지는 음식물 쓰레기의 양이 증가하여 음식물 쓰레기를 처리하는 것이 중요한 사회 문제로 부각되고 있다. 음식물을 파는 식당과 같은 매장에서도 발생하는 음식물 쓰레기양을 줄이기 위한 다양한 시도를 하여 환경 보호와 더불어 매장 경영에 긍정적 효과를 얻고자 한다.The amount of food waste discarded each year is increasing worldwide, and the disposal of food waste is emerging as an important social issue. In order to reduce the amount of food waste generated in stores such as restaurants that sell food, various attempts are being made to protect the environment and achieve positive effects on store management.
한편, 음식물 쓰레기의 양이 증가하는 것과 더불어, 매장 내에서 판매되는 음식에 대하여 품질이 균질 하지 않아 문제가 되고 있다.Meanwhile, as the amount of food waste increases, the inconsistent quality of food sold in stores is becoming a problem.
따라서, 음식점과 같은 매장은 물론 가정에서 활용될 수 있으면서, 이용자의 식사 정보를 통해 이용자에게는 건강 정보를 제공할 수 있고, 음식물 쓰레기 관리, 홍보에 활용될 수 있는 정보를 제공할 수 있도록 하는 기술이 개발될 필요가 있다.Therefore, there is a need to develop a technology that can be used not only in stores such as restaurants but also at home, and that can provide health information to users through their meal information, and information that can be used for food waste management and promotion.
본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 이용자의 식사 영상 또는 이미지를 통해 유용한 식사 정보를 생성하여 제공함으로써, 이용자가 자신의 식단 및 건강 관리에 활용할 수 있도록 하는 식사 모니터링 장치 및 방법을 제공함에 있다.The present invention has been proposed to solve the above-mentioned problems, and provides a meal monitoring device and method that generates and provides useful meal information through a video or image of a user's meal, thereby enabling the user to utilize the information for managing his or her diet and health.
또한, 본 발명은 매장을 이용한 이용자들에 대한 다양한 정보들을 기반으로 잔반량이나 음식 선호도 등을 포함하는 매장 정보를 생성하여 제공함으로써, 매장 관리자가 매장에서 판매되는 음식의 균일한 품질 관리할 수 있도록 하는 동시에 조리량을 관리할 수 있도록 하는 식사 모니터링 장치 및 방법을 제공함에 있다.In addition, the present invention provides a meal monitoring device and method that enables a store manager to manage the uniform quality of food sold in the store and manage the cooking amount by generating and providing store information including the amount of leftover food or food preferences based on various information about users of the store.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the description below.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 식사 모니터링 장치는, 저장부; 적어도 하나의 이용자가 식사하는 식사공간 및 상기 식사공간 내의 식기를 포함한 영상을 수신하는 통신부; 및 상기 이용자 단말을 기반으로 상기 식사공간 내의 상기 이용자의 식사 위치 정보를 획득하고, 상기 영상 내에서 상기 식기에 담겨진 음식물을 인식하여 상기 음식물을 기반으로 식사 정보를 생성한 후, 상기 영상 및 상기 식사 정보를 연계시켜 저장하도록 제어하되, 상기 영상 내의 메타 정보 내에 상기 식사 위치 정보 및 상기 식사 위치 정보의 획득 시간 정보를 포함하여 저장하도록 제어하는 제어부;를 포함하며, 상기 식사 위치 정보는, 상기 이용자 단말이 상기 식사공간 내의 적어도 하나의 인식수단을 인식하도록 함으로써 획득하는 제1 방식, 상기 영상 분석을 기반으로 획득하는 제2 방식, 상기 이용자 단말에 대한 GPS 위치 정보를 기반으로 획득하는 제3 방식 및 현재 접속된 무선 인터넷 망에 대한 상기 이용자 단말의 통신 강도를 기반으로 획득하는 제4 방식 중 적어도 하나를 이용하여 획득되며, 상기 식사 위치 정보는 상기 식사공간 내에서 상기 이용자가 위치한 영역 정보, 상기 식사공간 내에 배치된 적어도 하나 이상의 테이블 중 이용자가 착석한 테이블 정보, 상기 식사공간 내에 배치된 테이블에서 해당 이용자가 착석한 좌석 정보 중 적어도 하나를 포함할 수 있다.According to one embodiment of the present invention for solving the above-described problem, a meal monitoring device comprises: a storage unit; a communication unit for receiving an image including a dining space where at least one user eats and dishes within the dining space; And a control unit for obtaining meal location information of the user within the dining space based on the user terminal, recognizing food contained in the dish within the image to generate meal information based on the food, and then controlling the image and the meal information to be linked and stored, and controlling the meal location information and acquisition time information of the meal location information to be stored within meta information within the image; wherein the meal location information is obtained by using at least one of a first method for obtaining the user terminal by recognizing at least one recognition means within the dining space, a second method for obtaining the information based on image analysis, a third method for obtaining the information based on GPS location information of the user terminal, and a fourth method for obtaining the information based on the communication strength of the user terminal for the currently connected wireless Internet network, and the meal location information may include at least one of information on an area where the user is located within the dining space, information on a table at which the user is seated among at least one table arranged within the dining space, and information on a seat at which the user is seated at a table arranged within the dining space.
한편, 본 발명의 일 실시예에 따른 식사 모니터링 방법은, 적어도 하나의 이용자가 식사하는 식사공간 및 상기 식사공간 내의 식기를 포함한 영상을 획득하는 단계; 이용자 단말을 기반으로 상기 식사공간 내의 해당 이용자의 식사 위치 정보를 획득하는 단계; 상기 영상 내에서 상기 식기에 담겨진 음식물을 인식하여 상기 음식물을 기반으로 식사 정보를 생성하는 단계; 및 상기 영상 및 상기 식사 정보를 연계시켜 저장하도록 제어하되, 상기 영상 내의 메타 정보 내에 상기 식사 위치 정보 및 상기 식사 위치 정보의 획득 시간 정보를 포함하여 저장하는 단계;를 포함하며, 상기 식사 위치 정보는, 상기 이용자 단말이 상기 식사공간 내의 적어도 하나의 인식수단을 인식하도록 함으로써 획득하는 제1 방식, 상기 영상 분석을 기반으로 획득하는 제2 방식, 상기 이용자 단말에 대한 GPS 위치 정보를 기반으로 획득하는 제3 방식 및 현재 접속된 무선 인터넷 망에 대한 상기 이용자 단말의 통신 강도를 기반으로 획득하는 제4 방식 중 적어도 하나를 이용하여 획득되며, 상기 식사 위치 정보는 상기 식사공간 내에서 상기 이용자가 위치한 영역 정보, 상기 식사공간 내에 배치된 적어도 하나 이상의 테이블 중 이용자가 착석한 테이블 정보, 상기 식사공간 내에 배치된 테이블에서 해당 이용자가 착석한 좌석 정보 중 적어도 하나를 포함할 수 있다.Meanwhile, a meal monitoring method according to one embodiment of the present invention comprises the steps of: obtaining an image including a dining space where at least one user is eating and tableware within the dining space; obtaining meal location information of the corresponding user within the dining space based on a user terminal; recognizing food contained in the tableware within the image and generating meal information based on the food; And a step of controlling to store the image and the meal information in a linked manner, and including the meal location information and the acquisition time information of the meal location information in the meta information of the image and storing them; wherein the meal location information is obtained by using at least one of a first method in which the user terminal recognizes at least one recognition means in the dining space, a second method in which the user terminal is obtained based on the image analysis, a third method in which the user terminal is obtained based on the GPS location information of the user terminal, and a fourth method in which the user terminal is obtained based on the communication strength of the user terminal for the currently connected wireless Internet network, and the meal location information may include at least one of information on an area in which the user is located in the dining space, information on a table at which the user is seated among at least one table arranged in the dining space, and information on a seat at which the user is seated at a table arranged in the dining space.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.
본 발명에 의하면, 이용자의 식사 영상 또는 이미지를 통해 유용한 식사 정보를 생성하여 제공함으로써, 이용자가 자신의 식단 및 건강 관리에 활용할 수 있도록 한다.According to the present invention, useful meal information is generated and provided through a video or image of a user's meal, thereby enabling the user to utilize it for managing his or her diet and health.
또한, 본 발명에 의하면, 매장을 이용한 이용자들에 대한 다양한 정보들을 기반으로 잔반량이나 음식 선호도 등을 포함하는 매장 정보를 생성하여 제공함으로써, 매장 관리자가 매장에서 판매되는 음식의 균일한 품질 관리할 수 있도록 하는 동시에 조리량을 관리할 수 있도록 한다.In addition, according to the present invention, store information including leftovers and food preferences, etc. are generated and provided based on various information about users of the store, thereby enabling the store manager to manage the uniform quality of food sold in the store and manage the cooking amount at the same time.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 본 발명의 실시예에 따른 식사 모니터링 장치를 이용하는 매장의 평면도이다.
도 2는 본 발명의 실시예에 따른 식사 모니터링 장치의 구성을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 식사 모니터링 장치를 이용하는 매장의 테이블 예시를 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 식사 모니터링 장치를 이용하는 매장에 적용될 수 있는 카메라의 일 예를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 식사 모니터링 장치를 이용하는 매장에 적용될 수 있는 카메라의 다른 예를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 식사 모니터링 방법을 나타내는 순서도이다.
도 7은 본 발명의 일 실시예에 따른 식사 모니터링 장치로부터 전달된 식사 정보가 이용자 단말의 사용자 인터페이스를 통해 출력된 일 예를 나타내는 도면이다.Figure 1 is a floor plan of a store using a meal monitoring device according to an embodiment of the present invention.
Figure 2 is a block diagram showing the configuration of a meal monitoring device according to an embodiment of the present invention.
FIG. 3 is a drawing showing an example of a table in a store using a meal monitoring device according to an embodiment of the present invention.
FIG. 4 is a drawing showing an example of a camera that can be applied to a store using a meal monitoring device according to an embodiment of the present invention.
FIG. 5 is a drawing showing another example of a camera that can be applied to a store using a meal monitoring device according to an embodiment of the present invention.
Figure 6 is a flowchart showing a meal monitoring method according to one embodiment of the present invention.
FIG. 7 is a diagram showing an example of meal information transmitted from a meal monitoring device according to one embodiment of the present invention being output through a user interface of a user terminal.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. The advantages and features of the present invention, and the methods for achieving them, will become clear with reference to the embodiments described in detail below together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and these embodiments are provided only to make the disclosure of the present invention complete and to fully inform a person skilled in the art of the scope of the present invention, and the present invention is defined only by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing embodiments only and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. The terms "comprises" and/or "comprising" as used in the specification do not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like components throughout the specification, and "and/or" includes each and every combination of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it should be understood that a first component mentioned below may also be a second component within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with the meaning commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries shall not be ideally or excessively interpreted unless explicitly specifically defined.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.The spatially relative terms "below," "beneath," "lower," "above," "upper," and the like can be used to easily describe the relationship between one component and other components as depicted in the drawings. The spatially relative terms should be understood to include different orientations of the components when used or operated in addition to the orientations depicted in the drawings. For example, if a component depicted in the drawings is flipped over, a component described as "below" or "beneath" another component may be placed "above" the other component. Thus, the exemplary term "below" can include both the above and below orientations. The components may also be oriented in other directions, and the spatially relative terms may be interpreted accordingly.
명세서에서 사용되는 "부" 또는 "모듈"이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 "모듈"은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 "모듈"은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 "모듈"은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 "모듈"은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 "모듈"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 "모듈"들로 결합되거나 추가적인 구성요소들과 "부" 또는 "모듈"들로 더 분리될 수 있다.The term "part" or "module" as used in this specification means a software or hardware component such as an FPGA or ASIC, and the "part" or "module" performs certain functions. However, the "part" or "module" is not limited to software or hardware. The "part" or "module" may be configured to reside on an addressable storage medium and may be configured to execute one or more processors. Thus, by way of example, the "part" or "module" includes components such as software components, object-oriented software components, class components, and task components, processes, functions, attributes, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. The functionality provided in the components and "parts" or "modules" may be combined into a smaller number of components and "parts" or "modules" or further separated into additional components and "parts" or "modules."
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with the meaning commonly understood by those skilled in the art to which the present invention belongs. In addition, terms defined in commonly used dictionaries shall not be ideally or excessively interpreted unless explicitly specifically defined.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.
도 1은 본 발명의 실시예에 따른 식사 모니터링 장치를 이용하는 매장의 평면도이다.Figure 1 is a floor plan of a store using a meal monitoring device according to an embodiment of the present invention.
매장(1)은 고객에게 음식물을 파는 식당이나 카페 등일 수 있으며, 일반 음식점, 카페테리아, 구내 식당, 급식소, 뷔페, 테이크 아웃 전문점, 배달 전문점 등 이용자(고객)에게 음식물을 제공하기 위한 곳으로, 그 종류나 형태에 제한이 없다. 그러나, 이는 하나의 실시예에 해당하는 것으로, 매장(1)이 아닌 일반 가정일 수도 있으며, 테이블의 개수 및 그 배치 구조는 변경 가능하다.A store (1) may be a restaurant or cafe that sells food to customers, and may be a place that provides food to users (customers), such as a general restaurant, cafeteria, in-house restaurant, meal service, buffet, take-out specialty store, or delivery specialty store, and there are no restrictions on its type or form. However, this is only one example, and may be a general home rather than a store (1), and the number of tables and their arrangement structure may be changed.
도 1을 참조하면, 매장(1)은 고객이 음식물을 섭취할 수 있는 홀(2)과 음식물을 조리하는 조리실(3)로 구분될 수 있다. 홀(2)에는 고객이 음식물을 섭취할 수 있는 테이블(10)이 적어도 하나 이상 배치될 수 있다. 이용자의 위치 정보는 자신의 단말인 이용자 단말(200)을 통해 해당 테이블(10)에 구비(부착)된 테이블 번호, 태그, QR 코드, 바코드, NFC 및 RFID와 같은 인식수단(11) 중 어느 하나를 기반으로 획득될 수 있다. 이때, 위치 정보는 매장 정보, 이용자 정보, 이용자에 대한 테이블 착석 여부, 착석한 테이블 정보, 테이블에서 해당 이용자의 좌석 정보 및 시간 정보 등이 더 포함될 수 있다. Referring to Fig. 1, a store (1) can be divided into a hall (2) where customers can eat food and a kitchen (3) where food is cooked. At least one table (10) where customers can eat food can be placed in the hall (2). The location information of the user can be obtained based on one of the recognition means (11), such as a table number, tag, QR code, barcode, NFC, and RFID, equipped (attached) to the table (10) through the user terminal (200), which is the user's terminal. At this time, the location information can further include store information, user information, whether the user is seated at a table, information on the seated table, information on the seat of the user at the table, and time information.
구체적으로, 각 테이블(10)마다 인식수단(11)으로서 식별 기호가 부여될 수 있는데, 예를 들어, 테이블 번호 또는 QR 코드 등의 식별 기호가 각 테이블(10)에 표시될 수 있다. 한편, 테이블(10)마다 인식수단(11)으로서 식별 기호가 저장된 근거리 통신용 태그가 부착될 수도 있으며, 근거리 통신용 태그에 이용되는 통신 기술은 NFC(Near Field Communication)나 RFID일 수 있다. 그 인식수단의 종류 및 적용되는 통신 기술은 앞서 기재한 것으로만 한정하지 않는다.Specifically, each table (10) may be provided with an identification symbol as a recognition means (11), for example, an identification symbol such as a table number or a QR code may be displayed on each table (10). Meanwhile, a tag for short-range communication in which an identification symbol is stored as a recognition means (11) may be attached to each table (10), and the communication technology used in the tag for short-range communication may be NFC (Near Field Communication) or RFID. The types of the recognition means and the communication technology applied are not limited to those described above.
예를 들어, 매장(1)에서 이용자가 이용자 단말(200)을 테이블(10)에 부착된 인식수단(11)으로서 근거리 통신용 태그에 태깅함으로써, 테이블 정보뿐 아니라 이용자의 식별 정보를 포함하는 이용자 정보가 수집될 수 있다. 예컨대, 이용자가 자신의 이용자 단말(200)을 테이블101) 중 근거리 통신용 태그가 부착된 위치에 올려놓기만 하면, 태깅으로 인하여 해당 테이블 정보 및 해당 이용자에 대한 정보가 이용자 단말(200)로부터 식사 모니터링 장치(100)에 제공될 수 있다. 따라서 본 실시예에 따르면, 식사 모니터링 장치(100)는 이용자에게 불편을 주지 않고 이용자 정보를 수집할 수 있다.For example, when a user tags a user terminal (200) in a store (1) with a tag for short-range communication as a recognition means (11) attached to a table (10), user information including not only table information but also user identification information can be collected. For example, when a user simply places his/her user terminal (200) on a position of a table 101) where a tag for short-range communication is attached, the table information and information about the user can be provided to the meal monitoring device (100) from the user terminal (200) due to tagging. Therefore, according to the present embodiment, the meal monitoring device (100) can collect user information without causing inconvenience to the user.
그러나, 이는 하나의 실시예일 뿐, 이용자의 위치정보는 이용자 단말의 GPS 위치 정보를 기반으로 하는 방식, 해당 매장 내에서 이용자 단말에 의해 촬영된 영상 또는 홀(2)에 설치된 카메라에 의해 촬영된 영상을 분석하는 방식, 매장에서 사용되는 와이파이/비콘 등의 무선 인터넷 망에 대한 이용자 단말의 통신 강도를 기반으로 하는 방식 중 적어도 하나를 이용하여 획득될 수도 있으며, 그 위치정보를 획득하기 위한 방법을 한정하지 않는다. 즉, 식사 위치 정보는 식사공간 내의 적어도 하나의 인식수단을 인식하도록 함으로써 획득하는 제1 방식, 촬영된 영상에 대한 분석을 기반으로 획득하는 제2 방식, 이용자 단말에 대한 GPS 위치 정보를 기반으로 획득하는 제3 방식 및 현재 접속된 무선 인터넷 망에 대한 이용자 단말의 통신 강도를 기반으로 획득하는 제4 방식 중 적어도 하나를 이용하여 획득될 수 있다.However, this is only one embodiment, and the user's location information may be obtained by using at least one of a method based on the GPS location information of the user's terminal, a method of analyzing an image captured by the user's terminal within the store or an image captured by a camera installed in the hall (2), and a method based on the communication strength of the user's terminal with respect to a wireless Internet network such as Wi-Fi/beacon used in the store, and the method for obtaining the location information is not limited. That is, the dining location information may be obtained by using at least one of a first method of obtaining it by recognizing at least one recognition means within the dining space, a second method of obtaining it based on analysis of the captured image, a third method of obtaining it based on the GPS location information of the user's terminal, and a fourth method of obtaining it based on the communication strength of the user's terminal with respect to the currently connected wireless Internet network.
또한, 각 방식을 단계적으로 활용하여 이용자의 위치 정보를 보다 정확하게 획득하도록 할 수도 있다. 예를 들어, 이용자 단말의 GPS 위치 정보를 기반으로 이용자의 대략적인 식사공간의 위치를 식별하고, 이용자의 단말이 접속되어 있는 무선 인터넷 망에 대한 그 이용자 단말의 통신 강도를 기반으로 식사공간 내의 식사 위치를 식별한다. In addition, each method can be utilized stepwise to obtain the user's location information more accurately. For example, the approximate location of the user's dining area is identified based on the GPS location information of the user's terminal, and the location of the meal within the dining area is identified based on the communication strength of the user's terminal with respect to the wireless Internet network to which the user's terminal is connected.
이와 같이 각각의 방식을 단계적으로 활용하여 사용자의 식사 위치를 정확하게 파악 및 연계하도록 함으로써 해당 이용자의 방문 정보를 보다 종합적으로 관리하도록 할 수 있다. 구체적으로, 카메라에 의해 촬영된 영상을 분석함으로써 그 식사 위치 내에서 이용자가 착석한 테이블을 식별하도록 할 수 있을 뿐만 아니라, 그 테이블에서 주문한 메뉴(음식물)들을 식별하도록 할 수도 있다. 즉, 해당 이용자가 어느 식당에 방문하여 어느 테이블의 어느 자리에 앉아서 어느 메뉴를 섭취했는지 여부까지도 확인하도록 할 수 있는 것이다.By utilizing each method in stages like this, the user's dining location can be accurately identified and linked, thereby allowing more comprehensive management of the user's visit information. Specifically, by analyzing the video captured by the camera, it is possible to identify not only the table at which the user sat within the dining location, but also the menus (food) ordered at that table. In other words, it is possible to confirm which restaurant the user visited, which table, which seat, and which menu he or she consumed.
한편, 매장(1)에는 키오스크와 같은 보조 장치(미도시)가 배치될 수 있으며, 이용자는 이 보조 장치를 통해 음식물을 주문할 수 있다. 이 밖에, 그 이용자는 매장(1)의 종업원 등의 매장 직원을 통해 음식물을 주문하거나, 스마트폰과 같은 이용자 단말(200)을 통해 음식물을 주문할 수 있다. 이용자가 보조 장치 또는 이용자 단말(200)을 통해 음식물을 주문하는 경우, 보조 장치에 구비된 마이크 또는 이용자 단말(200)에 구비된 마이크(미도시)를 이용하여 음성 인식을 통해 음식물의 주문이 이루어질 수 있다.Meanwhile, an auxiliary device (not shown) such as a kiosk may be placed in the store (1), and the user may order food through the auxiliary device. In addition, the user may order food through a store employee, such as an employee of the store (1), or through a user terminal (200) such as a smartphone. When the user orders food through an auxiliary device or a user terminal (200), the order for food may be made through voice recognition using a microphone equipped in the auxiliary device or a microphone (not shown) equipped in the user terminal (200).
여기서, 이용자가 테이블(10)에서 이용자 단말(200)을 이용하여 주문을 하는 경우, 테이블 번호 또는 QR 코드 등의 식별 기호가 이용될 수 있다. 몇몇 실시예에서 이용자 단말(200)을 이용하여 GPS 정보를 이용하여 메뉴판에 접근함으로써 주문을 할 수도 있다.Here, when a user places an order using a user terminal (200) at a table (10), an identification symbol such as a table number or QR code may be used. In some embodiments, an order may be placed by accessing the menu using GPS information using the user terminal (200).
몇몇 실시예에서 이용자는 매장(1)의 종업원 등의 매장 직원을 통해서만 음식물을 주문을 할 수도 있으며, 이러한 경우 헬스케어 정보를 원하는 고객은 이용자 단말(200)의 QR 코드 등 식별 기호를 매장 직원에게 제시하고 매장 직원이 해당 식별 기호를 스캐닝 등 확인한 후, 해당 이용자가 위치한 테이블 정보를 입력하도록 하여, 테이블 정보와 매칭하여 테이블 정보에 대한 음식 정보가 해당 이용자에 대해 기록되도록 할 수 있다.In some embodiments, a user may order food only through a store employee, such as an employee of the store (1), and in such a case, a customer who wants healthcare information may present an identification symbol, such as a QR code of the user terminal (200), to the store employee, and after the store employee scans or verifies the identification symbol, the user may enter table information, so that food information for the table information may be recorded for the user by matching it with the table information.
더욱이, 매장(1)에서의 이용자의 결제 과정을 통해 보조 장치 또는 이용자 단말(200)은 이용자 정보를 수집할 수 있는데, 수집 및 분석된 음식 정보를 기초로 이용자에게 헬스케어 정보를 포함한 서비스를 제공하기 위해, 테이블 정보와 더불어 결제 과정을 통해 수집된 이용자 정보가 이용될 수 있다. 보조 장치 또는 이용자 단말(200)로부터 수집된 정보, 식사 모니터링 장치(100)에 의해 분석된 정보가 수집된 이용자 정보를 바탕으로 해당 고객에 대하여 저장될 수 있으므로, 수집 및 분석된 음식 정보를 기초로 해당 이용자에 대한 서비스가 제공될 수 있다.Furthermore, the auxiliary device or user terminal (200) can collect user information through the user's payment process at the store (1), and the user information collected through the payment process together with the table information can be used to provide a service including healthcare information to the user based on the collected and analyzed food information. Since the information collected from the auxiliary device or user terminal (200) and the information analyzed by the meal monitoring device (100) can be stored for the customer based on the collected user information, a service can be provided for the user based on the collected and analyzed food information.
한편, 도 1에는 도시하지 않았으나, 이용자 및/또는 매장에 대한 영상데이터를 획득하거나, 이용자 인식을 위해 적어도 하나 이상의 카메라가 매장 내의 복수개의 위치에 각각 배치될 수 있다. 이때, 적어도 하나 이상의 카메라는 다양한 종류의 카메라가 혼합되어 배치될 수도 있다. 다만, 각 카메라는 이용자 또는 식기 등을 촬영하기 위한 것이므로, 이용자의 안면, 테이블, 바닥, 상판 등을 촬영할 수 있는 높이에 각기 배치될 수 있다. Meanwhile, although not shown in Fig. 1, at least one camera may be placed at multiple locations within the store to obtain image data about the user and/or the store, or to recognize the user. At this time, at least one camera may be placed by mixing various types of cameras. However, since each camera is for photographing the user or dishes, etc., they may be placed at a height where they can photograph the user's face, table, floor, countertop, etc.
한편, 적어도 하나 이상의 카메라는 이동이 가능한 포터블 타입으로 구비되어 각 테이블 상에 사용 가능하도록 배치되는 제1 형태, 천장 및 벽면 중 적어도 하나에 설치되는 제2 형태, 키오스크(kiosk) 또는 포스(Point Of Sales, POS)에 구비되는 제3 형태 및 매장(홀) 관리자 또는 종업원이 사용하는 단말에 구비되는 제4 형태 중 적어도 하나의 형태로 구비될 수 있다. 즉, 카메라의 종류, 형상 및 형태는 제한되지 않는다.Meanwhile, at least one camera may be provided in at least one of the following forms: a first form in which the camera is provided as a portable type that can be moved and placed on each table so that it can be used; a second form in which the camera is installed on at least one of the ceiling and the wall; a third form in which the camera is provided in a kiosk or a point of sales (POS); and a fourth form in which the camera is provided in a terminal used by a store (hall) manager or employee. In other words, the type, shape, and form of the camera are not limited.
예를 들어, 이용자가 매장(1)에 입장하면, 적어도 하나 이상의 카메라를 통해 이용자의 안면이 포함된 영상(이미지)을 획득하여 이용자를 인식할 수 있도록 하고, 그 이용자의 동선을 확인하여 식사 위치 정보를 획득할 수 있도록 하며, 그 이용자의 식사 정보를 확인하기 위한 기반이 되는 식사 영상(식사하는 동안의 영상)을 획득할 수 있도록 한다. For example, when a user enters a store (1), the user can be recognized by obtaining an image (video) containing the user's face through at least one camera, the user's movement path can be confirmed to obtain meal location information, and a meal video (video taken while eating) that serves as the basis for confirming the user's meal information can be obtained.
그로 인해, 매장(1) 내에서는 다양한 음식 정보가 수집될 수 있다. 이용자가 식사를 마친 후 식기에 남은 음식물이 촬상되어 해당 이용자에 대한 식후 이미지 정보가 수집될 수 있고, 그 식후 이미지 정보를 이용하여 해당 이용자에 대한 잔반 정보를 생성할 수 있다. 예컨대, 이용자가 매장에 설치된 적어도 하나 이상의 카메라, 보조 장치 및 이용자 단말(200) 중 적어도 하나를 이용하여 식기에 남은 음식물을 촬상할 수 있지만, 매장 직원이 테이블(10)을 정리하기 전 식기에 남은 음식물을 촬상할 수도 있다.Accordingly, various food information can be collected within the store (1). After the user finishes eating, the food remaining on the dishes can be photographed to collect post-meal image information about the user, and the post-meal image information can be used to generate leftover information about the user. For example, the user can photograph the food remaining on the dishes using at least one of the cameras, auxiliary devices, and user terminals (200) installed in the store, but the store staff can also photograph the food remaining on the dishes before clearing the table (10).
이 밖에, 음식 정보로서 이용자가 식사를 하기 전 식기에 담긴 음식물이 촬상되어 해당 이용자에 대한 식전 이미지 정보가 수집될 수 있다. 그리고 이용자가 식사를 하는 과정에서 식기에 담긴 음식물의 섭취 과정이 촬상되어 해당 이용자에 대한 식사 중 이미지 정보가 수집될 수 있다. 또한, 조리실(3) 내에서 음식물이 조리되는 과정이 촬상되어 조리 이미지 정보가 수집될 수 있다.In addition, as food information, food in dishes may be photographed before a user eats, and pre-meal image information for the user may be collected. In addition, while the user is eating, the process of consuming food in dishes may be photographed, and image information during the meal may be collected for the user. In addition, the process of cooking food in the kitchen (3) may be photographed, and cooking image information may be collected.
본 발명의 실시예에 따르면, 매장(1)에서는 이용자의 잔반 정보를 분석하여 추가 서비스를 제공할 수 있을 뿐 아니라, 매장(1)의 운영에 그 잔반 정보를 포함하는 음식 정보에 대한 분석 결과를 이용할 수도 있다.According to an embodiment of the present invention, the store (1) can analyze the user's leftover food information to provide additional services, and can also use the analysis results of food information including the leftover food information for the operation of the store (1).
도 2는 본 발명의 실시예에 따른 식사 모니터링 장치의 구성을 나타내는 블록도이다.Figure 2 is a block diagram showing the configuration of a meal monitoring device according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 실시예에 따른 식사 모니터링 장치(100)는 통신부(110), 저장부(120) 및 제어부(130)를 포함할 수 있다.Referring to FIG. 2, a meal monitoring device (100) according to an embodiment of the present invention may include a communication unit (110), a storage unit (120), and a control unit (130).
통신부(110)는 이용자의 단말과 통신을 수행하기 위한 것으로, 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 한다. The communication unit (110) is for performing communication with the user's terminal and transmits and receives wireless signals in a communication network according to wireless Internet technologies.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 식사 모니터링 장치(100)는 앞에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc., and the meal monitoring device (100) transmits and receives data according to at least one wireless Internet technology, including Internet technologies not listed above.
근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 무선 통신망(Wireless Area Networks)을 식사 모니터링 장치(100)와 이용자 단말(200) 간 무선 통신을 지원할 수 있다. 이때, 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.As for short range communication, short range communication can be supported using at least one of Bluetooth™, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technologies. Such short range wireless communication networks (Wireless Area Networks) can support wireless communication between a meal monitoring device (100) and a user terminal (200). At this time, the short range wireless communication network can be a short range wireless personal area network (Wireless Personal Area Networks).
저장부(120)는 식사 모니터링 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 식사 모니터링 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 식사 모니터링 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 한편, 응용 프로그램은, 저장부(120)에 저장되고, 식사 모니터링 장치(100) 상에 설치되어, 제어부(130)에 의하여 동작(또는 기능)을 수행하도록 구동될 수 있다.The storage unit (120) stores data supporting various functions of the meal monitoring device (100). It can store a plurality of application programs (or applications) driven by the meal monitoring device (100), data for the operation of the meal monitoring device (100), and commands. At least some of these application programs can be downloaded from an external server via wireless communication. Meanwhile, the application programs can be stored in the storage unit (120), installed on the meal monitoring device (100), and driven to perform operations (or functions) by the control unit (130).
제어부(130)는 응용 프로그램과 관련된 동작 외에도, 통상적으로 식사 모니터링 장치(100)의 전반적인 동작을 제어한다. 제어부(130)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 저장부(120)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operations related to the application program, the control unit (130) typically controls the overall operation of the meal monitoring device (100). The control unit (130) can provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the components discussed above or by operating an application program stored in the storage unit (120).
구체적으로, 제어부(130)는 적어도 하나의 이용자가 식사하는 식사공간 및 그 식사공간 내의 식기를 포함한 영상을 수신하고, 그 영상을 분석하여 해당 이용자의 식사 정보를 생성하여 저장한다. 이때, 제어부(130)는 식사 정보를 영상과 연계시켜 저장하도록 하되, 그 영상 내의 메타 정보 내에 앞서 획득된 식사 위치 정보와 그 획득 시간 정보를 포함하여 저장한다. 여기서, 식사 위치 정보는 식사공간 내에서 상기 이용자가 위치한 영역 정보, 식사공간 내에 배치된 적어도 하나 이상의 테이블 중 이용자가 착석한 테이블 정보, 식사공간 내에 배치된 테이블에서 해당 이용자가 착석한 좌석 정보 중 적어도 하나를 포함할 수 있다. 또한, 식사 정보는 음식물(음식)의 종류, 해당 음식물에 대한 이용자의 선호도, 섭취량, 섭취 칼로리, 잔반 정보 중 적어도 하나를 포함할 수 있다. 여기서, 잔반 정보는 추후 식사 모니터링 장치(100)가 해당 매장에 대한 잔반 관리를 위해 사용할 수 있고, 선호도는 식사 모니터링 장치(100)가 해당 이용자의 식단 관리는 물론, 해당 매장에서 판매되는 메뉴에 대한 통계 등을 위해 사용할 수도 있다. 이를 통해, 잔반을 최소화할 수 있게 메뉴 별 조리양을 조절하도록 한다거나, 음식에 대한 선호도 등을 고려하여 메뉴나 레시피를 정비하는 등의 관리가 이뤄질 수 있도록 할 수도 있다.Specifically, the control unit (130) receives an image including a dining space where at least one user is eating and tableware in the dining space, analyzes the image to generate and store meal information of the user. At this time, the control unit (130) stores the meal information in association with the image, and includes previously acquired meal location information and acquisition time information in the meta information of the image. Here, the meal location information may include at least one of information on the area where the user is located in the dining space, information on the table at which the user is seated among at least one table arranged in the dining space, and information on the seat at which the user is seated among the tables arranged in the dining space. In addition, the meal information may include at least one of the type of food (food), the user's preference for the food, the amount consumed, the calories consumed, and leftover information. Here, the leftover information may be used by the meal monitoring device (100) to manage leftovers for the corresponding store in the future, and the preference may be used by the meal monitoring device (100) to manage the user's diet as well as statistics on menus sold in the corresponding store. Through this, management can be carried out, such as adjusting the amount of food for each menu to minimize leftovers, or organizing the menu or recipe by considering food preferences.
한편, 적어도 하나의 이용자가 식사하는 식사공간 및 그 식사공간 내의 식기를 포함한 영상은 그 식사공간 내에 구비된 카메라를 통해 촬영된 영상일 수도 있고, 이용자 단말(200)을 통해 촬영된 영상일 수 있다. 여기서, 식사공간 내에 구비된 카메라는 적어도 하나 이상일 수 있다.Meanwhile, the image including the dining space where at least one user is eating and the tableware within the dining space may be an image captured by a camera installed within the dining space or an image captured via a user terminal (200). Here, there may be at least one camera installed within the dining space.
한편, 제어부(130)는 영상을 분석하기 이전에 이용자를 특정하기 위해 식사 위치 정보를 확인(파악)하여야 하는데, 이를 위해 영상을 촬영하기 이전에 이용자 단말(200)에서 송신되는 정보들을 기반으로 그 식사 위치 정보를 획득할 수도 있고, 촬영된 영상을 기반으로 식사 정보를 생성하기 이전에 우선적으로 식사 위치 정보를 확인할 수 있다. Meanwhile, the control unit (130) must confirm (identify) meal location information to identify the user before analyzing the video. To this end, the meal location information can be obtained based on information transmitted from the user terminal (200) before shooting the video, or the meal location information can be confirmed first before generating the meal information based on the shot video.
예를 들어, 영상이 식사공간 내의 복수의 테이블을 포함하고 있는 경우, 테이블 각각을 기준으로 영상을 복수의 영역으로 구분하고, 그 구분된 영역 중 해당 이용자가 포함된 영역을 인식한 후, 그 영상 내에서 인식된 영역의 상대적 위치를 파악함으로써 이를 기반으로 그 이용자의 식사 위치 정보를 획득할 수 있다. 또한, 이용자 단말(200) 또는 식사공간 내에 구비되는 카메라에 의해 테이블에 부착된 코드 및 태그 중 적어도 하나를 인식한 경우, 그에 따라 인식된 식별정보가 통신부(110)를 통해 수신될 수 있으며, 제어부(130)는 기저장된 좌석 정보 중 그 식별정보에 대응하는 좌석 정보를 확인한다. 그에 따라 확인된 좌석 정보를 해당 이용자의 식사 위치 정보로서 획득할 수 있다.For example, if the image includes multiple tables in a dining space, the image is divided into multiple areas based on each table, the area in which the user is included is recognized among the divided areas, and the relative position of the recognized area in the image is determined to obtain the dining location information of the user based on this. In addition, if at least one of the codes and tags attached to the table is recognized by the user terminal (200) or the camera provided in the dining space, the recognized identification information can be received through the communication unit (110), and the control unit (130) checks the seat information corresponding to the identification information among the pre-stored seat information. The confirmed seat information can be obtained as the dining location information of the user.
한편, 제어부(130)는 이용자 단말(200)로부터 식사공간에 해당하는 매장에 대한 리뷰 작성/등록 요청이 수신되면, 기저장된 정보들을 이용하여 해당 이용자가 그 매장에 실방문했는지 여부를 판단하여 리뷰 작성/등록의 허용 여부를 결정한다. Meanwhile, when a request to write/register a review for a store corresponding to a dining space is received from a user terminal (200), the control unit (130) determines whether or not to allow the writing/registration of a review by using pre-stored information to determine whether the user has actually visited the store.
구체적으로, 제어부(130)는 저장부(120)에 기저장된 영상 및 메타 정보를 기반으로 방문 일자, 방문 시간, 주문 내용 등을 확인함으로써, 해당 이용자가 그 매장에 방문한 이력이 있는지 여부를 판단하고, 그 판단 결과에 따라 리뷰의 작성/등록 여부를 결정한다. 한편, 제어부(130)는 리뷰 작성/등록 요청으로서, 메타 정보 내에 촬영 위치 및 촬영 시간이 포함된 후기 영상이 수신될 경우, 저장부(120)에 기저장된 영상 중 그 후기 영상의 메타 정보 내에 포함된 촬영 위치 및 촬영시간과 관련된 영상의 존재 여부를 판단하고, 그 판단 결과에 따라 리뷰의 작성/등록 여부를 결정한다. 만약, 방문한 이력이 있는 것으로 확인된 경우에는 리뷰의 작성 또는 등록을 허용하고, 방문한 이력이 없거나 일치하지 않는 것으로 확인된 경우에는 리뷰의 작성 또는 등록을 허용하지 않는다.Specifically, the control unit (130) determines whether the user has visited the store before by checking the visit date, visit time, order details, etc. based on the video and meta information pre-stored in the storage unit (120), and decides whether to write/register a review based on the determination result. Meanwhile, when a review video including a shooting location and shooting time in the meta information is received as a request for writing/registering a review, the control unit (130) determines whether a video related to the shooting location and shooting time included in the meta information of the review video among the videos pre-stored in the storage unit (120) exists, and decides whether to write/register a review based on the determination result. If it is confirmed that there is a visit history, the writing or registration of the review is permitted, and if it is confirmed that there is no visit history or that the visit history does not match, the writing or registration of the review is not permitted.
본 발명의 일 실시예에 따른 식사 모니터링 장치(100)는 식사 모니터링 서비스를 제공하기 위한 서비스 서버일 수 있다. 한편, 식사 모니터링 서비스를 이용하기 위한 이용자 단말(200) 또는 매장 단말(미도시)은 사용자가 원하는 다수의 응용 프로그램(즉, 애플리케이션)을 설치하여 실행할 수 있는 컴퓨터, UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA(Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 테블릿(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트 폰(smart phone), 패드(Pad), 스마트 워치(Smart watch), 웨어러블(wearable) 단말, e-북(e-book), PMP(portable multimedia player), 휴대용 게임기, 네비게이션(navigation) 장치, 블랙 박스(black box) 또는 디지털 카메라(digital camera), 기타 이동통신 단말 등일 수 있다. 이로써, 이용자 단말(200)은 식사 모니터링 서비스를 제공받기 위해 별도의 프로그램 또는 어플리케이션을 설치해야할 수 있다. 그러나, 이는 하나의 실시예일 뿐, 웹페이지에 접속함으로써 식사 모니터링 서비스를 제공받을 수도 있다.A meal monitoring device (100) according to one embodiment of the present invention may be a service server for providing a meal monitoring service. Meanwhile, a user terminal (200) or a store terminal (not shown) for using the meal monitoring service may be a computer, an Ultra Mobile PC (UMPC), a workstation, a netbook, a PDA (Personal Digital Assistants), a portable computer, a web tablet, a wireless phone, a mobile phone, a smart phone, a pad, a smart watch, a wearable terminal, an e-book, a portable multimedia player (PMP), a portable game console, a navigation device, a black box, a digital camera, or other mobile communication terminals, on which a user can install and execute a plurality of application programs (i.e., applications) desired by the user. Accordingly, the user terminal (200) may need to install a separate program or application in order to receive the meal monitoring service. However, this is only one example, and you may also receive meal monitoring services by accessing the webpage.
도 3은 본 발명의 실시예에 따른 식사 모니터링 장치를 이용하는 매장의 테이블 예시를 나타내는 도면으로서, 하나의 테이블(10)에 네 명의 이용자(20-1 내지 20-4)가 둘러 앉아 식사를 하는 경우를 도시한 것이다. FIG. 3 is a drawing showing an example of a table in a store using a meal monitoring device according to an embodiment of the present invention, illustrating a case where four users (20-1 to 20-4) sit around one table (10) and eat.
도 3을 참조하면, 하나의 테이블(10)에는 앉아서 식사할 수 있는 네 개의 좌석이 형성되어 있으며, 각각의 좌석에는 각 좌석에 대한 식별정보를 포함하는 인식수단(11-1 내지 11-4)이 구비(부착)될 수 있다.Referring to Fig. 3, one table (10) is formed with four seats for sitting and eating, and each seat may be equipped (attached) with an identification means (11-1 to 11-4) including identification information for each seat.
도 3에는 각 이용자의 이용자 단말을 도시하지 않았으나, 각 이용자가 자신이 착석한 좌석에 구비된 인식수단을 자신의 단말을 통해 인식함으로써, 자신이 어느 테이블의 어느 좌석에 앉아있는지를 식사 모니터링 장치(100)가 확인할 수 있도록 한다.Although the user terminal of each user is not shown in Fig. 3, each user can recognize the recognition means equipped on the seat where he or she is seated through his or her terminal, thereby allowing the meal monitoring device (100) to confirm which seat at which table he or she is sitting.
한편, 테이블의 상측 천장에 설치된 카메라를 통해 식사하는 영상을 촬영한 경우로 가정한다면, 그 카메라에 의해 촬영된 영상이 식사 모니터링 장치(100)로 송신되고, 식사 모니터링 장치(100)는 그 영상을 분석하여 제1 이용자(20-1) 내지 제4 이용자(20-4) 각각의 식사 정보를 생성할 수 있다.Meanwhile, assuming that a video of a meal is captured through a camera installed on the upper ceiling of the table, the video captured by the camera is transmitted to the meal monitoring device (100), and the meal monitoring device (100) can analyze the video to generate meal information for each of the first user (20-1) to the fourth user (20-4).
한편, 네 명의 이용자(20-1 내지 20-4)들이 음식을 주문할 시, 그 주문 정보가 식사 모니터링 장치(100)로 함께 전송될 수도 있다. 이때, 주문은 네 명의 이용자(20-1 내지 20-4) 중 어느 한 명의 이용자 단말을 이용하여 이뤄질 수도 있고, 주문을 위해 각 테이블에 구비된 기기나 해당 매장에 설치된 키오스크 등을 이용하여 이뤄질 수도 있으며, 매장(홀) 관리자 또는 종업원이 자신의 단말 또는 포스에 입력함으로써 이뤄질 수도 있다. 이로써, 식사 모니터링 장치(100)가 영상 분석 시에 그 주문 정보를 참고하여 식사 정보를 생성할 수 있도록 할 수도 있다. 예를 들어, 식사 모니터링 장치(100)는 그 주문 정보를 통해 각 이용자가 섭취한 음식물의 종류를 확인하거나, 섭취량. 섭취 칼로리 등을 산출할 수 있다. 이를 위해, 식사 모니터링 장치(100)에는 매장(홀) 관리자에 의해 자신이 판매하는 음식물 리스트, 각 음식물의 정량, 칼로리 정보 등이 기저장된 데이터로서 저장될 수 있다.Meanwhile, when four users (20-1 to 20-4) order food, the order information may be transmitted together to the meal monitoring device (100). At this time, the order may be made using the terminal of one of the four users (20-1 to 20-4), or may be made using a device provided at each table for ordering, a kiosk installed in the store, or may be made by the store (hall) manager or employee entering the order information into his/her terminal or POS. In this way, the meal monitoring device (100) may be enabled to generate meal information by referring to the order information during image analysis. For example, the meal monitoring device (100) may check the type of food consumed by each user, or calculate the amount consumed, calories consumed, etc. through the order information. To this end, the meal monitoring device (100) may store a list of food items sold by the store (hall) manager, the quantity of each food item, calorie information, etc. as pre-stored data.
도 3에 도시된 바와 같이, 제1 이용자(20-1) 내지 제4 이용자(20-4)가 메인 음식으로서 각각 제1 음식(30-1) 내지 제4 음식(30-4)를 주문하고, 공유 음식으로서 제5 음식(30-5)이 제공된 경우, 식사 모니터링 장치(100)는 획득한 영상을 분석하여 각 사용자의 메인 음식 및 공유 음식의 음식물 종류를 확인하고, 각 이용자별 식사 정보를 생성한다. 여기서, 메인 음식에 대해서는 식사 이전의 부피 및 무게와 식사를 끝낸 이후의 부피 및 무게를 비교하여 관련 데이터를 산출할 수 있으며, 공유 음식에 대해서는 영상 분석을 통해 각 이용자의 섭취량과 같은 데이터를 개별적으로 산출할 수 있다. As illustrated in FIG. 3, when the first user (20-1) to the fourth user (20-4) order the first food (30-1) to the fourth food (30-4) as main foods, respectively, and the fifth food (30-5) is provided as shared food, the meal monitoring device (100) analyzes the acquired images to confirm the food types of the main food and shared food of each user, and generates meal information for each user. Here, for the main food, the volume and weight before the meal can be compared with the volume and weight after the meal to derive relevant data, and for the shared food, data such as the intake amount of each user can be derived individually through image analysis.
도 4는 본 발명의 실시예에 따른 식사 모니터링 장치를 이용하는 식사공간 내에 적용(설치)될 수 있는 카메라의 일 예를 나타내는 도면이고, 도 5는 본 발명의 실시예에 따른 식사 모니터링 장치를 이용하는 매장에 적용될 수 있는 카메라의 다른 예를 나타내는 도면이다.FIG. 4 is a drawing showing an example of a camera that can be applied (installed) in a dining space using a meal monitoring device according to an embodiment of the present invention, and FIG. 5 is a drawing showing another example of a camera that can be applied to a store using a meal monitoring device according to an embodiment of the present invention.
구체적으로, 도 4는 카메라(300)가 식사공간 내의 천장에 설치된 경우를 도시한 것이고, 도 5는 카메라(300)가 이동 가능한 포터블 타입으로 구성된 경우를 도시한 것이다. 후자의 경우에는 식사공간 내에 배치된 테이블 상에서 사용하도록 할 수도 있고, 매장 관리자가 필요에 따라 이동시켜가면 사용하도록 할 수도 있다. 도 5에 도시된 바와 같이, 포터블 타입으로 구성되는 경우에도 (a) 및 (b)와 같이 다양한 형태로 형성될 수 있다.Specifically, FIG. 4 illustrates a case where the camera (300) is installed on the ceiling in a dining space, and FIG. 5 illustrates a case where the camera (300) is configured as a portable type that can be moved. In the latter case, it can be used on a table placed in a dining space, or it can be used when the store manager moves it as needed. As illustrated in FIG. 5, even when configured as a portable type, it can be formed in various forms such as (a) and (b).
한편, 앞서 설명한 바와 같이 본 발명의 실시예에 따른 식사 모니터링 장치(100)를 이용하는 매장에는 적어도 하나 이상의 카메라가 다양한 종류 및 형태로 설치될 수 있다. 예를 들어, 적어도 하나 이상의 카메라는 2D 카메라, 3D 카메라, ToF(Time of Flight) 카메라, 라이트 필드 카메라(light field camera), 스테레오 카메라, 이벤트 카메라, 적외선 카메라, 라이다(lidar) 센서, 어레이(array) 카메라 중 적어도 하나를 포함할 수 있으며, 영상(이미지) 정보와 깊이 정보를 측정할 수 있다면 그 구성에 제한이 없다. 또한, 복수의 카메라가 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록 스트레오 구조로 배치될 수도 있다.Meanwhile, as described above, at least one camera may be installed in various types and forms in a store using the meal monitoring device (100) according to the embodiment of the present invention. For example, at least one camera may include at least one of a 2D camera, a 3D camera, a ToF (Time of Flight) camera, a light field camera, a stereo camera, an event camera, an infrared camera, a lidar sensor, and an array camera, and there is no limitation on its configuration as long as it can measure image information and depth information. In addition, a plurality of cameras may be arranged in a stereo structure to acquire left and right images for implementing a stereoscopic image.
도 6은 본 발명의 일 실시예에 따른 식사 모니터링 방법을 나타내는 순서도이다.Figure 6 is a flowchart showing a meal monitoring method according to one embodiment of the present invention.
먼저, 이용자 단말(200), 식사공간 내에 설치된 카메라 또는 관리자 단말을 통해 인식수단을 인식하도록 하거나, 이용자를 트래킹 하는 등의 확인(분석) 동작을 통해 식사공간 내에서의 이용자 착석을 감지하면(S201), 그 인식된 정보나 확인 결과를 기반으로 식사공간 내에 배치된 테이블에서 그 이용자가 착석한 좌석정보를 이용자에 대한 식사 위치 정보로서 확인 및 저장한다(S203). 이때, 식사 위치 정보와 그 획득 시간 정보가 함께 저장될 수 있다.First, when the user's seating in the dining space is detected through a verification (analysis) operation such as recognizing a recognition means through a user terminal (200), a camera installed in the dining space, or an administrator terminal, or tracking the user (S201), then, based on the recognized information or verification result, the seat information at which the user is seated at a table arranged in the dining space is confirmed and stored as dining location information for the user (S203). At this time, the dining location information and the acquisition time information may be stored together.
이후, 이용자 단말(200), 식사공간 내에 설치된 카메라 또는 관리자 단말을 통해 이용자가 식사하는 동안 촬영된 영상을 수신함으로써 획득하고(S205), 그 영상과 해당 영상 내의 메타 정보, 그리고 앞서 획득한 식사 위치 정보와 그 획득 시간 정보를 매칭하여 저장한다(S207).Thereafter, the image captured while the user is eating is received through the user terminal (200), a camera installed in the dining space, or an administrator terminal (S205), and the image, the meta information within the image, the previously acquired dining location information, and the acquisition time information are matched and stored (S207).
식사 모니터링 장치(100)는 S207 단계에 의해 저장된 정보들을 기반으로 해당 이용자에 대한 식사 정보를 생성 및 저장하고(S209), 그 식사 정보를 해당 이용자 또는 기설정된 단말로 송신한다(S211).The meal monitoring device (100) generates and stores meal information for the user based on the information stored in step S207 (S209) and transmits the meal information to the user or a preset terminal (S211).
도 6에는 도시하지 않았으나, 식사 모니터링 장치(100)는 S207 단계에 의해 저장된 정보들을 기반으로 각 매장에 대한 정보들을 분리 및 분석하여 잔반량, 판매량, 선호도 등을 매장 정보로서 해당 매장의 관리자 단말로 송신하여 줄 수도 있다. 이로써, 매장의 관리자는 그 매장 정보를 매장 운용에 활용할 수 있다.Although not shown in Fig. 6, the meal monitoring device (100) may separate and analyze information about each store based on the information stored in step S207 and transmit the amount of leftover food, sales volume, preferences, etc. as store information to the manager terminal of the store. As a result, the manager of the store can utilize the store information for store operation.
한편, S211 단계 이후, 식사 모니터링 장치(100)는 이용자 단말(200)로부터 특정 메뉴 또는 매장에 대한 리뷰 작성/등록 요청을 수신하면(S213), S207 단계에 의해 저장된 정보들을 기반으로 해당 이용자가 해당 메뉴를 실제 섭취하였는지 또는 해당 매장에 실제 방문하였는지 여부를 확인한다(S215). 그 확인 결과에 따라 식사 모니터링 장치(100)는 해당 이용자에 대한 리뷰 작성/등록을 허용하거나 거절한다(S217). 구체적으로, 해당 이용자가 해당 메뉴를 실제 섭취하였거나 해당 매장에 실제 방문하였다면, 해당 이용자 단말(200)에 의한 리뷰 작성/등록을 허용하고, 해당 이용자가 해당 메뉴를 실제 섭취한 이력이 없다거나 해당 매장에 실제 방문한 이력이 없다면, 해당 이용자 단말(200)에 의한 리뷰 작성/등록을 거절한다.Meanwhile, after step S211, if the meal monitoring device (100) receives a request for writing/registering a review for a specific menu or store from a user terminal (200) (S213), it verifies whether the user has actually consumed the menu or actually visited the store based on the information stored in step S207 (S215). Depending on the result of the verification, the meal monitoring device (100) allows or rejects the writing/registration of a review for the user (S217). Specifically, if the user has actually consumed the menu or actually visited the store, the writing/registration of a review by the user terminal (200) is permitted, and if the user has no history of actually consuming the menu or actually visiting the store, the writing/registration of a review by the user terminal (200) is rejected.
이로써, 실제 방문자에 대한 리뷰만이 등록될 수 있도록 함으로써, 다른 소비자들에게 보다 유익한 리뷰 정보들이 제공될 수 있도록 한다.This ensures that only reviews from actual visitors are registered, thereby providing more useful review information to other consumers.
도 7은 본 발명의 일 실시예에 따른 식사 모니터링 장치로부터 전달된 식사 정보가 이용자 단말의 사용자 인터페이스를 통해 출력된 일 예를 나타내는 도면이다.FIG. 7 is a diagram showing an example of meal information transmitted from a meal monitoring device according to one embodiment of the present invention being output through a user interface of a user terminal.
도 7을 참조하면, 이용자 단말(200)은 카메라부(201), 음향출력부(203) 및 디스플레이부(205)가 구비할 수 있다.Referring to FIG. 7, the user terminal (200) may be equipped with a camera unit (201), an audio output unit (203), and a display unit (205).
카메라부(201)를 이용하여 식사하는 동안의 영상을 촬영하거나, 식사 전 및 후의 이미지를 촬영하여 식사 모니터링 장치(100)로 송신되도록 할 수 있다.The camera unit (201) can be used to capture images while eating, or to capture images before and after eating and transmit them to the meal monitoring device (100).
이때, 카메라부(201)에 깊이 정보를 획득할 수 있는 3D 카메라 또는 ToF(Time of Flight) 카메라 등의 깊이(depth) 카메라가 포함되어 있다면, 식사 모니터링 장치(100)에서 더욱 정확도가 높은 식사 정보가 생성될 수 있다.At this time, if the camera unit (201) includes a depth camera such as a 3D camera or a ToF (Time of Flight) camera capable of obtaining depth information, more accurate meal information can be generated from the meal monitoring device (100).
한편, 음향출력부(203)를 통해 식사 모니터링 장치(203)에 의해 전달되는 식사 정보를 음향으로 출력해줄 수 있고, 디스플레이부(205)를 통해 식사 정보를 시각적으로 확인할 수 있도록 사용자 인터페이스에 디스플레이 할 수 있다.Meanwhile, meal information transmitted by the meal monitoring device (203) can be output as sound through the sound output unit (203), and the meal information can be displayed on the user interface so that the user can visually confirm the meal information through the display unit (205).
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with the embodiments of the present invention may be implemented directly in hardware, implemented in a software module executed by hardware, or implemented by a combination of these. The software module may reside in a Random Access Memory (RAM), a Read Only Memory (ROM), an Erasable Programmable ROM (EPROM), an Electrically Erasable Programmable ROM (EEPROM), a flash memory, a hard disk, a removable disk, a CD-ROM, or any other form of computer-readable recording medium well known in the art to which the present invention pertains.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. Above, while the embodiments of the present invention have been described with reference to the attached drawings, it will be understood by those skilled in the art that the present invention may be implemented in other specific forms without changing the technical idea or essential features thereof. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.
1 : 매장 2: 홀
3: 조리실 10: 테이블
11: 인식수단 100: 식사 모니터링 장치
110: 통신부 120: 저장부
130: 제어부 20-1: 제1 이용자
20-2: 제2 이용자 20-3: 제3 이용자
20-4: 제4 이용자 30-1: 제1 음식물
30-2: 제2 음식물 30-3: 제3 음식물
30-4: 제4 음식물 30-5: 공유 음식물
200: 이용자 단말 201: 카메라부
203: 음향출력부 205: 디스플레이부
300: 카메라1: Store 2: Hall
3: Kitchen 10: Table
11: Recognition means 100: Meal monitoring device
110: Communications Department 120: Storage Department
130: Control Unit 20-1: User 1
20-2: 2nd user 20-3: 3rd user
20-4: 4th user 30-1: 1st food
30-2: Second food 30-3: Third food
30-4: 4th food 30-5: Shared food
200: User terminal 201: Camera section
203: Sound output section 205: Display section
300: Camera
Claims (10)
저장부;
적어도 하나의 이용자가 식사하는 식사공간 및 상기 식사공간 내의 식기를 포함한 영상을 수신하는 통신부; 및
상기 이용자의 단말(이하, '이용자 단말')을 기반으로 상기 이용자의 식사 위치 정보를 획득하고, 상기 영상 내에서 상기 식기에 담겨진 음식물을 인식하고, 상기 인식된 음식물을 기반으로 식사 정보를 생성한 후, 상기 영상 및 상기 식사 정보를 연계시켜 저장하도록 제어하되, 상기 영상 내의 메타 정보 내에 상기 식사 위치 정보 및 상기 식사 위치 정보의 획득 시간 정보를 포함하여 저장하도록 제어하는 제어부;를 포함하며,
상기 식사 위치 정보는,
상기 이용자 단말이 상기 식사공간 내의 적어도 하나의 인식수단을 인식하도록 함으로써 획득하는 제1 방식, 상기 영상에 대한 분석을 기반으로 획득하는 제2 방식, 상기 이용자 단말에 대한 GPS 위치 정보를 기반으로 획득하는 제3 방식 및 현재 접속된 무선 인터넷 망에 대한 상기 이용자 단말의 통신 강도를 기반으로 획득하는 제4 방식 중 적어도 하나를 이용하여 획득되며,
상기 식사 위치 정보는 상기 식사공간 내에서 상기 이용자가 위치한 영역 정보, 상기 식사공간 내에 배치된 적어도 하나 이상의 테이블 중 이용자가 착석한 테이블 정보, 상기 식사공간 내에 배치된 테이블에서 해당 이용자가 착석한 좌석 정보 중 적어도 하나를 포함하는 것을 특징으로 하는
상기 제어부는,
상기 이용자 단말로부터 상기 식사공간에 해당하는 제1 매장에서의 제1 메뉴에 대한 리뷰 작성 요청이 수신되는 경우,
상기 저장부에 기 저장된 영상 및 메타 정보를 기반으로 상기 이용자의 상기 제1 매장의 실제 방문 여부, 상기 제1 매장의 방문 시간 및 상기 제1 매장에서의 주문 내용을 확인하고,
상기 확인 결과를 기반으로 상기 이용자의 상기 제1 매장의 실제 방문 여부 및 상기 제1 매장에서의 상기 제1 메뉴의 실제 섭취 여부에 따라 상기 리뷰 작성 요청에 대한 허용 여부를 결정하고,
복수의 이용자가 공유하는 음식물(이하, '공유 음식')이 존재하는 경우, 상기 영상을 분석하여 각 이용자가 주문한 메인 음식 및 상기 공유 음식의 음식물 종류를 확인하고,
상기 영상 분석을 통해 각 이용자의 상기 공유 음식에 대한 섭취량을 산출하여 상기 공유 음식과 관련된 식사 정보를 생성하는 것을 특징으로 하는, 식사 모니터링 장치.
In the meal monitoring device,
storage;
A communication unit that receives an image including a dining space where at least one user is eating and tableware within the dining space; and
A control unit is provided for obtaining meal location information of the user based on the user's terminal (hereinafter, "user terminal"), recognizing food contained in the dish in the image, generating meal information based on the recognized food, and then controlling the image and the meal information to be linked and stored, while controlling the storage of the meal location information and acquisition time information of the meal location information within the meta information in the image.
The above meal location information is,
It is obtained by using at least one of the following: a first method in which the user terminal is obtained by recognizing at least one recognition means within the dining space, a second method in which the user terminal is obtained based on analysis of the image, a third method in which the user terminal is obtained based on GPS location information, and a fourth method in which the user terminal is obtained based on the communication strength of the user terminal for the currently connected wireless Internet network.
The above dining location information is characterized in that it includes at least one of information on the area where the user is located within the dining space, information on the table at which the user is seated among at least one table arranged within the dining space, and information on the seat at which the user is seated among the tables arranged within the dining space.
The above control unit,
When a request to write a review for the first menu at the first store corresponding to the dining space is received from the user terminal above,
Based on the video and meta information previously stored in the storage unit, whether the user actually visited the first store, the time of the visit to the first store, and the order details at the first store are confirmed.
Based on the above verification results, whether or not the request for writing a review is accepted is determined based on whether the user actually visited the first store and actually consumed the first menu at the first store.
In the case where there is food shared by multiple users (hereinafter referred to as “shared food”), the video is analyzed to confirm the main food ordered by each user and the type of food of the shared food.
A meal monitoring device characterized in that it calculates the intake amount of the shared food of each user through the above image analysis and generates meal information related to the shared food.
상기 영상은,
상기 이용자 단말에 의해 촬영된 영상 또는 상기 식사공간 내에 구비된 카메라를 통해 촬영된 영상인 것을 특징으로 하는, 식사 모니터링 장치.
In the first paragraph,
The above video,
A meal monitoring device, characterized in that the video is captured by the user terminal or captured by a camera installed in the dining space.
상기 식사공간 내에 구비되는 카메라는,
적어도 하나 이상일 수 있으며, 이동이 가능한 포터블 타입으로 구비되어 각 테이블 상에 사용 가능하도록 배치되는 제1 형태, 천장 및 벽면 중 적어도 하나에 설치되는 제2 형태, 키오스크(kiosk) 또는 포스(Point Of Sales, POS)에 구비되는 제3 형태 및 상기 식사공간의 관리자 또는 종업원이 사용하는 단말에 구비되는 제4 형태 중 적어도 하나의 형태로 구비되는 것을 특징으로 하는, 식사 모니터링 장치.
In the first paragraph,
The cameras installed in the above dining space are:
A meal monitoring device characterized in that it is provided in at least one of the following forms: a first form that can be provided as a portable type that can be moved and placed so that it can be used on each table, a second form that is installed on at least one of a ceiling and a wall, a third form that is provided in a kiosk or a point of sales (POS), and a fourth form that is provided in a terminal used by a manager or employee of the dining space.
상기 적어도 하나의 인식수단은,
상기 식사공간 내에 배치된 적어도 하나 이상의 테이블 상에 각각 구비되되, 해당 테이블 상에 형성되는 좌석 마다 부착될 수 있으며, 해당 좌석에 대한 식별정보를 포함하는 코드 및 태그 중 적어도 하나를 포함하고,
상기 제어부는,
상기 이용자 단말 또는 상기 식사공간 내에 구비되는 카메라에 의해 인식된 식별정보를 수신하면, 기저장된 좌석 정보 중 상기 식별정보에 대응하는 좌석 정보를 확인하고, 그 확인된 좌석 정보를 해당 이용자의 식사 위치 정보로서 획득하는 것을 특징으로 하는, 식사 모니터링 장치.
In the first paragraph,
At least one of the above recognition means,
Each of which is provided on at least one table placed within the dining space, and which can be attached to each seat formed on the table, and which includes at least one of a code and a tag including identification information for the seat,
The above control unit,
A meal monitoring device characterized in that, when receiving identification information recognized by the user terminal or a camera installed in the dining space, the device checks the seat information corresponding to the identification information among the pre-stored seat information, and acquires the checked seat information as the dining location information of the corresponding user.
상기 영상은,
상기 식사공간 내에 배치된 적어도 하나 이상의 테이블을 포함하여 촬영된 것이며,
상기 제어부는,
상기 적어도 하나 이상이 테이블 각각을 기준으로 상기 영상을 복수의 영역으로 구분하고,
상기 구분된 영역 중 상기 이용자가 포함된 영역을 인식하고,
상기 영상 내에서 상기 인식된 영역의 상대적 위치를 파악하고,
상기 상대적 위치를 기반으로 상기 식사 위치 정보를 획득하는 것을 특징으로 하는, 식사 모니터링 장치.
In the first paragraph,
The above video,
The photograph was taken including at least one table placed within the above dining space,
The above control unit,
The above at least one table divides the image into multiple regions, based on each of the tables,
Recognize the area in which the user is included among the above-mentioned separated areas,
Identify the relative position of the recognized area within the above image,
A meal monitoring device characterized by obtaining the meal location information based on the above relative location.
상기 제어부는,
상기 제3 방식의 상기 GPS 위치 정보를 기반으로, 상기 식사공간의 위치를 식별하고,
상기 제4 방식의 상기 이용자 단말의 통신 강도를 기반으로, 상기 식사공간 내의 식사 위치를 식별하여 최종 식사 위치 정보를 획득하는 것을 특징으로 하는, 식사 모니터링 장치.
In the first paragraph,
The above control unit,
Based on the GPS location information of the third method, the location of the dining area is identified,
A meal monitoring device characterized in that it identifies the meal location within the dining space based on the communication strength of the user terminal of the fourth method and obtains final meal location information.
적어도 하나의 이용자가 식사하는 식사공간 및 상기 식사공간 내의 식기를 포함한 영상을 획득하는 단계;
이용자의 단말(이하, '이용자 단말')을 기반으로 상기 이용자의 식사 위치 정보를 획득하는 단계;
상기 영상 내에서 상기 식기에 담겨진 음식물을 인식하여 상기 음식물을 기반으로 식사 정보를 생성하는 단계; 및
상기 영상 및 상기 식사 정보를 연계시켜 저장하도록 제어하되, 상기 영상 내의 메타 정보 내에 상기 식사 위치 정보 및 상기 식사 위치 정보의 획득 시간 정보를 포함하여 저장하는 단계;를 포함하며,
상기 식사 위치 정보는,
상기 이용자 단말이 상기 식사공간 내의 적어도 하나의 인식수단을 인식하도록 함으로써 획득하는 제1 방식, 상기 영상에 대한 분석을 기반으로 획득하는 제2 방식, 상기 이용자 단말에 대한 GPS 위치 정보를 기반으로 획득하는 제3 방식 및 현재 접속된 무선 인터넷 망에 대한 상기 이용자 단말의 통신 강도를 기반으로 획득하는 제4 방식 중 적어도 하나를 이용하여 획득되며,
상기 식사 위치 정보는 상기 식사공간 내에서 상기 이용자가 위치한 영역 정보, 상기 식사공간 내에 배치된 적어도 하나 이상의 테이블 중 이용자가 착석한 테이블 정보, 상기 식사공간 내에 배치된 테이블에서 해당 이용자가 착석한 좌석 정보 중 적어도 하나를 포함하고,
상기 장치는,
상기 이용자 단말로부터 상기 식사공간에 해당하는 제1 매장에서의 제1 메뉴에 대한 리뷰 작성 요청이 수신되는 경우,
기 저장된 영상 및 메타 정보를 기반으로 상기 이용자의 상기 제1 매장의 실제 방문 여부, 상기 제1 매장의 방문 시간 및 상기 제1 매장에서의 주문 내용을 확인하고,
상기 확인 결과를 기반으로 상기 이용자의 상기 제1 매장의 실제 방문 여부 및 상기 제1 매장에서의 상기 제1 메뉴의 실제 섭취 여부에 따라 상기 리뷰 작성 요청에 대한 허용 여부를 결정하고,
복수의 이용자가 공유하는 음식물(이하, '공유 음식')이 존재하는 경우, 상기 영상을 분석하여 각 이용자가 주문한 메인 음식 및 상기 공유 음식의 음식물 종류를 확인하고,
상기 영상 분석을 통해 각 이용자의 상기 공유 음식에 대한 섭취량을 산출하여 상기 공유 음식과 관련된 식사 정보를 생성하는 것을 특징으로 하는, 식사 모니터링 방법.
In a method of meal monitoring performed by a device,
A step of acquiring an image including a dining space where at least one user is eating and tableware within the dining space;
A step of obtaining meal location information of a user based on the user's terminal (hereinafter, 'user terminal');
A step of recognizing food contained in the dish in the above image and generating meal information based on the food; and
A step of controlling the above image and the above meal information to be stored in a linked manner, and including the meal location information and the acquisition time information of the meal location information in the meta information within the image;
The above meal location information is,
It is obtained by using at least one of the following: a first method in which the user terminal is obtained by recognizing at least one recognition means within the dining space, a second method in which the user terminal is obtained based on analysis of the image, a third method in which the user terminal is obtained based on GPS location information, and a fourth method in which the user terminal is obtained based on the communication strength of the user terminal for the currently connected wireless Internet network.
The above dining location information includes at least one of information on the area where the user is located within the dining space, information on the table at which the user is seated among at least one table arranged within the dining space, and information on the seat at which the user is seated among the tables arranged within the dining space.
The above device,
When a request to write a review for the first menu at the first store corresponding to the dining space is received from the user terminal above,
Based on the previously stored video and meta information, check whether the user actually visited the first store, the time of the visit to the first store, and the order details at the first store.
Based on the above verification results, whether or not the request for writing a review is accepted is determined based on whether the user actually visited the first store and actually consumed the first menu at the first store.
In the case where there is food shared by multiple users (hereinafter referred to as “shared food”), the video is analyzed to confirm the main food ordered by each user and the type of food of the shared food.
A meal monitoring method characterized by generating meal information related to the shared food by calculating the intake amount of each user for the shared food through the above image analysis.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200138719 | 2020-10-23 | ||
| KR20200138719 | 2020-10-23 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20220054230A KR20220054230A (en) | 2022-05-02 |
| KR102708485B1 true KR102708485B1 (en) | 2024-09-23 |
Family
ID=81593293
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020210142899A Active KR102708485B1 (en) | 2020-10-23 | 2021-10-25 | Apparatus and method for monitoring eating |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102708485B1 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN116402427A (en) * | 2023-02-22 | 2023-07-07 | 湖北文理学院 | Fixed-point intelligent meal delivery vehicle and control method |
| KR102906333B1 (en) | 2023-12-05 | 2025-12-31 | 사회복지법인 삼성생명공익재단 | Apparatus and method for guiding lifestyle for appetite control of prader-willi syndrome patient |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018150756A1 (en) * | 2017-02-15 | 2018-08-23 | ソニー株式会社 | Information processing device, information processing method, and storage medium |
| KR102051826B1 (en) * | 2018-06-15 | 2019-12-04 | 유티정보 주식회사 | System for providing travel route centered on railway passengers and method using the same |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101062554B1 (en) * | 2009-07-28 | 2011-09-06 | 송세경 | Image processing system and restaurant integrated management system using the monitoring camera of the restaurant hall, the image processing method and the restaurant integrated management method |
| KR101936487B1 (en) * | 2014-03-25 | 2019-01-08 | 라쿠텐 인코포레이티드 | Information processing device, information processing method, program, and recording medium |
| KR102055266B1 (en) * | 2016-12-30 | 2020-01-22 | 동의대학교 산학협력단 | System and method based O2O for using and managing a restaurant |
| KR20200113564A (en) | 2019-03-25 | 2020-10-07 | 이재훈 | NFC tag chip utilization Dietary Information gathering and evaluation device method |
-
2021
- 2021-10-25 KR KR1020210142899A patent/KR102708485B1/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018150756A1 (en) * | 2017-02-15 | 2018-08-23 | ソニー株式会社 | Information processing device, information processing method, and storage medium |
| KR102051826B1 (en) * | 2018-06-15 | 2019-12-04 | 유티정보 주식회사 | System for providing travel route centered on railway passengers and method using the same |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20220054230A (en) | 2022-05-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10441112B1 (en) | Food preparation system and method using a scale that allows and stores modifications to recipes based on a measured change to one of its ingredients | |
| JP2022185123A (en) | School lunch management system and its operation method | |
| KR102068286B1 (en) | Unmanned kiosk billing system for food court | |
| JP6924949B1 (en) | Control methods, information terminals, programs, and recording media | |
| KR101778556B1 (en) | Restaurant reservation service method and system | |
| KR102708485B1 (en) | Apparatus and method for monitoring eating | |
| US20150199777A1 (en) | System and method for restaurant menuing | |
| KR101728952B1 (en) | Method for ordering menu in the specific restaurant under wifi direct or wifi | |
| US12094016B2 (en) | Method, information terminal, and non-transitory computer-readable recording medium | |
| CA3030341A1 (en) | Systems and methods for analyzing delivery restrictions when delivering products ordered by a customer | |
| CN211149511U (en) | Unmanned cafeteria system | |
| CN111775160A (en) | Method, device, medium and robot for automatically distributing articles | |
| JP7124157B2 (en) | Pre-order acceptance system and pre-order acceptance method | |
| US20180082349A1 (en) | Device for providing health information and advice to shoppers | |
| US11580813B2 (en) | Contactless locker system and method | |
| US20220012825A1 (en) | Method, information terminal, and non-transitory computer-readable recording medium | |
| CN105447785A (en) | Method and system for ordering dishes by scanning code and positioning | |
| US20180012267A1 (en) | Electronic device, apparatus and system | |
| US12063948B2 (en) | Method and system for foodservice with instant feedback | |
| KR20170101686A (en) | Method for ordering service from table | |
| KR102129112B1 (en) | Method for providing one-stop order, reservation, and payment service with non-face-to-face channel using qr code on blockchain based easy payment platform | |
| US11861744B2 (en) | Systems and methods for coordinating ordering between mobile devices | |
| KR102473282B1 (en) | System and method for providing nutritional information based on image analysis using artificial intelligence | |
| US20200265508A1 (en) | Method and apparatus for facilitating dining at an eating establishment | |
| WO2018183844A1 (en) | System and method for locker management |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| AMND | Amendment | ||
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
St.27 status event code: N-2-6-B10-B15-exm-PE0601 |
|
| T11-X000 | Administrative time limit extension requested |
St.27 status event code: U-3-3-T10-T11-oth-X000 |
|
| T13-X000 | Administrative time limit extension granted |
St.27 status event code: U-3-3-T10-T13-oth-X000 |
|
| AMND | Amendment | ||
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PX0901 | Re-examination |
St.27 status event code: A-2-3-E10-E12-rex-PX0901 |
|
| PX0701 | Decision of registration after re-examination |
St.27 status event code: A-3-4-F10-F13-rex-PX0701 |
|
| X701 | Decision to grant (after re-examination) | ||
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |