[go: up one dir, main page]

WO2015182967A1 - 매칭시스템 및 매칭방법 - Google Patents

매칭시스템 및 매칭방법 Download PDF

Info

Publication number
WO2015182967A1
WO2015182967A1 PCT/KR2015/005263 KR2015005263W WO2015182967A1 WO 2015182967 A1 WO2015182967 A1 WO 2015182967A1 KR 2015005263 W KR2015005263 W KR 2015005263W WO 2015182967 A1 WO2015182967 A1 WO 2015182967A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal
information
detector
motion
user
Prior art date
Application number
PCT/KR2015/005263
Other languages
English (en)
French (fr)
Inventor
김석중
유영준
Original Assignee
(주)브이터치
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)브이터치 filed Critical (주)브이터치
Publication of WO2015182967A1 publication Critical patent/WO2015182967A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/18Service support devices; Network management devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/61Time-dependent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/63Location-dependent; Proximity-dependent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/68Gesture-dependent or behaviour-dependent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Definitions

  • the movement pattern, position, and time of a terminal identified by a device such as a user's body (mainly a hand, a finger, etc.) or a movement pattern, a position, a time, and a motion sensor built into the terminal through an image recording
  • a device such as a user's body (mainly a hand, a finger, etc.) or a movement pattern, a position, a time, and a motion sensor built into the terminal through an image recording
  • the present invention relates to a matching system and a matching method for identifying a terminal in which a movement pattern is detected by comparing the two.
  • Wireless communication terminals are expanding to mobile computing devices such as mobile phones, netbooks, tablet PCs, and e-book terminals, including smartphones. Based on this, new services and application markets are being created and numerous services and applications are provided. .
  • IoT Internet of Things
  • An object of the present invention is to provide a matching system and a matching method for specifying a terminal from which a movement pattern is detected.
  • a matching system includes a matching server and a terminal that can be connected to a matching server through a wireless communication network.
  • the matching server may include an image acquisition unit configured to acquire an image of a user's body or a terminal carried by the user through image capturing;
  • a position detector configured to calculate coordinate data indicating a position of a user's body or a terminal carried by the user by using the image acquired from the image acquirer, and a movement of the user detected based on the coordinate data calculated by the position detector
  • the terminal the terminal position detection unit for detecting the coordinate data indicating the current position of the terminal based on the GPS information or IPS information or the Wi-Fi network or carrier base station location information, the acceleration sensor, the gyroscope sensor included in the terminal And a terminal motion detector for detecting a user's motion pattern measured through at least one of gravity sensors, a terminal viewpoint detector for detecting a time when the motion pattern of the terminal detected by the terminal motion detector is recognized, and the terminal position.
  • the movement pattern is detected by comparing the movement pattern, position, and time of the terminal received from the detector, the terminal movement detection unit, and the terminal view detection unit with the movement pattern, position, and time of the user's body or the terminal carried by the matching server.
  • Terminal identifying It may include a matching processing unit.
  • a matching system includes a matching server and a terminal that can be connected to a matching server through a wireless communication network, wherein the terminal indicates coordinates indicating a current position of the terminal based on GPS information or IPS information or Wi-Fi network or carrier base station location information.
  • a terminal position detector for detecting data a terminal motion detector for detecting a user's movement pattern measured through at least one of an acceleration sensor, a gyroscope sensor, and a gravity sensor included in the terminal, and a terminal detected by the terminal motion detector
  • a terminal viewpoint detection unit for detecting a time when a movement pattern of the mobile terminal is recognized, a movement pattern, a position, a time of the terminal received from the terminal position detection unit, a terminal movement detection unit, and a terminal viewpoint detection unit, and a user body or user received from the matching server Autumn cell
  • a terminal matching processing unit for identifying a terminal from which a movement pattern is detected by comparing a movement pattern, a position, and a time of the terminal.
  • the matching server the image acquisition unit for acquiring an image of the user's body or the terminal carried by the user through the image, and the terminal carried by the user's body or the user using the image obtained from the image acquisition unit
  • a position detector which calculates coordinate data indicating a position of the user, a motion detector that detects a user's movement pattern detected based on the coordinate data calculated by the position detector, and a motion pattern detected when the motion pattern detected by the motion detector is recognized. Compares the movement pattern, position, and time of the user body received from the position detection unit, the movement detection unit, and the viewpoint detection unit with the time detection unit for detecting time, and the movement pattern, position, and time of the terminal received from the terminal.
  • Matching unit for specifying a terminal from which a movement pattern is detected It can be included.
  • a matching method may include: generating, by a matching server, first motion information about at least one object included in a field of view; Receiving, by the matching server, second motion information about the at least one object from terminals included in the field of view; And specifying, by the matching server, an object moved among the at least one object based on the first motion information and the second motion information.
  • the matching server may further include calculating respective coordinate data of the at least one object.
  • the first motion information may include movement pattern information, position information, and moved visual information of each of the at least one object measured by the matching server.
  • the second motion information may include movement pattern information, position information, and moved visual information of each of at least one object measured by the terminal.
  • a matching method may include: generating, by a matching server, first motion information about at least one object included in a field of view; Determining whether the matching server directly specifies a moving object; When the matching server directly specifies a moving object, the second server receives second motion information about the at least one object from terminals included in the field of view, and receives the first motion information and the second motion information. Specifying an object moved among the at least one object based on the movement; And if the matching server does not directly specify the moved object, transmitting the first motion information to the terminals.
  • the matching server may further include calculating respective coordinate data of the at least one object.
  • the first motion information may include motion pattern information, location information, and motion time information of each of the at least one object measured by the matching server.
  • the second motion information may include motion pattern information, location information, and motion time information of each of at least one object measured by the terminal.
  • the portable terminal information of the user may be stored in advance, or may be immediately and quickly provided to a portable terminal owned by the user without having to read or photograph an installed tag. .
  • the object information acquisition place can be implemented anywhere, indoors and outdoors, as well as indoors such as museums, exhibition halls, art galleries, as well as amusement parks, zoos, and botanical gardens. There is an effect that can be applied.
  • FIG. 2 is a block diagram showing an example of a matching server and a terminal forming a matching system
  • FIG. 3 is a flowchart illustrating an operation of a matching server according to an example of a matching method
  • FIG. 4 is a flowchart illustrating an operation of a matching server according to another example of a matching method
  • FIG. 5 is a flowchart illustrating an operation of a terminal according to the matching method of FIG. 3;
  • FIG. 6 is a flowchart illustrating an operation of a terminal according to another example of a matching method.
  • 1 is a diagram illustrating an example of a matching system.
  • the matching system includes a matching server 100 and at least one terminal 200a, 200b, 200c.
  • FIG. 1 illustrates a case in which three terminals 200a, 200b, and 200c are located in a field of view (FOV) of the image acquisition unit 110 of the matching server 100.
  • FOV field of view
  • the number of terminals located in the FOV is not limited to this.
  • the matching server 100 Detects the movement and time of movement of the object within the FOV. Comparing this with the movement and the time of movement of the object detected by the terminal, the moved object 200b can be specified. Therefore, the user can conveniently obtain the information of the object remotely without having to access the object. Alternatively, the user may be provided with object information quickly and easily to a portable terminal owned by the user without a separate procedure for receiving object information.
  • the matching system illustrated in FIG. 1 may be implemented anywhere in or outside the indoor and outdoor spaces where virtual touch devices can be installed, such as an amusement park, a zoo, a botanical garden, as well as indoors, museums, exhibition halls, and art galleries.
  • FIG. 2 is a block diagram illustrating an example of a matching server and a terminal forming a matching system.
  • the matching system includes a matching server 100 and at least one terminal 200.
  • the matching server 100 and the terminal 200 are connected to each other through a communication network.
  • the matching server 100 further includes an image obtaining unit 110, a position detecting unit 120, a motion detecting unit 130, a viewpoint detecting unit 140, and a matching processing unit 150.
  • the terminal 200 further includes a terminal position detector 210, a terminal motion detector 220, a terminal viewpoint detector 230, and a terminal matching processor 240.
  • the matching server 100 will be described in detail.
  • the image acquisition unit 110 is a kind of camera module, and acquires an image of a user's body or a terminal carried by the user through image capturing.
  • the area photographed by the image acquisition unit will be referred to as FOV.
  • the image acquisition unit 110 may include a camera including an imaging sensor such as a CCD or a CMOS.
  • the position detector 120 calculates coordinate data indicating the position of the user's body or the terminal carried by the user by using the image acquired from the image acquisition unit 110.
  • the motion detector 130 detects the detected movement pattern of the user based on the coordinate data calculated by the position detector 120. At this time, the detected movement pattern is a preset pattern and transmits different functions according to the shape of the pattern.
  • the viewpoint detector 140 determines a time when the movement pattern detected by the movement detector 140 is recognized. This makes it possible to detect a more accurate time by detecting the time when the movement pattern is recognized based on the current time.
  • the matching processor 150 may include the user's body received from the position detector 120, the motion detector 130, and the viewpoint detector 140, or the movement pattern, position, time of the terminal carried by the user, and the terminal transmitted from the terminal 200. Compares a movement pattern, a position, and a time to specify a terminal from which a movement pattern is detected, or a user body received from the position detector 120, the motion detector 130, and the viewpoint detector 140, or a movement of a terminal carried by the user. The pattern, location, and time are transmitted to the terminal 200.
  • the matching processor 150 transfers the movement pattern, the position, and the time of the user body received from the position detector 120, the motion detector 130, and the viewpoint detector 140 to the terminal 200.
  • the transmission is performed when the terminal 200 that identifies the terminal from which the movement pattern is detected is the terminal 200.
  • the transmission to the terminal 200 is omitted.
  • the terminal location detection unit 210 detects coordinate data indicating the current location of the terminal based on GPS information, IPS information, or Wi-Fi network or carrier base station location information. Wi-Fi network or carrier base station location information may be detected based on the Wi-Fi network location information I am currently connected to or the carrier base station location information I am currently connected to.
  • the terminal motion detector 220 detects a user's movement pattern measured through at least one of an acceleration sensor, a gyroscope sensor, and a gravity sensor included in the terminal. At this time, the movement of the input terminal is measured when the user moves in a preset pattern while holding his terminal 200 by hand.
  • the terminal 200 includes a wearable terminal such as a ring 200b, a watch 200c, glasses, as well as a smart phone 200a. In the case of the wearable terminal, it is possible to prevent the user from discomfort moving while holding the terminal by hand.
  • the terminal viewpoint detector 230 detects a time when the movement pattern of the terminal detected by the terminal movement detector 220 is recognized. This can detect a more accurate time by detecting a time when the movement pattern is recognized based on the current time.
  • the terminal matching processor 240 receives the movement pattern, the position, and the time of the terminal 200 received from the terminal position detector 210, the terminal motion detector 220, and the terminal viewpoint detector 230, and received from the matching server 100. By comparing the movement pattern, the position, and the time of the user's body or the terminal carried by the user, the terminal from which the movement pattern is detected is specified, or from the terminal position detection unit 210, the terminal movement detection unit 220, and the terminal viewpoint detection unit 230. The received movement pattern, position, and time of the terminal 200 are transmitted to the matching server 100.
  • the terminal matching processor 240 transmits the movement pattern, the position, and the time of the terminal 200 received from the terminal position detector 210, the terminal motion detector 220, and the terminal viewpoint detector 230 to the matching server 100.
  • the transmission is performed when the matching server 100 is a subject specifying the terminal from which the movement pattern is detected.
  • the transmission to the matching server 100 is omitted.
  • FIG. 3 is a flowchart illustrating an operation of a matching server according to an example of a matching method.
  • the matching server is a subject that specifies the terminal from which the movement pattern is detected.
  • the matching server captures an image in the FOV (30). As described above, at least one object is included in the FOV, and the matching server calculates coordinate data of each object based on the captured image (31).
  • the matching server generates first motion information when movement occurs in the image in the FOV (32).
  • the first motion information includes motion pattern information, position information, and moved visual information of each object determined based on the coordinate data of each object.
  • the matching server receives the second motion information from each terminal (33).
  • the second motion information includes movement pattern information, position information, and moved visual information of the corresponding terminal detected by each terminal.
  • steps 32 and 33 may be reversed, and may be performed at the same time.
  • the matching server specifies the moved object based on the first motion information and the second motion information (34). That is, the matching server moves the movement pattern information, the position information, and the movement time information of each object in the FOV included in the first motion information, and the movement pattern information, the position information, and the movement time of each object included in the second motion information. By comparing with the information, it is possible to determine which object actually moved.
  • the matching server may be a subject that specifies the terminal from which the movement pattern is detected, or instead, may cause the terminal to detect the movement pattern.
  • the matching server captures an image in the FOV (40).
  • the matching server calculates coordinate data of each object based on the captured image (41).
  • the matching server generates first motion information when motion occurs in the image in the FOV (42).
  • the first motion information includes motion pattern information, position information, and moved visual information of each object determined based on the coordinate data of each object.
  • the matching server determines 43 whether to specify the object directly.
  • the matching server receives second motion information from each terminal (43).
  • the second motion information includes movement pattern information, position information, and moved visual information of the corresponding terminal detected by each terminal.
  • the matching server specifies the moved object based on the first motion information and the second motion information (45). That is, the matching server moves the movement pattern information, the position information, and the movement time information of each object in the FOV included in the first motion information, and the movement pattern information, the position information, and the movement time of each object included in the second motion information. By comparing with the information, it is possible to determine which object actually moved.
  • the matching server If the matching server causes the terminal to specify the object instead of specifying the object, the matching server transmits first motion information to the respective terminals (46).
  • the transmission method may be a method of transmitting to each terminal, a method of broadcasting to all terminals in the FOV, or any other applicable method.
  • FIG. 5 is a flowchart illustrating an operation of a terminal according to the matching method of FIG. 3.
  • the matching server directly specifies an object.
  • the terminal generates second motion information (50), and transmits the generated second motion information to the matching server (51).
  • the second motion information includes motion pattern information, position information, and moved visual information of the corresponding terminal.
  • the terminal may be a subject specifying the terminal from which the movement pattern is detected, or instead, the terminal may cause the server to detect the movement pattern.
  • the terminal first generates second motion information about the corresponding terminal (60).
  • the matching server receives first motion information generated by the matching server (62).
  • the terminal identifies the object as a moving object based on the first motion information received from the matching server and the second motion information generated by itself (63). Alternatively, if there is another terminal moved, the moved terminal may be specified as the moved object.
  • the matching server decides to specify the object instead of specifying the object directly, the second motion information is transmitted to the matching server (64).
  • the object moved by the matching server is specified (65).
  • the matching server may provide information on the specified object to at least one terminal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • Development Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Telephone Function (AREA)
  • Image Analysis (AREA)

Abstract

영상촬영을 통한 사용자 신체(주로 손, 손가락 등) 또는 사용자가 휴대하는 단말기의 움직임패턴, 위치, 시간과 단말기에 내장되어 있는 움직임 센서 등 장치로 파악되는 단말기의 움직임패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하기 위한 매칭시스템 및 매칭방법이 개시된다.

Description

매칭시스템 및 매칭방법
본 발명은 영상촬영을 통한 사용자 신체(주로 손, 손가락 등) 또는 사용자가 휴대하는 단말기의 움직임패턴, 위치, 시간과 단말기에 내장되어 있는 움직임 센서 등 장치로 파악되는 단말기의 움직임패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하기 위한 매칭시스템 및 매칭방법에 관한 것이다.
현재 무선통신 시장은 스마트 폰 등의 무선 단말기 보급 확대에 따른 어플리케이션 시장이 크게 활성화 되고 있다. 무선통신이 가능한 단말기는 스마트폰을 대표로 휴대폰, 넷북, 태블릿 PC, e북 단말기와 같은 모바일 컴퓨팅 장치로 확대되고 있으며, 이를 기반으로 새로운 서비스와 어플리케이션 시장이 창출되어 수많은 서비스와 어플리케이션이 제공되고 있다.
또한 최근 휴대용 단말기의 무선통신과 함께, 사물인터넷(IoT) 기기들의 폭발적인 증가로 무선통신으로 접속할 수 있는 다양한 기기들이 존재한다. 하지만 사물인터넷 시대에는 각각의 장소마다 연결 가능한 사물인터넷 기기들이 저마다 다르고 그 종류도 매우 다양하고 많다.
따라서 이러한 사물인터넷 기기들 간의 간편하고 손쉬운 연결을 제공하고 이를 통한 다양한 서비스들의 연구가 진행 중에 있다.
영상촬영을 통한 사용자 신체(주로 손, 손가락 등) 또는 사용자가 휴대하는 단말기의 움직임패턴, 위치, 시간과 단말기에 내장되어 있는 움직임 센서 등 장치로 파악되는 단말기의 움직임패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하기 위한 매칭시스템 및 매칭방법을 제공하는 것을 목적으로 한다.
일 양상에 따른 매칭시스템은, 매칭서버 및 매칭서버와 무선 통신망으로 연결 가능한 단말기로 구성되며, 상기 매칭서버는, 영상 촬영을 통해 사용자 신체 또는 사용자가 휴대하는 단말기의 영상을 획득하는 영상 획득부와, 상기 영상 획득부로부터 획득한 영상을 이용하여 사용자의 신체 또는 사용자가 휴대하는 단말기의 위치를 나타내는 좌표데이터를 산출하는 위치 검출부와, 상기 위치 검출부에서 산출된 좌표데이터를 기반으로 검출된 사용자의 움직임 패턴을 검출하는 움직임 검출부와, 상기 움직임 검출부에서 검출된 움직임 패턴이 인식되었을 때의 시간을 검출하는 시점 검출부와, 상기 위치 검출부, 움직임 검출부, 시점 검출부로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간과 단말기로부터 전송받은 단말기의 움직임 패턴, 위치, 시간을 비교하여, 움직임 패턴이 검출된 단말기를 특정하는 매칭 처리부를 포함한다.
이 때, 상기 단말기는, GPS 정보 또는 IPS 정보 또는 와이파이망 또는 통신사 기지국 위치정보를 바탕으로 단말기의 현재 위치를 나타내는 좌표데이터를 검출하는 단말기 위치 검출부와, 단말기 내부에 포함되는 가속도 센서, 자이로스코프 센서 및 중력센서 중 적어도 하나를 통해 측정된 사용자의 움직임 패턴을 검출하는 단말기 움직임 검출부와, 상기 단말기 움직임 검출부에서 검출된 단말기의 움직임 패턴이 인식되었을 때의 시간을 검출하는 단말기 시점 검출부와, 상기 단말기 위치 검출부, 단말기 움직임 검출부, 단말기 시점 검출부로부터 받은 단말기의 움직임 패턴, 위치, 시간과 상기 매칭서버로부터 전송받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하는 단말기 매칭 처리부를 포함할 수 있다.
다른 양상에 따른 매칭 시스템은, 매칭서버 및 매칭서버와 무선 통신망으로 연결 가능한 단말기로 구성되며, 상기 단말기는 GPS 정보 또는 IPS 정보 또는 와이파이망 또는 통신사 기지국 위치정보를 바탕으로 단말기의 현재 위치를 나타내는 좌표데이터를 검출하는 단말기 위치 검출부와, 단말기 내부에 포함되는 가속도 센서, 자이로스코프 센서 및 중력센서 중 적어도 하나를 통해 측정된 사용자의 움직임 패턴을 검출하는 단말기 움직임 검출부와, 상기 단말기 움직임 검출부에서 검출된 단말기의 움직임 패턴이 인식되었을 때의 시간을 검출하는 단말기 시점 검출부와, 상기 단말기 위치 검출부, 단말기 움직임 검출부, 단말기 시점 검출부로부터 받은 단말기의 움직임 패턴, 위치, 시간과 상기 매칭서버로부터 전송받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하는 단말기 매칭 처리부를 포함하여 구성된다.
이 때, 상기 매칭서버는, 영상 촬영을 통해 사용자 신체 또는 사용자가 휴대하는 단말기의 영상을 획득하는 영상 획득부와, 상기 영상 획득부로부터 획득한 영상을 이용하여 사용자의 신체 또는 사용자가 휴대하는 단말기의 위치를 나타내는 좌표데이터를 산출하는 위치 검출부와, 상기 위치 검출부에서 산출된 좌표데이터를 기반으로 검출된 사용자의 움직임 패턴을 검출하는 움직임 검출부와, 상기 움직임 검출부에서 검출된 움직임 패턴이 인식되었을 때의 시간을 검출하는 시점 검출부와, 상기 위치 검출부, 움직임 검출부, 시점 검출부로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간과 단말기로부터 전송받은 단말기의 움직임 패턴, 위치, 시간을 비교하여, 움직임 패턴이 검출된 단말기를 특정하는 매칭 처리부를 포함할 수 있다.
또 다른 양상에 따른 매칭방법은, 매칭서버가 필드오브뷰에 포함된 적어도 하나의 오브젝트에 대한 제1 모션정보를 생성하는 단계; 상기 매칭서버가 상기 필드오브뷰에 포함된 단말기들로부터 상기 적어도 하나의 오브젝트에 대한 제2 모션정보를 수신하는 단계; 및 상기 매칭서버가 상기 제1 모션정보와 상기 제2 모션정보에 근거하여 상기 적어도 하나의 오브젝트 중에서 움직인 오브젝트를 특정하는 단계;를 포함한다.
이 때, 상기 제1 모션정보를 생성하는 단계 전에, 상기 매칭서버가 상기 적어도 하나의 오브젝트의 각각의 좌표데이터를 산출하는 단계;를 더 포함할 수 있다.
또한, 상기 제1 모션정보는 상기 매칭서버에서 측정된, 상기 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함할 수 있다.
또한, 상기 제2 모션정보는 상기 단말기에서 측정된, 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함할 수 있다.
또 다른 양상에 따른 매칭방법은, 매칭서버가 필드오브뷰에 포함된 적어도 하나의 오브젝트에 대한 제1 모션정보를 생성하는 단계; 상기 매칭서버가 움직인 오브젝트를 직접 특정할 것인지 여부를 판단하는 단계; 상기 매칭서버가 움직인 오브젝트를 직접 특정하는 경우, 상기 필드오브뷰에 포함된 단말기들로부터 상기 적어도 하나의 오브젝트에 대한 제2 모션정보를 수신하고, 상기 제1 모션정보와 상기 제2 모션정보에 근거하여 상기 적어도 하나의 오브젝트 중에서 움직인 오브젝트를 특정하는 단계; 및 상기 매칭서버가 움직인 오브젝트를 직접 특정하지 않는 경우, 상기 제 모션정보를 상기 단말기들에 전송하는 단계;를 포함한다.
이 때, 상기 제1 모션정보를 생성하는 단계 전에, 상기 매칭서버가 상기 적어도 하나의 오브젝트의 각각의 좌표데이터를 산출하는 단계;를 더 포함할 수 있다.
또한, 상기 제1 모션정보는 상기 매칭서버에서 측정된, 상기 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직임 시각 정보를 포함할 수 있다.
또한, 상기 제2 모션정보는 상기 단말기에서 측정된, 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직임 시각 정보를 포함할 수 있다.
첫째, 원격에 떨어져 있는 3차원 공간에 위치하는 물건, 건물 및 상점의 객체들 중 하나를 선택하여, 이에 해당하는 객체 정보를 사용자의 휴대용 단말기로 획득하거나 사용자의 휴대용 단말기의 정보를 3차원 공간에 위치하는 물건, 건물 및 상점의 객체들 중 하나로 전송할 수 있는 효과가 있다.
둘째, 다수의 휴대용 단말기(스마트 폰, 스마트 와치, HMD 등)가 존재하는 환경에서 3차원 공간에 위치하는 물건, 건물 및 상점의 객체를 선택하는 단말기만을 특정할 수 있어 해당 단말기에서만 정보를 획득하거나 해당 단말기의 정보만을 3차원 공간에 위치하는 물건, 건물 및 상점의 객체에 전송할 수 있는 효과가 있다.
셋째, 서버에서 단말기에 서비스를 제공함에 있어서, 사용자의 휴대용 단말기 정보를 미리 저장하고 있거나, 설치되어 있는 태그를 읽거나 촬영함이 없이도, 즉시 자신이 소유하고 있는 휴대용 단말기로 빠르고 손쉽게 제공 받을 수 있다.
넷째, 객체 정보 획득 장소는 박물관, 전시실, 미술관 등의 실내는 물론 놀이공원, 동물원, 식물원 등 실외에서도 가상터치 장치를 설치할 수 있는 곳이라면 실내외를 막론하고 어디에서든 구현이 가능하며, 이외에도 다양한 분야에서의 적용이 가능한 효과가 있다.
도 1 은 매칭 시스템의 일례를 나타낸 도면,
도 2는 매칭 시스템을 이루는 매칭서버와 단말기의 일례를 나타낸 블록도,
도 3은 매칭방법의 일례에 따른 매칭서버의 동작을 나타낸 흐름도,
도 4는 매칭방법의 다른 예에 따른 매칭서버의 동작을 나타낸 흐름도,
도 5는 도 3의 매칭방법에 따른 단말기의 동작을 예시한 흐름도,
도 6은 매칭방법의 또다른 예에 따른 단말기의 동작을 예시한 흐름도이다.
본 발명의 다른 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.
본 발명에 따른 매칭 시스템의 바람직한 실시예에 대하여 첨부한 도면을 참조하여 설명하면 다음과 같다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하며 통상의 지식을 가진자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
도 1 은 매칭 시스템의 일례를 나타낸 도면이다.
도 1에서 나타낸 바와 같이, 매칭 시스템은 매칭서버(100)와 적어도 하나의 단말기(200a,200b,200c)를 포함하여 이루어진다.
단말기(200a,200b,200c)는 통신 네트워크를 통하여 매칭서버(100)와 연결이 된다. 또한, 도 1에서는 3개의 단말기(200a,200b,200c)가 매칭서버(100)의 영상획득부(110)의 필드오브뷰(FOV: Field of View)안에 위치하는 경우를 예시하였다. 그러나, FOV 안에 위치하는 단말기의 개수는 이것으로 한정되지는 않는다.
도 1에서 단말기(200b) 또는 단말기(200b)를 휴대한 이용자("단말기"와 "단말기를 휴대한 이용자"를 통칭하여 "오브젝트"라는 용어를 사용하기로 한다)가 움직이는 경우, 매칭서버(100)는 FOV 내에서 오브젝트의 움직임과 움직인 시각을 검출한다. 이를 단말기에서 검출된 오브젝트의 움직임 및 움직인 시각과 비교하면 움직인 오브젝트(200b)를 특정할 수 있게 된다. 따라서, 사용자는 해당 객체에 접근할 필요 없이 원격에서 편리하게 해당 객체의 정보를 획득할 수 있다. 또는, 사용자가 객체 정보를 제공받기 위한 별도의 절차 없이 자신이 소유하고 있는 휴대용 단말기로 빠르고 손쉽게 객체 정보를 제공 받을 수도 있다.
도 1에서 예시한 매칭 시스템은 박물관, 전시실, 미술관 등의 실내는 물론 놀이공원, 동물원, 식물원 등 실외에서도 가상 터치 장치를 설치할 수 있는 곳이라면 실내외를 막론하고 어디에서든 구현이 가능하다.
도 2는 매칭 시스템을 이루는 매칭서버와 단말기의 일례를 나타낸 블록도이다.
도 2에서 나타낸 바와 같이, 매칭 시스템은 매칭서버(100) 및 적어도 하나의 단말기(200)를 포함한다. 매칭서버(100)와 단말기(200)는 통신 네트워크를 통하여 서로 연결된다.
매칭서버(100)는 영상 획득부(110)와, 위치 검출부(120)와, 움직임 검출부(130)와, 시점 검출부(140) 및 매칭 처리부(150)를 더 포함한다.
또한, 단말기(200)는 단말기 위치 검출부(210)와, 단말기 움직임 검출부(220)와, 단말기 시점 검출부(230) 및 단말기 매칭 처리부(240)를 더 포함한다.
먼저 상기 매칭서버(100)를 상세히 설명한다.
영상 획득부(110)는 일종의 카메라 모듈로서, 영상 촬영을 통해 사용자 신체 또는 사용자가 휴대하는 단말기의 영상을 획득한다. 영상 획득부가 촬영하는 영역을 FOV라고 하기로 한다. 한편, 영상획득부(110)는 CCD 또는 CMOS 등의 촬상센서를 포함하는 카메라를 포함할 수 있다.
위치 검출부(120)는 영상 획득부(110)로부터 획득한 영상을 이용하여 사용자의 신체 또는 사용자가 휴대하는 단말기의 위치를 나타내는 좌표데이터를 산출한다.
움직임 검출부(130)는 위치 검출부(120)에서 산출된 좌표데이터를 기반으로 검출된 사용자의 움직임 패턴을 검출한다. 이때, 검출되는 움직임 패턴은 미리 설정된 패턴으로 그 패턴의 형태에 따라 서로 다른 기능을 전달하게 된다.
시점 검출부(140)는 움직임 검출부(140)에서 검출된 움직임 패턴이 인식되었을 때의 시각을 판단한다. 이는 현재 시간을 기반으로 움직임 패턴이 인식되었을 때의 시각을 검출함으로써, 보다 정확한 시각을 검출할 수 있게 된다.
매칭 처리부(150)는 위치 검출부(120), 움직임 검출부(130), 시점 검출부(140)로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간과 단말기(200)로부터 전송받은 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하거나, 또는 상기 위치 검출부(120), 움직임 검출부(130), 시점 검출부(140)로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 상기 단말기(200)로 전송한다.
이때, 매칭 처리부(150)에서 상기 위치 검출부(120), 움직임 검출부(130), 시점 검출부(140)로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 상기 단말기(200)로 전송하는 경우는 움직임 패턴이 검출된 단말기를 특정하는 주체가 단말기(200)인 경우에 이루어진다.
만약 움직임 패턴이 검출된 단말기를 특정하는 주체가 매칭서버(100)인 경우는 단말기(200)로의 전송은 생략된다.
다음으로 단말기(200)를 상세히 설명하면 다음과 같다.
단말기 위치 검출부(210)는 GPS 정보 또는 IPS 정보 또는 와이파이망 또는 통신사 기지국 위치정보를 바탕으로 단말기의 현재 위치를 나타내는 좌표데이터를 검출한다. 와이파이망 또는 통신사 기지국 위치정보는 내가 현재 접속해 있는 와이파이망 위치정보 또는 내가 현재 접속해 있는 통신사 기지국 위치정보를 기반으로 검출될 수 있다.
단말기 움직임 검출부(220)는 단말기 내부에 포함되는 가속도 센서, 자이로스코프 센서 및 중력센서 중 적어도 하나를 통해 측정된 사용자의 움직임 패턴을 검출한다. 이때, 입력되는 단말기의 움직임은 사용자가 자신의 단말기(200)를 손으로 잡은 상태에서 미리 설정된 패턴으로의 움직임인 경우에 측정되게 된다. 또한 단말기(200)는 스마트폰(200a) 형태뿐만 아니라 반지(200b), 시계(200c), 안경 등과 같은 착용형 단말기를 포함한다. 착용형 단말기의 경우는 사용자가 별도로 단말기를 손으로 잡은 상태에서 움직이는 불편함을 방지할 수 있다.
단말기 시점 검출부(230)는 단말기 움직임 검출부(220)에서 검출된 단말기의 움직임 패턴이 인식되었을 때의 시간을 검출한다. 이는 현재 시간을 기반으로 움직임 패턴이 인식되었을 때의 시간을 검출함으로써, 보다 정확한 시간을 검출할 수 있게 된다.
단말기 매칭 처리부(240)는 단말기 위치 검출부(210), 단말기 움직임 검출부(220), 단말기 시점 검출부(230)로부터 받은 단말기(200)의 움직임 패턴, 위치, 시간과 상기 매칭서버(100)로부터 전송받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하거나, 또는 단말기 위치 검출부(210), 단말기 움직임 검출부(220), 단말기 시점 검출부(230)로부터 받은 단말기(200)의 움직임 패턴, 위치, 시간을 상기 매칭서버(100)로 전송한다.
이때, 단말기 매칭 처리부(240)에서 단말기 위치 검출부(210), 단말기 움직임 검출부(220), 단말기 시점 검출부(230)로부터 받은 단말기(200)의 움직임 패턴, 위치, 시간을 상기 매칭서버(100)로 전송하는 경우는 움직임 패턴이 검출된 단말기를 특정하는 주체가 매칭서버(100)인 경우에 이루어진다.
만약 움직임 패턴이 검출된 단말기를 특정하는 주체가 단말기(200)인 경우는 상기 매칭서버(100)로의 전송은 생략된다.
도 3은 매칭방법의 일례에 따른 매칭서버의 동작을 나타낸 흐름도이다. 도 3의 실시예에서 매칭서버는 움직임 패턴이 검출된 단말기를 특정하는 주체가 된다.
도 3에서 예시한 매칭방법에서, 매칭서버는 FOV 내의 영상을 촬영한다(30). FOV 내에는 적어도 하나의 오브젝트가 포함됨은 앞서 설명한 바와 같으며, 매칭서버는 촬영된 영상에 근거하여 각 오브젝트의 좌표데이터를 산출한다(31).
다음으로, 매칭서버는 FOV 내의 영상에서 움직임이 발생한 경우, 제1 모션정보를 생성한다(32). 제1 모션정보는 각 오브젝트의 좌표데이터를 기반으로 판단한 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함한다.
또한, 매칭서버는 각 단말기들로부터 제2 모션정보를 수신한다(33). 제2 모션정보는 각 단말기가 검출한 해당 단말기의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함한다.
이 때, 단계(32)와 단계(33)의 순서는 서로 뒤바뀌어도 무방하며, 동시에 수행될 수도 있다.
다음으로, 매칭서버는 제1 모션정보와 제2 모션정보에 근거하여 움직인 오브젝트를 특정한다(34). 즉, 매칭서버는 제1 모션정보에 포함된 FOV 내 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를, 제2 모션정보에 포함된 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보와 비교함으로써, 실제로 움직인 오브젝트가 어떤 것인지를 판단할 수 있다.
도 4는 매칭방법의 다른 예에 따른 매칭서버의 동작을 나타낸 흐름도이다. 도 4의 실시예에서 매칭서버는 움직임 패턴이 검출된 단말기를 특정하는 주체가 될 수도 있고, 또는 그 대신에 단말기로 하여금 움직임 패턴을 검출하도록 할 수도 있다.
도 4에서 예시한 매칭방법에서, 매칭서버는 FOV 내의 영상을 촬영한다(40). 매칭서버는 촬영된 영상에 근거하여 각 오브젝트의 좌표데이터를 산출한다(41).
다음으로, 매칭서버는 FOV 내의 영상에서 움직임이 발생한 경우, 제1 모션정보를 생성한다(42). 제1 모션정보는 각 오브젝트의 좌표데이터를 기반으로 판단한 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함한다.
매칭서버는 직접 오브젝트를 특정할 것인지 여부를 결정한다(43).
만약 직접 매칭서버가 오브젝트를 특정하기로 하는 경우에는, 매칭서버는 각 단말기들로부터 제2 모션정보를 수신한다(43). 제2 모션정보는 각 단말기가 검출한 해당 단말기의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함한다.
다음으로, 매칭서버는 제1 모션정보와 제2 모션정보에 근거하여 움직인 오브젝트를 특정한다(45). 즉, 매칭서버는 제1 모션정보에 포함된 FOV 내 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를, 제2 모션정보에 포함된 각 오브젝트의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보와 비교함으로써, 실제로 움직인 오브젝트가 어떤 것인지를 판단할 수 있다.
만약 매칭서버가 오브젝트를 특정하는 대신 단말기로 하여금 오브젝트를 특정하도록 하는 경우에는, 매칭서버는 각 단말기들에 제1 모션정보를 전송한다(46). 전송하는 방식은 각 단말기들에게 각각 전송하는 방식이나, FOV 내에 있는 모든 단말기들에게 브로드캐스팅하는 방식, 그 밖에 적용 가능한 어떠한 방식도 적용될 수 있다.
도 5는 도 3의 매칭방법에 따른 단말기의 동작을 예시한 흐름도이다.
도 3에서 예시한 매칭방법에서는 매칭서버가 직접 오브젝트를 특정한다. 이 경우, 단말기는 제2 모션정보를 생성하여(50), 생성된 제2 모션정보를 매칭서버에 전송하게 된다(51). 앞서 언급한 바와 같이, 제2 모션정보에는 해당 단말기의 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보가 포함된다.
도 6은 매칭방법의 또다른 예에 따른 단말기의 동작을 예시한 흐름도이다. 도 6의 실시예에서는 단말기는 움직임 패턴이 검출된 단말기를 특정하는 주체가 될 수도 있고, 또는 그 대신에 매청서버로 하여금 움직임 패턴을 검출하도록 할 수도 있다.
도 6에서 예시한 매칭방법에서, 단말기는 먼저 해당 단말기에 관한 제2 모션정보를 생성한다(60).
다음으로, 직접 오브젝트를 특정할 것인지 여부에 관한 판단을 한다(61).
만약 직접 오브젝트를 특정하기로 하는 경우에는, 매칭서버로부터 매칭서버가 생성한 제1 모션정보를 수신한다(62).
단말기는 매칭서버로부터 수신한 제1 모션정보 및 스스로 생성한 제2 모션정보에 근거하여 해당 단말기를 움직인 오브젝트로 특정한다(63). 또는 움직인 다른 단말기가 있는 경우 그 움직인 단말기를 움직인 오브젝트로 특정할 수도 있다.
만약 직접 오브젝트를 특정하는 대신 매칭서버로 하여금 오브젝트를 특정하도록 하기로 하는 경우에는, 매칭서버에 제2 모션정보를 전송한다(64).
이 경우, 매칭서버에 의하여 움직인 오브젝트가 특정된다(65).
한편, 매칭서버는 움직인 오브젝트가 특정된 경우, 특정된 오브젝트에 관한 정보를 적어도 하나의 단말기에 제공할 수 있다.
상기에서 설명한 본 발명의 기술적 사상은 바람직한 실시예에서 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며 그 제한을 위한 것이 아님을 주의하여야 한다. 또한, 본 발명의 기술적 분야의 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 실시예가 가능함을 이해할 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (12)

  1. 매칭서버 및 매칭서버와 무선 통신망으로 연결 가능한 단말기로 구성된 매칭시스템에 있어서,
    상기 매칭서버는,
    영상 촬영을 통해 사용자 신체 또는 사용자가 휴대하는 단말기의 영상을 획득하는 영상 획득부와,
    상기 영상 획득부로부터 획득한 영상을 이용하여 사용자의 신체 또는 사용자가 휴대하는 단말기의 위치를 나타내는 좌표데이터를 산출하는 위치 검출부와,
    상기 위치 검출부에서 산출된 좌표데이터를 기반으로 검출된 사용자의 움직임 패턴을 검출하는 움직임 검출부와,
    상기 움직임 검출부에서 검출된 움직임 패턴이 인식되었을 때의 시간을 검출하는 시점 검출부와,
    상기 위치 검출부, 움직임 검출부, 시점 검출부로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간과 단말기로부터 전송받은 단말기의 움직임 패턴, 위치, 시간을 비교하여, 움직임 패턴이 검출된 단말기를 특정하는 매칭 처리부를 포함하는 매칭 시스템.
  2. 제1항에 있어서,
    상기 단말기는,
    GPS 정보 또는 IPS 정보 또는 와이파이망 또는 통신사 기지국 위치정보를 바탕으로 단말기의 현재 위치를 나타내는 좌표데이터를 검출하는 단말기 위치 검출부와,
    단말기 내부에 포함되는 가속도 센서, 자이로스코프 센서 및 중력센서 중 적어도 하나를 통해 측정된 사용자의 움직임 패턴을 검출하는 단말기 움직임 검출부와,
    상기 단말기 움직임 검출부에서 검출된 단말기의 움직임 패턴이 인식되었을 때의 시간을 검출하는 단말기 시점 검출부와,
    상기 단말기 위치 검출부, 단말기 움직임 검출부, 단말기 시점 검출부로부터 받은 단말기의 움직임 패턴, 위치, 시간과 상기 매칭서버로부터 전송받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하는 단말기 매칭 처리부를 포함하는, 매칭 시스템.
  3. 매칭서버 및 매칭서버와 무선 통신망으로 연결 가능한 단말기로 구성된 매칭시스템에 있어서,
    상기 단말기는
    GPS 정보 또는 IPS 정보 또는 와이파이망 또는 통신사 기지국 위치정보를 바탕으로 단말기의 현재 위치를 나타내는 좌표데이터를 검출하는 단말기 위치 검출부와,
    단말기 내부에 포함되는 가속도 센서, 자이로스코프 센서 및 중력센서 중 적어도 하나를 통해 측정된 사용자의 움직임 패턴을 검출하는 단말기 움직임 검출부와,
    상기 단말기 움직임 검출부에서 검출된 단말기의 움직임 패턴이 인식되었을 때의 시간을 검출하는 단말기 시점 검출부와,
    상기 단말기 위치 검출부, 단말기 움직임 검출부, 단말기 시점 검출부로부터 받은 단말기의 움직임 패턴, 위치, 시간과 상기 매칭서버로부터 전송받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간을 비교하여 움직임 패턴이 검출된 단말기를 특정하는 단말기 매칭 처리부를 포함하여 구성되는 것을 특징으로 하는 매칭 시스템.
  4. 제3항에 있어서,
    상기 매칭서버는,
    영상 촬영을 통해 사용자 신체 또는 사용자가 휴대하는 단말기의 영상을 획득하는 영상 획득부와,
    상기 영상 획득부로부터 획득한 영상을 이용하여 사용자의 신체 또는 사용자가 휴대하는 단말기의 위치를 나타내는 좌표데이터를 산출하는 위치 검출부와,
    상기 위치 검출부에서 산출된 좌표데이터를 기반으로 검출된 사용자의 움직임 패턴을 검출하는 움직임 검출부와,
    상기 움직임 검출부에서 검출된 움직임 패턴이 인식되었을 때의 시간을 검출하는 시점 검출부와,
    상기 위치 검출부, 움직임 검출부, 시점 검출부로부터 받은 사용자 신체 또는 사용자가 휴대하는 단말기의 움직임 패턴, 위치, 시간과 단말기로부터 전송받은 단말기의 움직임 패턴, 위치, 시간을 비교하여, 움직임 패턴이 검출된 단말기를 특정하는 매칭 처리부를 포함하는, 매칭 시스템.
  5. 매칭서버가 필드오브뷰에 포함된 적어도 하나의 오브젝트에 대한 제1 모션정보를 생성하는 단계;
    상기 매칭서버가 상기 필드오브뷰에 포함된 단말기들로부터 상기 적어도 하나의 오브젝트에 대한 제2 모션정보를 수신하는 단계; 및
    상기 매칭서버가 상기 제1 모션정보와 상기 제2 모션정보에 근거하여 상기 적어도 하나의 오브젝트 중에서 움직인 오브젝트를 특정하는 단계;를 포함하는 매칭방법.
  6. 제5항에 있어서,
    상기 제1 모션정보를 생성하는 단계 전에,
    상기 매칭서버가 상기 적어도 하나의 오브젝트의 각각의 좌표데이터를 산출하는 단계;를 더 포함하는 매칭방법.
  7. 제5항에 있어서,
    상기 제1 모션정보는 상기 매칭서버에서 측정된, 상기 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함하는, 매칭방법.
  8. 제5항에 있어서,
    상기 제2 모션정보는 상기 단말기에서 측정된, 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함하는, 매칭방법.
  9. 매칭서버가 필드오브뷰에 포함된 적어도 하나의 오브젝트에 대한 제1 모션정보를 생성하는 단계;
    상기 매칭서버가 움직인 오브젝트를 직접 특정할 것인지 여부를 판단하는 단계;
    상기 매칭서버가 움직인 오브젝트를 직접 특정하는 경우, 상기 필드오브뷰에 포함된 단말기들로부터 상기 적어도 하나의 오브젝트에 대한 제2 모션정보를 수신하고, 상기 제1 모션정보와 상기 제2 모션정보에 근거하여 상기 적어도 하나의 오브젝트 중에서 움직인 오브젝트를 특정하는 단계; 및
    상기 매칭서버가 움직인 오브젝트를 직접 특정하지 않는 경우, 상기 제 모션정보를 상기 단말기들에 전송하는 단계;를 포함하는 매칭방법.
  10. 제9항에 있어서,
    상기 제1 모션정보를 생성하는 단계 전에,
    상기 매칭서버가 상기 적어도 하나의 오브젝트의 각각의 좌표데이터를 산출하는 단계;를 더 포함하는 매칭방법.
  11. 제9항에 있어서,
    상기 제1 모션정보는 상기 매칭서버에서 측정된, 상기 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함하는, 매칭방법.
  12. 제9항에 있어서,
    상기 제2 모션정보는 상기 단말기에서 측정된, 적어도 하나의 오브젝트의 각각에 대한 움직임 패턴 정보, 위치 정보 및 움직인 시각 정보를 포함하는, 매칭방법.
PCT/KR2015/005263 2014-05-24 2015-05-26 매칭시스템 및 매칭방법 WO2015182967A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140062668A KR101611898B1 (ko) 2014-05-24 2014-05-24 매칭 시스템
KR10-2014-0062668 2014-05-24

Publications (1)

Publication Number Publication Date
WO2015182967A1 true WO2015182967A1 (ko) 2015-12-03

Family

ID=54699238

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/005263 WO2015182967A1 (ko) 2014-05-24 2015-05-26 매칭시스템 및 매칭방법

Country Status (2)

Country Link
KR (1) KR101611898B1 (ko)
WO (1) WO2015182967A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102463712B1 (ko) 2017-11-24 2022-11-08 현대자동차주식회사 가상 터치 인식 장치 및 그의 인식 오류 보정 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120024247A (ko) * 2010-09-06 2012-03-14 삼성전자주식회사 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치
KR20130085094A (ko) * 2012-01-19 2013-07-29 삼성전기주식회사 유저 인터페이스 장치 및 유저 인터페이스 제공 방법
KR20130112188A (ko) * 2012-04-03 2013-10-14 모젼스랩(주) 모션인식장치를 이용한 모바일 단말기와 전시디바이스 간 동기화 방법
KR20140060615A (ko) * 2012-11-12 2014-05-21 주식회사 브이터치 포인터를 사용하지 않는 가상 터치 장치에 있어서의 전자기기의 가상 평면을 이용한 원격 조작 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101228336B1 (ko) * 2011-04-01 2013-01-31 한국과학기술원 모바일 단말기의 사용자 행동패턴을 이용하여 개인화 서비스를 제공하는 방법 및 이를 위한 모바일 단말기

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120024247A (ko) * 2010-09-06 2012-03-14 삼성전자주식회사 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치
KR20130085094A (ko) * 2012-01-19 2013-07-29 삼성전기주식회사 유저 인터페이스 장치 및 유저 인터페이스 제공 방법
KR20130112188A (ko) * 2012-04-03 2013-10-14 모젼스랩(주) 모션인식장치를 이용한 모바일 단말기와 전시디바이스 간 동기화 방법
KR20140060615A (ko) * 2012-11-12 2014-05-21 주식회사 브이터치 포인터를 사용하지 않는 가상 터치 장치에 있어서의 전자기기의 가상 평면을 이용한 원격 조작 장치

Also Published As

Publication number Publication date
KR101611898B1 (ko) 2016-04-12
KR20150135023A (ko) 2015-12-02

Similar Documents

Publication Publication Date Title
WO2015064992A1 (ko) 카메라를 통해 led-id/rf 통신을 수행하는 스마트 디바이스와 이를 이용한 위치 기반 서비스 제공 시스템 및 방법
WO2015014018A1 (zh) 移动终端基于图像识别技术的室内定位与导航方法
WO2013162235A1 (ko) 포인터가 불필요한 3차원 가상 객체 정보 획득 장치
WO2018164460A1 (en) Method of providing augmented reality content, and electronic device and system adapted to the method
WO2015174729A1 (ko) 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
WO2012173381A2 (ko) 위치기반 건설 현장 관리 방법 및 시스템
WO2011105671A1 (ko) 증강 현실을 이용한 사용자 설명서 제공 시스템 및 방법
WO2015030307A1 (en) Head mounted display device and method for controlling the same
WO2011139115A2 (ko) 증강 현실을 이용하여 인물의 정보에 접근하기 위한 방법, 서버 및 컴퓨터 판독 가능한 기록 매체
WO2017217713A1 (en) Method and apparatus for providing augmented reality services
WO2013162236A1 (ko) 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치
WO2016018067A1 (en) Method and device for mapping sensor location and event operation using monitoring device
WO2013069963A1 (ko) 가시광 통신을 이용한 위치 보정 장치 및 방법
WO2015102126A1 (ko) 얼굴 인식 기술을 이용한 전자 앨범 관리 방법 및 시스템
WO2019221340A1 (ko) 관심 영역의 공간 좌표를 산출하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2016060312A1 (ko) 실내위치인식기반 보안관리장치 및 방법
WO2012086984A2 (en) Method, device, and system for providing sensory information and sense
WO2020184890A1 (ko) 2차원 카메라를 이용하여 객체 제어를 지원하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
WO2020111353A1 (ko) 사생활 침해장비 탐지방법, 장치 및 그 시스템
WO2017135514A1 (ko) 가상 현실을 제공하기 위한 이미지를 촬영하는 3차원 카메라
WO2015182967A1 (ko) 매칭시스템 및 매칭방법
WO2020235740A1 (ko) 이미지 기반 실내 측위 서비스 시스템 및 방법
WO2015108401A1 (ko) 복수개의 카메라를 이용한 휴대 장치 및 제어방법
WO2017030233A1 (ko) 모바일 컴퓨팅 장치의 위치 검출 방법 및 이를 수행하는 모바일 컴퓨팅 장치
WO2018066902A1 (en) Consistent spherical photo and video orientation correction

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15800512

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15800512

Country of ref document: EP

Kind code of ref document: A1