[go: up one dir, main page]

KR20090116544A - Infrared camera space touch sensing device, method and screen device - Google Patents

Infrared camera space touch sensing device, method and screen device Download PDF

Info

Publication number
KR20090116544A
KR20090116544A KR1020080042547A KR20080042547A KR20090116544A KR 20090116544 A KR20090116544 A KR 20090116544A KR 1020080042547 A KR1020080042547 A KR 1020080042547A KR 20080042547 A KR20080042547 A KR 20080042547A KR 20090116544 A KR20090116544 A KR 20090116544A
Authority
KR
South Korea
Prior art keywords
infrared camera
infrared
space
depth
screen
Prior art date
Application number
KR1020080042547A
Other languages
Korean (ko)
Other versions
KR100968205B1 (en
Inventor
안양근
박영충
최광순
정광모
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020080042547A priority Critical patent/KR100968205B1/en
Publication of KR20090116544A publication Critical patent/KR20090116544A/en
Application granted granted Critical
Publication of KR100968205B1 publication Critical patent/KR100968205B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및 스크린 장치에 대하여 개시한다. 본 발명은 스크린 상의 감지공간을 적외선 촬영하는 적어도 하나의 적외선 카메라; 상기 적외선 촬영된 영상으로부터 상기 감지공간 내에 진입한 상기 사용자 지시수단의 깊이 정보를 추출하는 깊이정보 추출기; 및 상기 추출한 깊이가 임계 깊이 이상이면, 상기 감지공간 내에 진입된 사용자 지시수단의 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산기점에 그 특징이 있다.The present invention discloses a spatial touch sensing apparatus, method and screen apparatus of an infrared camera type. At least one infrared camera for infrared imaging the sensing space on the screen; A depth information extractor for extracting depth information of the user indicating means entering the sensing space from the infrared photographed image; And a spatial coordinate computing point for extracting a position coordinate of the screen corresponding to the position of the user indicating means entered into the sensing space when the extracted depth is greater than or equal to a threshold depth.

본 발명에 따르면, 적외선 카메라를 통한 적외선 촬영 영상으로 감지공간 내로 진입하는 사용자 지시수단을 감지할 수 있으며, 적외선 카메라에 가시광선 차단 필터 등의 적용하여 외부 조명에 의한 오인식을 방지할 수 있는 효과가 있다.According to the present invention, it is possible to detect a user indicating means entering the sensing space as an infrared photographed image through an infrared camera, and by applying a visible light blocking filter to the infrared camera, there is an effect of preventing misrecognition by external lighting. have.

Description

적외선 카메라 방식의 공간 터치 감지 장치, 방법 및 스크린 장치 {Apparatus and Method for Space Touch Sensing and Screen Apparatus sensing Infrared Camera}Apparatus and Method for Space Touch Sensing and Screen Apparatus sensing Infrared Camera}

본 발명은 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및 스크린 장치에 관한 것으로서, 구체적으로는 공간상에 투영된 메뉴의 선택을 감지하기 위해 적외선 카메라를 사용하는 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및 스크린 장치에 관한 것이다.The present invention relates to an infrared camera type spatial touch sensing apparatus, a method and a screen device, and more particularly, to an infrared camera type spatial touch sensing apparatus and method using an infrared camera to detect a selection of a menu projected on a space. And a screen device.

최근, 키보드를 사용하지 않고 화면(스크린)에 나타난 문자나 특정 위치에 사람의 손 또는 물체가 닿으면, 그 위치를 파악하여 저장된 소프트웨어에 의해 파악한 위치에 대응하는 기능을 처리하도록 하는 터치스크린이 널리 사용되고 있다.Recently, when a person's hand or an object touches a character or a specific location displayed on the screen (screen) without using a keyboard, a touch screen that detects the location and processes a function corresponding to the location detected by the stored software is widely used. It is used.

터치 스크린은 기능에 해당하는 문자나 그림 정보를 다양하게 표시할 수 있어 사용자의 기능 인지를 용이하게 한다. 때문에, 지하철, 백화점, 은행 등의 장소에서 안내용 기기, 점포의 판매용 단말기 및 일반 업무용 기기 등에 적용되어 다양하게 활용되고 있다.The touch screen may display a variety of text or picture information corresponding to a function, thereby facilitating user's recognition of the function. Therefore, it is widely used in applications such as guide devices, store sales terminals and general business devices in places such as subways, department stores, banks, and the like.

종래의 터치스크린은 모니터의 화면에 터치 패널(Touch Panel)을 덧붙여서 손끝이나 기타 물체가 소정영역에 접촉할 때 해당 영역의 특성이 변화하는 것을 인지하여 사용자 입력의 발생을 감지하였다.The conventional touch screen detects the occurrence of user input by adding a touch panel to the screen of the monitor and recognizing that the characteristics of the corresponding area change when a fingertip or other object contacts a predetermined area.

즉, 종래의 터치스크린은 전체 화면을 2차원 격자 형태로 구분하여 접촉된 위치를 해석하였다.That is, the conventional touch screen analyzes the contact position by dividing the entire screen into a two-dimensional grid.

이때, 터치스크린은 접촉 감지를 위해 물체의 접촉에 의해 정전용량, 초음파, 적외선, 저항막, 음파인식 등을 적용한 터치 패널의 특성이 변화하는 원리를 이용하였다.In this case, the touch screen uses a principle that changes the characteristics of the touch panel to which the capacitance, ultrasonic waves, infrared rays, resistive film, sound wave recognition, etc. are applied by the contact of the object to detect the touch.

즉, 종래의 터치스크린은 디스플레이 화면과 터치 패널을 동일한 면에 배치하는 2차원 형태로 구성되었으므로, 공간상에 투영된 메뉴 아이콘에 대한 사용자 인터페이스를 제공하지는 못하였다.That is, the conventional touch screen is configured in a two-dimensional form in which the display screen and the touch panel are disposed on the same surface, and thus cannot provide a user interface for the menu icon projected on the space.

본 발명의 목적은 공간상에 메뉴를 투영하여 3차원적인 사용자 인터페이스를 제공하는 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및 스크린 장치를 제공함에 있다.Disclosure of Invention An object of the present invention is to provide an infrared camera type spatial touch sensing apparatus, a method and a screen apparatus that project a menu onto a space to provide a three-dimensional user interface.

본 발명의 다른 목적은 물체의 적외선 촬영 영상을 사용하여 감지공간 내 메뉴 선택을 입력받는 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및 스크린 장치를 제공함에 있다.Another object of the present invention is to provide an infrared camera type spatial touch sensing apparatus, method, and screen apparatus that receive a menu selection in a sensing space using an infrared photographed image of an object.

전술한 문제점을 해결하고자, 본 발명의 일면에 따른 적외선 카메라 방식의 공간 터치 감지 장치는 스크린 상의 감지공간을 적외선 촬영하는 적어도 하나의 적외선 카메라; 상기 적외선 촬영된 영상으로부터 상기 감지공간 내에 진입한 상기 사용자 지시수단의 깊이 정보를 추출하는 깊이정보 추출기; 및 상기 추출한 깊이가 임계 깊이 이상이면, 상기 감지공간 내에 진입된 사용자 지시수단의 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산기를 포함하는 것을 특징으로 한다.In order to solve the above problems, an infrared camera type space touch sensing apparatus according to an aspect of the present invention comprises at least one infrared camera for infrared imaging the sensing space on the screen; A depth information extractor for extracting depth information of the user indicating means entering the sensing space from the infrared photographed image; And a spatial coordinate calculator for extracting the position coordinates of the screen corresponding to the position of the user indicating means entered into the sensing space when the extracted depth is greater than or equal to the threshold depth.

본 발명의 다른 면에 따른 적외선 카메라 방식의 공간 터치 감지 방법은, 스크린 상의 감지공간을 적외선 촬영하는 단계; 상기 적외선 촬영된 영상으로부터 상기 감지공간 내에 진입한 상기 사용자 지시수단의 깊이 정보를 추출하는 단계; 및 상기 추출한 깊이가 임계 깊이 이상이면, 상기 감지공간 내에 진입된 사용자 지시 수단의 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 단계를 포함하는 것을 특징으로 한다. According to another aspect of the present invention, there is provided a method of detecting a spatial touch using an infrared camera, the method comprising: photographing an infrared sensing space on a screen; Extracting depth information of the user indicating means entering the sensing space from the infrared photographed image; And if the extracted depth is greater than or equal to a threshold depth, extracting position coordinates of the screen corresponding to the position of the user indicating means entered into the sensing space.

본 발명의 또 다른 면에 따른 적외선 카메라 방식의 스크린 장치는 적어도 하나의 기능 실행 메뉴를 표시하는 스크린; 상기 스크린 상의 감지공간을 적외선 촬영하는 적어도 하나의 적외선 카메라; 상기 적외선 촬영된 영상으로부터 상기 감지공간 내에 진입한 상기 사용자 지시수단의 깊이 정보를 추출하는 깊이정보 추출기; 상기 추출한 깊이가 임계 깊이 이상이면, 상기 사용자 지시수단이 상기 감지공간 내 진입한 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산기; 및 상기 적어도 하나의 기능 실행 메뉴 중 상기 추출된 위치 좌표에 해당하는 기능 실행 메뉴를 인지하고, 상기 인지된 기능 실행 메뉴에 대응하는 기능 실행 이벤트를 발생시키는 이벤트 발생기를 포함하는 것을 를 특징으로 한다. In accordance with another aspect of the present invention, a screen apparatus of an infrared camera type includes: a screen displaying at least one function execution menu; At least one infrared camera for infrared imaging the sensing space on the screen; A depth information extractor for extracting depth information of the user indicating means entering the sensing space from the infrared photographed image; A spatial coordinate calculator for extracting the position coordinates of the screen corresponding to the position entered by the user indicating means in the sensing space when the extracted depth is greater than or equal to a threshold depth; And an event generator for recognizing a function execution menu corresponding to the extracted position coordinates among the at least one function execution menu and generating a function execution event corresponding to the recognized function execution menu.

본 발명에 따르면, 적외선 카메라를 통한 적외선 촬영 영상으로 감지공간 내로 진입하는 사용자 지시수단을 감지할 수 있으며, 적외선 카메라에 가시광선 차단 필터 등의 적용하여 외부 조명에 의한 오인식을 방지할 수 있는 효과가 있다.According to the present invention, it is possible to detect a user indicating means entering the sensing space as an infrared photographed image through an infrared camera, and by applying a visible light blocking filter to the infrared camera, there is an effect of preventing misrecognition by external lighting. have.

이하, 본 발명에 따른 바람직한 실시예를 첨부 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 적외선 카메라 방식의 공간 터치 감지 장치를 도시한 구성도이며, 도 2 및 도 3은 본 발명의 일실시예에 따른 적외선 카메 라(110) 및 적외선 투광기(170)의 설치도이다. 1 is a block diagram showing a spatial touch sensing device of the infrared camera method according to an embodiment of the present invention, Figures 2 and 3 are an infrared camera 110 and an infrared light emitter ( 170 is an installation diagram.

도 1에 도시된 바와 같이, 본 발명에 따른 적외선 카메라 방식의 공간 터치 감지 장치는 적어도 하나의 적외선 카메라(110), 깊이정보 추출기(120), 공간좌표 연산기(130)를 포함한다.As shown in FIG. 1, an infrared camera type spatial touch sensing apparatus according to the present invention includes at least one infrared camera 110, a depth information extractor 120, and a spatial coordinate calculator 130.

적외선 카메라(110)는 감지공간(100)의 측면에 하나 이상 설치되어 스크린 상의 감지공간(100)을 적외선 촬영한다.At least one infrared camera 110 is installed on the side of the sensing space 100 to take an infrared image of the sensing space 100 on the screen.

여기서, 감지 공간은 스크린 상의 3차원 공간으로서, 적외선 카메라(110)가 사용자 지시수단의 진입 여부를 감지할 수 있는 영역일 수 있다. 이러한 감지 공간은 스크린의 크기 및/또는 적외선 카메라(110)의 감지 가능 범위 등에 의해 결정될 수 있다.Here, the sensing space is a three-dimensional space on the screen, and may be an area where the infrared camera 110 can detect whether the user indicating means has entered. The sensing space may be determined by the size of the screen and / or the detectable range of the infrared camera 110 and the like.

이때, 감지공간(100)은 스크린과 대응하는 형태로 구성되어 일 측을 개방하고 타 측을 스크린과 중첩하여 설치하고, 직사각형인 스크린의 형태에 대응하는 직육면체 형태로 구성되는 것이 바람직하다.At this time, the sensing space 100 is configured in a form corresponding to the screen is opened and installed on one side and the other side overlapping the screen, it is preferable to be configured in a rectangular parallelepiped shape corresponding to the shape of the rectangular screen.

적외선 카메라(110)는 도 2에 도시된 바와 같이, 감지공간(100)의 좌우에 설치되어 감지공간(100) 내에서 촬영 영역을 교차시켜 촬영하여 깊이정보 추출기(120)가 두 개의 적외선 카메라(110)로 교차 촬영한 영상의 시차를 이용하여 사용자 지시수단의 감지공간(100)으로 진입한 깊이 정보를 추출할 수 있도록 한다.As shown in FIG. 2, the infrared camera 110 is installed at the left and right sides of the sensing space 100 to cross the photographing area in the sensing space 100 so that the depth information extractor 120 may use two infrared cameras ( The depth information entered into the sensing space 100 of the user indicating means may be extracted using the parallax of the cross-photographed image.

여기서, 적외선 카메라(110)는 적외선 건판을 사용하여 촬영하는 카메라로서, 원경 촬영, 특수 감열체에 의한 열 사진 촬영, 방사도의 측정 및 미소(微小) 온도 차의 검출에 이용될 수 있다. Here, the infrared camera 110 is a camera photographing using an infrared dry plate, and can be used for distant photography, thermal photography by a special thermal element, measurement of radiance, and detection of minute temperature differences.

적외선 카메라(110)는 880nm이하의 가시광선을 차단하는 필터를 구비하여 외부 조명의 영향을 차단하므로 사용자 지시수단에 대한 감지 신뢰도가 높다.The infrared camera 110 includes a filter for blocking visible light of 880 nm or less to block the influence of external lighting, so that the detection reliability of the user indicating means is high.

적외선 카메라(110)는 감지공간(100)의 상하 또는 좌우 측면에 설치되어 감지공간(100) 내에서 촬영 영역을 교차시켜 촬영하여 시차에 의해 사용자 지시수단이 감지공간(100) 내로 진입한 정도(깊이)를 파악할 수 있다.The infrared camera 110 is installed on the upper, lower, left, and right sides of the sensing space 100 to cross the photographing area in the sensing space 100 to photograph the extent to which the user indicating means enters the sensing space 100 by parallax ( Depth).

이때, 깊이 정보 추출을 위해 적외선 카메라(110)로 한 대의 광각 단초점 적외선 카메라를 사용할 수도 있으나, 광각 단초점 적외선 카메라는 왜곡이 크며, 처리연산이 복잡하고, 가격이 높은 등의 단점이 있어 두 대의 범용 적외선 카메라로 촬영한 영상의 시차를 이용하여 깊이 정보를 추출하는 것이 바람직하다.In this case, a single wide-angle single-focal infrared camera may be used as the infrared camera 110 for extracting depth information, but the wide-angle single-focal infrared camera has a disadvantage of large distortion, complicated processing, and high price. It is preferable to extract depth information by using parallax of an image captured by a large general infrared camera.

깊이정보 추출기(120)는 적외선 촬영된 영상으로부터 감지공간(100) 내에 진입한 사용자 지시수단의 깊이 정보를 추출한다.The depth information extractor 120 extracts depth information of a user indicating means entering the sensing space 100 from the infrared photographed image.

상세하게는, 깊이정보 추출기(120)는 복수의 적외선 카메라(110)에 의해 교차되어 촬영된 영상을 각각 원근보정하여 정면 촬영한 영상으로 변환한 후, 종합하여 사용자 지시수단이 감지공간(100) 내 진입한 깊이 정보를 추출할 수 있다. 즉, 종합된 영상은 사용자 지시수단이 동일 위치에 위치하며, 사용자 지시수단의 위치에서 적외선 값이 가장 높기 때문에, 깊이정보 추출기(120)는 적외선 값으로부터 깊이 정보를 추출할 수 있다.In detail, the depth information extractor 120 converts the images captured by the plurality of infrared cameras 110 into the images taken frontally by correcting the perspective, and then the user indicating means collectively detects the sensing space 100. My entered depth information can be extracted. That is, in the synthesized image, since the user indicating means is located at the same position and the infrared value is the highest at the position of the user indicating means, the depth information extractor 120 may extract depth information from the infrared value.

공간좌표 연산기(130)는 추출한 깊이가 임계 깊이 이상이면, 감지공간(100) 내에 진입된 사용자 지시수단의 위치에 대응하는 스크린의 위치 좌표를 추출한다. 공간좌표 연산기(130)의 세부 구성요소 및 구체적 역할에 대해서는 도 4를 참조하 여 후술한다.If the extracted depth is greater than or equal to the threshold depth, the spatial coordinate calculator 130 extracts the position coordinates of the screen corresponding to the position of the user indicating means entered into the sensing space 100. Detailed components and specific roles of the spatial coordinate calculator 130 will be described later with reference to FIG. 4.

여기서, 위치 좌표는 스크린의 한 모서리를 기준은 X축, Y축으로 해석되는 2차원 좌표일 수 있다.Here, the position coordinates may be two-dimensional coordinates which are interpreted as X-axis and Y-axis based on one corner of the screen.

그외에도, 적외선 카메라 방식의 공간 터치 감지 장치는 이벤트 발생기(150), 송신기(140) 및 적외선 투광기(170)를 더 포함한다.In addition, the infrared camera-type spatial touch sensing apparatus further includes an event generator 150, a transmitter 140, and an infrared light emitter 170.

이벤트 발생기(150)는 공간 터치 감지 장치에 포함되거나 별도의 장치 일 수 있으며, 추출된 위치 좌표에 해당하는 기능 실행 이벤트를 발생시킨다.The event generator 150 may be included in the spatial touch sensing device or may be a separate device, and generates a function execution event corresponding to the extracted location coordinates.

송신기(140)는 추출된 위치 좌표 또는 발생된 기능 실행 이벤트에 해당하는 기능 실행 장치로 추출된 위치 좌표 또는 발생된 기능 실행 이벤트를 송신한다.The transmitter 140 transmits the extracted location coordinates or the generated function execution event to the function execution device corresponding to the extracted location coordinates or the generated function execution event.

적외선 투광기(170)는 적어도 하나 구비되어 감지공간(100) 내에 적외선을 투사하여 적외선 카메라의 촬영 감도를 개선한다.At least one infrared light emitter 170 is provided to project infrared rays into the sensing space 100 to improve the photographing sensitivity of the infrared camera.

적외선 투광기(170)는 감지공간(100) 내에 적외선을 균일하게 투사하는 적외선 LED(Light-Emitting Diode)일 수 있다.The infrared light emitter 170 may be an infrared light-emitting diode (LED) for uniformly projecting infrared light in the sensing space 100.

즉, 적외선 투광기(170)로서 투사각이 넓고, 투사 밀도가 비교적 균일한 광각의 저출력 LED를 적용할 수도 있다.That is, as the infrared light emitter 170, a wide-angle low-power LED having a wide projection angle and a relatively uniform projection density may be applied.

적외선 투광기(170)는 적외선 카메라의 촬영 영역에 대한 적외선 투사율을 높일 수 있는 위치에 설치되는 것이 바람직하다. The infrared light emitter 170 is preferably installed at a position capable of increasing the infrared projection rate for the photographing area of the infrared camera.

이때, 적외선 카메라(110)가 도 3에 도시된 바와 같이, 감지공간(100)의 좌우에 설치된 경우는 적외선 투광기(170)를 감지공간(100)의 상하에 설치하여 적외선 투사율을 높이는 것이 바람직하다.In this case, as shown in FIG. 3, when the infrared camera 110 is installed at the left and right sides of the sensing space 100, it is preferable to increase the infrared projection rate by installing the infrared light emitter 170 above and below the sensing space 100. .

이때, 적외선 투광기(170)는 설치환경에 따라 위쪽이나 아래쪽에 한 개만 설치될 수도 있음은 물론이다.At this time, of course, only one infrared emitter 170 may be installed above or below according to the installation environment.

도 4는 본 발명의 일실시예에 따른 공간좌표 연산기(130)의 세부 구성도이다. 4 is a detailed configuration diagram of the spatial coordinate calculator 130 according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 본 발명에 따른 공간좌표 연산기(130)는 깊이정보 취득부(131), 픽셀 감지부(132), 지시수단 판단부(133) 및 좌표 검출부(134)를 포함한다.As shown in FIG. 4, the spatial coordinate calculator 130 according to the present invention includes a depth information acquisition unit 131, a pixel detection unit 132, an indication means determination unit 133, and a coordinate detection unit 134. .

깊이정보 취득부(131)는 감지된 깊이에 대응하는 제 1 로우 데이터(Raw Data)를 픽셀 단위로 취득한다. 즉, 깊이정보 취득부(131)는 감지공간(100) 내로 진입한 감지된 물체의 진입 깊이를 로우 데이터 형태로 추출한다.The depth information acquisition unit 131 acquires first raw data corresponding to the detected depth in units of pixels. That is, the depth information acquisition unit 131 extracts the entry depth of the detected object entering the sensing space 100 in a low data form.

여기서, 로우 데이터는 소정목적을 위한 처리가 되지않은 미가공 데이터로서, 소정주기(예컨대, 1초) 단위로 업데이트 되어 목적 달성을 위한 정보를 제공한다. Here, the raw data is raw data that has not been processed for a predetermined purpose, and is updated at predetermined intervals (for example, 1 second) to provide information for achieving the purpose.

여기서, 본 발명의 제 1 로우 데이터는 감지공간(100) 내로 진입한 물체의 진입 깊이와 그에 대응하는 스크린의 위치에 대한 정보를 포함한다.Here, the first row data of the present invention includes information on the entry depth of the object entering the sensing space 100 and the position of the screen corresponding thereto.

이때, 위치 좌표가 스크린을 구성하는 픽셀 단위로 추출되므로, 제 1 로우 데이터도 픽셀 단위로 추출되는 것이 바람직하다.In this case, since the position coordinates are extracted in units of pixels constituting the screen, the first row data is also extracted in units of pixels.

픽셀 감지부(132)는 제 1 로우 데이터 중 감지공간(100)에 대한 물체의 진입 깊이가 임계 깊이 이상인 제 2 로우 데이터를 감지한다.The pixel detector 132 detects the second row data of which the entry depth of the object into the sensing space 100 is greater than or equal to the threshold depth among the first row data.

상세하게는, 픽셀 감지부(132)는 진입 깊이와 임계 깊이 이상인지 비교하여, 임계 깊이 이상이면 제 1 로우 데이터를 1로 표시하고, 임계 깊이 미만이면 0으로 표시한다. 그리고, 픽셀 감지부(132)는 1로 표시된 제 1 로우 데이터는 제 2 로우 데이터로 감지하고, 0으로 표시된 제 1 로우 데이터는 무시한다.In detail, the pixel detector 132 compares whether the pixel depth 132 is greater than or equal to the threshold depth, and displays the first row data as 1 when the threshold depth is greater than or equal to 1, and 0 when the threshold depth is less than the threshold depth. In addition, the pixel detector 132 detects the first row data indicated by 1 as the second row data and ignores the first row data indicated by 0. FIG.

지시수단 판단부(133)는 제 2 로우 데이터를 갖는 픽셀이 이루는 픽셀 영역이 임계 영역 이상이면, 감지공간(100) 내로 진입한 물체가 사용자 지시수단인 것으로 판단한다.The indicating means determiner 133 determines that the object entering the sensing space 100 is a user indicating means when the pixel area formed by the pixel having the second row data is greater than or equal to the threshold area.

또한, 지시수단 판단부(133)는 제 2 로우 데이터를 갖는 픽셀이 이루는 픽셀 영역이 임계 영역 미만이면, 먼지 등의 불필요한 물체가 감지된 것으로 판단하고 무시하여 불필요한 오동작을 방지할 수 있다.In addition, if the pixel area formed by the pixel having the second row data is less than the threshold area, the indicating means determiner 133 may determine that an unnecessary object such as dust is detected and ignore it, thereby preventing unnecessary malfunction.

좌표 검출부(134)는 사용자 지시수단의 진입으로 판단된 픽셀 영역의 중심을 검출하여 위치 좌표로 변환한다.The coordinate detector 134 detects the center of the pixel area determined as the entry of the user indicating means, and converts the center of the pixel area into position coordinates.

예컨대, 좌표 검출부(134)는 픽셀 영역의 최장길이와 최단길이의 교차점을 중심으로 판단하여 교차점을 위치 좌표로 변환할 수 있다.For example, the coordinate detector 134 may determine the center of intersection of the longest length and the shortest length of the pixel area and convert the intersection into position coordinates.

여기서, 좌표 검출부(134)는 소정(예컨대, 두 번째) 번째로 긴 길이와 소정 번째로 짧은 길이의 교차점을 중심으로 검출할 수 있으며, 그외에 다양한 방식을 사용할 수 있음은 물론이다. Here, the coordinate detector 134 may detect the intersection of the predetermined (eg, second) second longest length and the predetermined second shortest length, and of course, various methods may be used.

도 5는 본 발명의 일실시예에 따른 적외선 카메라 방식의 스크린 장치를 도시한 구성도이다.5 is a block diagram showing a screen device of the infrared camera method according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 본 발명에 따른 적외선 카메라 방식의 스크린 장치는 스크린(160), 적외선 카메라(110), 깊이정보 추출기(120), 공간좌표 연산 기(130) 및 이벤트 발생기(150)를 포함한다.As shown in FIG. 5, the screen apparatus of the infrared camera type according to the present invention includes a screen 160, an infrared camera 110, a depth information extractor 120, a spatial coordinate calculator 130, and an event generator 150. It includes.

스크린(160)은 스크린은 다수의 픽셀을 포함하여 적어도 하나의 기능 실행 메뉴를 표시한다.The screen 160 displays at least one function execution menu including a plurality of pixels.

적외선 카메라(110)는 스크린 상의 감지공간(100) 측면에 적어도 하나 설치되어 감지공간(100) 내를 적외선 촬영한다.The infrared camera 110 is installed at least one side of the sensing space 100 on the screen to take an infrared image of the interior of the sensing space (100).

깊이정보 추출기(120)는 적외선 촬영된 영상으로부터 감지공간(100) 내에 진입한 사용자 지시수단의 깊이 정보를 추출한다.The depth information extractor 120 extracts depth information of a user indicating means entering the sensing space 100 from the infrared photographed image.

공간좌표 연산기(130)는 사용자 지시수단이 감지공간(100) 내 진입한 위치에 대응하는 스크린의 위치 좌표를 추출한다.The spatial coordinate calculator 130 extracts the position coordinates of the screen corresponding to the position where the user indicating means enters the sensing space 100.

공간좌표 연산기(130)는 추출한 깊이가 임계 깊이 이상이면, 사용자 지시수단이 감지공간(100) 내 진입한 위치에 대응하는 스크린의 위치 좌표를 추출한다.If the extracted depth is greater than or equal to the threshold depth, the spatial coordinate calculator 130 extracts the position coordinates of the screen corresponding to the position entered into the sensing space 100.

이벤트 발생기(150)는 적어도 하나의 기능 실행 메뉴 중 추출된 위치 좌표에 해당하는 기능 실행 메뉴를 인지하고, 인지된 기능 실행 메뉴에 대응하는 기능 실행 이벤트를 발생시킨다.The event generator 150 recognizes a function execution menu corresponding to the extracted position coordinates among the at least one function execution menu, and generates a function execution event corresponding to the recognized function execution menu.

적외선 카메라 방식의 스크린 장치는 이외에도 적어도 하나의 적외선 투광기(170)를 더 포함하고, 감지공간(100) 내에 적외선을 투사하여 적외선 카메라의 촬영 감도를 개선할 수 있다.In addition, the infrared camera type screen device may further include at least one infrared light emitter 170, and may project infrared rays into the sensing space 100 to improve photographing sensitivity of the infrared camera.

도 6은 본 발명의 일실시예에 따른 적외선 카메라 방식의 공간 터치 감지 방법을 도시한 흐름도이다. 이하, 도 6을 참조하여 설명한다.6 is a flowchart illustrating a spatial touch sensing method of an infrared camera method according to an embodiment of the present invention. A description with reference to FIG. 6 is as follows.

먼저, 적외선 카메라 방식의 공간 터치 감지 장치는 스크린 상의 감지공 간(100)을 적외선 촬영한다(S610).First, the infrared camera type spatial touch sensing apparatus photographs infrared rays of the sensing space 100 on the screen (S610).

이때, 적외선 카메라 방식의 공간 터치 감지 장치는 감지공간(100)을 상기 감지공간의 상하 또는 좌우 측면에서 촬영하는 영역이 교차되도록 교차 촬영하고, 교차 촬영된 영상의 시차를 이용하여 깊이 정보를 추출한다.In this case, the infrared camera-type spatial touch sensing apparatus cross-photographs the sensing space 100 so that an area photographed from the upper, lower, left, and right sides of the sensing space intersects, and extracts depth information by using parallax of the cross-photographed image. .

이때, 적외선 카메라 방식의 공간 터치 감지 장치는 촬영 영상의 화질 개선을 위해 감지공간(100) 내에 적외선을 투사하는 것이 바람직하다.In this case, it is preferable that the infrared camera type spatial touch sensing device projects infrared rays in the sensing space 100 to improve the image quality of the captured image.

이어서, 적외선 카메라 방식의 공간 터치 감지 장치는 적외선 촬영된 영상으로부터 감지공간(100)으로 진입한 사용자 지시수단의 깊이 정보를 추출한다(S620).Subsequently, the infrared camera type spatial touch sensing apparatus extracts depth information of the user indicating means entering the sensing space 100 from the infrared photographed image (S620).

상세하게는, 적외선 카메라 방식의 공간 터치 감지 장치는 교차 촬영된 영상를 원근보정하여 각각 정면 촬영 영상으로 변환하고, 각각 변환된 영상을 하나의 영상으로 종합하여 사용자 지시수단이 감지공간(100) 내 진입한 깊이 정보를 추출하는 것이다.In detail, the infrared camera-type spatial touch sensing apparatus corrects the cross-photographed image into perspective shot images, and combines the converted images into a single image, and the user indicating means enters the sensing space 100. Is to extract depth information.

그리고, 적외선 카메라 방식의 공간 터치 감지 장치는 추출한 깊이가 임계 깊이 이상이면(S630), 감지공간(100) 내에 진입된 사용자 지시수단의 위치에 대응하는 스크린의 위치 좌표를 추출한다(S640).When the extracted depth is greater than or equal to the threshold depth (S630), the infrared camera type spatial touch sensing apparatus extracts the position coordinates of the screen corresponding to the position of the user indicating means entered into the sensing space 100 (S640).

이때, 스크린은 다수의 픽셀을 포함하므로 위치 좌표도 픽셀 단위로 추출되는 것이 바람직하다.In this case, since the screen includes a plurality of pixels, the location coordinates are preferably extracted in units of pixels.

상세하게는, 적외선 카메라 방식의 공간 터치 감지 장치는 스크린이 다수를 픽셀을 포함할 때, 감지 공간 내에 사용자 지시수단이 진입한 깊이에 대응하는 픽셀 단위의 제 1 로우 데이터(Raw Data)를 취득한다. 그리고, 진입된 깊이가 임계 깊이 이상인 제 2 로우 데이터를 감지하며, 제 2 로우 데이터를 갖는 픽셀이 이루는 픽셀 영역이 임계 영역 이상이면, 사용자 지시수단의 진입으로 판단하고, 진입으로 판단된 픽셀 영역의 중심을 검출하여 위치 좌표로 변환한다.In detail, when the screen includes a large number of pixels, the infrared camera type spatial touch sensing apparatus acquires first raw data in pixel units corresponding to a depth at which the user indicating means enters into the sensing space. . If the pixel depth of the pixel having the second row data is greater than or equal to the threshold region, the second row data having the entered depth is greater than or equal to the threshold depth is detected. Detect the center and convert it to position coordinates.

이때, 적외선 카메라 방식의 공간 터치 감지 장치는 픽셀 영역의 최장길이와 최단길이의 교차점을 중심으로 검출하고, 검출한 교차점을 위치 좌표로 변환하는 것이 바람직하다.In this case, it is preferable that the infrared camera type spatial touch sensing apparatus detects the intersection of the longest length and the shortest length of the pixel area and converts the detected intersection point into position coordinates.

한편, 적외선 카메라 방식의 공간 터치 감지 장치는 사용자 지시수단이 진입된 깊이가 임계 깊이 미만이면(S630), 제 1 로우 데이터를 노이즈로 간주하여 삭제한다(S650).On the other hand, if the depth of the user input means is less than the threshold depth (S630), the infrared camera type spatial touch sensing apparatus considers and deletes the first row data as noise (S650).

이후, 변환된 위치 좌표에 해당하는 기능 실행 이벤트가 발생 되고, 기능 실행 이벤트에 따른 기능을 실행되는 과정이 진행될 수 있다.Thereafter, a function execution event corresponding to the converted position coordinate is generated, and a process of executing a function according to the function execution event may be performed.

이상, 본 발명의 구성에 대하여 첨부 도면을 참조하여 상세히 설명하였으나, 이는 예시에 불과한 것으로서, 본 발명이 속하는 기술분야에 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 변형과 변경이 가능함은 물론이다. 따라서 본 발명의 보호 범위는 전술한 실시예에 국한되어서는 아니되며 이하의 특허 청구범위의 기재에 의하여 정하여져야 할 것이다.In the above, the configuration of the present invention has been described in detail with reference to the accompanying drawings, which are merely examples, and those skilled in the art to which the present invention pertains various modifications and changes within the scope of the technical idea of the present invention. Of course this is possible. Therefore, the protection scope of the present invention should not be limited to the above-described embodiment, but should be defined by the following claims.

도 1은 본 발명에 따른 적외선 카메라 방식의 공간 터치 감지 장치를 도시한 구성도.1 is a block diagram showing a spatial touch sensing device of the infrared camera method according to the present invention.

도 2 및 도 3은 본 발명에 따른 적외선 카메라(110) 및 적외선 투광기(170)의 설치도2 and 3 is an installation view of the infrared camera 110 and the infrared transmitter 170 according to the present invention.

도 4는 본 발명에 따른 공간좌표 연산기(130)의 세부 구성도.4 is a detailed configuration diagram of the spatial coordinate calculator 130 according to the present invention.

도 5는 본 발명에 따른 적외선 카메라 방식의 스크린 장치를 도시한 구성도.Figure 5 is a block diagram showing a screen device of the infrared camera method according to the present invention.

도 6은 본 발명에 따른 적외선 카메라 방식의 공간 터치 감지 방법을 도시한 흐름도.6 is a flowchart illustrating a spatial touch sensing method of an infrared camera method according to the present invention.

Claims (20)

스크린 상의 감지공간을 적외선 촬영하는 적어도 하나의 적외선 카메라;At least one infrared camera for infrared imaging the sensing space on the screen; 상기 적외선 촬영된 영상으로부터 상기 감지공간 내에 진입한 상기 사용자 지시수단의 깊이 정보를 추출하는 깊이정보 추출기; 및A depth information extractor for extracting depth information of the user indicating means entering the sensing space from the infrared photographed image; And 상기 추출한 깊이가 임계 깊이 이상이면, 상기 감지공간 내에 진입된 사용자 지시수단의 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산기If the extracted depth is greater than or equal to the threshold depth, a spatial coordinate calculator for extracting the position coordinates of the screen corresponding to the position of the user indicating means entered into the sensing space 를 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 장치.Spatial touch sensing device of the infrared camera method comprising a. 제1항에 있어서,The method of claim 1, 상기 추출된 위치 좌표에 해당하는 기능 실행 이벤트를 발생시키는 이벤트 발생기An event generator for generating a function execution event corresponding to the extracted position coordinates 를 더 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 장치.Infrared camera type space touch sensing device further comprising a. 제1항에 있어서, The method of claim 1, 상기 감지공간 내에 적외선을 투사하는 적어도 하나의 적외선 투광기At least one infrared transmitter for projecting infrared rays in the sensing space 를 더 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 장치.Infrared camera type space touch sensing device further comprising a. 제3항에 있어서, 상기 적어도 하나의 적외선 투광기는,The method of claim 3, wherein the at least one infrared light emitter, 상기 감지공간 내에 상기 적외선을 균일하게 투사하는 적외선 LED를 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 장치.Infrared camera-type spatial touch sensing apparatus comprising an infrared LED for uniformly projecting the infrared rays in the sensing space. 제1항에 있어서, 상기 적어도 하나의 적외선 카메라는,The method of claim 1, wherein the at least one infrared camera, 880nm이하 가시광선을 차단하는 필터를 구비한 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 장치.Infrared camera type spatial touch sensing device, characterized in that it comprises a filter for blocking visible light below 880nm. 제1항에 있어서, 상기 적어도 하나의 적외선 카메라는,The method of claim 1, wherein the at least one infrared camera, 상기 감지공간의 상하 또는 좌우 측면에 구비되어 상기 감지공간 내에서 촬영 영역이 교차하도록 촬영하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 장치.Infrared camera type space touch sensing device, characterized in that provided in the upper and lower or left and right sides of the sensing space to take a photographing area in the sensing space to cross. 제6항에 있어서, 상기 깊이정보 추출기는,The method of claim 6, wherein the depth information extractor, 상기 교차하여 촬영된 영상을 정면 촬영된 영상으로 변환한 후, 상기 감지공간 내에 상기 사용자 지시수단이 진입하는 깊이 정보를 추출하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 장치.And converting the cross-photographed image into a front-photographed image, and extracting depth information into which the user indicating means enters the sensing space. 제1항에 있어서, 상기 스크린이 다수의 픽셀을 포함할 때, 상기 공간좌표 연 산기는,The spatial coordinate operator of claim 1, wherein when the screen includes a plurality of pixels, 상기 감지된 깊이에 대응하는 제 1 로우 데이터(Raw Data)를 상기 픽셀 단위로 취득하는 깊이정보 취득부;A depth information obtaining unit obtaining first raw data corresponding to the detected depth in units of pixels; 상기 제 1 로우 데이터 중 상기 감지된 깊이가 임계 깊이 이상인 제 2 로우 데이터를 감지하는 픽셀 감지부;A pixel detector configured to detect second row data of the first row data whose detected depth is greater than or equal to a threshold depth; 상기 제 2 로우 데이터를 갖는 픽셀이 이루는 픽셀 영역이 임계 영역 이상이면, 상기 사용자 지시수단이 진입한 것으로 판단하는 지시수단 판단부; 및 An instruction means determination unit that determines that the user indication means has entered if the pixel area formed by the pixel having the second row data is equal to or larger than a threshold area; And 상기 사용자 지시수단의 진입으로 판단된 상기 픽셀 영역의 중심을 검출하여 위치 좌표로 변환하는 좌표 검출부Coordinate detection unit for detecting the center of the pixel area determined to enter the user indicating means and converting to the position coordinates 를 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 장치.Spatial touch sensing device of the infrared camera method comprising a. 제8항에 있어서, 상기 좌표 검출부는,The method of claim 8, wherein the coordinate detection unit, 상기 픽셀 영역의 최장길이와 최단길이의 교차점을 상기 위치 좌표로 변환 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 장치.And an intersection point of the longest length and the shortest length of the pixel area to the position coordinates. 스크린 상의 감지공간을 적외선 촬영하는 단계;Infrared imaging the sensing space on the screen; 상기 적외선 촬영된 영상으로부터 상기 감지공간 내에 진입한 상기 사용자 지시수단의 깊이 정보를 추출하는 단계; 및Extracting depth information of the user indicating means entering the sensing space from the infrared photographed image; And 상기 추출한 깊이가 임계 깊이 이상이면, 상기 감지공간 내에 진입된 사용자 지시수단의 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 단계If the extracted depth is greater than or equal to a threshold depth, extracting position coordinates of the screen corresponding to a position of a user indicating means entered into the sensing space; 를 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 방법.Space touch detection method of the infrared camera method comprising a. 제10항에 있어서, 상기 촬영하는 단계는,The method of claim 10, wherein the photographing step, 상기 감지공간 내에 적외선을 투사하는 단계Projecting infrared rays into the sensing space 를 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 방법.Space touch detection method of the infrared camera method comprising a. 제10항에 있어서, 상기 촬영하는 단계는,The method of claim 10, wherein the photographing step, 상기 감지공간의 상하 또는 좌우 측면에서 촬영하는 영역이 교차되도록 교차 촬영하는 단계Cross-photographing the regions photographed from the top, bottom, left and right sides of the sensing space to cross 를 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 방법.Space touch detection method of the infrared camera method comprising a. 제12항에 있어서, 상기 깊이정보를 추출하는 단계는,The method of claim 12, wherein extracting the depth information comprises: 상기 교차 촬영된 영상을 각각 정면 촬영 영상으로 변환하는 단계;Converting the cross shot image into a front shot image; 상기 각각 변환된 영상을 하나의 영상으로 종합하는 단계; 및Synthesizing the converted images into one image; And 상기 종합된 영상으로부터 상기 사용자 지시수단이 상기 감지공간 내 진입한 깊이 정보를 추출하는 단계Extracting depth information entered into the sensing space by the user indicating means from the synthesized image; 를 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 방법.Space touch detection method of the infrared camera method comprising a. 제10항에 있어서, 상기 스크린이 다수의 픽셀을 포함할 때, 상기 위치 좌표를 추출하는 단계는,The method of claim 10, wherein when the screen includes a plurality of pixels, extracting the position coordinates comprises: 상기 위치 좌표를 상기 픽셀 단위로 추출하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 방법.The method of claim 1, wherein the location coordinates are extracted in units of pixels. 제10항에 있어서, 상기 위치 좌표를 추출하는 단계는,The method of claim 10, wherein the extracting of the position coordinates comprises: 스크린이 다수를 픽셀을 포함할 때, 상기 스크린 상의 감지 공간 내에 사용자 지시수단이 진입하는 깊이에 대응하는 상기 픽셀 단위의 제 1 로우 데이터(Raw Data)를 취득하는 단계;When the screen includes a plurality of pixels, acquiring first raw data in pixel units corresponding to a depth at which user indicating means enters into a sensing space on the screen; 상기 제 1 로우 데이터 중 상기 진입된 깊이가 임계 깊이 이상인 제 2 로우 데이터를 감지하는 단계; Detecting second row data of the first row data whose depth is greater than or equal to a threshold depth; 상기 제 2 로우 데이터를 갖는 픽셀이 이루는 픽셀 영역이 임계 영역 이상이면, 상기 사용자 지시수단의 진입으로 판단하는 단계; 및 If the pixel area formed by the pixel having the second row data is greater than or equal to a threshold area, determining that the user indicating means has entered; And 상기 진입으로 판단된 픽셀 영역의 중심을 검출하여 위치 좌표로 변환하는 단계Detecting the center of the pixel area determined as the entry and converting the center of the pixel area into position coordinates; 를 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 방법.Space touch detection method of the infrared camera method comprising a. 제15항에 있어서, 상기 감지하는 단계는,The method of claim 15, wherein the detecting step, 상기 진입된 깊이가 임계 깊이 미만인 제 2 로우 데이터를 무시하는 단계Ignoring second row data whose entered depth is less than a threshold depth 를 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 방법.Space touch detection method of the infrared camera method comprising a. 제15항에 있어서, 상기 변환하는 단계는,The method of claim 15, wherein the converting step, 상기 픽셀 영역의 최장길이와 최단길이의 교차점을 상기 픽셀 영역의 중심으로 검출하는 단계Detecting an intersection of the longest length and the shortest length of the pixel area with the center of the pixel area; 를 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 방법.Space touch detection method of the infrared camera method comprising a. 제10항에 있어서, 상기 위치 좌표를 추출하는 단계 이후에,The method of claim 10, wherein after extracting the position coordinates, 상기 추출된 위치 좌표에 해당하는 기능 실행 이벤트를 발생시키는 단계; 및Generating a function execution event corresponding to the extracted position coordinates; And 상기 기능 실행 이벤트에 따른 기능을 실행시키는 단계Executing a function according to the function execution event 를 더 포함하는 것을 특징으로 하는 적외선 카메라 방식의 공간 터치 감지 방법.Space touch detection method of the infrared camera method further comprising a. 적어도 하나의 기능 실행 메뉴를 표시하는 스크린;A screen displaying at least one function execution menu; 상기 스크린 상의 감지공간을 적외선 촬영하는 적어도 하나의 적외선 카메 라;At least one infrared camera for infrared imaging the sensing space on the screen; 상기 적외선 촬영된 영상으로부터 상기 감지공간 내에 진입한 사용자 지시수단의 깊이 정보를 추출하는 깊이정보 추출기; A depth information extractor for extracting depth information of a user indicating means entering the sensing space from the infrared photographed image; 상기 추출한 깊이가 임계 깊이 이상이면, 상기 사용자 지시수단이 상기 감지공간 내 진입한 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산기; 및A spatial coordinate calculator for extracting the position coordinates of the screen corresponding to the position entered by the user indicating means in the sensing space when the extracted depth is greater than or equal to a threshold depth; And 상기 적어도 하나의 기능 실행 메뉴 중 상기 추출된 위치 좌표에 해당하는 기능 실행 메뉴를 인지하고, 상기 인지된 기능 실행 메뉴에 대응하는 기능 실행 이벤트를 발생시키는 이벤트 발생기An event generator for recognizing a function execution menu corresponding to the extracted position coordinates among the at least one function execution menu and generating a function execution event corresponding to the recognized function execution menu; 를 포함하는 것을 특징으로 하는 적외선 카메라 방식의 스크린 장치.Infrared camera type screen device comprising a. 제19항에 있어서, The method of claim 19, 상기 감지공간 내에 적외선을 투사하는 적어도 하나의 적외선 투광기At least one infrared transmitter for projecting infrared rays in the sensing space 를 더 포함하는 것을 특징으로 하는 적외선 카메라 방식의 스크린 장치.Infrared camera type screen device further comprising.
KR1020080042547A 2008-05-07 2008-05-07 Infrared camera space touch sensing device, method and screen device KR100968205B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080042547A KR100968205B1 (en) 2008-05-07 2008-05-07 Infrared camera space touch sensing device, method and screen device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080042547A KR100968205B1 (en) 2008-05-07 2008-05-07 Infrared camera space touch sensing device, method and screen device

Publications (2)

Publication Number Publication Date
KR20090116544A true KR20090116544A (en) 2009-11-11
KR100968205B1 KR100968205B1 (en) 2010-07-06

Family

ID=41601304

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080042547A KR100968205B1 (en) 2008-05-07 2008-05-07 Infrared camera space touch sensing device, method and screen device

Country Status (1)

Country Link
KR (1) KR100968205B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100974894B1 (en) * 2009-12-22 2010-08-11 전자부품연구원 3d space touch apparatus using multi-infrared camera
KR101521515B1 (en) * 2014-10-28 2015-05-19 김주희 System and method for interworking data between multimedia devices
US9052770B2 (en) 2012-08-24 2015-06-09 Samsung Display Co., Ltd. Touchscreen display device and related method
US9239650B2 (en) 2013-09-25 2016-01-19 Hyundai Motor Company Curved touch display apparatus for providing tactile feedback and method thereof
KR20200039983A (en) * 2018-10-08 2020-04-17 주식회사 토비스 Space touch detecting device and display device having the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213440B2 (en) * 2010-07-27 2015-12-15 Hewlett-Packard Development Company L.P. System and method for remote touch detection

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3834766B2 (en) 2000-04-03 2006-10-18 独立行政法人科学技術振興機構 Man machine interface system
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
KR20070037773A (en) * 2005-10-04 2007-04-09 엘지전자 주식회사 Device and method for inputting user command in display device
KR100804815B1 (en) 2007-09-10 2008-02-20 (주)컴버스테크 Touch screen using infrared camera resistant to disturbance light

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100974894B1 (en) * 2009-12-22 2010-08-11 전자부품연구원 3d space touch apparatus using multi-infrared camera
US8786576B2 (en) 2009-12-22 2014-07-22 Korea Electronics Technology Institute Three-dimensional space touch apparatus using multiple infrared cameras
US9052770B2 (en) 2012-08-24 2015-06-09 Samsung Display Co., Ltd. Touchscreen display device and related method
US9239650B2 (en) 2013-09-25 2016-01-19 Hyundai Motor Company Curved touch display apparatus for providing tactile feedback and method thereof
KR101521515B1 (en) * 2014-10-28 2015-05-19 김주희 System and method for interworking data between multimedia devices
KR20200039983A (en) * 2018-10-08 2020-04-17 주식회사 토비스 Space touch detecting device and display device having the same

Also Published As

Publication number Publication date
KR100968205B1 (en) 2010-07-06

Similar Documents

Publication Publication Date Title
US9778748B2 (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
US8971565B2 (en) Human interface electronic device
US10324563B2 (en) Identifying a target touch region of a touch-sensitive surface based on an image
JP5201096B2 (en) Interactive operation device
US10310675B2 (en) User interface apparatus and control method
US20140237401A1 (en) Interpretation of a gesture on a touch sensing device
CN108027656B (en) Input device, input method, and program
KR100968205B1 (en) Infrared camera space touch sensing device, method and screen device
US20120019460A1 (en) Input method and input apparatus
US10664090B2 (en) Touch region projection onto touch-sensitive surface
CN103472907B (en) Method and system for determining operation area
US20020136455A1 (en) System and method for robust foreground and background image data separation for location of objects in front of a controllable display within a camera view
JP2012238293A (en) Input device
TWI499938B (en) Touch control system
JP4870651B2 (en) Information input system and information input method
CN108227923A (en) A kind of virtual touch-control system and method based on body-sensing technology
KR100983051B1 (en) Depth sensor type spatial touch sensing device, method and screen device
KR101019255B1 (en) Depth sensor type spatial touch wireless terminal, its data processing method and screen device
Yoo et al. Symmetrisense: Enabling near-surface interactivity on glossy surfaces using a single commodity smartphone
US20140085264A1 (en) Optical touch panel system, optical sensing module, and operation method thereof
JP6709022B2 (en) Touch detection device
US20200302643A1 (en) Systems and methods for tracking
TWI444875B (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and imaging sensor
JP2018063555A (en) Information processing device, information processing method, and program
Matsubara et al. Touch detection method for non-display surface using multiple shadows of finger

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20080507

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20090624

Patent event code: PE09021S01D

PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20091217

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20100614

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20100629

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20100629

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20130111

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20130111

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20131231

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20131231

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20150109

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20150109

Start annual number: 6

End annual number: 6

PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20170329

FPAY Annual fee payment

Payment date: 20170329

Year of fee payment: 7

PR0401 Registration of restoration

Patent event code: PR04011E01D

Patent event date: 20170329

Comment text: Registration of Restoration

PR1001 Payment of annual fee

Payment date: 20170329

Start annual number: 7

End annual number: 7

R401 Registration of restoration
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20180328

Termination category: Default of registration fee

Termination date: 20170329

FPAY Annual fee payment

Payment date: 20180328

Year of fee payment: 8

PR0401 Registration of restoration

Patent event code: PR04011E01D

Patent event date: 20180328

Comment text: Registration of Restoration

PR1001 Payment of annual fee

Payment date: 20180328

Start annual number: 8

End annual number: 8

R401 Registration of restoration
FPAY Annual fee payment

Payment date: 20180709

Year of fee payment: 9

PR1001 Payment of annual fee

Payment date: 20180709

Start annual number: 9

End annual number: 9

FPAY Annual fee payment

Payment date: 20190409

Year of fee payment: 10

PR1001 Payment of annual fee

Payment date: 20190409

Start annual number: 10

End annual number: 10

PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20210324

Termination category: Default of registration fee

Termination date: 20180328

Termination category: Default of registration fee

Termination date: 20170329

PR0401 Registration of restoration

Patent event code: PR04011E01D

Patent event date: 20210324

Comment text: Registration of Restoration

PR1001 Payment of annual fee

Payment date: 20210324

Start annual number: 11

End annual number: 11

R401 Registration of restoration
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20240410

Termination category: Default of registration fee

Termination date: 20210324

Termination category: Default of registration fee

Termination date: 20180328

Termination category: Default of registration fee

Termination date: 20170329