KR20090116544A - Infrared camera space touch sensing device, method and screen device - Google Patents
Infrared camera space touch sensing device, method and screen device Download PDFInfo
- Publication number
- KR20090116544A KR20090116544A KR1020080042547A KR20080042547A KR20090116544A KR 20090116544 A KR20090116544 A KR 20090116544A KR 1020080042547 A KR1020080042547 A KR 1020080042547A KR 20080042547 A KR20080042547 A KR 20080042547A KR 20090116544 A KR20090116544 A KR 20090116544A
- Authority
- KR
- South Korea
- Prior art keywords
- infrared camera
- infrared
- space
- depth
- screen
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000003331 infrared imaging Methods 0.000 claims abstract description 6
- 230000000903 blocking effect Effects 0.000 claims abstract description 4
- 238000001514 detection method Methods 0.000 claims description 14
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 2
- 239000000284 extract Substances 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000009434 installation Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 2
- 239000000428 dust Substances 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
- Studio Devices (AREA)
Abstract
본 발명은 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및 스크린 장치에 대하여 개시한다. 본 발명은 스크린 상의 감지공간을 적외선 촬영하는 적어도 하나의 적외선 카메라; 상기 적외선 촬영된 영상으로부터 상기 감지공간 내에 진입한 상기 사용자 지시수단의 깊이 정보를 추출하는 깊이정보 추출기; 및 상기 추출한 깊이가 임계 깊이 이상이면, 상기 감지공간 내에 진입된 사용자 지시수단의 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산기점에 그 특징이 있다.The present invention discloses a spatial touch sensing apparatus, method and screen apparatus of an infrared camera type. At least one infrared camera for infrared imaging the sensing space on the screen; A depth information extractor for extracting depth information of the user indicating means entering the sensing space from the infrared photographed image; And a spatial coordinate computing point for extracting a position coordinate of the screen corresponding to the position of the user indicating means entered into the sensing space when the extracted depth is greater than or equal to a threshold depth.
본 발명에 따르면, 적외선 카메라를 통한 적외선 촬영 영상으로 감지공간 내로 진입하는 사용자 지시수단을 감지할 수 있으며, 적외선 카메라에 가시광선 차단 필터 등의 적용하여 외부 조명에 의한 오인식을 방지할 수 있는 효과가 있다.According to the present invention, it is possible to detect a user indicating means entering the sensing space as an infrared photographed image through an infrared camera, and by applying a visible light blocking filter to the infrared camera, there is an effect of preventing misrecognition by external lighting. have.
Description
본 발명은 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및 스크린 장치에 관한 것으로서, 구체적으로는 공간상에 투영된 메뉴의 선택을 감지하기 위해 적외선 카메라를 사용하는 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및 스크린 장치에 관한 것이다.The present invention relates to an infrared camera type spatial touch sensing apparatus, a method and a screen device, and more particularly, to an infrared camera type spatial touch sensing apparatus and method using an infrared camera to detect a selection of a menu projected on a space. And a screen device.
최근, 키보드를 사용하지 않고 화면(스크린)에 나타난 문자나 특정 위치에 사람의 손 또는 물체가 닿으면, 그 위치를 파악하여 저장된 소프트웨어에 의해 파악한 위치에 대응하는 기능을 처리하도록 하는 터치스크린이 널리 사용되고 있다.Recently, when a person's hand or an object touches a character or a specific location displayed on the screen (screen) without using a keyboard, a touch screen that detects the location and processes a function corresponding to the location detected by the stored software is widely used. It is used.
터치 스크린은 기능에 해당하는 문자나 그림 정보를 다양하게 표시할 수 있어 사용자의 기능 인지를 용이하게 한다. 때문에, 지하철, 백화점, 은행 등의 장소에서 안내용 기기, 점포의 판매용 단말기 및 일반 업무용 기기 등에 적용되어 다양하게 활용되고 있다.The touch screen may display a variety of text or picture information corresponding to a function, thereby facilitating user's recognition of the function. Therefore, it is widely used in applications such as guide devices, store sales terminals and general business devices in places such as subways, department stores, banks, and the like.
종래의 터치스크린은 모니터의 화면에 터치 패널(Touch Panel)을 덧붙여서 손끝이나 기타 물체가 소정영역에 접촉할 때 해당 영역의 특성이 변화하는 것을 인지하여 사용자 입력의 발생을 감지하였다.The conventional touch screen detects the occurrence of user input by adding a touch panel to the screen of the monitor and recognizing that the characteristics of the corresponding area change when a fingertip or other object contacts a predetermined area.
즉, 종래의 터치스크린은 전체 화면을 2차원 격자 형태로 구분하여 접촉된 위치를 해석하였다.That is, the conventional touch screen analyzes the contact position by dividing the entire screen into a two-dimensional grid.
이때, 터치스크린은 접촉 감지를 위해 물체의 접촉에 의해 정전용량, 초음파, 적외선, 저항막, 음파인식 등을 적용한 터치 패널의 특성이 변화하는 원리를 이용하였다.In this case, the touch screen uses a principle that changes the characteristics of the touch panel to which the capacitance, ultrasonic waves, infrared rays, resistive film, sound wave recognition, etc. are applied by the contact of the object to detect the touch.
즉, 종래의 터치스크린은 디스플레이 화면과 터치 패널을 동일한 면에 배치하는 2차원 형태로 구성되었으므로, 공간상에 투영된 메뉴 아이콘에 대한 사용자 인터페이스를 제공하지는 못하였다.That is, the conventional touch screen is configured in a two-dimensional form in which the display screen and the touch panel are disposed on the same surface, and thus cannot provide a user interface for the menu icon projected on the space.
본 발명의 목적은 공간상에 메뉴를 투영하여 3차원적인 사용자 인터페이스를 제공하는 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및 스크린 장치를 제공함에 있다.Disclosure of Invention An object of the present invention is to provide an infrared camera type spatial touch sensing apparatus, a method and a screen apparatus that project a menu onto a space to provide a three-dimensional user interface.
본 발명의 다른 목적은 물체의 적외선 촬영 영상을 사용하여 감지공간 내 메뉴 선택을 입력받는 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및 스크린 장치를 제공함에 있다.Another object of the present invention is to provide an infrared camera type spatial touch sensing apparatus, method, and screen apparatus that receive a menu selection in a sensing space using an infrared photographed image of an object.
전술한 문제점을 해결하고자, 본 발명의 일면에 따른 적외선 카메라 방식의 공간 터치 감지 장치는 스크린 상의 감지공간을 적외선 촬영하는 적어도 하나의 적외선 카메라; 상기 적외선 촬영된 영상으로부터 상기 감지공간 내에 진입한 상기 사용자 지시수단의 깊이 정보를 추출하는 깊이정보 추출기; 및 상기 추출한 깊이가 임계 깊이 이상이면, 상기 감지공간 내에 진입된 사용자 지시수단의 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산기를 포함하는 것을 특징으로 한다.In order to solve the above problems, an infrared camera type space touch sensing apparatus according to an aspect of the present invention comprises at least one infrared camera for infrared imaging the sensing space on the screen; A depth information extractor for extracting depth information of the user indicating means entering the sensing space from the infrared photographed image; And a spatial coordinate calculator for extracting the position coordinates of the screen corresponding to the position of the user indicating means entered into the sensing space when the extracted depth is greater than or equal to the threshold depth.
본 발명의 다른 면에 따른 적외선 카메라 방식의 공간 터치 감지 방법은, 스크린 상의 감지공간을 적외선 촬영하는 단계; 상기 적외선 촬영된 영상으로부터 상기 감지공간 내에 진입한 상기 사용자 지시수단의 깊이 정보를 추출하는 단계; 및 상기 추출한 깊이가 임계 깊이 이상이면, 상기 감지공간 내에 진입된 사용자 지시 수단의 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 단계를 포함하는 것을 특징으로 한다. According to another aspect of the present invention, there is provided a method of detecting a spatial touch using an infrared camera, the method comprising: photographing an infrared sensing space on a screen; Extracting depth information of the user indicating means entering the sensing space from the infrared photographed image; And if the extracted depth is greater than or equal to a threshold depth, extracting position coordinates of the screen corresponding to the position of the user indicating means entered into the sensing space.
본 발명의 또 다른 면에 따른 적외선 카메라 방식의 스크린 장치는 적어도 하나의 기능 실행 메뉴를 표시하는 스크린; 상기 스크린 상의 감지공간을 적외선 촬영하는 적어도 하나의 적외선 카메라; 상기 적외선 촬영된 영상으로부터 상기 감지공간 내에 진입한 상기 사용자 지시수단의 깊이 정보를 추출하는 깊이정보 추출기; 상기 추출한 깊이가 임계 깊이 이상이면, 상기 사용자 지시수단이 상기 감지공간 내 진입한 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산기; 및 상기 적어도 하나의 기능 실행 메뉴 중 상기 추출된 위치 좌표에 해당하는 기능 실행 메뉴를 인지하고, 상기 인지된 기능 실행 메뉴에 대응하는 기능 실행 이벤트를 발생시키는 이벤트 발생기를 포함하는 것을 를 특징으로 한다. In accordance with another aspect of the present invention, a screen apparatus of an infrared camera type includes: a screen displaying at least one function execution menu; At least one infrared camera for infrared imaging the sensing space on the screen; A depth information extractor for extracting depth information of the user indicating means entering the sensing space from the infrared photographed image; A spatial coordinate calculator for extracting the position coordinates of the screen corresponding to the position entered by the user indicating means in the sensing space when the extracted depth is greater than or equal to a threshold depth; And an event generator for recognizing a function execution menu corresponding to the extracted position coordinates among the at least one function execution menu and generating a function execution event corresponding to the recognized function execution menu.
본 발명에 따르면, 적외선 카메라를 통한 적외선 촬영 영상으로 감지공간 내로 진입하는 사용자 지시수단을 감지할 수 있으며, 적외선 카메라에 가시광선 차단 필터 등의 적용하여 외부 조명에 의한 오인식을 방지할 수 있는 효과가 있다.According to the present invention, it is possible to detect a user indicating means entering the sensing space as an infrared photographed image through an infrared camera, and by applying a visible light blocking filter to the infrared camera, there is an effect of preventing misrecognition by external lighting. have.
이하, 본 발명에 따른 바람직한 실시예를 첨부 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 적외선 카메라 방식의 공간 터치 감지 장치를 도시한 구성도이며, 도 2 및 도 3은 본 발명의 일실시예에 따른 적외선 카메 라(110) 및 적외선 투광기(170)의 설치도이다. 1 is a block diagram showing a spatial touch sensing device of the infrared camera method according to an embodiment of the present invention, Figures 2 and 3 are an
도 1에 도시된 바와 같이, 본 발명에 따른 적외선 카메라 방식의 공간 터치 감지 장치는 적어도 하나의 적외선 카메라(110), 깊이정보 추출기(120), 공간좌표 연산기(130)를 포함한다.As shown in FIG. 1, an infrared camera type spatial touch sensing apparatus according to the present invention includes at least one
적외선 카메라(110)는 감지공간(100)의 측면에 하나 이상 설치되어 스크린 상의 감지공간(100)을 적외선 촬영한다.At least one
여기서, 감지 공간은 스크린 상의 3차원 공간으로서, 적외선 카메라(110)가 사용자 지시수단의 진입 여부를 감지할 수 있는 영역일 수 있다. 이러한 감지 공간은 스크린의 크기 및/또는 적외선 카메라(110)의 감지 가능 범위 등에 의해 결정될 수 있다.Here, the sensing space is a three-dimensional space on the screen, and may be an area where the
이때, 감지공간(100)은 스크린과 대응하는 형태로 구성되어 일 측을 개방하고 타 측을 스크린과 중첩하여 설치하고, 직사각형인 스크린의 형태에 대응하는 직육면체 형태로 구성되는 것이 바람직하다.At this time, the
적외선 카메라(110)는 도 2에 도시된 바와 같이, 감지공간(100)의 좌우에 설치되어 감지공간(100) 내에서 촬영 영역을 교차시켜 촬영하여 깊이정보 추출기(120)가 두 개의 적외선 카메라(110)로 교차 촬영한 영상의 시차를 이용하여 사용자 지시수단의 감지공간(100)으로 진입한 깊이 정보를 추출할 수 있도록 한다.As shown in FIG. 2, the
여기서, 적외선 카메라(110)는 적외선 건판을 사용하여 촬영하는 카메라로서, 원경 촬영, 특수 감열체에 의한 열 사진 촬영, 방사도의 측정 및 미소(微小) 온도 차의 검출에 이용될 수 있다. Here, the
적외선 카메라(110)는 880nm이하의 가시광선을 차단하는 필터를 구비하여 외부 조명의 영향을 차단하므로 사용자 지시수단에 대한 감지 신뢰도가 높다.The
적외선 카메라(110)는 감지공간(100)의 상하 또는 좌우 측면에 설치되어 감지공간(100) 내에서 촬영 영역을 교차시켜 촬영하여 시차에 의해 사용자 지시수단이 감지공간(100) 내로 진입한 정도(깊이)를 파악할 수 있다.The
이때, 깊이 정보 추출을 위해 적외선 카메라(110)로 한 대의 광각 단초점 적외선 카메라를 사용할 수도 있으나, 광각 단초점 적외선 카메라는 왜곡이 크며, 처리연산이 복잡하고, 가격이 높은 등의 단점이 있어 두 대의 범용 적외선 카메라로 촬영한 영상의 시차를 이용하여 깊이 정보를 추출하는 것이 바람직하다.In this case, a single wide-angle single-focal infrared camera may be used as the
깊이정보 추출기(120)는 적외선 촬영된 영상으로부터 감지공간(100) 내에 진입한 사용자 지시수단의 깊이 정보를 추출한다.The
상세하게는, 깊이정보 추출기(120)는 복수의 적외선 카메라(110)에 의해 교차되어 촬영된 영상을 각각 원근보정하여 정면 촬영한 영상으로 변환한 후, 종합하여 사용자 지시수단이 감지공간(100) 내 진입한 깊이 정보를 추출할 수 있다. 즉, 종합된 영상은 사용자 지시수단이 동일 위치에 위치하며, 사용자 지시수단의 위치에서 적외선 값이 가장 높기 때문에, 깊이정보 추출기(120)는 적외선 값으로부터 깊이 정보를 추출할 수 있다.In detail, the
공간좌표 연산기(130)는 추출한 깊이가 임계 깊이 이상이면, 감지공간(100) 내에 진입된 사용자 지시수단의 위치에 대응하는 스크린의 위치 좌표를 추출한다. 공간좌표 연산기(130)의 세부 구성요소 및 구체적 역할에 대해서는 도 4를 참조하 여 후술한다.If the extracted depth is greater than or equal to the threshold depth, the
여기서, 위치 좌표는 스크린의 한 모서리를 기준은 X축, Y축으로 해석되는 2차원 좌표일 수 있다.Here, the position coordinates may be two-dimensional coordinates which are interpreted as X-axis and Y-axis based on one corner of the screen.
그외에도, 적외선 카메라 방식의 공간 터치 감지 장치는 이벤트 발생기(150), 송신기(140) 및 적외선 투광기(170)를 더 포함한다.In addition, the infrared camera-type spatial touch sensing apparatus further includes an
이벤트 발생기(150)는 공간 터치 감지 장치에 포함되거나 별도의 장치 일 수 있으며, 추출된 위치 좌표에 해당하는 기능 실행 이벤트를 발생시킨다.The
송신기(140)는 추출된 위치 좌표 또는 발생된 기능 실행 이벤트에 해당하는 기능 실행 장치로 추출된 위치 좌표 또는 발생된 기능 실행 이벤트를 송신한다.The
적외선 투광기(170)는 적어도 하나 구비되어 감지공간(100) 내에 적외선을 투사하여 적외선 카메라의 촬영 감도를 개선한다.At least one
적외선 투광기(170)는 감지공간(100) 내에 적외선을 균일하게 투사하는 적외선 LED(Light-Emitting Diode)일 수 있다.The
즉, 적외선 투광기(170)로서 투사각이 넓고, 투사 밀도가 비교적 균일한 광각의 저출력 LED를 적용할 수도 있다.That is, as the
적외선 투광기(170)는 적외선 카메라의 촬영 영역에 대한 적외선 투사율을 높일 수 있는 위치에 설치되는 것이 바람직하다. The
이때, 적외선 카메라(110)가 도 3에 도시된 바와 같이, 감지공간(100)의 좌우에 설치된 경우는 적외선 투광기(170)를 감지공간(100)의 상하에 설치하여 적외선 투사율을 높이는 것이 바람직하다.In this case, as shown in FIG. 3, when the
이때, 적외선 투광기(170)는 설치환경에 따라 위쪽이나 아래쪽에 한 개만 설치될 수도 있음은 물론이다.At this time, of course, only one
도 4는 본 발명의 일실시예에 따른 공간좌표 연산기(130)의 세부 구성도이다. 4 is a detailed configuration diagram of the
도 4에 도시된 바와 같이, 본 발명에 따른 공간좌표 연산기(130)는 깊이정보 취득부(131), 픽셀 감지부(132), 지시수단 판단부(133) 및 좌표 검출부(134)를 포함한다.As shown in FIG. 4, the
깊이정보 취득부(131)는 감지된 깊이에 대응하는 제 1 로우 데이터(Raw Data)를 픽셀 단위로 취득한다. 즉, 깊이정보 취득부(131)는 감지공간(100) 내로 진입한 감지된 물체의 진입 깊이를 로우 데이터 형태로 추출한다.The depth
여기서, 로우 데이터는 소정목적을 위한 처리가 되지않은 미가공 데이터로서, 소정주기(예컨대, 1초) 단위로 업데이트 되어 목적 달성을 위한 정보를 제공한다. Here, the raw data is raw data that has not been processed for a predetermined purpose, and is updated at predetermined intervals (for example, 1 second) to provide information for achieving the purpose.
여기서, 본 발명의 제 1 로우 데이터는 감지공간(100) 내로 진입한 물체의 진입 깊이와 그에 대응하는 스크린의 위치에 대한 정보를 포함한다.Here, the first row data of the present invention includes information on the entry depth of the object entering the
이때, 위치 좌표가 스크린을 구성하는 픽셀 단위로 추출되므로, 제 1 로우 데이터도 픽셀 단위로 추출되는 것이 바람직하다.In this case, since the position coordinates are extracted in units of pixels constituting the screen, the first row data is also extracted in units of pixels.
픽셀 감지부(132)는 제 1 로우 데이터 중 감지공간(100)에 대한 물체의 진입 깊이가 임계 깊이 이상인 제 2 로우 데이터를 감지한다.The
상세하게는, 픽셀 감지부(132)는 진입 깊이와 임계 깊이 이상인지 비교하여, 임계 깊이 이상이면 제 1 로우 데이터를 1로 표시하고, 임계 깊이 미만이면 0으로 표시한다. 그리고, 픽셀 감지부(132)는 1로 표시된 제 1 로우 데이터는 제 2 로우 데이터로 감지하고, 0으로 표시된 제 1 로우 데이터는 무시한다.In detail, the
지시수단 판단부(133)는 제 2 로우 데이터를 갖는 픽셀이 이루는 픽셀 영역이 임계 영역 이상이면, 감지공간(100) 내로 진입한 물체가 사용자 지시수단인 것으로 판단한다.The indicating means determiner 133 determines that the object entering the
또한, 지시수단 판단부(133)는 제 2 로우 데이터를 갖는 픽셀이 이루는 픽셀 영역이 임계 영역 미만이면, 먼지 등의 불필요한 물체가 감지된 것으로 판단하고 무시하여 불필요한 오동작을 방지할 수 있다.In addition, if the pixel area formed by the pixel having the second row data is less than the threshold area, the indicating means determiner 133 may determine that an unnecessary object such as dust is detected and ignore it, thereby preventing unnecessary malfunction.
좌표 검출부(134)는 사용자 지시수단의 진입으로 판단된 픽셀 영역의 중심을 검출하여 위치 좌표로 변환한다.The
예컨대, 좌표 검출부(134)는 픽셀 영역의 최장길이와 최단길이의 교차점을 중심으로 판단하여 교차점을 위치 좌표로 변환할 수 있다.For example, the
여기서, 좌표 검출부(134)는 소정(예컨대, 두 번째) 번째로 긴 길이와 소정 번째로 짧은 길이의 교차점을 중심으로 검출할 수 있으며, 그외에 다양한 방식을 사용할 수 있음은 물론이다. Here, the
도 5는 본 발명의 일실시예에 따른 적외선 카메라 방식의 스크린 장치를 도시한 구성도이다.5 is a block diagram showing a screen device of the infrared camera method according to an embodiment of the present invention.
도 5에 도시된 바와 같이, 본 발명에 따른 적외선 카메라 방식의 스크린 장치는 스크린(160), 적외선 카메라(110), 깊이정보 추출기(120), 공간좌표 연산 기(130) 및 이벤트 발생기(150)를 포함한다.As shown in FIG. 5, the screen apparatus of the infrared camera type according to the present invention includes a
스크린(160)은 스크린은 다수의 픽셀을 포함하여 적어도 하나의 기능 실행 메뉴를 표시한다.The
적외선 카메라(110)는 스크린 상의 감지공간(100) 측면에 적어도 하나 설치되어 감지공간(100) 내를 적외선 촬영한다.The
깊이정보 추출기(120)는 적외선 촬영된 영상으로부터 감지공간(100) 내에 진입한 사용자 지시수단의 깊이 정보를 추출한다.The
공간좌표 연산기(130)는 사용자 지시수단이 감지공간(100) 내 진입한 위치에 대응하는 스크린의 위치 좌표를 추출한다.The spatial coordinate
공간좌표 연산기(130)는 추출한 깊이가 임계 깊이 이상이면, 사용자 지시수단이 감지공간(100) 내 진입한 위치에 대응하는 스크린의 위치 좌표를 추출한다.If the extracted depth is greater than or equal to the threshold depth, the spatial coordinate
이벤트 발생기(150)는 적어도 하나의 기능 실행 메뉴 중 추출된 위치 좌표에 해당하는 기능 실행 메뉴를 인지하고, 인지된 기능 실행 메뉴에 대응하는 기능 실행 이벤트를 발생시킨다.The
적외선 카메라 방식의 스크린 장치는 이외에도 적어도 하나의 적외선 투광기(170)를 더 포함하고, 감지공간(100) 내에 적외선을 투사하여 적외선 카메라의 촬영 감도를 개선할 수 있다.In addition, the infrared camera type screen device may further include at least one
도 6은 본 발명의 일실시예에 따른 적외선 카메라 방식의 공간 터치 감지 방법을 도시한 흐름도이다. 이하, 도 6을 참조하여 설명한다.6 is a flowchart illustrating a spatial touch sensing method of an infrared camera method according to an embodiment of the present invention. A description with reference to FIG. 6 is as follows.
먼저, 적외선 카메라 방식의 공간 터치 감지 장치는 스크린 상의 감지공 간(100)을 적외선 촬영한다(S610).First, the infrared camera type spatial touch sensing apparatus photographs infrared rays of the
이때, 적외선 카메라 방식의 공간 터치 감지 장치는 감지공간(100)을 상기 감지공간의 상하 또는 좌우 측면에서 촬영하는 영역이 교차되도록 교차 촬영하고, 교차 촬영된 영상의 시차를 이용하여 깊이 정보를 추출한다.In this case, the infrared camera-type spatial touch sensing apparatus cross-photographs the
이때, 적외선 카메라 방식의 공간 터치 감지 장치는 촬영 영상의 화질 개선을 위해 감지공간(100) 내에 적외선을 투사하는 것이 바람직하다.In this case, it is preferable that the infrared camera type spatial touch sensing device projects infrared rays in the
이어서, 적외선 카메라 방식의 공간 터치 감지 장치는 적외선 촬영된 영상으로부터 감지공간(100)으로 진입한 사용자 지시수단의 깊이 정보를 추출한다(S620).Subsequently, the infrared camera type spatial touch sensing apparatus extracts depth information of the user indicating means entering the
상세하게는, 적외선 카메라 방식의 공간 터치 감지 장치는 교차 촬영된 영상를 원근보정하여 각각 정면 촬영 영상으로 변환하고, 각각 변환된 영상을 하나의 영상으로 종합하여 사용자 지시수단이 감지공간(100) 내 진입한 깊이 정보를 추출하는 것이다.In detail, the infrared camera-type spatial touch sensing apparatus corrects the cross-photographed image into perspective shot images, and combines the converted images into a single image, and the user indicating means enters the
그리고, 적외선 카메라 방식의 공간 터치 감지 장치는 추출한 깊이가 임계 깊이 이상이면(S630), 감지공간(100) 내에 진입된 사용자 지시수단의 위치에 대응하는 스크린의 위치 좌표를 추출한다(S640).When the extracted depth is greater than or equal to the threshold depth (S630), the infrared camera type spatial touch sensing apparatus extracts the position coordinates of the screen corresponding to the position of the user indicating means entered into the sensing space 100 (S640).
이때, 스크린은 다수의 픽셀을 포함하므로 위치 좌표도 픽셀 단위로 추출되는 것이 바람직하다.In this case, since the screen includes a plurality of pixels, the location coordinates are preferably extracted in units of pixels.
상세하게는, 적외선 카메라 방식의 공간 터치 감지 장치는 스크린이 다수를 픽셀을 포함할 때, 감지 공간 내에 사용자 지시수단이 진입한 깊이에 대응하는 픽셀 단위의 제 1 로우 데이터(Raw Data)를 취득한다. 그리고, 진입된 깊이가 임계 깊이 이상인 제 2 로우 데이터를 감지하며, 제 2 로우 데이터를 갖는 픽셀이 이루는 픽셀 영역이 임계 영역 이상이면, 사용자 지시수단의 진입으로 판단하고, 진입으로 판단된 픽셀 영역의 중심을 검출하여 위치 좌표로 변환한다.In detail, when the screen includes a large number of pixels, the infrared camera type spatial touch sensing apparatus acquires first raw data in pixel units corresponding to a depth at which the user indicating means enters into the sensing space. . If the pixel depth of the pixel having the second row data is greater than or equal to the threshold region, the second row data having the entered depth is greater than or equal to the threshold depth is detected. Detect the center and convert it to position coordinates.
이때, 적외선 카메라 방식의 공간 터치 감지 장치는 픽셀 영역의 최장길이와 최단길이의 교차점을 중심으로 검출하고, 검출한 교차점을 위치 좌표로 변환하는 것이 바람직하다.In this case, it is preferable that the infrared camera type spatial touch sensing apparatus detects the intersection of the longest length and the shortest length of the pixel area and converts the detected intersection point into position coordinates.
한편, 적외선 카메라 방식의 공간 터치 감지 장치는 사용자 지시수단이 진입된 깊이가 임계 깊이 미만이면(S630), 제 1 로우 데이터를 노이즈로 간주하여 삭제한다(S650).On the other hand, if the depth of the user input means is less than the threshold depth (S630), the infrared camera type spatial touch sensing apparatus considers and deletes the first row data as noise (S650).
이후, 변환된 위치 좌표에 해당하는 기능 실행 이벤트가 발생 되고, 기능 실행 이벤트에 따른 기능을 실행되는 과정이 진행될 수 있다.Thereafter, a function execution event corresponding to the converted position coordinate is generated, and a process of executing a function according to the function execution event may be performed.
이상, 본 발명의 구성에 대하여 첨부 도면을 참조하여 상세히 설명하였으나, 이는 예시에 불과한 것으로서, 본 발명이 속하는 기술분야에 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 변형과 변경이 가능함은 물론이다. 따라서 본 발명의 보호 범위는 전술한 실시예에 국한되어서는 아니되며 이하의 특허 청구범위의 기재에 의하여 정하여져야 할 것이다.In the above, the configuration of the present invention has been described in detail with reference to the accompanying drawings, which are merely examples, and those skilled in the art to which the present invention pertains various modifications and changes within the scope of the technical idea of the present invention. Of course this is possible. Therefore, the protection scope of the present invention should not be limited to the above-described embodiment, but should be defined by the following claims.
도 1은 본 발명에 따른 적외선 카메라 방식의 공간 터치 감지 장치를 도시한 구성도.1 is a block diagram showing a spatial touch sensing device of the infrared camera method according to the present invention.
도 2 및 도 3은 본 발명에 따른 적외선 카메라(110) 및 적외선 투광기(170)의 설치도2 and 3 is an installation view of the
도 4는 본 발명에 따른 공간좌표 연산기(130)의 세부 구성도.4 is a detailed configuration diagram of the spatial coordinate
도 5는 본 발명에 따른 적외선 카메라 방식의 스크린 장치를 도시한 구성도.Figure 5 is a block diagram showing a screen device of the infrared camera method according to the present invention.
도 6은 본 발명에 따른 적외선 카메라 방식의 공간 터치 감지 방법을 도시한 흐름도.6 is a flowchart illustrating a spatial touch sensing method of an infrared camera method according to the present invention.
Claims (20)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080042547A KR100968205B1 (en) | 2008-05-07 | 2008-05-07 | Infrared camera space touch sensing device, method and screen device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080042547A KR100968205B1 (en) | 2008-05-07 | 2008-05-07 | Infrared camera space touch sensing device, method and screen device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090116544A true KR20090116544A (en) | 2009-11-11 |
KR100968205B1 KR100968205B1 (en) | 2010-07-06 |
Family
ID=41601304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080042547A KR100968205B1 (en) | 2008-05-07 | 2008-05-07 | Infrared camera space touch sensing device, method and screen device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100968205B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100974894B1 (en) * | 2009-12-22 | 2010-08-11 | 전자부품연구원 | 3d space touch apparatus using multi-infrared camera |
KR101521515B1 (en) * | 2014-10-28 | 2015-05-19 | 김주희 | System and method for interworking data between multimedia devices |
US9052770B2 (en) | 2012-08-24 | 2015-06-09 | Samsung Display Co., Ltd. | Touchscreen display device and related method |
US9239650B2 (en) | 2013-09-25 | 2016-01-19 | Hyundai Motor Company | Curved touch display apparatus for providing tactile feedback and method thereof |
KR20200039983A (en) * | 2018-10-08 | 2020-04-17 | 주식회사 토비스 | Space touch detecting device and display device having the same |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9213440B2 (en) * | 2010-07-27 | 2015-12-15 | Hewlett-Packard Development Company L.P. | System and method for remote touch detection |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3834766B2 (en) | 2000-04-03 | 2006-10-18 | 独立行政法人科学技術振興機構 | Man machine interface system |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
KR20070037773A (en) * | 2005-10-04 | 2007-04-09 | 엘지전자 주식회사 | Device and method for inputting user command in display device |
KR100804815B1 (en) | 2007-09-10 | 2008-02-20 | (주)컴버스테크 | Touch screen using infrared camera resistant to disturbance light |
-
2008
- 2008-05-07 KR KR1020080042547A patent/KR100968205B1/en active IP Right Grant
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100974894B1 (en) * | 2009-12-22 | 2010-08-11 | 전자부품연구원 | 3d space touch apparatus using multi-infrared camera |
US8786576B2 (en) | 2009-12-22 | 2014-07-22 | Korea Electronics Technology Institute | Three-dimensional space touch apparatus using multiple infrared cameras |
US9052770B2 (en) | 2012-08-24 | 2015-06-09 | Samsung Display Co., Ltd. | Touchscreen display device and related method |
US9239650B2 (en) | 2013-09-25 | 2016-01-19 | Hyundai Motor Company | Curved touch display apparatus for providing tactile feedback and method thereof |
KR101521515B1 (en) * | 2014-10-28 | 2015-05-19 | 김주희 | System and method for interworking data between multimedia devices |
KR20200039983A (en) * | 2018-10-08 | 2020-04-17 | 주식회사 토비스 | Space touch detecting device and display device having the same |
Also Published As
Publication number | Publication date |
---|---|
KR100968205B1 (en) | 2010-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9778748B2 (en) | Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program | |
US8971565B2 (en) | Human interface electronic device | |
US10324563B2 (en) | Identifying a target touch region of a touch-sensitive surface based on an image | |
JP5201096B2 (en) | Interactive operation device | |
US10310675B2 (en) | User interface apparatus and control method | |
US20140237401A1 (en) | Interpretation of a gesture on a touch sensing device | |
CN108027656B (en) | Input device, input method, and program | |
KR100968205B1 (en) | Infrared camera space touch sensing device, method and screen device | |
US20120019460A1 (en) | Input method and input apparatus | |
US10664090B2 (en) | Touch region projection onto touch-sensitive surface | |
CN103472907B (en) | Method and system for determining operation area | |
US20020136455A1 (en) | System and method for robust foreground and background image data separation for location of objects in front of a controllable display within a camera view | |
JP2012238293A (en) | Input device | |
TWI499938B (en) | Touch control system | |
JP4870651B2 (en) | Information input system and information input method | |
CN108227923A (en) | A kind of virtual touch-control system and method based on body-sensing technology | |
KR100983051B1 (en) | Depth sensor type spatial touch sensing device, method and screen device | |
KR101019255B1 (en) | Depth sensor type spatial touch wireless terminal, its data processing method and screen device | |
Yoo et al. | Symmetrisense: Enabling near-surface interactivity on glossy surfaces using a single commodity smartphone | |
US20140085264A1 (en) | Optical touch panel system, optical sensing module, and operation method thereof | |
JP6709022B2 (en) | Touch detection device | |
US20200302643A1 (en) | Systems and methods for tracking | |
TWI444875B (en) | Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and imaging sensor | |
JP2018063555A (en) | Information processing device, information processing method, and program | |
Matsubara et al. | Touch detection method for non-display surface using multiple shadows of finger |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20080507 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20090624 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20091217 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20100614 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20100629 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20100629 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20130111 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20130111 Start annual number: 4 End annual number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20131231 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20131231 Start annual number: 5 End annual number: 5 |
|
FPAY | Annual fee payment |
Payment date: 20150109 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20150109 Start annual number: 6 End annual number: 6 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20170329 |
|
FPAY | Annual fee payment |
Payment date: 20170329 Year of fee payment: 7 |
|
PR0401 | Registration of restoration |
Patent event code: PR04011E01D Patent event date: 20170329 Comment text: Registration of Restoration |
|
PR1001 | Payment of annual fee |
Payment date: 20170329 Start annual number: 7 End annual number: 7 |
|
R401 | Registration of restoration | ||
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20180328 Termination category: Default of registration fee Termination date: 20170329 |
|
FPAY | Annual fee payment |
Payment date: 20180328 Year of fee payment: 8 |
|
PR0401 | Registration of restoration |
Patent event code: PR04011E01D Patent event date: 20180328 Comment text: Registration of Restoration |
|
PR1001 | Payment of annual fee |
Payment date: 20180328 Start annual number: 8 End annual number: 8 |
|
R401 | Registration of restoration | ||
FPAY | Annual fee payment |
Payment date: 20180709 Year of fee payment: 9 |
|
PR1001 | Payment of annual fee |
Payment date: 20180709 Start annual number: 9 End annual number: 9 |
|
FPAY | Annual fee payment |
Payment date: 20190409 Year of fee payment: 10 |
|
PR1001 | Payment of annual fee |
Payment date: 20190409 Start annual number: 10 End annual number: 10 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20210324 Termination category: Default of registration fee Termination date: 20180328 Termination category: Default of registration fee Termination date: 20170329 |
|
PR0401 | Registration of restoration |
Patent event code: PR04011E01D Patent event date: 20210324 Comment text: Registration of Restoration |
|
PR1001 | Payment of annual fee |
Payment date: 20210324 Start annual number: 11 End annual number: 11 |
|
R401 | Registration of restoration | ||
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20240410 Termination category: Default of registration fee Termination date: 20210324 Termination category: Default of registration fee Termination date: 20180328 Termination category: Default of registration fee Termination date: 20170329 |