[go: up one dir, main page]

KR100875138B1 - Input device using imaging sensor and method - Google Patents

Input device using imaging sensor and method Download PDF

Info

Publication number
KR100875138B1
KR100875138B1 KR1020060114048A KR20060114048A KR100875138B1 KR 100875138 B1 KR100875138 B1 KR 100875138B1 KR 1020060114048 A KR1020060114048 A KR 1020060114048A KR 20060114048 A KR20060114048 A KR 20060114048A KR 100875138 B1 KR100875138 B1 KR 100875138B1
Authority
KR
South Korea
Prior art keywords
unit
image
input
sensor
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020060114048A
Other languages
Korean (ko)
Other versions
KR20080044690A (en
Inventor
김석기
성준제
박지환
김경범
박희주
Original Assignee
실리콤텍(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 실리콤텍(주) filed Critical 실리콤텍(주)
Priority to KR1020060114048A priority Critical patent/KR100875138B1/en
Priority to CN2010106110308A priority patent/CN102065248B/en
Priority to PCT/KR2007/005806 priority patent/WO2008060124A2/en
Priority to CN2007800427240A priority patent/CN101554038B/en
Priority to US12/515,367 priority patent/US8604406B2/en
Publication of KR20080044690A publication Critical patent/KR20080044690A/en
Application granted granted Critical
Publication of KR100875138B1 publication Critical patent/KR100875138B1/en
Priority to US13/960,678 priority patent/US20130321274A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3262Power saving in digitizer or tablet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Image Input (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

본 발명의 촬상 센서를 이용한 입력 장치는, 입력매체인 피사체를 감지하는 촬상 센서를 포함하여 이루어지고 촬상된 이미지 신호를 출력하는 센서부와; 상기 센서부에서 출력된 이미지 신호를 입력받아 상기 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환한 후 전후 이미지 데이터를 비교하여 움직임 벡터를 산출하는 연산부;를 포함하여 구성되며,An input device using the imaging sensor of the present invention comprises a sensor unit including an imaging sensor for sensing a subject which is an input medium and outputting a captured image signal; And an operation unit which receives an image signal output from the sensor unit, converts a signal for each pixel of the image signal into a 1-bit signal, and then compares the before and after image data to calculate a motion vector.

본 발명의 촬상센서를 이용한 입력 방법은, 촬상 센서를 통해 피사체를 촬상하여 이미지 신호를 출력하는 제 1 단계와; 상기 제 1 단계에서 출력된 이미지 신호를 입력받아 상기 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환한 후 전후 이미지 데이터를 비교하여 움직임 벡터를 산출하는 제 2 단계; 포함하여 수행된다.An input method using an imaging sensor of the present invention includes: a first step of capturing a subject through an imaging sensor and outputting an image signal; A second step of receiving the image signal output in the first step, converting a signal for each pixel of the image signal into a 1-bit signal, and then comparing the before and after image data to calculate a motion vector; It is carried out including.

이러한 본 발명에 의해, 보다 효율적이며 소형이고 저전력의 휴대기기용 입력 장치 및 그 방법을 제공할 수 있다.According to the present invention, it is possible to provide a more efficient, compact and low power portable device input device and method thereof.

Description

촬상 센서를 이용한 입력장치 및 그 방법{Apparatus and method for input using image sensor}Input device using imaging sensor and its method {Apparatus and method for input using image sensor}

도 1은 종래 손가락 표면을 이용한 소형 포인팅 장치의 블록구성도이다.1 is a block diagram of a small pointing device using a conventional finger surface.

도 2는 본 발명의 일실시예에 의한 촬상 센서를 이용한 입력 장치의 블록구성도이다.2 is a block diagram of an input device using an imaging sensor according to an embodiment of the present invention.

도 3a~도 3i는 본 발명의 센서부를 통해 감지된 움직임에 대해 1비트 비트 플레인 방식을 이용하여 최적화된 움직임 추정을 수행하는 예를 설명하기 위한 도면이다.3A to 3I are diagrams for explaining an example of performing optimized motion estimation using a 1-bit bit plane method for motion detected through the sensor unit of the present invention.

도 4는 본 발명의 일실시예에 의한 전처리부의 상세블록도이다.4 is a detailed block diagram of a preprocessing unit according to an embodiment of the present invention.

도 5a~도 5c는 본 발명의 일실시예에 의한 센서부를 통해 샘플된 이미지를 스캐일링하여 스트레칭한 히스토그램 패턴을 나타내는 도면이다.5A to 5C are diagrams illustrating a histogram pattern obtained by scaling a sampled image through a sensor unit according to an exemplary embodiment of the present invention.

도 6은 본 발명의 일실시예에 의한 센서부를 통해 입력된 손가락 지문에 대한 이미지 정보의 히스토그램을 보인 그래프이다.6 is a graph showing a histogram of image information of a finger fingerprint input through a sensor unit according to an exemplary embodiment of the present invention.

도 7은 본 발명의 일실시예에 의한 센서부의 그레이 스케일 정보를 1비트 알고리즘에 의해 1 비트 신호로 변환시킨 예를 보인 도면이다.FIG. 7 is a diagram illustrating an example of converting gray scale information of a sensor unit into a 1-bit signal using a 1-bit algorithm according to an embodiment of the present invention.

도 8은 본 발명의 일실시예에 의한 비교부의 동작을 보인 흐름도이다.8 is a flowchart illustrating an operation of a comparison unit according to an embodiment of the present invention.

도 9는 본 발명의 다른 실시예에 의한 촬상 센서를 이용한 입력 장치의 블록 구성도이다.9 is a block diagram illustrating an input device using an imaging sensor according to another exemplary embodiment of the present invention.

도 10은 본 발명의 일실시예에 의한 동작 상태 제어부의 프레임에 따른 동작을 보인 흐름도이다.10 is a flowchart illustrating an operation according to a frame of an operation state controller according to an embodiment of the present invention.

도 11는 본 발명의 일실시예에 의한 전원 제어부의 동작을 보인 흐름도이다.11 is a flowchart illustrating an operation of a power control unit according to an embodiment of the present invention.

도 12은 본 발명의 일실시예에 의한 코어 제어부의 상세블록도이다.12 is a detailed block diagram of a core controller according to an embodiment of the present invention.

도 13는 본 발명의 일실시예에 의한 촬상 센서를 이용한 입력 방법을 보인 흐름도이다.13 is a flowchart illustrating an input method using an imaging sensor according to an exemplary embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

100 : 센서부 110 : 촬상 센서100 sensor 110: imaging sensor

120 : 광원 130 : 렌즈120: light source 130: lens

140 : 투명판 200 : 연산부140: transparent plate 200: calculator

210 : 전처리부 211 : DCT부210: preprocessing unit 211: DCT unit

212 : 양자화(Q)부 213 : IDCT부212 quantization (Q) unit 213 IDCT unit

220 : 양자화 처리부 230 : 임시 저장부220: quantization processing unit 230: temporary storage unit

240 : 비교부 241 : XOR 연산부240: comparison unit 241: XOR operation unit

242 : 패턴 비교부 250 : 방향 선택부242: pattern comparison unit 250: direction selection unit

260 : 동작상태 선택부 270 : 코어 제어부260: operation state selection unit 270: core control unit

280 : 전원 제어부 271 : 광원세기 레지스터280: power control unit 271: light source intensity register

272 : 양자화 임계값 레지스터 300 : 인터페이스부272: quantization threshold register 300: interface unit

400 : 휴대기기 410 : 휴대폰400: mobile device 410: mobile phone

420 : PDA 430 : 노트북420: PDA 430: Notebook

440 : 디지털 카메라 450 : MP3 플레이어440: digital camera 450: MP3 player

본 발명은 촬상센서를 이용한 입력 장치 및 그 방법에 관한 것으로, 특히 촬상 센서를 이용하여 손가락 등 입력매체를 감지하여 휴대기기 등에서 마우스 형식으로 입력하기에 적당하도록 한 촬상 센서를 이용한 입력 장치 및 그 방법에 관한 것이다.The present invention relates to an input device using an imaging sensor and a method thereof, and more particularly, to an input device using an imaging sensor and a method for sensing an input medium such as a finger using the imaging sensor to be input in a mouse format in a portable device. It is about.

디지털 컨버전스를 통해 각종 모바일 기기에는 여러 가지의 기능이 융합되고 있으며 하나의 컴퓨터로서 사용자에게 서비스를 제공한다. 따라서 기존에 키패드 터치패드 형식의 사용자 인터페이스는 이러한 서비스를 제공하는데 불편함을 제공한다. Through digital convergence, various functions are converged in various mobile devices and provide services to users as a single computer. Therefore, a keypad touch pad type user interface provides inconvenience in providing such a service.

사용자에게 친숙한 인터페이스를 제공하기 위해서는 그래픽 인터페이스 상에서 2차원적인 입력장치가 필요하다. 일반적으로 모바일기기에서는 조이스틱이나 방향키 또는 터치패드 형태로 이루어져 있으며 이들은 상/하, 좌/우 이동으로 제한되어 많은 불편함이 있다. 따라서 현재 마우스 형태의 포인팅 디바이스와 모바일 기기와의 결합에 대한 연구가 활발히 진행되고 있다. 또한 모바일 기기의 소형화로 인해 키패드와 같은 큰 부피의 입력 장치에 큰 부담을 가지고 있어 입력장치의 소형화에 대한 요구가 있으며 모바일 기기의 어느 곳에나 부착하여 사용자에게 편리 한 위치에 제공해야 한다.In order to provide a user-friendly interface, a two-dimensional input device is required on a graphic interface. In general, a mobile device is composed of a joystick, a direction key, or a touch pad, and these are limited to moving up / down and left / right, which causes a lot of inconvenience. Therefore, research on the combination of a mouse-type pointing device and a mobile device has been actively conducted. In addition, due to the miniaturization of mobile devices, there is a great burden on large-volume input devices such as keypads, and there is a demand for miniaturization of input devices.

최근에는 소형화된 포인팅 장치로서, 특허출원 출원번호 10-2003-0022936, 2003. 04. 11 출원, "손가락 표면을 이용한 소형 포인팅 장치"(이하, 종래기술 1이라 한다)가 공개되어 있다. Recently, as a miniaturized pointing device, Patent Application No. 10-2003-0022936, Apr. 11, 2003, "A small pointing device using a finger surface" (hereinafter referred to as prior art 1) is disclosed.

도 1은 종래기술 1의 손가락 표면을 이용한 소형 포인팅 장치의 블록구성도이다.1 is a block diagram of a small pointing device using a finger surface of the prior art 1.

이에 도시된 바와 같이, 이동하고자 하는 포인터(Pointer)를 제어하는 접촉 대상으로 빛을 발산하는 발광 수단(3)과; 상기 발광 수단(3)으로부터 접촉 대상으로 발산된 빛에 의해 생성된 이미지를 집광하는 집광 수단(5)과; 상기 집광 수단(5)에 의해 집광된 아날로그 이미지를 감지하여 디지털 이미지로 변환하는 수광 수단(7)과; 상기 수광 수단(7)으로부터 수신한 디지털 이미지로부터 움직임의 정도를 파악하는 움직임 검출 수단(9)과; 상기 움직임 검출 수단(9)으로부터 움직임의 정도 즉 변위 데이터를 수신하고 그 변위 데이터를 이용하여 포인터가 이동할 방향과 거리/이동량을 판단하는 위치 연산 수단(11)과; 케이싱(13)과; 상기 케이싱(13)에 형성되고, 상기 발광 수단(3)으로부터 발산된 빛이 손가락 표면에서 반사되도록 하는 홀(15);로 구성된다.As shown therein, the light emitting means 3 which emits light to the contact object controlling the pointer to be moved; Condensing means (5) for condensing an image generated by light emitted from said light emitting means (3) to a contact object; Light receiving means (7) for detecting an analog image collected by said light collecting means (5) and converting it into a digital image; Motion detecting means (9) for grasping the degree of motion from the digital image received from said light receiving means (7); Position calculating means (11) for receiving the degree of movement, i.e., displacement data, from the movement detecting means (9) and determining the direction and distance / distance to which the pointer will move using the displacement data; A casing 13; And a hole 15 formed in the casing 13 to allow the light emitted from the light emitting means 3 to be reflected on the surface of the finger.

이러한 종래기술 1은 손가락 표면의 이미지를 감지하여 포인터의 변위벡터를 산출하는 소형 포인팅 장치를 나타내고 있으나, 집광 및 수광수단, 움직임 검출수단 및 위치 연산수단의 효율적인 방식을 제공하지는 못하고 있어, 보다 소형이고 저전력의 입력 장치를 제공하는 데는 한계가 있다. The prior art 1 shows a small pointing device that detects an image of a finger surface and calculates a displacement vector of a pointer, but does not provide an efficient method of condensing and receiving light, motion detecting means, and position calculating means. There is a limit to providing a low power input device.

특히, 입력장치의 소형화를 위해서는, 센서 및 프로세서를 소형화하여야 하는데, 종래기술에서는 효율적인 방식을 제시하지 못하고 있다.In particular, in order to miniaturize the input device, the sensor and the processor must be miniaturized, but the prior art does not provide an efficient method.

또한, 사용자에게 편리한 입력장치를 위해서는 다양한 입력방식을 구현할 수 있어야 하는데, 종래기술에서는 일반 마우스와 같이 클릭 및 드래그 동작을 구현하기 위한 방식을 제공하지 못하고 있다.In addition, in order to provide a user-friendly input device, various input methods must be implemented, and the related art does not provide a method for implementing a click and drag operation like a general mouse.

본 발명은 이러한 종래 입력장치의 불편함을 해소하고, 보다 소형이면서 저전력의 효율적인 입력 장치를 제공하고자 한다.The present invention is to solve the inconvenience of the conventional input device, and to provide a more compact and low power efficient input device.

이에 본 발명은 상기와 같은 종래의 제반 문제점을 해결하기 위해 제안된 것으로, 본 발명의 목적은 촬상된 이미지 신호를 최적화된 최소비트(1비트)의 신호로 전환하여 최소의 데이터 양으로 보다 효율적으로 움직임 벡터를 검출하는 방식 및 휴지전력을 최소화하는 제어방식을 제공하여 소형이며 저전력을 소모하는 촬상 센서를 이용한 입력 장치 및 그 방법을 제공하는데 있다.Accordingly, the present invention has been proposed to solve the conventional problems as described above, and an object of the present invention is to convert a captured image signal into an optimized minimum bit (1 bit) signal more efficiently with a minimum amount of data. The present invention provides a method for detecting an motion vector and a control method for minimizing idle power to provide an input device using an image sensor that is compact and consumes low power.

또한, 클릭, 드래그 등 다양한 입력방식이 가능한 효율적인 알고리즘을 제공하여 사용자에게 편리한 휴대기기용 입력장치 및 그 방법을 제공하데 그 목적이 있다.In addition, an object of the present invention is to provide an input device for a portable device and a method thereof that are convenient for a user by providing an efficient algorithm capable of various input methods such as a click and a drag.

상기와 같은 목적을 달성하기 위하여, 본 발명의 촬상센서를 이용한 입력 장치는, 입력매체인 피사체를 감지하는 촬상 센서를 포함하여 이루어지고 촬상된 이미지 신호를 출력하는 센서부와; 상기 센서부에서 출력된 이미지 신호를 입력받아 상기 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환한 후 전후 이미지 데이터를 비교하여 움직임 벡터를 산출하는 연산부;를 포함하여 이루어진다.In order to achieve the above object, the input device using the image pickup sensor of the present invention comprises a sensor unit including an image pickup sensor for detecting a subject which is an input medium and outputs a captured image signal; And an operation unit configured to receive an image signal output from the sensor unit, convert a signal for each pixel of the image signal into a 1-bit signal, and then compare the before and after image data to calculate a motion vector.

또한, 본 발명의 또 다른 촬상센서를 이용한 입력 장치는, 입력매체인 피사체를 감지하는 촬상센서를 포함하여 구비하고, 촬상된 이미지 신호의 각 픽셀 당 신호를 1비트 신호로 출력하는 센서부와; 상기 센서부를 통해 출력된 이미지 신호를 입력받아 전후 이미지 데이터를 비교하여 움직임 벡터를 산출하는 연산부;를 포함하여 이루어진다.
또한, 본 발명의 또 다른 촬상센서를 이용한 입력 장치는, 입력매체인 피사체를 감지하는 촬상 센서를 포함하여 구비하고 촬상된 이미지 신호를 출력하는 센서부와; 상기 센서부로부터 이미지 신호를 입력받아, 현재 이미지 프레임에 대해 초점이 맞는 유효 프레임과 초점이 맞지 않는 무효 프레임의 수 또는 시간을 기준으로 피사체의 동작상태를 판별하는 동작상태 선택부를 포함하는 연산부;를 포함하여 이루어진다.
In addition, the input device using another imaging sensor of the present invention comprises a sensor unit including an imaging sensor for detecting a subject which is an input medium, and outputs a signal for each pixel of the captured image signal as a 1-bit signal; And an operation unit configured to receive the image signal output through the sensor unit and compare the front and rear image data to calculate a motion vector.
In addition, an input device using another imaging sensor of the present invention includes a sensor unit including an imaging sensor for sensing a subject, which is an input medium, and outputting a captured image signal; An operation unit including an operation state selection unit which receives an image signal from the sensor unit and determines an operation state of a subject based on the number or time of valid frames that are in focus with respect to the current image frame and invalid frames that are not in focus; It is made to include.

또한, 상기와 같은 목적을 달성하기 위한 본 발명의 촬상센서를 이용한 입력 방법은, 촬상 센서를 통해 피사체를 촬상하여 이미지 신호를 출력하는 제 1 단계와; 상기 제 1 단계에서 출력된 이미지 신호를 입력받아 상기 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환한 후 일정시간 간격의 전후 이미지 데이터를 비교하여 움직임 벡터를 산출하는 제 2 단계;를 포함하여 수행한다.In addition, the input method using the image sensor of the present invention for achieving the above object comprises a first step of capturing a subject through the image sensor to output an image signal; And a second step of receiving the image signal output in the first step, converting a signal for each pixel of the image signal into a 1-bit signal, and comparing the before and after image data at a predetermined time interval to calculate a motion vector. To perform.

또한, 상기와 같은 목적을 달성하기 위한 본 발명의 또 다른 촬상센서를 이용한 입력 방법은, 촬상 센서를 통해 피사체를 촬상하여 이미지 신호를 출력하는 제 1 단계와; 상기 제 1 단계에서 출력된 이미지 신호를 입력받아, 현재 이미지 프레임에 대해 초점이 맞는 유효 프레임과 초점이 맞지 않는 무효 프레임의 수 또는 시간을 기준으로 피사체의 동작상태를 판별하는 제 2 단계;를 포함하여 수행한다.In addition, another input method using an image pickup sensor of the present invention for achieving the above object comprises a first step of capturing a subject through the image pickup sensor to output an image signal; And a second step of determining an operation state of the subject based on the number or time of valid frames that are in focus with respect to the current image frame and invalid frames that are not in focus, by receiving the image signal output in the first step. Do it.

또한, 상기와 같은 목적을 달성하기 위하여, 본 발명의 또 다른 촬상센서를 이용한 입력 방법은, 촬상 센서를 통해 피사체를 촬상하여 이미지 신호를 출력하는 제 1 단계와; 상기 제 1 단계에서 출력된 이미지 신호를 입력받아, 현재 이미지 프레임에 대해 초점이 맞는 유효 프레임과 초점이 맞지 않는 무효 프레임의 수 또는 시간을 기준으로 피사체의 동작상태를 판별하는 제 2 단계;를 포함하여 수행한다.In addition, in order to achieve the above object, another input method using the imaging sensor of the present invention, the first step of imaging the subject through the imaging sensor to output an image signal; And a second step of determining an operation state of the subject based on the number or time of valid frames that are in focus with respect to the current image frame and invalid frames that are not in focus, by receiving the image signal output in the first step. Do it.

이하에서는, 상기와 같은 본 발명의 기술적 구성을 도면을 참조하여 상세하게 설명한다.Hereinafter, the technical configuration of the present invention as described above will be described in detail with reference to the drawings.

도 2는 본 발명의 일실시예에 의한 촬상 센서를 이용한 입력 장치의 블록구성도이다.2 is a block diagram of an input device using an imaging sensor according to an embodiment of the present invention.

이에 도시된 바와 같이, 본 발명의 촬상센서를 이용한 입력 장치는, 입력매체인 피사체(150)를 감지하는 촬상 센서(110)를 포함하여 구비하고, 감지된 이미지 신호를 출력하는 센서부(100)와; 센서부(100)에서 출력된 이미지 신호를 입력받아 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환한 후 전후 이미지 데이터를 비교하여 움직임 벡터를 산출하는 연산부(200);를 포함하여 구성된 것을 특징으로 한다.As shown in the drawing, the input device using the image pickup sensor of the present invention includes an image pickup sensor 110 that detects a subject 150 that is an input medium, and the sensor unit 100 that outputs the detected image signal. Wow; And an operation unit 200 which receives an image signal output from the sensor unit 100, converts a signal for each pixel of the image signal into a 1-bit signal, and then compares the before and after image data to calculate a motion vector. It is done.

센서부(100)는, 일반적으로, 피사체(150)를 감지하는 촬상 센서(110)와, 피사체로 빛을 발산하는 발광수단인 광원(120)과, 광원(120)에서 공급된 광에 의해 근접 이미지가 촬상 센서(110)로 전달되도록 하는 집광수단인 렌즈(130)를 포함하여 구성된다. In general, the sensor unit 100 is approached by an imaging sensor 110 for sensing the subject 150, a light source 120 serving as a light emitting means for emitting light to the subject, and light supplied from the light source 120. It comprises a lens 130 which is a light collecting means for transmitting the image to the imaging sensor 110.

센서부(100)는, 피사체(150)를 촬상하여 연산부(200)에서 움직임 벡터를 산 출할 수 있는 한도 내에서 최적화된 최소의 픽셀 수를 갖는 촬상 센서(110)를 구비하는 것을 특징으로 한다. 이러한 촬상센서는 10000픽셀 이하의 픽셀 수를 갖는 것이 바람직하며, 약 1000픽셀 정도의 픽셀수를 갖는 촬상센서로도 충분히 움직임 벡터를 산출할 수 있다.The sensor unit 100 may include an imaging sensor 110 having a minimum number of pixels optimized within a limit capable of imaging the subject 150 and calculating a motion vector in the operation unit 200. Such an image sensor preferably has a pixel number of 10,000 pixels or less, and an image sensor having a pixel number of about 1000 pixels can sufficiently calculate a motion vector.

센서부(100)에서 촬상되는 피사체(150)는, 미세한 복수의 요철이 형성된 피사면을 갖는 것이 바람직하며, 주로 손가락의 지문형성 부분이 이용될 수 있다. The object 150 captured by the sensor unit 100 preferably has a surface to be formed with a plurality of minute irregularities, and a fingerprint forming part of a finger may be mainly used.

본 발명의 촬상센서를 이용한 입력장치의 연산부(200)는, 센서부로부터 입력된 이미지 신호를 1 비트 비트플레인 연산 방식을 사용하여 상기 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환한 후 움직임 벡터를 산출하는 것을 특징으로 한다.The operation unit 200 of the input device using the imaging sensor of the present invention converts an image signal input from the sensor unit into a 1-bit signal after converting the signal for each pixel of the image signal into a 1-bit signal using a 1-bit bitplane calculation scheme. It is characterized by calculating a vector.

상기 특징을 갖는 연산부(200)는, 센서부(100)로부터 입력된 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환하는 양자화처리부(220)와; 양자화 처리부(220)에서 처리된 이미지 데이터를 임시로 저장하는 임시 저장부(230)와; 양자화 처리부(220)에서 처리된 이미지 데이터와 임시 저장부(230)에 저장된 이미지 데이터를 입력받아 비교하여 일정시간 간격의 전후 이미지 패턴의 차를 구하는 비교부(240)와; 비교부(240)에서 출력된 값으로부터 움직임 벡터를 산출하는 방향 선택부(250)와; 연산부(200)의 동작을 제어하는 코어 제어부(270);를 포함하여 구성된다.The operation unit 200 having the above characteristics includes: a quantization processor 220 for converting a signal for each pixel of the image signal input from the sensor unit 100 into a 1-bit signal; A temporary storage unit 230 for temporarily storing image data processed by the quantization processing unit 220; A comparator 240 which obtains and compares the image data processed by the quantization processor 220 and the image data stored in the temporary storage 230 to obtain a difference between the front and rear image patterns at a predetermined time interval; A direction selector 250 for calculating a motion vector from the value output from the comparator 240; And a core controller 270 for controlling the operation of the calculator 200.

본 발명의 연산부(200)는, 센서부(100)로부터 입력된 이미지 신호에서 노이즈 성분을 제거하는 전처리부(210)를 더 포함할 수 있다.The calculating part 200 of the present invention may further include a preprocessing part 210 which removes a noise component from an image signal input from the sensor part 100.

이때, 전처리부(210)는, 도 4에 도시된 바와 같이, 센서부(100)에서 출력된 이미지 신호에 대해 DCT(Discrete Cosine Transform)를 수행하여 공간 영역의 정보를 주파수 영역으로 변환시키는 DCT부(211)와; DCT부(211)에서 DCT가 수행된 이미지 신호를 양자화시켜 필터 처리를 수행하는 필터부(212)와; 필터부(212)에서 처리된 이미지 신호에 대해 IDCT(Inverse Discrete Cosine Transform)를 수행하여 공간 영역의 정보로 변환시키는 IDCT부(213);를 포함하여 구성된다.In this case, as illustrated in FIG. 4, the preprocessor 210 performs a discrete cosine transform (DCT) on the image signal output from the sensor unit 100 to convert the information of the spatial domain into the frequency domain. 211; A filter unit 212 for performing a filter process by quantizing the image signal subjected to DCT in the DCT unit 211; And an IDCT unit 213 for performing inverse discrete cosine transform (IDCT) on the image signal processed by the filter unit 212 and converting the image signal into information of a spatial domain.

본 발명에서는 많은 연산량을 요구하는 DCT를 초고밀도 집적회로(VLSI)에 적합하도록 빠른 연산이 가능한 DCT 알고리즘의 하나인 페이그 알고리즘(Feig's algorithm)을 사용하여 DCT와 IDCT를 수행하는 것이 바람직하다.In the present invention, it is preferable to perform DCT and IDCT by using a Paig's algorithm, which is one of DCT algorithms capable of quickly calculating DCT that requires a large amount of computation to be suitable for an ultra high density integrated circuit (VLSI).

또한, 전처리부(210)는, 이미지 패턴의 흑백대비를 향상시키기 위해, 센서부(100)에서 출력된 이미지 신호에 대해 샘플된 이미지에 관한 히스토그램의 분포를 펼쳐주는 스트레칭부(214)를 더 포함하는 것이 바람직하다. 도 5a, 5b, 5c는 샘플된 이미지 히스토그램을 스케일링하여 스트레칭된 것을 각각 나타내고 있다.In addition, the preprocessing unit 210 further includes a stretching unit 214 that spreads a histogram of a sampled image with respect to the image signal output from the sensor unit 100 to improve the black and white contrast of the image pattern. It is desirable to. 5A, 5B, and 5C illustrate stretching by scaling the sampled image histogram, respectively.

연산부(200)에서, 비교부(240)는, 도 8에 도시된 바와 같이, 양자화 처리부(220)에서 출력된 현재의 이미지 데이터를 임시 저장부(230)에 저장된 이전의 이미지 데이터와 XOR 연산하는 XOR 연산부(241)와; XOR 연산부의 출력을 입력받아 전후 이미지 패턴의 차이 중 최소값을 찾아내는 패턴 비교부(242);를 포함하여 구성된다.In the operation unit 200, the comparison unit 240 performs an XOR operation on the current image data output from the quantization processing unit 220 with previous image data stored in the temporary storage unit 230, as shown in FIG. 8. An XOR operator 241; And a pattern comparison unit 242 that finds the minimum value of the difference between the front and rear image patterns by receiving the output of the XOR operator.

비교부(240)에서는, 이전 이미지에 대하여 현재 이미지를 한 픽셀 씩 움직이면서 이미지 패턴의 차를 구하는 방식을 이용된다.The comparator 240 uses a method of obtaining a difference of an image pattern while moving the current image by one pixel with respect to the previous image.

연산부(200)에서 코어 제어부(270)는, 도 12에 도시된 바와 같이, 촬상 센서(110)가 주위 환경에 맞는 임계값을 갖도록 세팅하는 임계값 레지스터(272)를 포함하여 구성되는 것을 특징으로 하며, 연산부(200)의 각 기능블록을 제어하게 된다. 코어 제어부(270)는 센서부(100) 내의 광원 세기를 조절하는 광원세기 레지스터(271)를 더 포함할 수도 있다.In the operation unit 200, the core controller 270 is configured to include a threshold value register 272 for setting the imaging sensor 110 to have a threshold value suitable for the surrounding environment, as shown in FIG. 12. In addition, the control unit 200 controls each functional block. The core controller 270 may further include a light source intensity register 271 for adjusting the light source intensity in the sensor unit 100.

본 발명의 촬상센서를 이용한 입력 장치에서는, 컴퓨터 마우스와 같이 클릭 및 드래그 등의 입력 방식도 구현이 가능하다. 이를 위하여, 연산부(200)는 동작상태 선택부(260)를 포함할 수 있다.In the input device using the image sensor of the present invention, an input method such as a click and a drag can be implemented like a computer mouse. To this end, the operation unit 200 may include an operation state selection unit 260.

동작상태 선택부(260)는 현재 이미지 프레임에 대해 초점이 맞는 유효 프레임과 초점이 맞지 않는 무효 프레임의 수 또는 시간을 기준으로 피사체의 동작상태를 판별한다.The operation state selector 260 determines an operation state of the subject based on the number or time of valid frames that are in focus with respect to the current image frame and invalid frames that are not in focus.

동작상태 선택부(260)에서는, 도 10에 도시된 바와 같이, 현재 이미지 프레임에 대해, 무효 프레임에 이어지는 유효 프레임의 수 또는 시간이 일정 임계값(No)보다 작은 경우 클릭으로 판별한다. 또한, 현재 이미지 프레임에 대해 제 1 무효 프레임에 이어지는 제 1 유효 프레임의 수 또는 시간이 일정 임계값(No)보다 작고 상기 제 1 유효 프레임에 이어지는 제 2 무효 프레임의 수 또는 시간이 일정 임계값(N1)보다 작은 경우, 상기 제 2 무효 프레임에 이어지는 제 2 유효 프레임의 수 또는 시간이, 일정 임계값(No)보다 작으면 더블 클릭동작으로 판별한다. 또한, 현재 이미지 프레임에 대해 무효 프레임에 이어지는 유효 프레임의 수 또는 시간이 일정 임값(No)보다 크면 드래그 동작으로 판별한다. 상기 임계값(No) 및 상기 임계값(N1)은 레지스터 값으로서 사용자가 임의로 설정할 수 있도록 할 수 있다.As illustrated in FIG. 10, the operation state selector 260 determines that the current image frame is clicked when the number or time of valid frames following the invalid frame is smaller than the predetermined threshold value N o . Also, for the current image frame, the number or time of the first valid frame following the first invalid frame is less than the predetermined threshold value N o , and the number or time of the second invalid frame following the first valid frame is constant threshold value. If smaller than (N 1 ), if the number or time of second valid frames following the second invalid frame is smaller than the predetermined threshold value (N o ), it is determined by a double click operation. In addition, if the number or time of valid frames following the invalid frame is greater than the predetermined value N o for the current image frame, it is determined as a drag operation. The threshold value N o and the threshold value N 1 may be arbitrarily set by a user as a register value.

본 발명의 연산부(200)는, 입력이 없는 휴지상태에서 낭비되는 전력을 줄이기 위하여, 전원제어부(280)를 더 포함하는 것이 바람직하다.The calculation unit 200 of the present invention preferably further includes a power supply control unit 280 to reduce power wasted in the idle state without input.

전원제어부(280)는, 입력이 없는 경우, 입력이 있더라도 피사체의 초점이 맞지 않는 경우, 및 피사체의 초점이 맞더라도 피사체가 일정시간 이상 계속하여 동작하지 않는 경우에, 촬상 센서 및 연산부의 전원을 제어하여 최소 전력을 사용하도록 제어한다.When there is no input, the power supply controller 280 turns off the power of the imaging sensor and the calculation unit when the subject is not in focus even though there is an input and when the subject is not operated for a predetermined time or more even when the subject is in focus. Control to use the minimum power.

본 발명의 촬상센서를 이용한 입력 장치는, 이하에서와 같이, 센서부 자체에서 촬상된 이미지 신호의 각 픽셀 당 신호를 1비트로 출력하도록 설계할 수도 있다.The input device using the imaging sensor of the present invention may be designed to output a signal for each pixel of the image signal picked up by the sensor unit as one bit, as follows.

이러한 촬상센서를 이용한 입력 장치는, 입력매체인 피사체(150)를 감지하는 촬상센서(110)를 포함하여 구비하고, 촬상된 이미지 신호의 각 픽셀 당 신호를 1비트 신호로 출력하는 센서부(100)와; 센서부(100)를 통해 출력된 이미지 신호를 입력받아 일정시간 간격의 전후 이미지 데이터를 비교하여 움직임 벡터를 산출하는 연산부(200);를 포함하여 구성된다.The input device using the image sensor includes an image sensor 110 that detects a subject 150, which is an input medium, and includes a sensor unit 100 that outputs a signal for each pixel of the captured image signal as a 1-bit signal. )Wow; And an operation unit 200 that receives the image signal output through the sensor unit 100 and compares the before and after image data at a predetermined time interval to calculate a motion vector.

이와 같이, 센서부 자체에서 각 픽셀의 신호를 1비트로 출력하는 경우에는, 연산부(200)에서 전술한 전처리부(210)와 양자화 처리부(220)는 생략될 수 있다. 즉, 연산부는, 임시 저장부(230), 비교부(240), 방향 선택부(250), 코어 제어부(270), 전원제어부(280)로 구성된다.As such, when the sensor unit itself outputs a signal of each pixel as one bit, the preprocessor 210 and the quantization processor 220 described above may be omitted by the calculator 200. In other words, the calculation unit includes a temporary storage unit 230, a comparison unit 240, a direction selector 250, a core control unit 270, and a power control unit 280.

본 발명의 촬상센서를 이용한 입력 장치는, 주로 휴대기기에 연결되어 사용된다. 이 경우, 촬상 센서를 이용한 입력 장치는, 연산부와 휴대기기를 연결시키는 인터페이스부(300)와; 인터페이스부(300)를 통해 상기 연산부에서 연산된 정보를 입력받아 동작되는 휴대기기(400);를 더 포함하여 구성된다. 이때, 휴대기기는, 휴대폰, PDA, 노트북, 디지털카메라, MP3 플레이어 등이 될 수 있다.The input device using the imaging sensor of the present invention is mainly used in connection with a portable device. In this case, the input device using the imaging sensor, the interface unit 300 for connecting the operation unit and the portable device; The mobile device 400 is operated by receiving the information calculated by the operation unit through the interface unit 300; In this case, the portable device may be a mobile phone, a PDA, a notebook computer, a digital camera, an MP3 player, or the like.

본 발명의 센서부와 연산부가 모두 하나의 집적회로칩으로 제작되는 것이 바람직하며, 본 발명의 연산부가 하나의 집적회로칩으로 제작될 수도 있다. 이 경우 보다 소형의 입력 장치를 구현할 수 있다.It is preferable that both the sensor unit and the calculation unit of the present invention are made of one integrated circuit chip, and the calculation unit of the present invention may be made of one integrated circuit chip. In this case, a smaller input device can be implemented.

도 13은 본 발명의 일실시예에 의한 촬상 센서를 이용한 입력방법을 보인 흐름도이다.13 is a flowchart illustrating an input method using an imaging sensor according to an exemplary embodiment of the present invention.

이에 도시된 바와 같이, 본 발명의 촬상센서를 이용한 입력방법은, 촬상 센서를 통해 피사체를 촬상하여 이미지 신호를 출력하는 제 1 단계(ST1)와; 제 1 단계(ST1)에서 출력된 이미지 신호를 입력받아 상기 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환한 후 전후 이미지 데이터를 비교하여 움직임 벡터를 산출하는 제 2 단계(ST2~ST5);를 포함하여 수행된다.As shown here, the input method using the imaging sensor of the present invention comprises: a first step (ST1) of capturing a subject through an imaging sensor and outputting an image signal; A second step (ST2 to ST5) of receiving the image signal output in the first step (ST1), converting a signal for each pixel of the image signal into a 1-bit signal, and comparing the before and after image data to calculate a motion vector; It is carried out including.

제 2 단계(ST2~ST5)는, 1 단계(ST1)에서 출력된 이미지 신호를 비트 플레인 연산 방식을 사용하여 이미지 신호의 각 픽셀 당 신호를 1비트 값으로 변환한 후 움직임 벡터를 산출하는 연산을 수행한다.In the second steps ST2 to ST5, an operation of calculating a motion vector after converting the image signal output in the first step ST1 into a 1-bit value by converting the signal per pixel of the image signal into a 1-bit value using a bit plane calculation method is performed. To perform.

이러한 제 2 단계(ST2~ST5)는, 제 1 단계(ST1)로부터 입력된 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환하는 양자화 처리단계(ST3)와; 양자화 처리단계(ST3)에서 처리된 이미지 데이터에 대해 일정시간 간격의 전후 이미지 패턴의 차를 구하는 비교단계(ST4)와; 비교단계(ST5)에서 출력된 값으로부터 움직임 벡터를 산출하는 방향 선택단계;를 포함하여 수행된다.These second steps ST2 to ST5 include a quantization process step ST3 for converting a signal per pixel of the image signal input from the first step ST1 into a 1-bit signal; A comparison step (ST4) for obtaining a difference between the front and rear image patterns at predetermined time intervals with respect to the image data processed in the quantization processing step (ST3); And a direction selection step of calculating a motion vector from the values output in the comparison step ST5.

제 2 단계(ST2~ST5)는, 양자화처리 단계(ST3) 전에 제 1 단계(ST1)로부터 입력된 이미지 신호에서 노이즈 성분을 제거하는 전처리 단계(ST2)를 더 포함할 수도 있다.The second steps ST2 to ST5 may further include a preprocessing step ST2 for removing noise components from the image signal input from the first step ST1 before the quantization processing step ST3.

전처리 단계(ST2)는, 제 1 단계(ST1)에서 출력된 이미지 신호에 대해 DCT를 수행하여 공간 영역의 정보를 주파수 영역으로 변환시키는 단계와; DCT가 수행된 이미지 신호를 양자화시켜 필터 처리를 수행하는 단계와; 양자화된 이미지 신호에 대해 IDCT를 수행하여 공간 영역의 정보로 변환시키는 단계;를 포함하여 수행하는 것을 특징으로 한다. The preprocessing step ST2 may include performing a DCT on the image signal output in the first step ST1 to convert information of the spatial domain into a frequency domain; Performing filter processing by quantizing the image signal subjected to DCT; And performing IDCT on the quantized image signal and converting the information into a spatial domain information.

또한, 전처리단계(ST2)는, 히스토그램의 폭이 좁은 경우 흑백대비를 향상시키기 위해, 제 1 단계(ST1)에서 출력된 이미지 신호에 대해 샘플된 이미지에 관한 히스토그램의 분포를 펼쳐주는 스트레칭 단계;를 더 포함하는 것이 바람직하다.In addition, the preprocessing step ST2 may include: a stretching step of unfolding the distribution of the histogram with respect to the sampled image with respect to the image signal output in the first step ST1 to improve the black and white contrast when the histogram is narrow; It is preferable to further include.

전처리 단계(ST2)에서는, 빠른 연산이 가능한 DCT 알고리즘의 하나인 페이그 알고리즘(Feig's algorithm)을 사용하여 DCT와 IDCT를 수행하는 것이 바람직하다.In the preprocessing step ST2, it is preferable to perform DCT and IDCT using a Paig's algorithm, which is one of fast DCT algorithms.

한편, 제 2단계는, 제 1 단계(ST1)에서 촬상센서의 각 픽셀당 최적화 출력 비트를 1비트로 출력하는 경우, 전처리 단계(ST2)와 양자화 단계(ST3)를 생략할 수 있다.In the second step, when the optimized output bit for each pixel of the image sensor is output as one bit in the first step ST1, the preprocessing step ST2 and the quantization step ST3 may be omitted.

비교단계(ST4)는, 양자화 처리단계(ST2)에서 출력된 현재의 이미지 데이터를 이전의 이미지 데이터와 XOR 연산하는 XOR 연산단계와; XOR 연산단계에서 XOR 연산된 결과를 이용하여 전후 이미지 패턴의 차이 중 최소값를 판단하는 패턴 비교단계;를 포함하여 수행하는 것을 특징으로 한다. The comparing step ST4 includes an XOR operation step of performing XOR operation on the current image data output in the quantization processing step ST2 with the previous image data; And a pattern comparison step of determining a minimum value among differences between the front and rear image patterns by using the result of the XOR operation in the XOR operation step.

비교단계(ST4)에서는, 이전 이미지에 대하여 현재 이미지를 한 픽셀 씩 움직이면서 이미지 패턴의 차를 구하는 방식을 이용하는 것이 바람직하다.In the comparison step ST4, it is preferable to use a method of obtaining the difference of the image pattern while moving the current image by one pixel with respect to the previous image.

본 발명의 촬상센서를 이용한 입력 방법은, 입력이 없는 휴지상태에서의 전력소모를 방지하기 위하여, 전원제어방법을 사용한다.The input method using the imaging sensor of the present invention uses a power supply control method in order to prevent power consumption in the idle state without input.

전원제어방법은, 도 11에 도시된 바와 같이, 입력의 유무를 판단하여, 입력이 없는 경우 대기상태로 전환되고, 입력이 있는 경우 동작상태로 전환된다. 또한, 동작상태로 전환된 후 피사체의 초점을 확인하여, 초점이 맞지 않는 경우 대기상태로 전환되고, 초점이 맞는 경우 움직임 또는 동작상태를 추정하는 단계로 전환된다. 또한, 움직임 또는 동작상태를 추정하는 단계로 전환된 후 피사체의 계속동작 여부를 판단하여, 계속된 동작이 없는 경우 대기상태로 전환되게 된다.As shown in FIG. 11, the power supply control method determines whether there is an input, and when there is no input, switches to a standby state, and when there is an input, switches to an operation state. In addition, after switching to the operation state, the focus of the subject is checked, and when the focus is not achieved, the operation is switched to the standby state, and when the focus is achieved, the operation or the motion state is estimated. In addition, after switching to the step of estimating the motion or the operation state, it is determined whether the subject continues to be operated, and when there is no continuous operation, the operation is switched to the standby state.

전원제어단계에서, 입력의 유무 판단, 피사체의 초점 확인, 및 계속동작 여부의 판단은, 현재 이미지 프레임에 대한 유효 프레임 또는/및 무효 프레임의 임계값을 기준으로 판단하는 것이 바람직하다.In the power supply control step, it is preferable to determine whether there is an input, determine the focus of the subject, and whether the continuous operation is performed based on a threshold value of a valid frame and / or an invalid frame for the current image frame.

이와 같이 구성된 본 발명에 의한 촬상 센서를 이용한 입력 장치 및 그 방법의 바람직한 실시예를 첨부한 도면에 의거하여 상세히 설명하면 다음과 같다. Referring to the accompanying drawings, a preferred embodiment of the input device and the method using the image sensor according to the present invention configured as described above will be described in detail as follows.

하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 판례 등에 따라 달라질 수 있으며, 이에 따라 각 용어의 의미는 본 명세서 전반에 걸친 내용을 토대로 해석되어야 할 것이다.In the following description of the present invention, detailed descriptions of well-known functions or configurations will be omitted if it is determined that the detailed description of the present invention may unnecessarily obscure the subject matter of the present invention. In addition, terms to be described below are terms defined in consideration of functions in the present invention, which may vary according to intention or precedent of a user or an operator, and thus, the meaning of each term should be interpreted based on the contents throughout the present specification. will be.

먼저 본 발명은 촬상 센서를 이용한 입력 장치에서, 움직임 벡터 검출 방식을 최적화시켜 휴대기기에서 마우스 형식으로 입력하고자 한 것이다. 즉, 종래의 네비게이션 키를 대체하여 다방향 이동을 요구하는 휴대기기용 OS(operating System)와 시각적인 인터페이스의 변화에 상응하여 기존에 사용자가 PC(Personal computer) 환경에서 익숙하게 사용하는 마우스 형식의 입력 장치를 제공하는 것이다. 데스크탑 PC의 경우 광학센서를 이용한 광마우스와 트랙볼을 많이 사용하고 있으며 노트북의 경우 터치패드나 조그를 사용하고 있다. 하지만 이러한 포인팅 디바이스들은 휴대기기에 적용하기에는 적합하지 않다. First, the present invention is to input a mouse type in a mobile device by optimizing a motion vector detection method in an input device using an imaging sensor. In other words, in response to changes in the operating system (OS) and visual interface for mobile devices that require multi-directional movements in place of the conventional navigation keys, the mouse type that a user is familiar with in a personal computer (PC) environment is used. It is to provide an input device. Desktop PCs use optical mice and trackballs with optical sensors, and laptops use touchpads or jogs. However, these pointing devices are not suitable for portable devices.

따라서 본 발명에서는 촬상 센서를 이용하여 피사체(손가락 등)의 움직임을 추정하여 움직임 벡터를 산출하는 효율적인 알고리즘을 제안하고 휴대기기의 입력 장치로 사용할 수 있는 장치로 개발하는 기술을 제공한다.Accordingly, the present invention proposes an efficient algorithm for calculating a motion vector by estimating the movement of a subject (finger, etc.) using an imaging sensor, and provides a technique for developing a device that can be used as an input device of a portable device.

도 2는 본 발명의 일실시예에 의한 촬상 센서를 이용한 입력 장치의 블록구성도이다.2 is a block diagram of an input device using an imaging sensor according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 촬상센서를 이용한 입력 장치는, 크게 센서부(100)와 연산부(200)를 포함하여 구성된다. 또한 연산부(200)가 인터페이스부(300)를 통하여 휴대기기(400)에 연결되어 사용되게 된다.As shown in FIG. 2, the input device using the imaging sensor of the present invention includes a sensor unit 100 and a calculation unit 200. In addition, the operation unit 200 is connected to the mobile device 400 through the interface unit 300 to be used.

본 발명에서는, 최소 픽셀수로 최적화된 촬상센서를 포함하는 센서부(100)와, 하나의 픽셀 당 신호를 최소비트(1비트)로 변환하여 움직임 벡터를 산출하는 효율적인 방식과, 클릭 및 드래그 등의 다양한 입력형태를 적용할 수 있는 방식 및 휴지전력을 최소화하는 전력제어 방식으로 운영되는 연산부(200)를 제안하여 보다 효율적이며 소형이고 저전력의 입력 장치를 제공할 수 있도록 한다.In the present invention, the sensor unit 100 including an image pickup sensor optimized to the minimum number of pixels, an efficient method of calculating a motion vector by converting a signal per pixel to a minimum bit (1 bit), click and drag, etc. It is proposed to provide a more efficient, compact and low-power input device by proposing a calculation unit 200 that operates in a power control method that can be applied to various input forms and minimizing the idle power.

1. 본 발명의 핵심적 특징1. Key features of the present invention

1-1) 피사체의 움직임을 인식할 수 있는 촬상 센서의 최소 픽셀(PIXEL) 수 결정을 통한 저전력 및 적은 면적의 움직임 추정 장치1-1) Low-power and low-area motion estimation device by determining the minimum number of pixels of the imaging sensor that can recognize the movement of the subject

기존의 상용화된 CIS(CMOS Image Sensor)를 이용하는 경우, QCIF(176x144)를 예를 들면 만 픽셀 이상의 센서가 사용되어 입력장치로 사용하기에는 면적이 크고 많은 전력을 소비한다.In the case of using a conventional commercially available CMOS image sensor (CIS), the QCIF (176x144), for example, a sensor of more than 10,000 pixels is used to consume a large area and a lot of power to use as an input device.

따라서 본 발명에서는 피사체(손가락 등)의 움직임을 인식하고 움직임 벡터를 찾아 낼 수 있는 최소의 픽셀 수를 결정하여 최적화된 촬상 센서를 사용하도록 한다.Therefore, in the present invention, the optimized image sensor is used by recognizing the movement of the subject (finger, etc.) and determining the minimum number of pixels that can find the motion vector.

사용가능한 촬상 센서는 이미 상용화된 CIS(CMOS Image Source), CCD(Charge Coupled Device), 포토컨덕터(Photoconductor), 포토다이오드(Photodiode), MOSFET(Metal Oxide Semiconductor Field Effect Transistor, 금속 산화막 반도체 전계 효과 트랜지스터) 기반의 센서들을 포함한다.Available imaging sensors are already available commercially available CMOS Image Source (CIS), Charge Coupled Device (CCD), Photoconductor, Photodiode, MOSFET (Metal Oxide Semiconductor Field Effect Transistor, Metal Oxide Semiconductor Field Effect Transistor) Based sensors.

본 발명의 촬상센서는 최적화된 2차원 배열 형태의 촬상 센서를 통해 1000개 이하의 픽셀을 사용해 기존의 방법보다 1/10 이하로 줄일 수 있다. 뿐만 아니라 실시간으로 처리해야하는 입력 정보가 줄어들게 되어 입력 프레임 수를 10배 이상 증가시켜 초당 1000 프레임의 입력 정보를 처리할 수 있으며 적은 수의 연산 장치로 입력 정보를 처리할 수 있다.The imaging sensor of the present invention can be reduced to 1/10 or less than the conventional method using 1000 pixels or less through the optimized two-dimensional array type imaging sensor. In addition, input information that needs to be processed in real time is reduced, and the number of input frames can be increased by more than 10 times to process input information of 1000 frames per second, and the input information can be processed by a small number of computing devices.

1-2) 촬상 센서의 코어 로직(Core-logic)으로서 최적화된 움직임 추정 알고리즘1-2) Motion Estimation Algorithm Optimized as Core-Logic of Imaging Sensor

본 발명에서 제안하는 움직임 추정 알고리즘은 하나의 칩(Chip)으로 구현가능하며, 이에 대한 전체적인 블록구성도는 도 2와 같다.The motion estimation algorithm proposed in the present invention can be implemented in one chip, and the overall block diagram thereof is shown in FIG. 2.

종래 발명들 중에는 센서의 출력 이미지 데이터를 DSP(Digital Signal Processor, 디지털 신호처리 프로세서)와 같은 프로세서를 이용하여 소프트웨어를 통하여 움직임 추정 벡터값을 산출하는 경우가 대부분이었다.In the conventional inventions, the motion estimation vector value is calculated through software using the output image data of the sensor using a processor such as a digital signal processor (DSP).

이와는 달리 본 발명에서 제안하는 입력장치는 그 자체만으로도(하드웨어적으로도) 움직임 추정 벡터값을 연산하여 출력할 수 있어 칩 사이즈를 최소화할 수 있다.In contrast, the input device proposed by the present invention can calculate and output a motion estimation vector value by itself (hardware also), thereby minimizing chip size.

움직임 추정 연산은 도 3과 같은 실험 결과를 토대로 1비트 비트 플레인(1bit Bit Plane) 방식을 채택함으로서 로직(Logic) 자체를 단순하게 구현하고, 휴대기기에 적합하도록 최적화가 가능하다. The motion estimation operation is based on the experimental results as shown in FIG. 3 and employs a 1-bit bit plane method, thereby simply implementing logic itself and optimizing for a portable device.

여기서 도 3a~도 3i는 8개의 비트 플레인 이미지의 실험 결과를 보여주는 것으로서, 도 3a는 원 이미지이고, 도 3b~도 3i는 8번째 비트 이미지(도 3b)에서 1번째 비트 이미지(도 3i)를 각각 나타내는 것이다. 도 3a~도 3i에서는 각각의 서로 다른 비트 레벨의 비트 플레인 이미지에 의해 원 이미지와 이미지 패턴의 차를 나타낸 것인데, 상위 4비트 이내에서 움직임 추정을 하기에 충분함을 알 수 있다. 이 실험 결과는 본 발명에서 1비트의 정보만으로 움직임 추정이 가능함을 보여준다.3A to 3I show experimental results of eight bit plane images, and FIG. 3A is an original image, and FIGS. 3B to 3I show a first bit image (FIG. 3I) in an eighth bit image (FIG. 3B). Respectively. In FIG. 3A to FIG. 3I, the difference between the original image and the image pattern is shown by bit plane images of different bit levels, and it can be seen that it is sufficient to perform motion estimation within the upper 4 bits. This experimental result shows that the motion estimation can be performed using only one bit of information in the present invention.

따라서, 연산부에서는, 센서부에서 입력된 이미지 신호를 1 비트 비트플레인 연산 방식을 사용하여 각 픽셀의 신호를 1비트 값으로 변환한 후 움직임 벡터를 산출하도록 하였다. 즉, 최소의 데이터 양으로 움직임 벡터를 효율적으로 산출하는 방식을 제공하게 된다. Therefore, the calculation unit converts the image signal input from the sensor unit into a 1-bit value using a 1-bit bitplane calculation scheme and then calculates a motion vector. That is, a method of efficiently calculating a motion vector with a minimum amount of data is provided.

1-3) 클릭 및 드래그 동작의 구현1-3) Implementation of click and drag gestures

현재 이미지 프레임에 대해 초점이 맞는 유효 프레임과 초점이 맞지 않는 무효 프레임의 수 또는 시간을 기준으로 피사체의 동작상태를 판별함으로써 클릭 및 드래그 동작을 구현할 수 있다.The click and drag operation may be implemented by determining an operation state of the subject based on the number or time of the effective frame that is in focus with respect to the current image frame and the invalid frame that is not in focus.

전술한 본 발명의 핵심적 특징 이외에, 전력소모가 적은 휴대기기로의 적용을 가능하도록 전원 제어 방법 및 센서부의 가변적인 환경에 따라 센서부의 최적기준을 제어하는 방법을 제안하였다.In addition to the above-described core features of the present invention, a power supply control method and a method of controlling the optimum criteria of the sensor unit according to the variable environment of the sensor unit are proposed to be applied to a portable device with low power consumption.

2. 본 발명의 상세 구성과 동작2. Detailed configuration and operation of the present invention

도 2에 도시된 바와 같이, 본 발명은 크게 촬상 센서(110)를 포함하는 센서부(100)와 움직임 벡터를 구하는 연산부(200)로 구분된다. As shown in FIG. 2, the present invention is largely divided into a sensor unit 100 including an imaging sensor 110 and an operation unit 200 for obtaining a motion vector.

센서부(100)는 촬상 센서(110), 광원(120), 근접 영상용 렌즈(130) 및 투명판(140)을 포함하여 구성되며, 연산부(200)는 전처리부(210), 양자화 처리부(220), 임시 저장부(230), 비교부(240), 방향 선택부(250), 전원 제어부(260), 코어 제어 부(270)를 포함하여 구성된다. 또한 인터페이스부(300)와 휴대기기(400)를 더욱 포함하여 구성할 수 있다. 휴대기기는 휴대폰(410), PDA(420), 노트북(430), 디지털 카메라(440), MP3 플레이어(450) 등으로 구성할 수 있다.The sensor unit 100 includes an imaging sensor 110, a light source 120, a lens 130 for proximity images, and a transparent plate 140. The operation unit 200 includes a preprocessor 210 and a quantization processor ( 220, a temporary storage unit 230, a comparator 240, a direction selector 250, a power control unit 260, and a core control unit 270. In addition, the interface unit 300 and the portable device 400 may be further included. The mobile device may be configured as a mobile phone 410, PDA 420, notebook 430, digital camera 440, MP3 player 450 and the like.

2-1) 센서부2-1) Sensor

센서부(100)는, 일반적으로, 피사체(150)를 감지하는 촬상 센서(110)와, 피사체로 빛을 발산하는 발광수단인 광원(120)과, 광원(120)에서 공급된 광에 의해 근접 이미지가 촬상 센서(110)로 전달되도록 하는 집광수단인 렌즈(130)를 포함하여 구성된다. 또한, 렌즈(130)를 보호하고 피사체가 접촉하는 투명판(140)이 구비될 수도 있다.In general, the sensor unit 100 is approached by an imaging sensor 110 for sensing the subject 150, a light source 120 serving as a light emitting means for emitting light to the subject, and light supplied from the light source 120. It comprises a lens 130 which is a light collecting means for transmitting the image to the imaging sensor 110. In addition, the transparent plate 140 may be provided to protect the lens 130 and to contact the subject.

센서부(100)에서, 빛에 대한 감도가 뛰어난 촬상센서를 이용하는 경우나, 피사체가 직접 빛(전자기파를 포함)을 발산하는 경우에는, 발광수단인 광원(120)이 생략될 수도 있다.In the sensor unit 100, when using an imaging sensor having excellent sensitivity to light, or when the subject emits light (including electromagnetic waves) directly, the light source 120 as a light emitting means may be omitted.

센서부(100)를 구성하는 촬상센서(110)는, CIS(CMOS Image Source), CCD(Charge Coupled Device), 포토컨덕터(Photoconductor), 포토다이오드(Photodiode), MOSFET(Metal Oxide Semiconductor Field Effect Transistor, 금속 산화막 반도체 전계 효과 트랜지스터) 등이 이용될 수 있다.The imaging sensor 110 constituting the sensor unit 100 includes a CMOS image source (CIS), a charge coupled device (CCD), a photoconductor, a photodiode, a MOSFET (metal oxide semiconductor field effect transistor), Metal oxide semiconductor field effect transistors) and the like can be used.

센서부(100)는, 전술한 바와 같이, 피사체(150)의 움직임을 감지하여 연산부(200)에서 움직임 벡터를 산출할 수 있는 한도 내에서 최적화된 최소의 픽셀 수를 갖는 촬상 센서(110)를 구비하는 것을 특징으로 한다. 이러한 촬상센서는 10000픽셀 이하의 픽셀 수를 갖는 것이 바람직하며, 약 1000픽셀 정도의 픽셀수를 갖는 촬상센서로도 충분히 움직임 벡터를 산출할 수 있다.As described above, the sensor unit 100 detects the movement of the subject 150 and operates the imaging sensor 110 having the minimum number of pixels optimized within the limit in which the calculation unit 200 can calculate the motion vector. It is characterized by including. Such an image sensor preferably has a pixel number of 10,000 pixels or less, and an image sensor having a pixel number of about 1000 pixels can sufficiently calculate a motion vector.

1000개 이하의 픽셀을 갖는 촬상센서를 사용할 경우, 기존의 방법보다 픽셀수를 1/10 이하로 줄일 수 있다. 뿐만 아니라 실시간으로 처리해야하는 입력 정보가 줄어들게 되어 입력 프레임 수를 10배 이상 증가시켜 초당 1000 프레임의 입력 정보를 처리할 수 있으며 적은 수의 연산 장치로 입력 정보를 처리할 수 있다.When using an image sensor having 1000 pixels or less, the number of pixels can be reduced to 1/10 or less than conventional methods. In addition, input information that needs to be processed in real time is reduced, and the number of input frames can be increased by more than 10 times to process input information of 1000 frames per second, and the input information can be processed by a small number of computing devices.

센서부(100)에서 촬상되는 피사체(150)는, 미세한 복수의 요철이 형성된 피사면을 갖는 것이 바람직하며, 주로 손가락의 지문형성 부분이 이용될 수 있다. 손가락 지문과 같이 미세한 요철이 형성되어 있는 경우, 골과 마루에서 반사된 빛이 만드는 이미지에서 흑백대비가 잘 나타나게 되어 후술하는 바와 같이 이미지 신호의 각 픽셀 당 신호를 1비트 값으로 변환하여 움직임 벡터를 산출하기가 용이하다.The object 150 captured by the sensor unit 100 preferably has a surface to be formed with a plurality of minute irregularities, and a fingerprint forming part of a finger may be mainly used. In the case of minute irregularities such as finger prints, black and white contrast is well represented in the image generated by the light reflected from the valleys and the floor, and the motion vector is converted into a 1-bit value by converting the signal for each pixel of the image signal as described below. It is easy to calculate.

이하에서는 연산부(200)의 구성을 동작을 중심으로 설명한다.Hereinafter, the configuration of the calculation unit 200 will be described based on the operation.

2-2) 전처리부2-2) Preprocessor

센서부(100)를 통해 입력된 이미지 신호에는 노이즈 성분이 포함되어 있어 움직임 추정을 수행하는데 성능을 저하시킨다.Since the image signal input through the sensor unit 100 includes noise components, performance of performing motion estimation is degraded.

따라서 전처리부(210)에서는 노이즈 성분을 제거하여 양자화 처리부(220)에서 픽셀 당 신호를 1 비트로 변환하는 경우 정확도를 높여주는 역할을 한다.Therefore, the preprocessor 210 removes the noise component and increases the accuracy when the quantization processor 220 converts the signal per pixel into 1 bit.

일반적으로 입력된 이미지 신호에 추가되는 노이즈 성분은 고주파인 특징을 가지고 있다. 따라서 DCT(Discrete Cosine Transform)를 이용해 공간 영역의 정보를 주파수 영역으로 바꾸어 주고, 이미지 화질 개선을 위한 필터 처리를 해주고, 양자화 처리부(220)로 전달하는 것이 전처리부(210)의 가장 큰 기능이다. 또한 다음 단의 양자화 처리부(220)에서는 주파수 영역이 아닌 공간 영역의 정보가 요구되므로 IDCT(Inverse DCT)를 수행해야 한다.In general, the noise component added to the input image signal has a high frequency characteristic. Therefore, the largest function of the preprocessor 210 is to convert the information of the spatial domain to the frequency domain using a discrete cosine transform (DCT), perform a filter process for improving image quality, and transmit the information to the quantization processor 220. In addition, the next quantization processor 220 needs to perform inverse DCT (IDCT) because information of a spatial domain rather than a frequency domain is required.

또한 입력된 이미지의 히스토그램 분포가 과도하게 밀집된 경우, 양자화 처리부의 동작을 위해 히스토그램의 분포를 펼쳐야 한다. 따라서, 히스토그램의 분포를 펼쳐주는 스트레칭 과정이 수행되는 스트레칭부(214)가 필요하다.In addition, when the histogram distribution of the input image is excessively dense, the histogram should be unfolded for the operation of the quantization processor. Therefore, the stretching unit 214 is required to perform a stretching process to spread the histogram distribution.

따라서 전처리부(210)는 크게 DCT부(211) -> 양자화(Q)부(212) -> IDCT부(213) -> 스트레칭부(214)로 구성되어 지며 세부 구성은 도 4와 같다.Therefore, the preprocessing unit 210 is largely composed of a DCT unit 211-> quantization (Q) unit 212-> IDCT unit 213-> stretching unit 214, the detailed configuration is as shown in FIG.

도 4는 도 2에서 전처리부의 상세블록도이다.4 is a detailed block diagram of the preprocessor of FIG. 2.

2-2-1) DCT/IDCT2-2-1) DCT / IDCT

일반적으로 DCT는 많은 연산량을 요구하며 하드웨어로 설계하는데 많은 어려움이 있다. 따라서 본 발명에서는 빠른 연산이 가능한 DCT 알고리즘의 하나인 페이그 알고리즘(Feig's algorithm)을 사용해 보다 VLSI(Very Large Scale Integrated circuit)에 적합하도록 하였다.In general, DCT requires a lot of computation and has a lot of difficulty in designing with hardware. Therefore, in the present invention, it is more suitable for VLSI (Very Large Scale Integrated circuit) by using a Tag algorithm (Feig's algorithm) which is one of the fast DCT algorithm.

2-2-2) 필터(Filter)2-2-2) Filter

본 발명에서는 설계된 움직임 추정 장치에 적합한 필터를 설계하기 위한 실험을 선행한다. 움직임 추정 장치 개발 시 알고리즘 개발 및 최적화 촬상 센서 설계가 동시에 진행되므로, 설계된 센서부(100)의 특성을 고려하여 필터의 계수가 결정되며 고주파 영역의 노이즈 성분을 제거하는 역할을 한다.In the present invention, the experiment for designing a filter suitable for the designed motion estimation apparatus is preceded. Algorithm development and optimization during the development of the motion estimation device design the imaging sensor at the same time, the filter coefficient is determined in consideration of the characteristics of the designed sensor unit 100 serves to remove the noise component in the high frequency region.

그래서 공간영역의 정보를 주파수 영역으로 바꾸어 주는 DCT부(211)를 거친 입력 정보는 양자화(Quantization, Q)부(212)를 통해 노이즈 성분인 고주파 영역의 정보를 제거한다. 노이즈 성분이 제거된 입력 정보는 다시 IDCT부(213)에 의해 역변환되어 공간 영역의 정보로 변환된다.Therefore, the input information through the DCT unit 211 that changes the information of the spatial domain to the frequency domain removes the information of the high frequency region that is a noise component through the quantization (Q) unit 212. The input information from which the noise component is removed is inversely transformed by the IDCT unit 213 to be converted into information of the spatial domain.

2-2-2) 스트레칭(Stretching)부2-2-2) Stretching part

센서부(100)를 통해 샘플된 이미지는 주위환경에 따라 좁은 밀도를 갖는 히스토그램의 패턴이 될 수 있다. 이는 후술할 양자화 처리부에서 양자화를 수행하는데 제한사항을 제공한다. 따라서 히스토그램의 분포를 펼쳐주는 스트레칭 과정이 필요하다. 도 5a 및 도 5b는 샘플된 이미지의 히스토그램 및 스케일된 이미지의 히스토그램을 나타낸 것이며, 도 5c는 원 샘플 이미지에 대하여 스트레칭을 수행한 결과 이미지를 나타내는 것이다.The image sampled through the sensor unit 100 may be a pattern of a histogram having a narrow density according to the surrounding environment. This provides a limitation in performing quantization in a quantization processor to be described later. Therefore, a stretching process is needed to expand the histogram distribution. 5A and 5B show a histogram of a sampled image and a histogram of a scaled image, and FIG. 5C shows an image of a result of stretching the original sample image.

2-3) 양자화 처리부2-3) Quantization Processing Unit

전처리부(210)에서 노이즈 성분이 제거된 공간 영역의 입력 정보가 들어오면 양자화 처리부(220)에서는 이미지 신호의 각 픽셀 당 신호를 1 비트로 양자화한다. 일반적으로 이미지 처리 시 양자화는 중복된 이미지 정보를 제거하기 위해 사용되지만 본 발명에서는 실험을 통해 구한 최적의 임계값을 적용하여 불 대수(Boolean value), 즉 "black" 과 "white"로 인식하여 1 비트 신호로 변환해 주는 역할을 하여 밝기를 이용한 하이(high) 또는 로우(low) 명도(intensity) 값을 나타낸다.When the input information of the spatial region from which the noise component is removed by the preprocessor 210 is input, the quantization processor 220 quantizes the signal for each pixel of the image signal into 1 bit. In general, in image processing, quantization is used to remove duplicate image information, but in the present invention, an optimal threshold value obtained through experiments is applied to recognize a Boolean value, that is, "black" and "white". It converts into a bit signal and represents a high or low intensity value using brightness.

즉, n 번째 값을 g(n), 임계값을 Dth 라고 가정하였을 경우, 양자화 과정의 출력 결과는 다음과 같다.That is, assuming that the nth value is g (n) and the threshold value is Dth, the output result of the quantization process is as follows.

g(n) = 0 ( g(n) < Dth )g (n) = 0 (g (n) <Dth)

g(n) = 1 ( g(n) ≥ Dth )g (n) = 1 (g (n) ≥ Dth)

도 6은 본 발명의 일실시예에 의한 센서부를 통해 입력된 손가락 지문에 대한 패턴 정보의 히스토그램을 보인 그래프이다.6 is a graph showing a histogram of pattern information of a finger fingerprint input through a sensor unit according to an exemplary embodiment of the present invention.

도 6에서와 같이, 손가락 지문은 골과 마루 형태로 이루어져 흑백대비가 잘 나타난다. 따라서 본 발명에서는 이를 이용해 촬상 센서(110)를 통해 입력된 이미지 신호를 각 픽셀 당 이진 데이터로 다루어 각 픽셀의 정보를 1비트 값으로 변환하는 비트 플레인 (Bit Plane) 연산 방식을 사용한다.As shown in FIG. 6, the fingerprint of the finger is formed in a valley and a floor, and the black and white contrast appears well. Therefore, the present invention uses a bit plane calculation method that treats an image signal input through the imaging sensor 110 as binary data per pixel and converts information of each pixel into a 1-bit value.

본 발명에 사용되는 촬상 센서는 RGB(Red Green Blue) 영역의 정보를 가진 컬러필터의 사용이 불필요하며, 그레이(gray) 스케일의 입력 정보를 통해 흑백 정보의 출력만으로 가능하다. 지문의 골과 마루는 흑백의 정보로 표시할 수 있으며, 도 6에서와 같이 일정 임계값 T에 의해 양자화된다. 따라서 양자화 처리부(220)를 통해 촬상 센서(110)에서 출력된 이미지 신호는 각 픽셀 당 1비트 정보로 변환된다.The imaging sensor used in the present invention does not require the use of a color filter having information of a red green blue (RGB) region, and only outputs black and white information through gray scale input information. The valleys and floors of the fingerprint may be displayed in black and white information, and are quantized by a predetermined threshold T as shown in FIG. 6. Therefore, the image signal output from the imaging sensor 110 through the quantization processor 220 is converted into 1-bit information for each pixel.

이처럼 각 픽셀 당 신호를 1 비트로 처리하였을 경우, 매우 빠른 논리 연산이 이루어진다. 즉, XOR(exclusive OR, 배타적 논리합)을 이용해 이전 이미지 패턴과의 차를 간단히 구할 수 있으며, 하드웨어의 크기가 작아지는 장점을 갖는다.As such, when the signal for each pixel is processed into 1 bit, a very fast logic operation is performed. That is, the difference from the previous image pattern can be easily obtained by using XOR (exclusive OR), and the size of hardware is reduced.

2-4) 비교부2-4) Comparison

비교부(240)는 양자화 처리부(220)에서 출력된 이전 값 및 현재 값의 차를 구한다. 이를 위해 임시 저장부(230)는 양자화 처리부(230)에서 처리된 이미지 데 이터를 임시로 저장한다.The comparator 240 calculates a difference between the previous value and the current value output from the quantization processor 220. To this end, the temporary storage unit 230 temporarily stores image data processed by the quantization processor 230.

그리고 비교부(240)의 XOR 연산부(241)에서는 양자화 처리부(220)에서 출력된 이미지 데이터를 이전 이미지 데이터와 XOR하게 되고, 패턴 비교부(242)에서 이미지 패턴의 차를 비교함으로써, 이전 이미지 패턴과 현재 이미지 패턴의 차를 쉽게 얻을 수 있다. 즉, 차이가 발생하는 부분에 대해서 1의 값을 가지게 되는데, 이전 이미지에 대해 현재 이미지를 1 비트 씩 이동하며 가장 작은 값을 찾아내는 역할을 한다. In addition, the XOR calculator 241 of the comparator 240 XORs the image data output from the quantization processor 220 with the previous image data, and compares the difference between the image patterns in the pattern comparator 242 to thereby compare the previous image pattern. And the difference between the current image pattern can be easily obtained. That is, it has a value of 1 for the part where the difference occurs. It moves the current image by one bit with respect to the previous image and finds the smallest value.

비교부에서는, One Pixel Full search 방식을 이용한다. One Pixel Full search 방식은 이전 이미지에 대하여 현재 이미지를 1 비트 씩 움직이면서 이미지 패턴의 차를 구하는 방식이다.The comparison unit uses the One Pixel Full search method. One pixel full search method is to find the difference of the image pattern by moving the current image by 1 bit with respect to the previous image.

비교부(240)는, 전처리부(210) 이후 가장 많은 연산량을 가지는 부분이다.The comparator 240 is a part having the largest amount of computation since the preprocessor 210.

도 7은 본 발명의 일실시예에 의한 센서부의 그레이 스케일 정보를 1비트 알고리즘에 의해 각 픽셀 당 1 비트 정보로 변환시킨 예를 보인 도면이다.FIG. 7 is a diagram illustrating an example of converting gray scale information of a sensor unit into 1 bit information of each pixel by a 1 bit algorithm according to an embodiment of the present invention.

도 7에서는 촬상 센서의 그레일 스케일 정보를 1bit 알고리즘을 사용하여 각 픽셀 당 1 비트 신호로 변환한 결과를 보여준다. 방향 선택부에서는 현재 프레임과 이전 프레임과의 차이를 통해 움직임 벡터를 구할 수 있다. FIG. 7 illustrates a result of converting grail scale information of an imaging sensor into a 1-bit signal for each pixel using a 1-bit algorithm. In the direction selector, a motion vector may be obtained based on a difference between the current frame and the previous frame.

본 발명에서는, 최적화된 어레이(array) 크기를 갖는 촬상 센서가 4 비트의 그레일 스케일 정보를 출력하는 것이 바람직하며, 센서부에서 출력된 4 비트 데이터는 전처리 및 양자화 과정을 거쳐 1 비트 정보로 변환된다.In the present invention, it is preferable that an imaging sensor having an optimized array size outputs 4-bit grail scale information, and the 4-bit data output from the sensor unit is converted into 1-bit information through preprocessing and quantization. do.

도 8은 본 발명의 일실시예에 의한 비교부의 동작을 보인 흐름도이다.8 is a flowchart illustrating an operation of a comparison unit according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 비교부의 동작 알고리즘은 현재 이미지와 이전 이미지에 대한 이미지 패턴의 차가 최소가 될 때까지 반복 수행한다. 이때 1bit씩 이동한 현재 이미지는, 방향 선택부(250)에서 벡터를 연산하는데 사용할 수 있다.As shown in FIG. 8, the operation algorithm of the comparator repeatedly performs until the difference between the image pattern for the current image and the previous image is minimum. In this case, the current image shifted by 1 bit may be used by the direction selector 250 to calculate a vector.

2-5) 방향 선택부2-5) Direction Selector

방향 선택부(250)는 비교부(240)에서 출력된 값 중 가장 작은 값, 즉 가장 일치하는 패턴의 이동 정보를 찾아내어 움직임 벡터를 찾아내는 기능을 한다.The direction selector 250 finds a motion vector by finding movement information of the smallest value, that is, the pattern that most matches the value output from the comparator 240.

비교부(240)에서 현재 이미지를 이동해 가며 이전 이미지와의 차를 구한 값 중 가장 작은 값을 갖는 이동된 현재 이미지 정보를 받아와 촬상 센서의 입력 주기를 고려해 움직임 벡터를 구할 수 있다. 일정 시간마다 이미지 정보가 들어오기 때문에 이동 거리만 연산된다면 시간 정보를 통해 스칼라 연산 값을 벡터값으로 바꾸어 줄 수 있다.The comparator 240 may move the current image and receive the moved current image information having the smallest value of the difference from the previous image to obtain a motion vector in consideration of the input period of the imaging sensor. Since the image information comes in at a certain time, if only the moving distance is calculated, the scalar operation value can be changed into a vector value through the time information.

2-6) 동작상태 선택부2-6) Operation state selector

도 9에 도시된 바와 같이, 본 발명의 연산부(200)는, 컴퓨터 마우스와 같이 클릭 및 드래그 등의 입력 방식도 구현이 가능한 동작상태 선택부(260)를 더 포함할 수 있다.As shown in FIG. 9, the operation unit 200 of the present invention may further include an operation state selection unit 260 capable of implementing an input method such as a click and a drag like a computer mouse.

동작 상태 선택부(260)는 현재 프레임을 초점이 맞은 유효 프레임과 초점이 맞지 않은 무효 프레임을 구별함으로서 동작 상태를 찾아내는 기능을 한다. The operation state selector 260 detects an operation state by distinguishing between a valid frame in which the current frame is focused and an invalid frame in out of focus.

동작 상태에는 버튼의 상태를 나타내는 클릭(Click)의 정보에 따라, 버튼을 한 번 누르는 효과인 원 클릭(One Click) 동작, 버튼을 2번 연속 누르는 것과 같은 더블 클릭(Double Click) 동작, 버튼을 누른 채 포인터를 움직이는 효과인 드래 그(Drag) 동작으로 나누어진다. According to the click information indicating the state of the button, the operation state includes the one-click operation, which is the effect of pressing the button once, the double-click operation such as pressing the button twice consecutively, and the button. It is divided into Drag, the effect of moving the pointer while holding it.

동작 상태의 추출은 유효, 무효 프레임의 수 또는 시간에 의해 결정되어 진다. 도 10은 동작 상태 제어부의 프레임에 따른 동작을 보인 흐름도이다. 이에 도시된 바와 같이, 무효 프레임에 이어지는 첫번째 유효 프레임의 수가 일정 임계값(N0) 보다 작은 경우 버튼의 클릭을 추정한다. 만약 원 클릭(One Click)의 동작이 연속적으로 수행될 경우, 중간의 무효 프레임의 수가 일정 임계값(N1)보다 작으면 더블 클릭(Double Click) 동작이 선택된다. 또한, 무효 프레임에 이어지는 유효 프레임의 수가 일정 임계값(N0)보다 크면 드래그(Drag)동작이 결정된다.The extraction of the operating state is determined by the number or time of valid and invalid frames. 10 is a flowchart illustrating an operation according to a frame of an operation state controller. As shown in this figure, the click of the button is estimated when the number of the first valid frames following the invalid frame is smaller than the predetermined threshold value N0. If the operation of the one click is performed continuously, if the number of intermediate invalid frames is smaller than the predetermined threshold value N1, the double click operation is selected. In addition, if the number of valid frames following the invalid frame is larger than the predetermined threshold value N0, a drag operation is determined.

상기 언급한 일정 임계값(N0, N1)은 레지스터의 값으로서, 사용자가 사용 습관에 따라 재설정이 가능하다.The above-mentioned constant threshold values N0 and N1 are register values, and can be reset by the user according to a usage habit.

2-7) 전원 제어부2-7) Power Control Unit

전원 제어부는 휴대기기용 입력장치에 적합하도록 저전력 설계를 하는데 핵심 장치가 된다.The power supply control unit is a key device for low power design suitable for an input device for a portable device.

입력장치는 언제 입력 정보가 들어올지 예상할 수 없으므로 항상 전원이 켜진 상태를 유지해야 한다. 특히, 버튼 방식이 아닌 촬상 센서를 이용하는 경우 휴지 상태에서 낭비되는 전력이 많다.The input device cannot predict when input information will come in, so it must always be powered on. In particular, when using an imaging sensor other than the button method, a lot of power is wasted in the idle state.

따라서 본 발명에서는 센서부에 포함된 광원의 전원 공급 및 센서부의 전원 공급을 제어하기 위한 하드웨어 블록을 제안한다. 일정 시간 입력 값이 존재하지 않을 경우 센서를 휴지 상태로 만들어 전력 소비를 최소화한다.Therefore, the present invention proposes a hardware block for controlling the power supply of the light source included in the sensor unit and the power supply of the sensor unit. If there is no input for a certain period of time, the sensor is idled to minimize power consumption.

도 11은 본 발명의 일실시예에 의한 전원 제어부의 동작을 보인 흐름도이다.11 is a flowchart illustrating an operation of a power control unit according to an embodiment of the present invention.

이에 도시된 바와 같이, 먼저 입력의 유무를 판단하여, 입력이 없는 경우 대기상태로 전환되고, 입력이 있는 경우 동작상태로 전환된다. 동작상태로 전환된 후 피사체의 초점을 확인하여, 초점이 맞지 않는 경우 대기상태로 전환되고, 초점이 맞는 경우 움직임 또는 동작상태를 추정하는 단계로 전환된다. 움직임 또는 동작상태를 추정하는 단계로 전환된 후 피사체의 계속 동작 여부를 판단하여, 계속된 동작이 없는 경우 대기상태로 전환되게 된다.As shown in the figure, it is first determined whether there is an input, and when there is no input, it is switched to a standby state, and when there is an input, it is switched to an operating state. After switching to the operation state, the focus of the subject is checked, and when the focus is not achieved, the operation is switched to the standby state, and when the focus is achieved, the motion or operation state is estimated. After switching to the step of estimating the motion or the operation state, it is determined whether the subject continues to operate, and when there is no continuous operation, the operation is switched to the standby state.

본 발명은 저전력을 특징으로 하는 입력장치를 목적으로 하고 있는데, 입력이 없는 대기 상태에서는 광원의 세기를 최소로 하고 촬상 센서 및 연산부의 전원을 제어하여 최소 전력을 사용한다. An object of the present invention is to provide an input device characterized by low power. In the standby state without input, the intensity of the light source is minimized and the power of the imaging sensor and the calculation unit is controlled to use the minimum power.

2-7) 코어 제어부2-7) Core Control Unit

코어 제어부는 앞에서 설명한 각 기능 블록에 대한 제어를 위한 것으로 I2C(Integrated Injection Logic), SPI(Serial Peripheral Interface), UART(Universal Asynchronous Receiver and Transmitter)와 같은 간단한 구조의 버스를 이용해 제어 레지스터를 설정하고 이를 이용해 기능 블록을 제어하는 일반적인 특징을 갖는다.The core control unit controls each function block described above, and sets control registers using simple structured buses such as Integrated Injection Logic (I2C), Serial Peripheral Interface (SPI), and Universal Asynchronous Receiver and Transmitter (UART). It has the general feature of controlling the function block.

도 12는 본 발명의 일실시예에 의한 코어 제어부의 상세블록도이다. 12 is a detailed block diagram of a core controller according to an embodiment of the present invention.

도 12는 코어 제어부(270)를 통한 센서부(100)의 광원 세기와 양자화 임계값을 결정하는 알고리즘에 대하여 간략히 나타내고 있다.12 briefly illustrates an algorithm for determining the light source intensity and the quantization threshold of the sensor unit 100 through the core controller 270.

양자화 과정의 1bit 출력 데이터가 지나치게 '0' 또는 '1'에 편중되어 있는 경우, 촬상 센서의 감도가 움직임 추정에 적합하지 않을 수 있다. 따라서 이를 보 완하기 위해 코어 제어부(270)는 이러한 문제점을 감지하고 2개의 특별한 목적의 레지스터를 쓰는 기능을 포함한다.If the 1-bit output data of the quantization process is excessively biased at '0' or '1', the sensitivity of the imaging sensor may not be suitable for motion estimation. Therefore, to compensate for this, the core controller 270 includes a function of detecting such a problem and writing two special purpose registers.

먼저 센서단 광원 세기를 위한 광원세기 레지스터(271)는 광원에 대하여 턴 온(Turn on) 또는 턴 오프(Turn off)시키는 데 사용된다. 그리고 양자화 임계값 레지스터(272)는 촬상 센서의 특성이 주위 환경에 의해 변하는 것을 고려하여 각 환경에 맞는 임계값을 세팅하는 역할을 한다.First, the light source intensity register 271 for the sensor stage light source intensity is used to turn on or turn off the light source. The quantization threshold register 272 serves to set a threshold value suitable for each environment in consideration of the characteristic of the imaging sensor being changed by the surrounding environment.

2-8) 인터페이스부 2-8) Interface

인터페이스부는 설계된 코어와 휴대기기와의 연결을 위한 것으로 일반적으로 컴퓨터에서 사용하는 키보드나 마우스의 PS/2 인터페이스, USB 및 I2C, SPI, UART 등의 시리얼 인터페이스를 휴대기기에서 지원하므로 이를 사용하는 것이 바람직하다.The interface unit is for connecting the designed core and the mobile device. It is generally preferable to use the PS / 2 interface of the keyboard or mouse used in a computer and the serial device such as USB and I2C, SPI, and UART in the mobile device. Do.

인터페이스부(300)는 연산부(200)에서 출력된 움직임 벡터량과 동작 상태 정보를 호스트 컨트롤러, 임베디드 프로세서 또는 휴대기기가 요구하는 규격 버스에 적합한 형태로 변환하여 송신한다. 규격 버스로는, 도 2에 도시된 바와 같이, PS/2(Personal System 2) 인터페이스부(301), USB(Universal Serial Bus) 인터페이스부(302), SPI(Serial Peripheral Interface)(303), I2C(Integrated Injection Logic)(304), UART(Universal Asynchronous Receiver and Transmitter)(305) 등이 있다.The interface unit 300 converts the motion vector quantity and the operation state information output from the operation unit 200 into a form suitable for a standard bus required by a host controller, an embedded processor, or a portable device, and transmits the converted information. As the standard bus, as shown in FIG. 2, a PS / 2 interface unit 301, a universal serial bus (USB) interface unit 302, a serial peripheral interface (SPI) 303, and I2C (Integrated Injection Logic) 304, UART (Universal Asynchronous Receiver and Transmitter) 305, and the like.

2-9) 센서부의 가변적인 환경 설정을 통해 센서의 기능 보완2-9) Compensation of sensor function through variable environment setting of sensor part

촬상 센서의 출력 결과는 주변 환경에 따라 다르게 나타난다. 즉, 주위의 광 원에 따라 센서부의 출력 데이터의 값은 변하게 된다. 이러한 변화는 1 비트 비트프레인 방식에 의한 연산부의 오동작으로 이어질 가능성이 있다.The output result of the imaging sensor differs depending on the surrounding environment. That is, the value of the output data of the sensor unit changes according to the surrounding light source. Such a change may lead to a malfunction of the operation unit by the 1-bit bit plane method.

따라서 본 발명에서는 주위 환경에 따라 센서부의 광원의 세기 및 임계값(Threshold)의 설정을 코어 제어부에서 수행하도록 한다. 즉, 도 12에서와 같이, 코어 제어부(270)를 통한 레지스터(271, 272)의 설정으로 이러한 센서부(100)의 기능이 보완되도록 한다.Therefore, in the present invention, the core control unit sets the intensity and the threshold of the light source of the sensor unit according to the surrounding environment. That is, as shown in FIG. 12, the function of the sensor unit 100 is complemented by setting the registers 271 and 272 through the core controller 270.

도 13은 본 발명의 일실시예에 의한 촬상 센서를 이용한 휴대기기용 입력방법을 보인 흐름도이다.13 is a flowchart illustrating an input method for a portable device using an imaging sensor according to an exemplary embodiment of the present invention.

촬상 센서를 통해 움직임을 감지하면(ST1), 연산부의 전처리부에서 DCT -> Q -> IDCT를 수행하여 전처리를 수행하고(ST2), 양자화 처리부에서 양자화 처리를 수행한 다음(ST3), 비교부에서 이미지 패턴의 차가 최소인 것을 찾아낸다(ST4). 그리고 방향 선택부에 의해 출력된 값 중 가장 작은 값, 즉 가장 일치하는 이미지의 이동 정보를 찾아내어 움직임 벡터를 찾아내게 된다(ST5).When the motion is detected through the imaging sensor (ST1), the preprocessing unit performs preprocessing by performing DCT-> Q-> IDCT (ST2), and then performs quantization processing by the quantization processor (ST3) Find that the difference between the image patterns is the smallest (ST4). Then, the motion vector of the smallest value, that is, the most matching image, is found among the values output by the direction selector (ST5).

방향 선택부에서 산출된 움직임 벡터는 인터페이스부를 통해 휴대기기와의 인터페이스를 수행하여 휴대기기 입력장치의 포인터를 제어하게 된다. 휴대기기는, 휴대폰, PDA, 노트북, 디지털카메라, MP3 플레이어 등이 될 수 있다.The motion vector calculated by the direction selector controls the pointer of the mobile device input device by performing an interface with the mobile device through the interface unit. The portable device may be a mobile phone, a PDA, a notebook, a digital camera, an MP3 player, or the like.

본 발명의 입력 장치는 센서부 자체에서 각 픽셀 당 1비트 신호가 출력될 수도 있다. 즉, 센서부에서, 촬상된 이미지 신호를 양자화처리를 수행하여 각 픽셀의 신호를 1비트로 출력하는 것이다. 이 경우에는 연산부에서 전술한 전처리부 및 양자화 처리부를 생략할 수 있다.In the input device of the present invention, a 1-bit signal may be output for each pixel from the sensor unit itself. That is, the sensor unit performs a quantization process on the picked-up image signal and outputs a signal of each pixel as one bit. In this case, the above-described preprocessor and quantization processor may be omitted in the calculator.

이상에서 본 발명의 바람직한 실시예에 한정하여 설명하였으나, 본 발명은 이에 한정되지 않고 다양한 변화와 변경 및 균등물을 사용할 수 있다. 따라서 본 발명은 상기 실시예를 적절히 변형하여 응용할 수 있고, 이러한 응용도 하기 특허청구범위에 기재된 기술적 사상을 바탕으로 하는 한 본 발명의 권리범위에 속하게 됨은 당연하다 할 것이다.Although the above has been described as being limited to the preferred embodiment of the present invention, the present invention is not limited thereto and various changes, modifications, and equivalents may be used. Therefore, the present invention can be applied by appropriately modifying the above embodiments, it will be obvious that such application also belongs to the scope of the present invention based on the technical idea described in the claims below.

이상에서 살펴본 바와 같이, 본 발명은 촬상센서를 최소 픽셀수로 최적화하고, 하나의 픽셀 당 신호를 1비트로 변환하여 최소의 데이터로 움직임 벡터를 산출하고, 휴지전력을 최소화하는 전력제어를 통해 소형이고 저전력의 입력 장치 및 그 방법을 제공할 수 있다.As described above, the present invention optimizes the image pickup sensor to the minimum number of pixels, converts a signal per pixel to 1 bit, calculates a motion vector with minimum data, and minimizes power by minimizing idle power. It is possible to provide a low power input device and a method thereof.

또한, 본 발명은 클릭 및 드래그 기능을 구현하는 방식을 제공하여 휴대기기에서도 마우스 형식으로 입력할 수 있는 입력 장치 및 그 방법을 제공할 수 있으며, 모바일 기기의 사용증가에 따른 간편한 입력장치에 대한 요구에 부응할 수 있게 되고, 종래 입력장치의 제약도 극복할 수 있는 효과가 있다.In addition, the present invention can provide an input device and a method that can be input in the form of a mouse in a mobile device by providing a method for implementing a click and drag function, the need for a simple input device according to the increase in the use of the mobile device In this regard, it is possible to meet the limitations of the conventional input device.

Claims (43)

입력매체인 피사체를 감지하는 촬상 센서를 포함하여 이루어지고 촬상된 이미지 신호를 출력하는 센서부와;A sensor unit including an imaging sensor for sensing a subject, which is an input medium, and outputting a captured image signal; 상기 센서부에서 출력된 이미지 신호를 입력받아 상기 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환한 후 전후 이미지 데이터를 비교하여 움직임 벡터를 산출하는 연산부;An operation unit configured to receive an image signal output from the sensor unit, convert a signal for each pixel of the image signal into a 1-bit signal, and then calculate a motion vector by comparing front and rear image data; 를 포함하여 구성되는 촬상 센서를 이용한 입력 장치.Input device using an imaging sensor comprising a. 청구항 1에 있어서, The method according to claim 1, 상기 연산부는,The calculation unit, 상기 센서부로부터 입력된 이미지 신호를 1 비트 비트플레인 연산 방식을 사용하여 상기 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환한 후 움직임 벡터를 산출하는 것을 특징으로 하는 촬상 센서를 이용한 입력 장치.And a motion vector is calculated after converting the image signal input from the sensor unit into a 1-bit signal for each pixel of the image signal using a 1-bit bitplane calculation scheme. 청구항 1에 있어서, The method according to claim 1, 상기 연산부는,The calculation unit, 상기 센서부로부터 입력된 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환하는 양자화처리부와;A quantization processor converting a signal per pixel of the image signal input from the sensor unit into a 1-bit signal; 상기 양자화 처리부에서 처리된 이미지 데이터를 임시로 저장하는 임시 저장부와;A temporary storage unit that temporarily stores the image data processed by the quantization processing unit; 상기 양자화 처리부에서 처리된 이미지 데이터와 상기 임시 저장부에 저장된 이미지 데이터를 비교하여 전후 이미지 패턴의 차를 구하는 비교부와;A comparison unit comparing the image data processed by the quantization processor with the image data stored in the temporary storage unit to obtain a difference between the front and rear image patterns; 상기 비교부에서 출력된 값으로부터 움직임 벡터를 산출하는 방향 선택부와;A direction selector for calculating a motion vector from the value output from the comparator; 상기 연산부의 동작을 제어하는 코어 제어부;A core controller which controls an operation of the calculator; 를 포함하여 구성된 것을 특징으로 하는 촬상 센서를 이용한 입력 장치.Input device using an imaging sensor, characterized in that configured to include. 삭제delete 삭제delete 청구항 3에 있어서, The method according to claim 3, 상기 연산부는,The calculation unit, 상기 센서부로부터 입력된 이미지 신호에서 노이즈 성분을 제거하는 전처리부;A preprocessor which removes noise components from the image signal input from the sensor unit; 를 더 포함하는 것을 특징으로 하는 촬상센서를 이용한 입력 장치.Input device using an image sensor, further comprising a. 청구항 6에 있어서, The method according to claim 6, 상기 전처리부는,The preprocessing unit, 상기 센서부로부터 입력된 이미지 신호에 대해 DCT를 수행하여 공간 영역의 신호를 주파수 영역으로 변환시키는 DCT부와;A DCT unit performing a DCT on the image signal input from the sensor unit to convert a signal in the spatial domain into a frequency domain; 상기 DCT부에서 DCT가 수행된 이미지 신호를 필터링하는 필터부와;A filter unit filtering the image signal in which the DCT is performed in the DCT unit; 상기 필터부에서 처리된 이미지 신호에 대해 IDCT를 수행하여 공간 영역의 신호로 변환시키는 IDCT부;An IDCT unit which performs IDCT on the image signal processed by the filter unit and converts the image signal into a signal of a spatial domain; 를 포함하여 구성된 것을 특징으로 하는 촬상 센서를 이용한 입력 장치.Input device using an imaging sensor, characterized in that configured to include. 청구항 7에 있어서, The method according to claim 7, 상기 전처리부는,The preprocessing unit, 상기 센서부에서 출력된 이미지 신호에 대해 샘플된 이미지에 관한 히스토그램의 분포를 펼쳐주는 스트레칭부;A stretching unit that spreads a histogram distribution of the sampled image with respect to the image signal output from the sensor unit; 를 더 포함하는 것을 특징으로 하는 촬상센서를 이용한 입력 장치.Input device using an image sensor, further comprising a. 삭제delete 청구항 3에 있어서, The method according to claim 3, 상기 비교부는,The comparison unit, 상기 양자화 처리부에서 출력된 현재의 이미지 데이터를 상기 임시 저장부에 저장된 이전의 이미지 데이터와 XOR 연산하는 XOR 연산부와;An XOR calculator configured to XOR the current image data output from the quantization processor with previous image data stored in the temporary storage unit; 상기 XOR 연산부의 출력을 입력받아 전후 이미지 패턴의 차이 중 최소값을 찾아내는 패턴 비교부;A pattern comparison unit which receives the output of the XOR operation unit and finds a minimum value among differences between front and rear image patterns; 를 포함하여 구성된 것을 특징으로 하는 촬상 센서를 이용한 입력 장치.Input device using an imaging sensor, characterized in that configured to include. 삭제delete 청구항 3에 있어서, The method according to claim 3, 상기 코어 제어부는,The core control unit, 상기 양자화처리부에서 기준이 되는 임계값을 조절하는 임계값 레지스터;A threshold register which adjusts a threshold which is a reference in the quantization processor; 를 포함하여 구성된 것을 특징으로 하는 촬상 센서를 이용한 입력 장치.Input device using an imaging sensor, characterized in that configured to include. 청구항 12에 있어서, The method according to claim 12, 상기 코어 제어부는,The core control unit, 상기 센서부 내의 광원 세기를 조절하는 광원세기 레지스터;A light source intensity register for adjusting the light source intensity in the sensor unit; 를 더 포함하는 것을 특징하는 하는 촬상 센서를 이용한 입력 장치.Input device using an imaging sensor, characterized in that it further comprises. 청구항 3에 있어서, The method according to claim 3, 상기 연산부는,The calculation unit, 현재 이미지 프레임에 대해 초점이 맞는 유효 프레임과 초점이 맞지 않는 무효 프레임의 수 또는 시간을 기준으로 피사체의 동작상태를 판별하는 동작상태 선택부;An operation state selection unit that determines an operation state of the subject based on the number or time of the effective frame and the invalid frame that are not in focus with respect to the current image frame; 를 더 포함하는 것을 특징으로 하는 촬상센서를 이용한 입력 장치.Input device using an image sensor, further comprising a. 입력매체인 피사체를 감지하는 촬상 센서를 포함하여 구비하고 촬상된 이미지 신호를 출력하는 센서부와;A sensor unit including an image sensor which detects a subject, which is an input medium, and outputs a captured image signal; 상기 센서부로부터 이미지 신호를 입력받아, 현재 이미지 프레임에 대해 초점이 맞는 유효 프레임과 초점이 맞지 않는 무효 프레임의 수 또는 시간을 기준으로 피사체의 동작상태를 판별하는 동작상태 선택부를 포함하는 연산부;An operation state selection unit which receives an image signal from the sensor unit and determines an operation state of a subject based on the number or time of valid frames that are in focus with respect to the current image frame and invalid frames that are not in focus; 를 포함하여 이루어지는 것을 특징으로 하는 촬상 센서를 이용한 입력 장치.Input device using an imaging sensor, characterized in that comprises a. 청구항 3 및 청구항 15 중 어느 한 항에 있어서, The method according to any one of claims 3 to 15, 상기 연산부는,The calculation unit, 전원제어부를 더 포함하고;Further comprising a power control unit; 상기 전원제어부는, The power control unit, 입력이 없는 경우, 입력이 있더라도 피사체의 초점이 맞지 않는 경우, 및 피사체의 초점이 맞더라도 피사체가 일정시간 이상 계속하여 동작하지 않는 경우에는, If there is no input, if the subject is not in focus even if there is an input, and if the subject does not continue to operate for a certain time even if the subject is in focus, 상기 촬상 센서 및 상기 연산부의 전원을 제어하여 최소 전력을 사용하도록 제어하는 것을 특징으로 하는 촬상 센서를 이용한 입력 장치.The input device using the image sensor, characterized in that the control to use the minimum power by controlling the power of the image sensor and the calculation unit. 삭제delete 삭제delete 청구항 1에 있어서, The method according to claim 1, 상기 센서부는,The sensor unit, 상기 피사체의 움직임을 감지하여 상기 연산부에서 움직임 벡터를 산출할 수 있는 한도 내에서 최적화된 최소의 픽셀 수를 갖는 촬상 센서를 구비하는 것을 특징으로 하는 촬상 센서를 이용한 입력 장치.And an imaging sensor having a minimum number of pixels optimized within a limit capable of detecting a movement of the subject and calculating a motion vector in the calculator. 청구항 19에 있어서, The method according to claim 19, 상기 센서부의 촬상센서는,The imaging sensor of the sensor unit, 10000픽셀 이하의 픽셀 수를 갖는 것을 특징으로 하는 촬상 센서를 이용한 입력 장치.An input device using an imaging sensor, characterized by having a pixel count of 10,000 pixels or less. 청구항 1에 있어서, The method according to claim 1, 상기 센서부에서 촬상되는 피사체는,The subject photographed by the sensor unit, 미세한 복수의 요철이 형성된 피사면을 갖는 것을 특징으로 하는 촬상센서를 이용한 입력 장치.An input device using an imaging sensor, characterized in that it has a surface to be formed with a plurality of fine irregularities. 청구항 21에 있어서, The method according to claim 21, 상기 피사체는,The subject is, 손가락의 지문형성 부분인 것을 특징으로 하는 촬상센서를 이용한 입력 장치.Input device using an image sensor, characterized in that the fingerprint forming part of the finger. 삭제delete 청구항 1 및 청구항 15 중 어느 한 항에 기재된 센서부 및 연산부가 포함되어 하나의 칩으로 구성되는 집적회로칩.An integrated circuit chip comprising the sensor unit and the calculation unit according to any one of claims 1 to 15, which is composed of one chip. 청구항 3 및 청구항 15 중 어느 한 항에 기재된 연산부가 포함되어 하나의 칩으로 구성되는 집적회로칩.An integrated circuit chip comprising the computing unit according to any one of claims 3 and 15, wherein the integrated circuit chip is configured as one chip. 촬상 센서를 통해 피사체를 촬상하여 이미지 신호를 출력하는 제 1 단계와;A first step of photographing a subject through an imaging sensor and outputting an image signal; 상기 제 1 단계에서 출력된 이미지 신호를 입력받아 상기 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환한 후 전후 이미지 데이터를 비교하여 움직임 벡터를 산출하는 제 2 단계;A second step of receiving the image signal output in the first step, converting a signal for each pixel of the image signal into a 1-bit signal, and then comparing the before and after image data to calculate a motion vector; 를 포함하여 이루어지는 것을 특징으로 하는 촬상 센서를 이용한 입력 방법.Input method using an imaging sensor, characterized in that comprises a. 청구항 26에 있어서, The method of claim 26, 상기 제 2 단계는,The second step, 상기 1 단계로부터 입력된 이미지 신호를 1 비트 비트플레인 연산 방식을 사용하여 상기 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환한 후 움직임 벡터를 산출하는 것을 특징으로 하는 촬상 센서를 이용한 입력 방법.And a motion vector is calculated after converting the image signal input from the step 1 into a 1-bit signal by using a 1-bit bitplane calculation method. 청구항 26에 있어서, The method of claim 26, 상기 제 2 단계는,The second step, 상기 제 1 단계로부터 입력된 이미지 신호의 각 픽셀 당 신호를 1 비트 신호로 변환하는 양자화 처리단계;A quantization processing step of converting a signal per pixel of the image signal input from the first step into a 1-bit signal; 를 포함하여 이루어지는 것을 특징으로 하는 촬상 센서를 이용한 입력 방법.Input method using an imaging sensor, characterized in that comprises a. 삭제delete 삭제delete 청구항 28에 있어서, The method according to claim 28, 상기 제 2 단계는,The second step, 상기 제 1 단계로부터 입력된 이미지 신호에서 노이즈 성분을 제거하는 전처리 단계;A preprocessing step of removing a noise component from the image signal input from the first step; 를 더 포함하는 것을 특징으로 하는 촬상 센서를 이용한 입력 방법.Input method using an image sensor, further comprising a. 청구항 31에 있어서, The method according to claim 31, 상기 전처리 단계는,The pretreatment step, 상기 제 1 단계로부터 입력된 이미지 신호에 대해 DCT를 수행하여 공간 영역의 정보를 주파수 영역으로 변환시키는 단계와;Performing DCT on the image signal input from the first step to convert information of the spatial domain into a frequency domain; 상기 DCT가 수행된 이미지 신호를 양자화시켜 필터 처리를 수행하는 단계와;Performing a filter process by quantizing the image signal subjected to the DCT; 상기 양자화된 이미지 신호에 대해 IDCT를 수행하여 공간 영역의 정보로 변환시키는 단계;Performing IDCT on the quantized image signal and converting the information into spatial information; 를 포함하여 수행하는 것을 특징으로 하는 촬상 센서를 이용한 입력 방법.Input method using an imaging sensor, characterized in that performed including. 청구항 32에 있어서, The method according to claim 32, 상기 전처리단계는,The pretreatment step, 상기 제 1 단계로부터 입력된 이미지 신호에 대해 샘플된 이미지에 관한 히스토그램의 분포를 펼쳐주는 스트레칭 단계;A stretching step of spreading a distribution of the histogram with respect to the sampled image with respect to the image signal input from the first step; 를 더 포함하는 것을 특징으로 하는 촬상 센서를 이용한 입력 방법.Input method using an image sensor, further comprising a. 삭제delete 삭제delete 삭제delete 촬상 센서를 통해 피사체를 촬상하여 이미지 신호를 출력하는 제 1 단계와;A first step of photographing a subject through an imaging sensor and outputting an image signal; 상기 제 1 단계에서 출력된 이미지 신호를 입력받아, 현재 이미지 프레임에 대해 초점이 맞는 유효 프레임과 초점이 맞지 않는 무효 프레임의 수 또는 시간을 기준으로 피사체의 동작상태를 판별하는 제 2 단계;A second step of receiving an image signal output in the first step and determining an operation state of the subject based on the number or time of valid frames that are in focus with respect to the current image frame and invalid frames that are not in focus; 를 포함하여 수행하는 촬상 센서를 이용한 입력 방법.Input method using an imaging sensor to perform including. 청구항 37에 있어서, The method of claim 37, 상기 제 2 단계는,The second step, 현재 이미지 프레임에 대해 무효 프레임에 이어지는 유효 프레임의 수 또는 시간이 일정 임계값(No)보다 작은 경우 클릭으로 판별하는 것을 특징으로 하는 촬상센서를 이용한 입력 방법.An input method using an image pickup sensor, characterized in that it is determined by clicking when the number or time of valid frames following the invalid frame is smaller than a predetermined threshold value (N o ) for the current image frame. 청구항 37에 있어서, The method of claim 37, 상기 제 2 단계는,The second step, 현재 이미지 프레임에 대해 제 1 무효 프레임에 이어지는 제 1 유효 프레임의 수 또는 시간이 일정 임계값(No)보다 작고 상기 제 1 유효 프레임에 이어지는 제 2 무효 프레임의 수 또는 시간이 일정 임계값(N1)보다 작은 경우, 상기 제 2 무효 프레임에 이어지는 제 2 유효 프레임의 수 또는 시간이 일정 임계값(No)보다 작으면 더블 클릭동작으로 판별하는 것을 특징으로 하는 촬상센서를 이용한 입력 방법.The number or time of first valid frames following the first invalid frame for the current image frame is less than the predetermined threshold value N o , and the number or time of second invalid frames following the first valid frame is the constant threshold value N. If less than 1 ), if the number or time of the second valid frame subsequent to the second invalid frame is less than a predetermined threshold value (N o ) is determined by a double click operation, input method using an image sensor. 청구항 37에 있어서, The method of claim 37, 상기 제 2 단계는,The second step, 현재 이미지 프레임에 대해 무효 프레임에 이어지는 유효 프레임의 수 또는 시간이 일정 임계값(No)보다 크면 드래그 동작으로 판별하는 것을 특징으로 하는 촬상센서를 이용한 입력 방법.An input method using an image sensor, characterized in that the drag operation is determined if the number or time of valid frames following the invalid frame is greater than a predetermined threshold value (N o ) for the current image frame. 청구항 38 내지 청구항 40 중 어느 한 항에 있어서, The method according to any one of claims 38 to 40, 상기 임계값(No) 및 상기 임계값(N1)은,The threshold value N o and the threshold value N 1 are 레지스터 값으로서 사용자가 임의로 설정이 가능한 것을 특징으로 하는 촬상 센서를 이용한 입력 방법.An input method using an imaging sensor, which can be arbitrarily set by a user as a register value. 청구항 26 및 청구항 37 중 어느 한 항에 있어서, The method according to any one of claims 26 and 37, 촬상센서를 이용한 입력 방법은, Input method using image sensor, 전원제어 방법을 포함하고;A power supply control method; 상기 전원제어 방법은, The power control method, 입력의 유무를 판단하여, 입력이 없는 경우 대기상태로 전환되고, 입력이 있는 경우 동작상태로 전환되는 단계와;Determining whether there is an input, and when there is no input, switching to a standby state and when there is an input, switching to an operating state; 상기 동작상태로 전환된 후 피사체의 초점을 확인하여, 초점이 맞지 않는 경우 대기상태로 전환되고, 초점이 맞는 경우 움직임 또는 동작상태를 추정하는 단계로 전환되는 단계와;Checking the focus of the subject after switching to the operation state, switching to the standby state when focus is not achieved, and estimating movement or operation state when focus is achieved; 상기 움직임 또는 동작상태를 추정하는 단계로 전환된 후 피사체의 계속동작 여부를 판단하여, 계속된 동작이 없는 경우 대기상태로 전환되는 단계;Determining whether to continue the operation of the subject after switching to the step of estimating the movement or operation state, and switching to the standby state when there is no continuous operation; 를 포함하여 수행하는 것을 특징으로 하는 촬상 센서를 이용한 입력 방법.Input method using an imaging sensor, characterized in that performed including. 청구항 42에서 있어서,The method of claim 42, wherein 입력의 유무 판단, 피사체의 초점 확인, 및 계속동작 여부의 판단은, 현재 이미지 프레임에 대한 유효 프레임 또는/및 무효 프레임의 임계값을 기준으로 판단하는 것을 특징으로 하는 촬상 센서를 이용한 입력 방법.The input method using the imaging sensor, characterized in that the determination of the presence or absence of the input, the focus confirmation of the subject, and the determination of the continuous operation is determined based on the threshold value of the valid frame and / or invalid frame for the current image frame.
KR1020060114048A 2006-11-17 2006-11-17 Input device using imaging sensor and method Expired - Fee Related KR100875138B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020060114048A KR100875138B1 (en) 2006-11-17 2006-11-17 Input device using imaging sensor and method
CN2010106110308A CN102065248B (en) 2006-11-17 2007-11-19 Low power image sensor adjusting reference voltage automatically and optical pointing device comprising the same
PCT/KR2007/005806 WO2008060124A2 (en) 2006-11-17 2007-11-19 Low power image sensor adjusting reference voltage automatically and optical pointing device comprising the same
CN2007800427240A CN101554038B (en) 2006-11-17 2007-11-19 Low power image sensor adjusting reference voltage automatically and optical pointing device comprising the same
US12/515,367 US8604406B2 (en) 2006-11-17 2007-11-19 Low power image sensor adjusting reference voltage automatically and optical pointing device comprising the same
US13/960,678 US20130321274A1 (en) 2006-11-17 2013-08-06 Low power image sensor adjusting reference voltage automatically and optical pointing device comprising the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060114048A KR100875138B1 (en) 2006-11-17 2006-11-17 Input device using imaging sensor and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020070050343A Division KR20080044745A (en) 2007-05-23 2007-05-23 Input device using imaging sensor and method

Publications (2)

Publication Number Publication Date
KR20080044690A KR20080044690A (en) 2008-05-21
KR100875138B1 true KR100875138B1 (en) 2008-12-22

Family

ID=39662498

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060114048A Expired - Fee Related KR100875138B1 (en) 2006-11-17 2006-11-17 Input device using imaging sensor and method

Country Status (2)

Country Link
KR (1) KR100875138B1 (en)
CN (1) CN101554038B (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102645982B (en) * 2011-02-17 2014-11-05 原相科技股份有限公司 Image extraction device and method applied to optical pointing device
CN102196200B (en) * 2011-06-16 2013-01-16 格科微电子(上海)有限公司 Signal processing circuit and signal processing method of image sensor
JP5701810B2 (en) * 2012-04-06 2015-04-15 株式会社東芝 Sensor data recording apparatus, method and program
CN103679163B (en) * 2012-09-18 2017-03-22 成都方程式电子有限公司 Novel capacitance type fingerprint image acquisition system
CN103729070B (en) * 2012-10-16 2016-12-21 原相科技股份有限公司 Optical navigation method and optical navigator
KR101921140B1 (en) * 2017-04-20 2018-11-22 한국생산기술연구원 3 dimensional touch sensing apparatus usnig deep learning and method for sensing 3 dimensional touch usnig the same
KR101910187B1 (en) * 2017-05-02 2018-10-19 한국생산기술연구원 Method for touch location and depth measurement for 3-dimensional touch recognition
CN111193840B (en) * 2018-10-29 2021-10-29 格科微电子(上海)有限公司 Method for realizing high-speed image sensor reading circuit
CN111246049B (en) * 2020-03-25 2022-07-19 上海集成电路研发中心有限公司 A motion detection structure and motion detection method applied to CIS

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6873364B1 (en) * 2000-06-08 2005-03-29 Micron Technology, Inc. Low-power signal chain for image sensors
US7256387B2 (en) * 2002-11-21 2007-08-14 Atlab Inc. Optical pointing system and method for controlling a sampling rate and a maximum search window thereby
US7176970B2 (en) * 2003-06-30 2007-02-13 Motorola, Inc. Light sensing pixel sensor and method
KR100675830B1 (en) * 2004-03-11 2007-01-29 주식회사 애트랩 Motion calculation method of image sensor, optical pointing device and optical pointing device
CN1854690A (en) * 2005-04-26 2006-11-01 宁夏瑞赛尔商务有限公司 Optical imaging displacement inspector

Also Published As

Publication number Publication date
CN101554038B (en) 2011-09-28
KR20080044690A (en) 2008-05-21
CN101554038A (en) 2009-10-07

Similar Documents

Publication Publication Date Title
KR100875138B1 (en) Input device using imaging sensor and method
US8600669B2 (en) Mobile device with on-screen optical navigation
CN105847680B (en) A kind of camera power consumption control method and mobile terminal
US8604406B2 (en) Low power image sensor adjusting reference voltage automatically and optical pointing device comprising the same
US20070273658A1 (en) Cursor actuation with fingerprint recognition
CN104050443B (en) It is pre-processed using the posture of the video flowing of Face Detection
CN100557559C (en) Controlling Light Sources of Optical Fingering Devices Based on Surface Quality
KR20100098726A (en) Apparatus and methods for a touch user interface using an image sensor
CN103916647A (en) Gesture pre-processing of video stream with hold-off period to reduce platform power
US20180373380A1 (en) Optical control key, operating method thereof, and image sensor
CN107622473B (en) Image rendering method, device, terminal and computer readable storage medium
CN106954022B (en) Image processing method, device and terminal
Chang et al. Recognition of grip-patterns by using capacitive touch sensors
KR20080044745A (en) Input device using imaging sensor and method
JP2001111881A (en) Image pickup device and its remote control method
Mamish et al. NIR-sighted: A programmable streaming architecture for low-energy human-centric vision applications
Kim et al. A portable surveillance camera architecture using one-bit motion detection
CN100394366C (en) Device and method for capturing image and controlling cursor for computer
Park et al. A novel motion detection pointing device Using a binary CMOS image sensor
CN107678818A (en) A kind of user interface control method and mobile terminal
KR20010063788A (en) Method For Gesture Recognition Using Border-Centroid Distance Of Object
CN114666521A (en) Image sensing device with adjustable parameters for image sampling
JPH09160716A (en) Data input device
KR20050033196A (en) Low power optical pointing device using natural light
HK1074090B (en) Mobile device with on-screen optical navigation

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20061117

PA0201 Request for examination
A107 Divisional application of patent
PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20070523

Patent event code: PA01071R01D

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20071224

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20081126

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20081215

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20081216

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20111209

Start annual number: 4

End annual number: 4

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee
PR0401 Registration of restoration

Patent event code: PR04011E01D

Patent event date: 20130913

Comment text: Registration of Restoration

PR1001 Payment of annual fee

Payment date: 20130913

Start annual number: 5

End annual number: 5

R401 Registration of restoration
FPAY Annual fee payment

Payment date: 20131206

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20131206

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20141211

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20141211

Start annual number: 7

End annual number: 7

LAPS Lapse due to unpaid annual fee
PC1903 Unpaid annual fee

Termination category: Default of registration fee

Termination date: 20161209

Termination category: Default of registration fee

Termination date: 20130913