KR101184460B1 - 마우스 포인터 제어 장치 및 방법 - Google Patents
마우스 포인터 제어 장치 및 방법 Download PDFInfo
- Publication number
- KR101184460B1 KR101184460B1 KR1020100011069A KR20100011069A KR101184460B1 KR 101184460 B1 KR101184460 B1 KR 101184460B1 KR 1020100011069 A KR1020100011069 A KR 1020100011069A KR 20100011069 A KR20100011069 A KR 20100011069A KR 101184460 B1 KR101184460 B1 KR 101184460B1
- Authority
- KR
- South Korea
- Prior art keywords
- mouse pointer
- images
- image
- value
- difference image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03543—Mice or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
도 2는 본 발명의 일 실시 예에 따른 마우스 포인터 제어 장치에서 손가락으로 마우스 포인터를 제어하는 모습을 도시한 도면;
도 3은 제1 객체 및 제2 객체 사이의 거리에 따른 사용자의 선택 명령의 입력을 도시한 도면;
도 4는 저장부에 연속적으로 저장되는 제1 객체 및 제2 객체의 영상을 도시한 도면;
도 5는 제어부에서 차영상 및 평균 차영상을 구하는 것을 도시한 도면;
도 6은 평균 차영상을 블록화하고, 각 블록에 대해 명암값을 설정하는 것을 도시한 도면;
도 7은 유효 블록들을 하나의 그룹으로 그룹화하는 것을 도시한 도면;
도 8은 제1 객체 및 제2 객체의 검출을 도시한 도면;
도 9는 본 발명의 일 실시 예에 따른 마우스 포인터 제어 방법의 각 단계를 도시한 순서도;
도 10은 상기 마우스 포인터 제어 방법에서 블록 명암값 설정 단계를 도시한 순서도.
Claims (12)
- 디스플레이부;
제1 객체와 제2 객체의 영상을 촬영하는 영상 촬영부; 및
상기 촬영된 영상에서 검출된 상기 제1 객체와 제2 객체 사이의 일지점을 상기 디스플레이부 상에서의 마우스 포인터의 위치로 설정하고, 상기 제1 객체와 제2 객체 사이의 거리가 소정의 거리 미만일 경우 상기 일지점에 대해 사용자 선택 명령이 입력된 것으로 판단하는 제어부를 포함하고,
상기 제1 객체와 제2 객체는 각각 상기 제어부에 의해 움직임이 검출되는 상기 촬영된 영상 내 물체인 것을 특징으로 하는 마우스 포인터 제어 장치.
- 제1항에 있어서,
상기 촬영된 영상을 저장하는 저장부를 더 포함하며,
상기 제어부는 상기 저장된 영상 중 연속하는 두 영상들에 대하여 전후 영상의 동일 위치에 배치된 픽셀들의 명암값의 차이에 따라 명암값이 결정되는 픽셀들로 이루어진 차영상을 각각 계산하고, 상기 차영상을 이용하여 상기 제1 객체 및 제2 객체를 검출하는 것을 특징으로 하는 마우스 포인터 제어 장치.
- 제2항에 있어서,
상기 제어부는 상기 차영상들을 시간순으로 소정의 매수씩 그룹화하여 각 그룹 내의 차영상들의 동일 위치에 배치된 픽셀들의 명암값의 평균값으로 결정되는 픽셀들로 이루어진 평균 차영상을 각각 계산하고, 상기 평균 차영상을 이용하여 상기 제1 객체 및 제2 객체를 검출하는 것을 특징으로 하는 마우스 포인터 제어 장치.
- 제3항에 있어서,
상기 제어부는 상기 각각의 평균 차영상을 소정의 비율로 균분한 블록들로 나눠서 블록화하고, 상기 블록화된 블록들에 포함된 픽셀들에 대한 명암값의 총합을 소정의 명암값과 비교하여 상기 총합이 상기 소정의 명암값 이상인 유효 블록에 대해서는 내부의 각 픽셀의 명암값을 유지하고, 상기 총합이 상기 소정의 명암값 미만인 무효 블록에 대해서는 내부의 각 픽셀의 명암값을 0으로 설정하며, 상기 유효 블록들에 대하여 이웃하는 유효 블록들을 하나의 그룹으로 묶어 그룹화하고, 상기 그룹화된 그룹들로부터 상기 제1 객체 및 제2 객체를 검출하는 것을 특징으로 하는 마우스 포인터 제어 장치.
- 제4항에 있어서,
상기 제어부는 상기 그룹화된 유효 블록들로부터 상기 제1 객체 및 제2 객체의 후보를 결정하고, 상기 결정된 제1 객체 및 제2 객체의 후보 내에 포함된 픽셀들의 명암값으로부터 상기 제1 객체 및 제2 객체의 후보 각각의 경계 부분을 추출하며, 상기 추출된 각각의 경계 부분의 커브에서 미분값의 부호가 바뀌는 부분을 상기 제1 객체 및 제2 객체의 단부로 검출함으로써 상기 제1 객체 및 제2 객체의 단부 사이의 일지점을 마우스 포인터의 위치로 설정하는 것을 특징으로 하는 마우스 포인터 제어 장치.
- 제5항에 있어서,
상기 제1 객체 및 제2 객체의 단부를 검출함에 있어서, 이전에 검출된 두 단부와 비교하여 움직임의 범위가 소정의 범위를 초과하면 이전에 검출된 두 단부를 리턴하는 것을 특징으로 하는 마우스 포인터 제어 장치.
- 제1 객체 및 제2 객체에 대한 영상을 촬영하는 단계;
상기 촬영된 영상에서 검출된 상기 제1 객체와 제2 객체 사이의 일지점을 마우스 포인터의 위치로 설정하는 단계; 및
상기 제1 객체와 제2 객체 사이의 거리가 소정의 거리 미만일 경우 상기 일지점에 대해 사용자 선택 명령이 입력된 것으로 판단하는 단계를 포함하고,
상기 제1 객체와 제2 객체는 각각 움직임이 검출되는 상기 촬영된 영상 내 물체인 것을 특징으로 하는 마우스 포인터 제어 방법.
- 제7항에 있어서,
상기 촬영된 영상 중 연속하는 두 영상들에 대하여 전후 영상의 동일 위치에 배치된 픽셀들의 명암값의 차이에 따라 명암값이 결정되는 픽셀들로 이루어진 차영상을 각각 계산하고, 상기 차영상을 이용하여 상기 제1 객체 및 제2 객체를 검출하는 것을 특징으로 하는 마우스 포인터 제어 방법.
- 제8항에 있어서,
상기 차영상들을 시간순으로 소정의 매수씩 그룹화하여 각 그룹 내의 차영상들의 동일 위치에 배치된 픽셀들의 명암값의 평균값으로 결정되는 픽셀들로 이루어진 평균 차영상을 각각 계산하고, 상기 평균 차영상을 이용하여 상기 제1 객체 및 제2 객체를 검출하는 것을 특징으로 하는 마우스 포인터 제어 방법.
- 제9항에 있어서,
상기 각각의 평균 차영상을 소정의 비율로 균분한 블록들로 나눠서 블록화하고, 상기 블록화된 블록들에 포함된 픽셀들에 대한 명암값의 총합을 소정의 명암값과 비교하여 상기 총합이 상기 소정의 명암값 이상인 유효 블록에 대해서는 내부의 각 픽셀의 명암값을 유지하고, 상기 총합이 상기 소정의 명암값 미만인 무효 블록에 대해서는 내부의 각 픽셀의 명암값을 0으로 설정하며, 상기 유효 블록들에 대하여 이웃하는 유효 블록들을 하나의 그룹으로 묶어 그룹화하고, 상기 그룹화된 그룹들로부터 상기 제1 객체 및 제2 객체를 검출하는 것을 특징으로 하는 마우스 포인터 제어 방법.
- 제10항에 있어서,
상기 그룹화된 유효 블록들로부터 상기 제1 객체 및 제2 객체의 후보를 결정하고, 상기 결정된 제1 객체 및 제2 객체의 후보 내에 포함된 픽셀들의 명암값으로부터 상기 제1 객체 및 제2 객체의 후보 각각의 경계 부분을 추출하며, 상기 추출된 각각의 경계 부분의 커브에서 미분값의 부호가 바뀌는 부분을 상기 제1 객체 및 제2 객체의 단부 사이의 일지점을 마우스 포인터의 위치로 설정하는 것을 특징으로 하는 마우스 포인터 제어 방법.
- 제11항에 있어서,
상기 제1 객체 및 제2 객체의 단부를 검출함에 있어서, 이전에 검출된 두 단부와 비교하여 움직임의 범위가 소정의 범위를 초과하면 이전에 검출된 두 단부를 리턴하는 것을 특징으로 하는 마우스 포인터 제어 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100011069A KR101184460B1 (ko) | 2010-02-05 | 2010-02-05 | 마우스 포인터 제어 장치 및 방법 |
US12/985,915 US8957857B2 (en) | 2010-02-05 | 2011-01-06 | Device and method for controlling mouse pointer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100011069A KR101184460B1 (ko) | 2010-02-05 | 2010-02-05 | 마우스 포인터 제어 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110091301A KR20110091301A (ko) | 2011-08-11 |
KR101184460B1 true KR101184460B1 (ko) | 2012-09-19 |
Family
ID=44353298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100011069A KR101184460B1 (ko) | 2010-02-05 | 2010-02-05 | 마우스 포인터 제어 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8957857B2 (ko) |
KR (1) | KR101184460B1 (ko) |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101058726B1 (ko) * | 2009-11-11 | 2011-08-22 | 삼성전자주식회사 | 조명 성분을 제거하기 위한 이미지 보정 장치 및 방법 |
US8639020B1 (en) | 2010-06-16 | 2014-01-28 | Intel Corporation | Method and system for modeling subjects from a depth map |
US8717318B2 (en) * | 2011-03-29 | 2014-05-06 | Intel Corporation | Continued virtual links between gestures and user interface elements |
JP6074170B2 (ja) | 2011-06-23 | 2017-02-01 | インテル・コーポレーション | 近距離動作のトラッキングのシステムおよび方法 |
US11048333B2 (en) | 2011-06-23 | 2021-06-29 | Intel Corporation | System and method for close-range movement tracking |
TWI522870B (zh) * | 2011-10-25 | 2016-02-21 | 原相科技股份有限公司 | 點擊偵測裝置 |
WO2013095678A1 (en) * | 2011-12-23 | 2013-06-27 | Intel Corporation | Mechanism to provide feedback regarding computing system command gestures |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9070019B2 (en) | 2012-01-17 | 2015-06-30 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US12260023B2 (en) | 2012-01-17 | 2025-03-25 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9477303B2 (en) | 2012-04-09 | 2016-10-25 | Intel Corporation | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface |
JP5721662B2 (ja) * | 2012-04-26 | 2015-05-20 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 入力受付方法、入力受付プログラム、及び入力装置 |
US20140123077A1 (en) * | 2012-10-29 | 2014-05-01 | Intel Corporation | System and method for user interaction and control of electronic devices |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
JP5998861B2 (ja) * | 2012-11-08 | 2016-09-28 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9014428B2 (en) * | 2013-02-15 | 2015-04-21 | Sony Corporation | Object detection using difference of image frames |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
FR3003985B1 (fr) * | 2013-03-27 | 2016-08-05 | Nexys | Dispositif et procede de recherche d'un mouvement d'une main |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
US9996160B2 (en) * | 2014-02-18 | 2018-06-12 | Sony Corporation | Method and apparatus for gesture detection and display control |
US9741169B1 (en) | 2014-05-20 | 2017-08-22 | Leap Motion, Inc. | Wearable augmented reality devices with object detection and tracking |
CA2950048A1 (en) * | 2014-05-24 | 2015-12-03 | Centre For Development Of Telematics | Gesture based human machine interface using marker |
CN105278664B (zh) * | 2014-07-24 | 2019-09-27 | 腾讯科技(深圳)有限公司 | 一种执行操作的方法和装置 |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
CN106651751B (zh) * | 2016-09-13 | 2020-05-05 | Oppo广东移动通信有限公司 | 图像处理方法及终端 |
CN107749046B (zh) * | 2017-10-27 | 2020-02-07 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
US10937240B2 (en) | 2018-01-04 | 2021-03-02 | Intel Corporation | Augmented reality bindings of physical objects and virtual objects |
JP2022087700A (ja) * | 2020-12-01 | 2022-06-13 | 京セラドキュメントソリューションズ株式会社 | 電子機器および画像形成装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100853024B1 (ko) | 2006-12-01 | 2008-08-20 | 엠텍비젼 주식회사 | 디스플레이의 영상 제어 방법 및 그 장치 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222465B1 (en) * | 1998-12-09 | 2001-04-24 | Lucent Technologies Inc. | Gesture-based computer interface |
US6624833B1 (en) * | 2000-04-17 | 2003-09-23 | Lucent Technologies Inc. | Gesture-based input interface system with shadow detection |
US10242255B2 (en) * | 2002-02-15 | 2019-03-26 | Microsoft Technology Licensing, Llc | Gesture recognition system using depth perceptive sensors |
JP3979894B2 (ja) * | 2002-07-22 | 2007-09-19 | 本田技研工業株式会社 | 物体検出装置及び方法 |
GB2411229B (en) * | 2003-07-22 | 2006-04-12 | Hitachi Int Electric Inc | Object tracking method and object tracing apparatus |
JP2005242694A (ja) * | 2004-02-26 | 2005-09-08 | Mitsubishi Fuso Truck & Bus Corp | ハンドパターンスイッチ装置 |
JP5160235B2 (ja) * | 2005-01-07 | 2013-03-13 | クアルコム,インコーポレイテッド | 画像中の物体の検出及び追跡 |
KR20070030398A (ko) | 2005-09-13 | 2007-03-16 | 주식회사 팬택 | 사용자의 손 동작에 따라서 마우스 포인터를 제어하는 이동통신 단말기 및 그 구현 방법 |
US8018579B1 (en) * | 2005-10-21 | 2011-09-13 | Apple Inc. | Three-dimensional imaging and display system |
US7907117B2 (en) * | 2006-08-08 | 2011-03-15 | Microsoft Corporation | Virtual controller for visual displays |
JP4605170B2 (ja) * | 2007-03-23 | 2011-01-05 | 株式会社デンソー | 操作入力装置 |
US8487881B2 (en) * | 2007-10-17 | 2013-07-16 | Smart Technologies Ulc | Interactive input system, controller therefor and method of controlling an appliance |
US8237807B2 (en) * | 2008-07-24 | 2012-08-07 | Apple Inc. | Image capturing device with touch screen for adjusting camera settings |
US8593402B2 (en) * | 2010-04-30 | 2013-11-26 | Verizon Patent And Licensing Inc. | Spatial-input-based cursor projection systems and methods |
US8860672B2 (en) * | 2010-05-26 | 2014-10-14 | T-Mobile Usa, Inc. | User interface with z-axis interaction |
US9213890B2 (en) * | 2010-09-17 | 2015-12-15 | Sony Corporation | Gesture recognition system for TV control |
US9459697B2 (en) * | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
-
2010
- 2010-02-05 KR KR1020100011069A patent/KR101184460B1/ko active IP Right Grant
-
2011
- 2011-01-06 US US12/985,915 patent/US8957857B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100853024B1 (ko) | 2006-12-01 | 2008-08-20 | 엠텍비젼 주식회사 | 디스플레이의 영상 제어 방법 및 그 장치 |
Also Published As
Publication number | Publication date |
---|---|
KR20110091301A (ko) | 2011-08-11 |
US8957857B2 (en) | 2015-02-17 |
US20110193778A1 (en) | 2011-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101184460B1 (ko) | 마우스 포인터 제어 장치 및 방법 | |
KR102664705B1 (ko) | 복수의 카메라들을 이용하여 이미지의 배율을 변경하기 위한 전자 장치 및 방법 | |
CN111182205B (zh) | 拍摄方法、电子设备及介质 | |
US20130088429A1 (en) | Apparatus and method for recognizing user input | |
KR101608423B1 (ko) | 모바일 디바이스상의 풀 3d 상호작용 | |
EP4047549A1 (en) | Method and device for image detection, and electronic device | |
CN109857306B (zh) | 截屏方法及终端设备 | |
US9641743B2 (en) | System, method, and apparatus for controlling timer operations of a camera | |
US10607069B2 (en) | Determining a pointing vector for gestures performed before a depth camera | |
US10866649B2 (en) | Gesture identification method and electronic device | |
JPWO2013046596A1 (ja) | 携帯型情報処理端末 | |
US9811197B2 (en) | Display apparatus and controlling method thereof | |
CN108563383A (zh) | 一种图像查看方法及移动终端 | |
CN110830713A (zh) | 一种变焦方法及电子设备 | |
CN113253908B (zh) | 按键功能执行方法、装置、设备及存储介质 | |
CN108833791B (zh) | 一种拍摄方法和装置 | |
US20250093990A1 (en) | Speed Adapted Touch Detection | |
CN109104573B (zh) | 一种确定对焦点的方法及终端设备 | |
CN110365906A (zh) | 拍摄方法及移动终端 | |
JP7413546B2 (ja) | 撮影方法及び電子機器 | |
CN111093035B (zh) | 图像处理方法、电子设备及存储介质 | |
WO2018082498A1 (en) | Mid-air finger pointing detection for device interaction | |
KR20230168568A (ko) | 정보 입력 방법 및 장치, 전자 기기 및 저장 매체 | |
CN111107270B (zh) | 拍摄方法及电子设备 | |
CN104978016A (zh) | 具有虚拟输入功能的电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20100205 |
|
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20101007 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20100205 Comment text: Patent Application |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20120116 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20120830 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20120913 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20120913 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20150828 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20150828 Start annual number: 4 End annual number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160830 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
Payment date: 20160830 Start annual number: 5 End annual number: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170830 Year of fee payment: 6 |
|
PR1001 | Payment of annual fee |
Payment date: 20170830 Start annual number: 6 End annual number: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180830 Year of fee payment: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20180830 Start annual number: 7 End annual number: 7 |
|
PR1001 | Payment of annual fee |
Payment date: 20200828 Start annual number: 9 End annual number: 9 |
|
PR1001 | Payment of annual fee |
Payment date: 20220830 Start annual number: 11 End annual number: 11 |
|
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20240624 |