[go: up one dir, main page]

CN109308113A - 非接触式输入装置及方法、能进行非接触式输入的显示器 - Google Patents

非接触式输入装置及方法、能进行非接触式输入的显示器 Download PDF

Info

Publication number
CN109308113A
CN109308113A CN201710619146.8A CN201710619146A CN109308113A CN 109308113 A CN109308113 A CN 109308113A CN 201710619146 A CN201710619146 A CN 201710619146A CN 109308113 A CN109308113 A CN 109308113A
Authority
CN
China
Prior art keywords
touch
display screen
distance
input
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710619146.8A
Other languages
English (en)
Inventor
陆欣
张玉勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Yuzhan Precision Technology Co ltd
Hon Hai Precision Industry Co Ltd
Original Assignee
Shenzhen Yuzhan Precision Technology Co ltd
Hon Hai Precision Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Yuzhan Precision Technology Co ltd, Hon Hai Precision Industry Co Ltd filed Critical Shenzhen Yuzhan Precision Technology Co ltd
Priority to CN201710619146.8A priority Critical patent/CN109308113A/zh
Priority to TW106126292A priority patent/TW201917525A/zh
Priority to US15/722,025 priority patent/US20190033999A1/en
Publication of CN109308113A publication Critical patent/CN109308113A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/13338Input devices, e.g. touch panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Nonlinear Science (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种非接触式输入装置,与一透明的触控面板以及一显示屏进行通信,该装置包括存储设备,存储多条指令;处理器,用于加载所述指令以执行步骤:当用户在该触控面板上的一触控位置输入触控手势时,从该触控面板处获取人眼位置、人眼与该触控面板之间的第一距离、该显示屏与该触控面板之间的第二距离、以及该触控手势的类型以及该触控手势在该触控面板上的触控位置;确定该触控手势在该显示屏上的输入位置,其中,该输入位置位于该人眼位置与该触控位置的连线的延长线与该显示屏上的交点;生成与该触控手势的类型相对应的手势指令;将该手势指令与该输入位置发送至该显示屏,从而触发该显示屏在该输入位置执行该手势指令。

Description

非接触式输入装置及方法、能进行非接触式输入的显示器
技术领域
本发明涉及显示屏输入领域,尤其涉及一种非接触式输入装置及方法、以及能进行非接触式输入的显示器。
背景技术
目前,越来越多的场合需要使用巨型屏幕、悬挂式屏幕以及投影屏幕。用户通常难以直接接触该类屏幕,因此也难以通过接触式输入的方式在该类屏幕上进行手势操作。
发明内容
有鉴于此,有必要提供一种非接触式输入装置及方法,能够解决上述问题。
另,还有必要提供一种能进行非接触式输入的显示器。
本发明提供一种非接触式输入装置,能够与一透明的触控面板以及一显示屏进行通信,该非接触式输入装置包括:一存储设备,用于存储多条指令;以及一处理器,用于加载所述指令以执行如下步骤:当用户在该触控面板上的一触控位置输入一触控手势时,从该触控面板处获取人眼位置、人眼与该触控面板之间的一第一距离、该显示屏与该触控面板之间的一第二距离、以及该触控手势的类型以及该触控手势在该触控面板上的触控位置;根据该人眼位置、该第一距离、该第二距离以及该触控位置确定该触控手势在该显示屏上的输入位置,其中,该输入位置位于该人眼位置与该触控位置的连线的延长线与该显示屏的交点;生成与该触控手势的类型相对应的手势指令;以及将该手势指令与该输入位置发送至该显示屏,从而触发该显示屏在该输入位置执行与该手势指令。
本发明还提供一种非接触式输入方法,应用于一非接触式输入装置中,该非接触式输入装置能够与一透明的触控面板以及一显示屏进行通信,该非接触式输入方法包括:当用户在该触控面板上的一触控位置输入一触控手势时,从该触控面板处获取人眼位置、人眼与该触控面板之间的一第一距离、该显示屏与该触控面板之间的一第二距离、以及该触控手势的类型以及该触控手势在该触控面板上的触控位置;根据该人眼位置、该第一距离、该第二距离以及该触控位置确定该触控手势在该显示屏上的输入位置,其中,该输入位置位于该人眼位置与该触控位置的连线的延长线与该显示屏的交点;生成与该触控手势的类型对应的手势指令;以及将该手势指令与该输入位置发送至该显示屏,从而触发该显示屏在该输入位置执行该手势指令。
本发明还提供一种能进行非接触式输入的显示器,包括一显示屏,该显示器还包括一非接触式输入装置,该非接触式输入装置还能够与一透明的触控面板进行通信,该非接触式输入装置包括:一存储设备,用于存储多条指令;以及一处理器,用于加载所述指令以执行如下步骤:当用户在该触控面板上的一触控位置输入一触控手势时,从该触控面板处获取人眼位置、人眼与该触控面板之间的一第一距离、该显示屏与该触控面板之间的一第二距离、以及该触控手势的类型以及该触控手势在该触控面板上的触控位置;根据该人眼位置、该第一距离、该第二距离以及该触控位置确定该触控手势在该显示屏上的输入位置,其中,该输入位置位于该人眼位置与该触控位置的连线的延长线与该显示屏的交点;生成与该触控手势的类型相对应的手势指令;以及将该手势指令与该输入位置发送至该显示屏,从而触发该显示屏在该输入位置执行该手势指令。
相较于现有技术,利用本发明的非接触式输入装置、方法及显示器,用户可通过移动该触控面板并辅以人眼观察的方式找到所需的触控手势在该显示屏上的输入位置,然后沿视线方向在该触控面板上的对应位置进行触控手势操作,如此控制器便可将该触控手势同步至该显示屏的该输入位置上,从而使该显示屏在输入位置执行与与该触控手势对应的手势指令。
附图说明
图1是本发明一较佳实施方式中的非接触式输入系统的结构示意图。
图2为图1所示的非接触式输入系统所包括的非接触式输入装置的硬体架构图。
图3是本发明一较佳实施方式中的非接触式输入方法的流程图。
图4为图3所示的非接触式输入方法中确定触控位置在三维坐标系中的坐标的原理图。
图5为图3所示的非接触式输入方法中确定显示屏所需的输入位置在三维坐标系中的坐标的原理图。
图6为本发明另一较佳实施方式中的非接触式输入系统的结构示意图。
主要元件符号说明
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
图1为本发明一较佳实施例中的非接触式输入系统1(以下简称为:“系统1”)的结构示意图。该系统1包括一显示屏10、一透明的触控面板20以及一连接于该显示屏10以及该触控面板20的非接触式输入装置30(以下简称为:“装置30”)。其中,该装置30可通过有线或无线的方式与该显示屏10以及该触控面板20进行通信。其中,该显示屏10可以是巨型显示屏、悬挂式显示屏以及投影屏等。
该触控面板20包括一透明的触控板21以及安装于该触控板21上的一眼球定位器22以及一距离感测器23。该触控板21包括可供用户进行触控手势操作的一操作面210。
当用户想要在该显示屏10上一输入位置进行输入操作时,用户可望向该显示屏10上的该输入位置,并将该触控面板20放置于视线前方。即,用户可隔着该触控板21望向该显示屏10上的输入位置。然后,用户便可在该触控板21的操作面210上对应该输入位置的触控位置(即人眼与该输入位置的连线与该触控板21上的交点)上输入一触控手势。即,该输入位置为人眼与触控位置的连线的延长线与该显示屏10的交点。其中,所述触控手势可以是单击、双击、滑动、缩放以及字符输入等。
该触控板21用于当用户在该触控板21上输入该触控手势时,确定该触控手势的类型以及该触控手势在该触控板21上的触控位置。
该眼球定位器22用于当用户在该触控板21上输入该触控手势时,侦测人眼位置。在本实施方式中,该眼球定位器22为一摄像头,其用于对位于该触控面板20前方的用户采集图像,对所采集的图像进行图像分析以识别出人脸区域,再采用人眼检测算法在该人脸区域中检测出人眼位置。更具体的,该眼球定位器22包括一镜头221、位于该镜头221的成像面上的一影像感测器222、以及与该影像感测器222电性连接的一影像处理器(图未示)。当该用户位于该触控面板20前方时,用户反射的光线经过该镜头221后会聚于该影像感测器222并在该影像感测器222上形成图像。该影像处理器用于对所采集的图像进行图像分析以识别出人脸区域,再在该人脸区域中检测出人眼位置。其中,该镜头221的中心大致位于该触控板21的操作面210上,即该镜头221的中心与该操作面210近似共面。
该距离感测器23用于侦测人眼与该触控板21之间的第一距离(即为用户与该触控板21之间的距离),并侦测该显示屏10与该触控板21之间的第二距离。在本实施方式中,该距离感测器23为一红外线感测器。
请参阅图2,该装置30包括一存储设备31和一处理器32。所述存储设备31包括一个或多个由程序代码组成的程序模块。所述处理器32用于加载并执行所述存储设备31的各个程序模块,从而当用户在该触控板21上输入该触控手势时控制该显示屏10在所需的输入位置执行与该触控手势对应的操作。
所述存储设备31中的程序模块包括一获取模块311、一输入位置确定模块312、一手势指令生成模块313以及一传输模块314。以下将结合图3说明各程序模块的具体功能。
图3为本发明一较佳实施例中的非接触式输入方法的流程图,该方法应用于上述装置30中,该方法包括如下步骤:
步骤S31,该获取模块311从该触控面板20处获取该人眼位置、该第一距离、该第二距离、该触控手势的类型以及在该触控板21上的触控位置。
步骤S32,该输入位置确定模块312根据该人眼位置、该第一距离、该第二距离以及该触控位置确定该显示屏10所需的输入位置。在本实施方式中,该输入位置确定模块312以该人眼位置为坐标原点建立三维坐标系X-Y-Z,然后确定该触控位置在该三维坐标系X-Y-Z中的坐标,再根据该第一距离、该第二距离以及该触控位置的坐标确定该触控手势在该显示屏上的输入位置在该三维坐标系X-Y-Z中的坐标。
具体的,如图4所示,为便于计算,以X轴方向垂直该显示屏10的延伸方向(即X轴方向平行于地面)为例进行说明。可以理解,三维坐标系X-Y-Z的X轴方向并不局限于垂直该显示屏10的延伸方向。定义该人眼位置O的坐标为(0,0,0),该眼球定位器22的镜头221在该三维坐标系X-Y-Z中的坐标为(x0,y0,z0),该第一距离为D1。那么,该镜头221在该三维坐标系X-Y-Z中的坐标(x0,y0,z0)可通过如下公式计算:
x0=D1
其中,dy为该影像感测器222上所形成的图像中人眼与图像中心点的距离在Y轴上的分量,dz为影像感测器222上所形成的图像中人眼与图像中心点的距离在Z轴上的分量,f为该镜头221的焦距(厂家设定),θx为人眼与该镜头221的连线与X轴之间的夹角,θz为人眼与该镜头221的连线与Z轴之间的夹角。
进一步定义该触控手势在该操作面210上相对于该镜头221的触控位置T为(x1,y1,z1),那么,该触控位置T在该三维坐标系X-Y-Z中的坐标(x1’,y1’,z1’)可通过如下公式计算:
x1'=x0=D1
如图5所示,进一步定义该第二距离为D2。那么,该输入位置I在该三维坐标系X-Y-Z中的坐标(x2,y2,z2)可通过如下公式计算:
当然,三维坐标系X-Y-Z的坐标原点也并不局限于该人眼位置。在另一实施方式中,该输入位置确定模块312也可以该眼球定位器22的位置为坐标原点建立三维坐标系X-Y-Z,然后确定该触控位置在该三维坐标系X-Y-Z中的坐标,以及确定该显示屏10所需的输入位置在该三维坐标系X-Y-Z中的坐标。此时,该输入位置确定模块312的计算方法与前述类似,此不赘述。
步骤S33,该手势指令生成模块313生成与该触控手势的类型对应的手势指令。
步骤S34,该传输模块314将该手势指令与该输入位置发送至该显示屏10,从而触发该显示屏10在该输入位置执行该手势指令。例如,若用户想要双击打开该显示屏10上一图标,用户可隔着该触控板21找到该显示屏10上的该图标,并沿视线方向点击该触控板21上的对应位置(即人眼与该图标的连线于该触控板21上的焦点)。然后,该装置30便可控制该显示屏10打开该图标。在本实施方式中,该传输模块314可通过无线通信的方式发送该手势指令与该输入位置。例如,该传输模块314通过蓝牙或WiFi通信的方式发送该手势指令与该输入位置。
请参阅图6,本发明另一较佳实施例还提供一种非接触式输入系统1’(以下简称为:系统1’)。与上述系统1不同的是,该系统1’包括一能进行非接触式输入的显示器40’以及一透明的触控面板20’。该显示器40’包括一显示屏10’以及一非接触式输入装置30’(以下简称为:装置30’)。即,该装置30’与该显示屏10’均为该显示器40’中的元件。该装置30’的作用原理与该装置30类似,此不赘述。
综上,用户可通过移动该触控面板20并辅以人眼观察的方式找到在该显示屏10上所需的输入位置,然后沿视线方向在该触控板21上的对应位置进行触控手势操作,如此该装置30便可将该触控手势同步至该显示屏10的该输入位置上,从而使该显示屏10所需的输入位置执行与该触控手势对应的操作。
本技术领域的普通技术人员应当认识到,以上的实施方式仅是用来说明本发明,而并非用作为对本发明的限定,只要在本发明的实质精神范围之内,对以上实施例所作的适当改变和变化都落在本发明要求保护的范围之内。

Claims (9)

1.一种非接触式输入装置,能够与一透明的触控面板以及一显示屏进行通信,该非接触式输入装置包括:
一存储设备,用于存储多条指令;以及
一处理器,用于加载所述指令以执行如下步骤:
当用户在该触控面板上的一触控位置输入一触控手势时,从该触控面板处获取人眼位置、人眼与该触控面板之间的一第一距离、该显示屏与该触控面板之间的一第二距离、以及该触控手势的类型以及该触控手势在该触控面板上的触控位置;
根据该人眼位置、该第一距离、该第二距离以及该触控位置确定该触控手势在该显示屏上的输入位置,其中,该输入位置位于该人眼位置与该触控位置的连线的延长线与该显示屏的交点;
生成与该触控手势的类型相对应的手势指令;以及
将该手势指令与该输入位置发送至该显示屏,从而触发该显示屏在该输入位置执行该手势指令。
2.如权利要求1所述的非接触式输入装置,其特征在于,所述“根据该人眼位置、该第一距离、该第二距离以及该触控位置确定该显示屏所需的输入位置”包括:
以该人眼位置为坐标原点建立三维坐标系;
确定该触控位置在该三维坐标系中的坐标;以及
根据该第一距离、该第二距离以及该触控位置的坐标确定该触控手势在该显示屏上的输入位置在该三维坐标系中的坐标。
3.如权利要求1所述的非接触式输入装置,其特征在于,将该手势指令与该输入位置通过无线通信的方式发送至该显示屏。
4.如权利要求1所述的非接触式输入装置,其特征在于,该触控手势包括单击、双击、滑动、缩放以及字符输入中的至少一种。
5.一种非接触式输入方法,应用于一非接触式输入装置中,该非接触式输入装置能够与一透明的触控面板以及一显示屏进行通信,该非接触式输入方法包括:
当用户在该触控面板上的一触控位置输入一触控手势时,从该触控面板处获取人眼位置、人眼与该触控面板之间的一第一距离、该显示屏与该触控面板之间的一第二距离、以及该触控手势的类型以及该触控手势在该触控面板上的触控位置;
根据该人眼位置、该第一距离、该第二距离以及该触控位置确定该触控手势在该显示屏上的输入位置,其中,该输入位置位于该人眼位置与该触控位置的连线的延长线与该显示屏的交点;
生成与该触控手势的类型相对应的手势指令;以及
将该手势指令与该输入位置发送至该显示屏,从而触发该显示屏在该输入位置执行该手势指令。
6.如权利要求5所述的非接触式输入方法,其特征在于,所述“根据该人眼位置、该第一距离、该第二距离以及该触控位置确定该触控手势在该显示屏上的输入位置”包括:
以该人眼位置为坐标原点建立三维坐标系;
确定该触控位置在该三维坐标系中的坐标;以及
根据该第一距离、该第二距离以及该触控位置的坐标确定该触控手势在该显示屏上的输入位置在该三维坐标系中的坐标。
7.如权利要求5所述的非接触式输入方法,其特征在于,将该手势指令与该输入位置通过无线通信的方式发送至该显示屏。
8.如权利要求5所述的非接触式输入方法,其特征在于,该触控手势包括单击、双击、滑动、缩放以及字符输入中的至少一种。
9.一种能进行非接触式输入的显示器,包括一显示屏,其特征在于,该显示器还包括一能够与该显示屏进行通信的非接触式输入装置,该非接触式输入装置还能够与一透明的触控面板进行通信,该非接触式输入装置包括:
一存储设备,用于存储多条指令;以及
一处理器,用于加载所述指令以执行如下步骤:
当用户在该触控面板上的一触控位置输入一触控手势时,从该触控面板处获取人眼位置、人眼与该触控面板之间的一第一距离、该显示屏与该触控面板之间的一第二距离、以及该触控手势的类型以及该触控手势在该触控面板上的触控位置;
根据该人眼位置、该第一距离、该第二距离以及该触控位置确定该触控手势在该显示屏上的输入位置,其中,该输入位置位于该人眼位置与该触控位置的连线的延长线与该显示屏的交点;
生成与该触控手势的类型相对应的手势指令;以及
将该手势指令与该输入位置发送至该显示屏,从而触发该显示屏在该输入位置执行该手势指令。
CN201710619146.8A 2017-07-26 2017-07-26 非接触式输入装置及方法、能进行非接触式输入的显示器 Pending CN109308113A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201710619146.8A CN109308113A (zh) 2017-07-26 2017-07-26 非接触式输入装置及方法、能进行非接触式输入的显示器
TW106126292A TW201917525A (zh) 2017-07-26 2017-08-03 非接觸式輸入裝置及方法、能進行非接觸式輸入的顯示器
US15/722,025 US20190033999A1 (en) 2017-07-26 2017-10-02 Non-contact input device, non-contact input method, and display device capable of being controlled by non-contact input

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710619146.8A CN109308113A (zh) 2017-07-26 2017-07-26 非接触式输入装置及方法、能进行非接触式输入的显示器

Publications (1)

Publication Number Publication Date
CN109308113A true CN109308113A (zh) 2019-02-05

Family

ID=65038509

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710619146.8A Pending CN109308113A (zh) 2017-07-26 2017-07-26 非接触式输入装置及方法、能进行非接触式输入的显示器

Country Status (3)

Country Link
US (1) US20190033999A1 (zh)
CN (1) CN109308113A (zh)
TW (1) TW201917525A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI839815B (zh) * 2021-08-26 2024-04-21 日商阿爾卑斯阿爾派股份有限公司 非接觸輸入裝置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI734024B (zh) * 2018-08-28 2021-07-21 財團法人工業技術研究院 指向判斷系統以及指向判斷方法
US11048532B1 (en) * 2019-11-27 2021-06-29 Amazon Technologies, Inc. Device agnostic user interface generation based on device input type

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI839815B (zh) * 2021-08-26 2024-04-21 日商阿爾卑斯阿爾派股份有限公司 非接觸輸入裝置

Also Published As

Publication number Publication date
TW201917525A (zh) 2019-05-01
US20190033999A1 (en) 2019-01-31

Similar Documents

Publication Publication Date Title
TWI454993B (zh) 以成像元件為主之觸控系統
US8269729B2 (en) Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
US9389779B2 (en) Depth-based user interface gesture control
US8933882B2 (en) User centric interface for interaction with visual display that recognizes user intentions
US20190384450A1 (en) Touch gesture detection on a surface with movable artifacts
US20160292525A1 (en) Image analyzing apparatus and image analyzing method
US20130257736A1 (en) Gesture sensing apparatus, electronic system having gesture input function, and gesture determining method
CN102306053B (zh) 一种基于虚拟触摸屏的人机交互方法、装置及电子设备
CN104317398A (zh) 一种手势控制方法、穿戴式设备及电子设备
CN105242839A (zh) 一种触摸菜单的控制方法及系统
CN109308113A (zh) 非接触式输入装置及方法、能进行非接触式输入的显示器
CN110096133A (zh) 红外手势识别装置及方法
JP2012238293A (ja) 入力装置
JP2014021562A (ja) タッチ検出装置、タッチ検出方法及びプログラム
KR20070037773A (ko) 표시기기에서 사용자 명령 입력 장치 및 방법
CN104978018B (zh) 触控系统及触控方法
CN103940375B (zh) 一种测量角度的方法、装置及电子设备
US20160313849A1 (en) Method for Controlling Display of Touchscreen, and Mobile Device
WO2021004413A1 (zh) 一种手持输入设备及其指示图标的消隐控制方法和装置
CN108628487A (zh) 一种位置信息确定方法、投影设备和计算机存储介质
CN104516563B (zh) 信息处理设备及其数据处理方法、和输入设备及其输入控制方法
TWI444875B (zh) 多點觸碰輸入裝置及其使用單點觸控感應板與影像感測器之資料融合之介面方法
TWI557631B (zh) 來電接聽掛斷管理系統及方法
KR20100106638A (ko) 터치 기반 인터페이스 장치, 방법 및 이를 이용한 모바일 기기, 터치 패드
KR101779407B1 (ko) 2차원 데이터 디스플레이 방법 및 그 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190205