[go: up one dir, main page]

CN104133581B - 物理对象检测和触摸屏交互 - Google Patents

物理对象检测和触摸屏交互 Download PDF

Info

Publication number
CN104133581B
CN104133581B CN201410154201.7A CN201410154201A CN104133581B CN 104133581 B CN104133581 B CN 104133581B CN 201410154201 A CN201410154201 A CN 201410154201A CN 104133581 B CN104133581 B CN 104133581B
Authority
CN
China
Prior art keywords
touch screen
shape
screen display
display surface
equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410154201.7A
Other languages
English (en)
Other versions
CN104133581A (zh
Inventor
R·泰基森
T·W·库库尔斯基
M·W·高夫
G·C·多德
G·C·马斯卡利诺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adobe Inc
Original Assignee
Adobe Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Adobe Systems Inc filed Critical Adobe Systems Inc
Publication of CN104133581A publication Critical patent/CN104133581A/zh
Application granted granted Critical
Publication of CN104133581B publication Critical patent/CN104133581B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

例如多功能直尺或键盘的输入设备当放置在计算设备的触摸屏显示表面上时具有可识别的接触形状。输入设备的接触形状可以是接触点的定义的图案,并且可根据所述接触点的定义的图案确定输入设备在触屏显示器表面上的位置和方向。所述输入装置包括与所述计算设备的伴随模块接口的交互模块。伴随模块可响应于在触摸屏显示表面上识别出输入设备而发起对对象的显示。所述交互模块可以接收向输入设备的用户输入,并将用户输入传输到所述计算设备的伴随模块以修改所述对象在所述触摸屏显示表面上的显示。

Description

物理对象检测和触摸屏交互
相关申请的交叉引用
本申请要求2013年5月2日Tijssen等提交的名称为“物理对象检测和触摸屏交互”的美国临时申请第61/818,858号的优先权,其公开内容通过引用的方式全部并入于此。
背景技术
许多平板设备以及更大的、安装在墙上的、台式的或桌上的触摸屏显示表面被设计用于通过触摸手势和触控笔输入与用户交互。即使触摸屏提供了易用性,但是仍难于在平板或其它显示器表面上执行一些任务,例如当创建绘图或进行可能需要精确输入的其它任务时。此外,虽然键盘和其它输入设备促进了用户与计算设备及计算设备所执行的软件应用的交互,但是用户在使用设备的同时仍然可能需要在触摸屏显示表面上提供其它触摸和手势输入,以开始和完成任务。
发明内容
该发明内容引入了将在下面具体实施方式中进一步描述和/或在图中显示的物理对象检测和触摸屏交互的特征和概念。该发明内容不应被认为描述了要求保护的主题的必要特征,或用于确定或限制要求保护的主题的范围。
描述了物理对象检测和触摸屏交互。在实施方式中,例如多功能直尺(multifunction straight edge)或键盘的输入设备当放置在计算设备的触摸屏显示表面上时具有可识别的接触形状。输入设备的接触形状可为接触点的定义的图案,并且可根据接触点的定义的图案来确定输入设备在触摸屏显示表面上的位置和方向。输入设备包括与计算设备的伴随模块接口的交互模块。伴随模块可响应于在触摸屏显示表面上识别出输入设备而发起对对象的显示。交互模块可接收向输入设备的用户输入,并将所述用户输入传输到所述计算设备的伴随模块以修改对象在触摸屏显示表面上的显示。
在实施方式中,输入设备可为包括交互模块的多功能直尺,交互模块与通过计算设备实施的伴随模块通信,并可与触摸屏显示表面一起操作。例如,多功能直尺的交互模块可将多功能直尺的标识符及用户输入传输到计算设备的伴随模块。多功能直尺可包括可选择的形状和/或其它类型的绘图模板引导。可在多功能直尺上接收用户形状输入,然后在触摸屏显示表面上显示对应于用户形状输入的形状对象。
在多功能直尺位于触摸屏显示表面上的同时,形状对象可在触摸屏显示表面上被显示为绘图形状模板和/或用于触控笔输入的触控笔引导线。显示与触摸屏显示表面上的形状对象与多功能直尺关联,并保持相对于多功能直尺的显示位置。将形状对象拴系(tether)到多功能直尺,以保持相对于多功能直尺的显示位置,并且形状对象可与触摸屏显示表面上的多功能直尺一起移动和/或旋转。当从触摸屏显示表面移除多功能直尺时,然后可不显示形状对象。可替换地,当从触摸屏显示表面上去除多功能直尺时,形状对象作为绘图元件保持被显示于所述触摸屏显示表面上。
在实施方式中,输入设备可为包括交互模块的键盘,交互模块与通过计算设备实施的伴随模块通信,并可与触摸屏显示表面一起操作。交互模块可将键盘的标识符及用户输入传输到触摸屏显示表面上的伴随模块。当键盘放置在触摸屏显示表面上时,可创建文本对象,并将文本对象显示于触摸屏显示表面上。然后,可传输向键盘的用户按键输入,以用于作为触摸屏显示表面上的文本对象中的字母数字字符而显示。可替换地,可响应于向键盘的用户按键输入,发起文本对象,以用于在触摸屏显示表面上显示。
在触摸屏显示表面上显示的文本对象与键盘关联,并保持相对于键盘的显示位置。文本对象可与键盘一起移动和/或旋转,以保持相对于触摸屏显示表面上的键盘的显示位置。可从键盘移开与键盘关联的文本对象,例如当用户选择和拖动文本对象以从键盘分离文本对象时。然后,可创建另外的文本对象,并在触摸屏显示表面上显示该另外的文本对象,并且该另外的文本对象与键盘关联以便为用户输入做好准备。
当从触摸屏显示表面上移除键盘时,可不再显示与键盘关联的文本对象,并且文本对象可响应于键盘被重新放置回触摸屏显示表面上而被重新显示。在键盘被放置在触摸屏显示表面上之前,文本对象也可显示在触摸屏显示表面上。当键盘被放置在触摸屏显示表面上时,可基于键盘与所显示的文本对象邻近而选择文本对象并将文本对象与键盘关联,以便能够编辑文本。
还可响应于所述键盘被放置在触摸屏显示表面上而发起用户接口面板,以用于在触摸屏显示表面上显示。用户接口面板可包括可选择的文本编辑选项和/或到先前创建的文本对象的可选择的链接以供用户选择以编辑先前创建的文本对象。用户接口面板还与键盘关联,并且相对于键盘的显示位置被保持,以便用户接口面板可与键盘一起移动和/或旋转,以保持相对于触摸屏显示表面上的键盘的显示位置。
附图说明
参照下面的附图描述了物理对象检测和触摸屏交互的实施方式。全文中使用相同的数字指代附图中显示的相似的特征和元件:
图1图示了其中可实施物理对象检测和触摸屏交互的实施方式的示例性系统。
图2图示了根据一个或多个实施方式、利用触摸屏显示表面上的多功能直尺进行的物理对象检测和触摸屏交互的实施方式。
图3和图4图示了根据一个或多个实施方式、参照触摸屏显示表面上的多功能直尺进行的物理对象检测和触摸屏交互的示例性方法。
图5图示了根据一个或多个实施方式、利用触摸屏显示表面上的键盘进行的物理对象检测和触摸屏交互的实施方式。
图6进一步图示了根据一个或多个实施方式的触摸屏显示表面上的键盘。
图7、8和9图示了根据一个或多个实施方式、参照触摸屏显示表面上的键盘进行的物理对象检测和触摸屏交互的示例性方法。
图10图示了具有可实施物理对象检测和触摸屏交互的实施方式的示例性设备的示例性系统。
具体实施方式
描述了物理对象检测和触摸屏交互的实施方式。例如键盘、多功能直尺或视频慢进和快进装置(video jog shuttle)的输入装置可放置在触摸屏显示表面上,其发起用于用户交互的用户接口元件和/或显示的对象,例如在触摸屏显示表面上显示的文本对象和形状对象。例如,键盘可放置在触摸屏显示表面上并且文本对象被自动产生和显示,以便为用户输入做好准备。类似地,多功能直尺可放置在触摸屏显示表面上,例如集成在平板计算设备中,并且对应于用户模板输入的形状对象显示在触摸屏显示表面上。
虽然可以以任何数目的不同设备、系统、网络、环境和/或配置来实施物理对象检测和触摸屏交互的特征和概念,但是可在下面的示例性设备、系统和方法的上下文中描述物理对象检测和触摸屏交互的实施方式。
图1描述了根据一个或多个实施方式的物理对象检测和触摸屏交互的示例性系统100。该示例性系统包括输入设备102和计算设备104。输入设备102可为用户用来与计算设备和显示的对象交互的任何类型的物理设备。输入设备102的示例包括参照图2至4描述的多功能直尺,参照图5至9描述的键盘,视频慢进和快进装置(未显示)和任何其它类型的输入设备。计算设备104可实现为例如移动电话、平板电脑、计算设备、通信设备、娱乐设备、游戏设备、媒体播放设备和/或其它类型的设备的有线设备或无线设备中的任一个或其组合。如在108处所示,计算设备104包括输入设备被放置在上面以用于触摸屏交互的触摸屏显示表面106。如文中所述,触摸屏显示表面可为集成于计算设备中的电容性触摸屏显示器的任一种或其组合或任何类型的数字绘图面板、独立的桌面或桌面触摸屏显示表面。
所述设备中的任一个可利用各种组件来实施,例如利用处理系统和存储器、以及参照图10中所示的实施方式进一步说明的不同组件的任何数目和组合来实施。例如,输入设备102包括存储器110、处理器112和电源114,电源114例如为在输入设备中实施的任何类型的电池或其它电源。输入设备的存储器110可保持设备的设备标识符116、设备数据118(例如设备的可配置设置)、及用户接口数据和设置。
输入设备102包括可保持为在计算机可读存储介质,例如任何合适的存储器设备或电子数据存储设备(例如存储器110)上存储的可执行指令(例如软件应用、组件或模块)的交互模块120。此外,可用输入设备的处理器112执行交互模块,以实施物理对象检测和触摸屏交互的实施方式。类似地,计算设备104可包括作为可执行指令(例如软件应用、组件或模块)的交互伴随模块122,当输入设备被放置用于计算设备104的触摸屏显示表面106上的屏幕交互时,交互伴随模块122与输入设备102的交互模块120对接。
在实施方式中,交互模块120和交互伴随模块122中的一个或者其组合实施物理对象检测和触摸屏交互的实施方式和技术。在实施中,计算设备104的交互伴随模块可为通过应用程序接口(API)与输入设备102的交互模块120交互的软件应用。输入设备102的交互模块120和/或计算设备104的交互伴随模块122被实施以执行参照图3、4和7~9描述的各种操作方法。
计算设备104还可包括接触检测系统124,例如当键盘、多功能直尺或其它类型的输入设备被放置在触摸屏显示表面上时,接触检测系统124检测在触摸屏显示表面106上的输入设备102的电容性接触。接触检测系统还可与计算设备104的交互伴随模块122和/或输入设备102的交互模块120交互。在实施方式中,当例如多功能直尺或键盘的输入设备102被放置在计算设备的触摸屏显示表面106上时,其可具有可识别的接触形状。输入设备的接触形状可为接触点的定义的图案,并且根据接触点的定义的图案可确定输入设备在触摸屏显示表面上的位置和方向。
在实施中,输入设备102还可传输以在基于网络的数据存储装置(也称为基于云或“在云中”)中存储设备数据118、用户设置和/或任何其它类型的配置信息,该基于网络的数据存储装置被显示为存储设备数据和设置128的云存储装置126。例如,与图5和图6中显示的键盘关联的用户接口设置可被存储在云存储装置126中,并且当键盘(例如输入设备102)被放置在触摸屏显示表面上以用于触摸屏交互时,可通过键盘(例如输入设备102)访问该用户接口设置。类似地,与图2中显示的多功能直尺关联的用户和设备设置可存储在云存储装置126中,并且当多功能直尺(例如输入设备102)被放置在触摸屏显示表面上以用于触摸屏交互时,可通过多功能直尺(例如输入设备102)访问该用户和设备设置。
文中描述的任何设备可通过网络130进行通信,网络130可实施为包括有线和/或无线网络。还可使用任何类型的网络拓扑和/或通信协议实施所述网络,并且所述网络可表示为或者以其他方式实施为两个或更多个网络的组合,以包括基于IP的网络和/或因特网。网络还可包括由移动网络运营商和/或其它网络运营商管理的移动运营商网络,所述移动网络运营商和/或其它网络运营商例如为通信服务供应商、移动电话运营商和/或因特网服务提供商。
图2图示了利用触摸屏显示表面204上的多功能直尺202进行的物理对象检测和触摸屏交互的实施例200,触摸屏显示表面204例如集成在平板设备206中。多功能直尺202为参照图1描述的输入设备102的示例,并且平板设备206为参照图1描述的计算设备104的示例。在这个示例200中,多功能直尺202是例如通过蓝牙TM、低功耗蓝牙(BTLE)、WiFiTM或另一种类型的无线通信与触摸屏显示表面通信的无线设备。触摸屏显示表面204是集成在便携式计算设备例如平板设备206中的电容式触摸屏显示器的示例。
如视图210中所示,多功能直尺202具有接触点208(例如电容式触点)的定义的图案,并且接触点的图案可被识别为多功能直尺。如在212所示,当多功能直尺放置在触摸屏显示表面204上时,在触摸屏显示表面204上识别出接触点208的图案。备选地或附加地,可以识别多功能直尺的任何配置、物理特征或电特征,例如当多功能直尺放置在触摸屏显示表面时多功能直尺的可识别的接触形状。由接触点的可识别的接触形状和/或定义的图案可确定多功能直尺在触摸屏显示表面上的位置和方向。在实施中,当接触点208在阈值持续时间内就地保持稳定时,多功能直尺202的触摸检测系统可识别触摸屏显示表面204上的设备。然后,可从动作手势区分接触,所述动作手势例如为可由用户利用放置在触摸屏显示表面上的两个手指发起的、诸如捏拉缩放(pinch to zoom)或展开动作手势。
在实施中,多功能直尺202为与平板设备206和触摸屏显示表面204交互或对接的消费性电子设备,以布置各种形状作为模板,从而辅助用户用触控笔或手指输入进行绘图。还可响应于多功能直尺被放置在平板设备的触摸屏显示表面204上,而发起数字绘图工具的用户接口214,以在触摸屏显示表面204上进行显示。多功能直尺202包括可选择的形状216和/或其它类型的绘图模板引导。多功能直尺还可被实施为包括可选择的和/或定制的模板,包括但不限于由多功能直尺加强或促进的绘图、制图、曲线板、建筑、电气、手工艺、图像印章和/或其它任何类型的屏上模板应用。
多功能直尺202可以采用使得软件能够利用与多功能直尺的交互的任何方式来加强触摸屏显示表面204和平板设备206的设备软件。如参照图1中显示的示例性系统所描述的,多功能直尺202可包括与伴随模块通信的交互模块(例如软件构件或应用),该伴随模块通过平板设备来实施并可与触摸屏显示表面一起操作。例如,多功能直尺的交互模块可向包括触摸屏显示表面的计算设备的伴随模块传输多功能直尺的标识符以及用户输入。
用户可选择形状216(或其它类型的绘图模板引导)作为多功能直尺202上的用户输入,并且在平板设备的触摸屏显示表面204上显示对应于用户形状输入的形状对象。例如,用户可选择在多功能直尺上的线形状216,并且在多功能直尺位于触摸屏显示表面上的同时,形状对象218在触摸屏显示表面204上被显示为绘图形状模板和/或用于触控笔输入的触控笔引导线。然后,用户可使用触控笔220,手指或其它绘图工具以在形状对象218(例如触控笔引导线)上划线222。在这个示例中,形状对象218被图示为比用户用触控笔绘制的粗黑线222细的灰线。
在触摸屏显示表面204上显示的形状对象218与多功能直尺202关联,并保持相对于多功能直尺的显示位置224。将形状对象拴系(tether)到多功能直尺,以保持相对于多功能直尺的显示位置,并且形状对象可与触摸屏显示表面上的多功能直尺一起移动和/或旋转。此外,可选择任何显示的形状对象,并且任何显示的形状对象包括角控点(cornerhandles)和/或边缘控点(edge handles),以改变触摸屏显示表面上形状对象的形状、调整触摸屏显示表面上形状对象的大小和/或改变触摸屏显示表面上形状对象的位置。
在实施中,可从触摸屏显示表面移除多功能直尺,并且然后不显示形状对象(即绘图模板或触控笔引导线从触摸屏显示表面上消失)。备选地,在其它实施中,当从触摸屏显示表面上移除多功能直尺时,形状对象可保持显示为触摸屏显示表面上的绘图元件。例如,形状对象可首先显示为绘图模板,然后保持显示,并且作为绘图的一部分被包括在触摸屏显示表面上。
根据物理对象检测和触摸屏交互的一个或多个实施方式,分别参照图3、4、7、8和9描述示例性方法300、400、700、800和900。总体而言,可使用软件、固件、硬件(例如固定逻辑电路)、手动处理或它们的任何组合来实施这里描述的服务、组件、模块、方法和操作。可以在存储于计算机处理系统的本地或远程的计算机可读存储介质上的可执行指令的广义上下文中描述示例性方法,并且实施可包括软件应用、程序、功能等。
图3图示了物理对象检测和触摸屏交互的示例性方法300,并且参照在触摸屏显示表面上的多功能直尺交互来总体上描述图3。描述的方法中的顺序不旨在被解释为限制,而是可以任何顺序来组合任何数目的方法操作和方法操作的组合,以实施方法或替代的方法。
在302,在计算设备的触摸屏显示表面上识别多功能直尺的接触形状。例如,当输入设备被放置在平板设备(例如计算设备)的触摸屏显示表面204上时,平板设备206(图2)的交互伴随模块122(图1)识别多功能直尺202的接触形状。在实施中,多功能直尺包括被识别为多功能直尺的接触形状的接触点208的定义的图案。备选地或附加地,当多功能直尺放置在触摸屏显示表面上时,多功能直尺的任何配置、物理特征或电特征可被识别为输入设备的接触形状。
在304,确定多功能直尺在触摸屏显示表面上的位置和方向。例如,平板设备206的交互伴随模块122确定多功能直尺202在平板设备的触摸屏显示表面204上的位置和方向,例如从多功能直尺的可识别的接触形状和/或基于接触点208的定义的图案。
在306,在多功能直尺上接收用户形状输入。例如,多功能直尺202(例如输入设备102)的交互模块120接收用户形状输入,例如作为多功能直尺202上的用户输入的形状216的接触点(或其它类型的绘图模板引导)。
在308,发起形状对象以用于在触摸屏显示表面上显示。例如,多功能直尺202的交互模块120向平板设备206的交互伴随模块122传输(在306接收的)用户输入,交互伴随模块122发起该形状对象以用于显示。在多功能直尺位于触摸屏显示表面上的同时,用户可选择多功能直尺上的线形状216,并且在触摸屏显示表面上显示形状对象218以作为绘图形状模板和/或用于触控笔输入的触控笔引导线。这可包括在多功能直尺位于触摸屏显示表面上的同时,在触摸屏显示表面上显示形状对象以作为绘图形状模板。备选地或附加地,这可包括在触摸屏显示表面上显示形状对象以作为一个或多个触控笔引导线,从而作为对于触控笔输入的引导。
在310,在触摸屏显示表面上显示的形状对象与多功能直尺关联,在312,保持形状对象相对于多功能直尺的显示位置。例如,平板设备206的交互伴随模块122将形状对象218与多功能直尺202关联,并且将形状对象拴系到多功能直尺,以保持相对于触摸屏显示表面上的多功能直尺的显示位置。形状对象与触摸屏显示表面上的多功能直尺一起移动和/或旋转。
图4图示了物理对象检测和触摸屏交互的示例性方法400,并且参照在触摸屏显示表面上的多功能直尺交互来总体上描述图4。描述的方法中的顺序不旨在被解释为限制,而是可以任何顺序来组合任何数目的方法操作和方法操作的组合,以实施方法或替代的方法。
在402,向伴随模块传输多功能直尺的标识符,该伴随模块通过计算设备来实施并可与触摸屏显示表面一起操作。例如,多功能直尺202(图2)的交互模块120(图1)向平板设备206(例如计算设备)的交互伴随模块122传输输入设备(例如多功能直尺)的设备标识符116。
在404,响应于多功能直尺被放置在触摸屏显示表面上,发起数字绘图工具的用户接口以用于在触摸屏显示表面上显示。例如,当多功能直尺202被放置在触摸屏显示表面上时,平板设备206的交互伴随模块122发起数字绘图工具的用户接口214,以用于在平板设备的触摸屏显示表面204上显示。
在406,识别从触摸屏显示表面移除的多功能直尺,这有效地不显示形状对象。例如,平板设备206的交互伴随模块122识别从触摸屏显示表面204上移除的多功能直尺202,这有效地不显示形状对象(即绘图模板或触控笔引导线从触摸屏显示表面上消失)。
作为当从触摸屏显示表面上移除多功能直尺(在406)时不显示形状对象的替代方案,在408识别从触摸屏显示表面移除多功能直尺,并且在410,形状对象在触摸屏显示表面上被显示为绘图元件。例如,平板设备206的交互伴随模块122识别从触摸屏显示表面204上移除多功能直尺202,并且保持显示形状对象,并且形状对象被包括作为触摸屏显示表面上的绘图的一部分。
图5图示了利用触摸屏显示表面504上的键盘502进行的物理对象检测和触摸屏交互的实施例500,触摸屏显示表面504例如为在计算设备506中集成的电容式触摸屏显示器,例如任何类型的数字绘图桌面、独立的桌面或平板触摸屏显示表面。键盘502为参照图1描述的输入设备102的示例,并且计算设备506为参照图1描述的计算设备104的示例。在这个实施方式中,键盘502是例如通过蓝牙TM、低功耗蓝牙(BTLE)、WiFiTM或另一种类型的无线通信、与触摸屏显示表面通信的无线设备。
如在510所示,键盘502具有在键盘底部的接触点508的定义的图案(例如电容式触点),并且接触点的图案可识别为键盘。如在512所示,当键盘被放置在触摸屏显示表面上时,在触摸屏显示表面504上识别接触点508的图案。具有三个或更多个可识别的接触点避免了键盘的触摸检测系统将移动手势检测为键盘,例如上面参照利用两个可识别的接触点实施的多功能直尺所描述的。备选地或另外地,当键盘被放置在触摸屏显示表面上时,可识别键盘的任何配置、物理特征或电特征,例如可识别的接触形状。根据接触点的可识别的接触形状和/或定义的图案可确定键盘在触摸屏显示表面上的位置和方向。
键盘502可以采用使得软件能够利用与键盘的交互的任何方式来加强触摸屏显示表面504和触摸屏显示表面(例如当实施为计算设备506时)的设备软件。如参照图1中显示的示例系统所描述的,键盘502可包括与伴随模块通信的交互模块(例如软件组件或应用),该伴随模块与触摸屏显示表面一起实施并且可与触摸屏显示表面一起操作。例如,键盘的交互模块向触摸屏显示表面的伴随模块或向包括触摸屏显示表面的计算设备传输键盘的标识符及用户的键盘输入。
如在512所示,当键盘502被放置在触摸屏显示表面上时,文本对象514可显示在触摸屏显示表面504上。在实施方式中,键盘自身发起文本对象,而不需要用户必须导航菜单并选择选项以创建文本对象。自动产生文本对象,并在触摸屏显示表面上显示,为用户输入做好准备,减少了一个或多个用户输入。然后,传输至键盘的用户按键输入,以用于在触摸屏显示表面上的文本对象中显示为字母数字字符。备选地,可响应于向键盘的用户按键输入,而发起文本对象,以用于在触摸屏显示表面上显示。还可响应于键盘502被放置在触摸屏显示表面上,而发起用户接口面板516,以用于在触摸屏显示表面504上显示。用户接口面板516可包括可选择的文本编辑选项和/或到先前创建的文本对象的可选择的链接以供用户选择以编辑先前创建的文本对象。
在触摸屏显示表面504上显示的文本对象514与键盘502关联,并保持相对于键盘的显示位置518。文本对象可与键盘一起移动和/或旋转520,以保持相对于触摸屏显示表面上的键盘的显示位置。用户接口面板516还与键盘关联,并保持相对于键盘的显示位置522,以便用户接口面板也可与键盘一起移动和/或旋转520,以保持相对于触摸屏显示表面上的键盘的显示位置。
在实施中,例如当用户选择和拖动文本对象514以从键盘分离文本对象时,可从键盘502移开与键盘502关联的文本对象。然后,可创建另外的文本对象,在触摸屏显示表面上显示该另外的文本对象,并且将另外的文本对象与键盘关联以便为用户输入做好准备。例如,用户可打入同样具有触摸选择选项的笔记或电子邮件,当完成打字时,从键盘拖走笔记或电子邮件,另一个文本对象(例如该示例中的笔记或电子邮件)被自动创建,并为用户按键输入做好准备。
当从触摸屏显示表面504上移除键盘502时,可不再显示与键盘502关联的文本对象,并且然后文本对象可响应于键盘被放置回触摸屏显示表面上而再次被显示。如图6所示以及参照图6描述的,在键盘被放置在触摸屏显示表面上之前,文本对象也可显示在触摸屏显示表面上。当键盘被放置在触摸屏显示表面上时,可基于键盘与所显示的文本对象邻近来选择所显示的文本对象,并将所显示的文本对象与键盘关联,以便能够编辑文本。
在实施中,可使用具有一个以上键盘的较大的触摸屏显示表面,例如当用户在杂志排版或其它项目上合作时。每个用户可在触摸屏显示表面504上放置键盘,并且可与触摸屏显示表面一起操作的伴随模块(例如软件应用或模块)可区分键盘。例如,如在510所示,除了接触点508的定义的图案之外,可基于具有唯一地定位的接触点524的每个键盘来区分键盘。每个用户可随机地在键盘的底部放置另外的接触点524,以唯一地识别键盘。
在其它实施中,在触摸屏显示表面504检测到的物理对象可包括放置在显示于触摸屏显示表面的视频的网格上的视频慢进和快进装置。可使用视频慢进和快进装置直接导航、预览、拼接、以及以其他方式随时间编辑视频。还可在视频慢进和快进装置周围或与视频慢进和快进装置结合来显示屏幕上的用户接口,以进一步促进用户与视频的交互,例如以选择、编辑和剪切视频的不同部分,以便为了进一步的编辑而在新的时间轴中组合。
图6进一步图示了利用参照图5描述的计算设备506的触摸屏显示表面504上的键盘502进行的物理对象检测和触摸屏交互的实施例600。在这个实施例中,如在604所示,文件602显示在触摸屏显示表面上,并且键盘502放置在该触摸屏显示表面上。在键盘被放置在触摸屏显示表面上之前,文本对象可显示在触摸屏显示表面上。如在606处用文件选择和移动手势所示,可通过定位物理键盘或在物理键盘下方移动页面布局(例如文件602),而基于键盘的邻近来选择例如页面布局中的已有的文本对象。备选地,用户可仅拖动所选择的文本,例如如果文本对象608还未已经是较大的、已组织的布局的一部分。
当键盘502放置在触摸屏显示表面504上时,可基于键盘与所显示的文本对象的邻近来选择所显示的文本对象608,并将所显示的文本对象608与键盘关联,以便能够编辑文本。取代产生新的文本对象,键盘的物理放置可选择当前的文本对象,为用户按键输入以编辑当前的文本做好准备。可自动地选择最接近键盘的文本。
图7描述了物理对象检测和触摸屏交互的示例性方法700,并且参照在触摸屏显示表面上的键盘交互来总体上描述图7。描述的方法中的顺序不旨在被解释为限制,而是可以任何顺序来组合任何数目的方法操作和方法操作的组合,以实施方法或替代的方法。
在702,在计算设备的触摸屏显示表面上识别键盘的接触形状。例如,当输入设备放置在计算设备506的触摸屏显示表面504上时,计算设备506(图5)的交互伴随模块122(图1)识别键盘502的接触形状。在实施中,键盘包括接触点508的定义的图案,接触点508的定义的图案被识别为键盘的接触形状。备选地或另外地,当键盘放置在触摸屏显示表面上时,键盘的任何配置、物理特征或电特征可被识别为输入设备的接触形状。
在704,向可与触摸屏显示表面一起操作的伴随模块传输键盘的标识符。例如,键盘502(图5)的交互模块120(图1)向计算设备506的交互伴随模块122传输输入设备(例如键盘)的设备标识符116。
在706,确定键盘在触摸屏显示表面上的位置和方向。例如,计算设备506的交互伴随模块122确定键盘502在计算设备的触摸屏显示表面504上的位置和方向,例如根据键盘的可识别的接触形状和/或基于接触点508的定义的图案。
在708,发起文本对象以用于在触摸屏显示表面上显示。例如,当键盘502放置在触摸屏显示表面上时,计算设备506的交互伴随模块122产生文本对象514,以用于在计算设备506的触摸屏显示表面504上显示。备选地,可响应于向键盘的用户按键输入而发起文本对象,以用于在触摸屏显示表面上显示。
在710,在触摸屏显示表面上显示的文本对象与键盘相关联,在712,保持文本对象相对于键盘的位置。例如,计算设备506的交互伴随模块122将文本对象514与键盘502关联,并将文本对象拴系到键盘,以保持相对于在触摸屏显示表面上的键盘的显示位置。文本对象与触摸屏显示表面上的键盘一起移动和/或旋转。
在714,在键盘上接收用户按键输入,在716,传输用户按键输入,以用于在触摸屏显示表面上的文本对象中作为字母数字字符而显示。例如,键盘502(例如输入设备102)的交互模块120接收向键盘的用户按键输入,并且交互模块向计算设备506的交互伴随模块122传输用户按键输入,以用于在触摸屏显示表面上的文本对象中显示为字母数字字符。
图8图示了物理对象检测和触摸屏交互的示例性方法800,并且参照在触摸屏显示表面上的键盘交互来总体上描述图8。描述的方法中的顺序不旨在被解释为限制,而是可以任何顺序来组合任何数目的方法操作和方法操作的组合,以实施方法或替代的方法。
在802,基于键盘与所显示的文本对象的邻近来选择所显示的文本对象,以便能够编辑在键盘放置在触摸屏显示表面上之前所显示的文本。例如,计算设备506(图5)的交互伴随模块122(图1)基于键盘与所显示的文本对象的邻近来选择所显示的文本对象608(图6),以便能够编辑在键盘放置在触摸屏显示表面上之前所显示的文本。当键盘502放置在触摸屏显示表面504上时,可基于键盘与所显示的文本对象的邻近来选择所显示的文本对象608并将所显示的文本对象608与键盘关联。
在804,文本对象被识别为已经与键盘分离,并且在806,响应于文本对象已经与键盘分离而发起另外的文本对象,以用于在触摸屏显示表面上显示。例如,计算设备506的交互伴随模块122识别何时文本对象与键盘分离时,例如何时用户选择和拖动文本对象514以使文本对象与键盘分离时。然后,创建另外的文本对象,并在触摸屏显示表面上显示该另外的文本对象,并将该另外的文本对象与键盘关联,以便为用户输入做好准备。
在808,键盘被识别为已被从触摸屏显示表面上移除,这有效地不显示文本对象。例如,计算设备506的交互伴随模块122识别键盘502被从触摸屏显示表面上504移除,并且当从触摸屏显示表面上移除键盘时,不再显示与键盘关联的文本对象。在810,响应于识别出键盘被放置回触摸屏显示表面上而重新显示文本对象。例如,计算设备506的交互伴随模块122识别键盘02被放置回触摸屏显示表面上,并且文本对象被显示。
图9图示了物理对象检测和触摸屏交互的示例性方法900,并且参照在触摸屏显示表面上的键盘交互来总体上描述图9。描述的方法中的顺序不旨在被解释为限制,而是可以任何顺序来组合任何数目的方法操作和方法操作的组合,以实施方法或替代的方法。
在902,响应于键盘被放置在触摸屏显示表面上,发起用户接口面板,以用于在触摸屏显示表面上显示。例如,当键盘50放置在触摸屏显示表面上时,计算设备506的交互伴随模块122发起用户接口面板516,以用于在计算设备的触摸屏显示表面504上显示。用户接口面板516可包括可选择的文本编辑选项和/或到先前创建的文本对象的可选择的链接以供用户选择以编辑先前创建的文本对象。
在904,用户接口面板与键盘关联,并且在906,保持用户接口面板相对于键盘的显示位置。例如,计算设备506的交互伴随模块122将用户接口面板516与键盘502关联,并将用户接口面板拴系到键盘,以保持相对于在触摸屏显示表面上的键盘的显示位置。用户接口面板与触摸屏显示表面上的键盘一起移动和/或旋转。在908,在用户接口面板中显示到先前创建的文本对象的可选择的链接,以供用户选择以编辑先前创建的文本对象。例如,计算设备506的交互伴随模块122在用户接口面板516中发起显示到先前创建的文本对象的可选择的链接,以供用户选择以编辑先前创建的文本对象。
图10图示了包含示例性设备1002的示例性系统1000,示例性系统1000可实施物理对象检测和触摸屏交互的实施方式。示例性设备1002可实施为参照图1~9描述的设备和/或服务(例如服务器设备)中的任一个,例如任何类型的输入设备、平板设备、计算设备、通信设备、娱乐设备、游戏设备、媒体播放和/或可实施为或包括触摸屏显示表面的其它类型的计算设备。例如,如图2和图5所示的多功能直尺202和/或平板设备206及键盘502、触摸屏显示表面504和/或计算设备506可被实施为示例性设备1002。
设备1002包括实现设备数据1006的有线和/或无线通信的通信设备1004,设备数据1006例如在设备上存储的设备设置和数据、用户数据和用户接口配置设置。设备数据可包括任何类型的用户数据和/或设备数据。通信设备1004还包括用于蜂窝电话通信和/或网络数据通信的收发器。
设备1002还包括输入/输出(I/O)接口1008,例如提供设备、数据网络和其它设备之间的连接和/或通信线路的数据网络接口。该I/O接口可用于将设备耦合到任何类型的组件、外围设备和/或辅助设备,例如可与设备1002集成的触摸屏显示表面。该I/O接口还包括可经由其接收任何类型的数据、媒体内容和/或输入的数据输入端口,可经由该数据输入端口接收的数据、媒体内容和/或输入例如为向设备的用户输入、以及从任何内容源和/或数据源接收的任何类型的音频、视频和/或图像数据。
设备1002包括可在硬件中至少部分地实施的处理系统1010,所述硬件例如处理可执行指令的任何类型的微处理器、控制器等。处理系统可包括集成电路、可编程逻辑设备、使用一个或多个半导体形成的逻辑设备和在硅和/或硬件中的其它实施,例如实施为片上系统(SoC)的处理器和存储器系统。备选地或附加地,可用软件、硬件、固件或可用处理及控制电路实施的固定的逻辑电路中的任一种或其组合来实施设备。设备1002可进一步包括任何类型的系统总线或耦合设备内的各种组件的其它数据和命令传输系统。系统总线可包括不同总线结构和架构及控制和数据线中的任一种或其组合。
设备1002还包括计算机可读存储介质1012,例如可被计算设备访问并提供数据和可执行指令(例如,软件应用、程序等)的永久存储的数据存储设备。计算机可读存储介质的示例包括非永久性存储器和永久性存储器、固定的和可移动的媒体设备和维护供计算设备访问的数据的任何合适的存储器设备或电子数据存储装置。计算机可读存储介质可包括随机存取存储器(RAM)、只读存储器(ROM)、闪存、和各种存储设备配置中的其它类型的存储介质的各种实现。
计算机可读存储介质1012提供对设备数据1006和各种设备应用1014的存储,例如由计算机可读存储介质作为应用软件来维护并通过处理系统1010实施的操作系统。在这个实施例中,设备应用还包括实施物理对象检测和触摸屏交互的交互模块1016,例如当示例性设备1002实施为图2显示的多功能直尺202、或图5显示的键盘502时。交互模块1016的示例包括如图1中显示并参照图1描述的、通过输入设备102实施的交互模块120和通过计算设备104实施的交互伴随模块122。
设备1002还包括为音频设备1020产生音频数据和/或为显示设备1022(例如触摸屏显示表面)产生显示数据的音频和/或视频系统1018。音频设备和/或显示设备包括处理、显示和/或以其他方式呈现音频、视频、显示和/或图像数据的任何设备,例如数字照片的图像内容。在实施中,音频设备和/或显示设备为示例性设备1002的集成组件。备选地,音频设备和/或显示设备为示例性设备的外部、外围组件。
在实施方式中,可在分布式系统、例如在平台1026中的“云”1024上实施所描述的用于物理对象检测和触摸屏交互的技术的至少一部分。云1024包括和/或表示用于服务1028和/或资源1030的平台1026。平台1026提取例如服务器设备(例如被包括在服务1028中)的硬件和/或软件资源(例如作为资源1030被包括)的基本功能,并且连接示例性设备1002与其它设备、服务器等。
资源1030可包括在从示例性设备1002移除的服务器上执行计算机处理的同时被利用的应用和/或数据。另外,服务1028和/或资源1030可促进用户网络服务,例如通过因特网、蜂窝网络或WiFi网络。根据对于经由平台实施的资源1030的需求,平台1026还可用于提取和依比例决定到服务的资源,例如在具有在整个系统1000中分布的功能的互联设备的实施方式中。例如,可在示例性设备1002处以及通过提取云1024的功能的平台1026部分地实施所述功能。
虽然已经以对特征和/或方法特定的语言描述了物理对象检测和触摸屏交互的实施方式,但是所附权利要求书不必限于说明的具体的特征或方法。相反,公开具体的特征和方法以作为物理对象检测和触摸屏交互的示例性实施。

Claims (14)

1.一种输入设备,包括:
多个电容性接触点,所述多个电容性接触点共同地呈现接触形状,当形成所述接触形状的所述多个电容性接触点与计算设备的触摸屏显示器表面物理接触时,所述接触形状可被识别为所述输入设备;
至少一个处理器;以及
存储计算机可用指令的非暂态计算机存储介质,所述计算机可用指令在由所述至少一个处理器使用时,使得所述至少一个处理器:
当形成所述接触形状的所述多个电容性接触点与所述触摸屏显示器表面物理接触时,经由建立的无线连接,向所述计算设备传输接收的用户输入,其中所述传输使得所述计算设备修改在所述触摸屏显示表面上显示的对象;
其中所述输入设备包括多功能直尺,接收的所述输入对应于选择的形状,并且修改显示的所述对象包括将显示的所述对象改变为基于所述选择的形状的形状对象。
2.根据权利要求1所述的输入设备,其中所述接触形状由所述多个电容性接触点的图案定义,所述图案对应于所述输入设备并且可识别为对应于所述输入设备的所述图案。
3.根据权利要求1所述的输入设备,其中所述形状对象是绘图形状模板。
4.根据权利要求1所述的输入设备,其中所述形状对象是一个或多个触控笔引导线。
5.根据权利要求1所述的输入设备,其中所述形状对象在形成所述接触形状的所述多个电容性接触点与所述触摸屏表面物理接触时相对于所述接触形状的物理位置和方向被显示。
6.根据权利要求1所述的输入设备,其中当所述接触形状失去与所述触摸屏的物理接触时,所述形状对象保持显示。
7.根据权利要求1所述的输入设备,其中数字绘图工具用户接口与所述显示对象一起显示。
8.根据权利要求1所述的输入设备,其中所述输入设备与所述计算设备的所述触摸屏显示器表面分离。
9.一种用于输入的计算机实现的方法,包括:
由计算设备识别与所述计算设备的触摸屏显示器表面分离的输入设备,所述输入设备基于多个接触点被识别,所述多个接触点被设置在所述输入设备上形成与所述触摸屏显示器表面物理接触的对应的接触形状;
经由所述触摸屏显示器表面,发起对象以用于在在相对于所述对应的接触形状的物理位置和方向的显示位置和显示方向上显示;
至少部分地基于与所述触摸屏显示器表面物理接触的所述对应的接触形状,经由与此建立的无线连接,从所述输入设备接收用户输入;以及
基于接收的所述用户输入来修改所述显示的对象;
其中所述输入设备包括多功能直尺,所述用户输入是选择的形状,并且所述显示的对象的所述修改包括将所述显示的对象改变为对应于所述选择的形状的形状对象。
10.根据权利要求9所述的方法,其中所述方法进一步包括:
当所述对应的接触形状与所述触摸屏显示器表面物理接触时,基于所述接触点的检测的位置,确定所述对应的接触形状的所述物理位置和方向。
11.根据权利要求9所述的方法,其中所述形状对象为以下各项之一:
绘图形状模板;或者
绘图元件,当所述对应的接触形状失去与所述触摸屏显示器表面的物理接触时,所述绘图元件保持显示。
12.根据权利要求9所述的方法,进一步包括:
提供用于显示的数字绘图工具用户接口,所述数字绘图工具用户接收对应于所述输入设备,其中所述数字绘图工具用户接口至少部分地基于所述对应的接触形状的识别被选择。
13.一种多功能直尺,包括:
多个电容性接触点,所述多个电容性接触点共同地呈现对应于所述多功能直尺的接触形状,其中所述多功能直尺至少部分地基于与计算设备的触摸屏显示器表面物理接触的所述对应的接触形状,由与所述多功能直尺分离的所述计算设备可识别;
至少一个处理器;以及
存储计算机可用指令的非暂态计算机存储介质,所述计算机可用指令在由所述至少一个处理器使用时,使得所述至少一个处理器:
接收形状选择输入;以及
使得所述计算设备至少部分地基于与所述触摸屏显示器表面物理接触的所述对应的接触形状,在所述触摸屏显示器上,在所述对应的接触形状的显示位置和显示方向上显示对应于所述接收的形状选择输入的形状对象。
14.根据权利要求13所述的多功能直尺,其中所述指令还使得所述至少一个处理器经由建立的无线连接向所述计算设备传输所述接收的形状选择输入。
CN201410154201.7A 2013-05-02 2014-04-14 物理对象检测和触摸屏交互 Active CN104133581B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361818858P 2013-05-02 2013-05-02
US61/818,858 2013-05-02

Publications (2)

Publication Number Publication Date
CN104133581A CN104133581A (zh) 2014-11-05
CN104133581B true CN104133581B (zh) 2019-05-21

Family

ID=51727549

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410154201.7A Active CN104133581B (zh) 2013-05-02 2014-04-14 物理对象检测和触摸屏交互

Country Status (3)

Country Link
US (1) US10146407B2 (zh)
CN (1) CN104133581B (zh)
DE (1) DE102014006318A1 (zh)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012219565A1 (de) * 2012-10-25 2014-04-30 Krones Ag Vorrichtung zur Unterstützung von Datengewinnung und/oder Datenverarbeitung
US10146407B2 (en) 2013-05-02 2018-12-04 Adobe Systems Incorporated Physical object detection and touchscreen interaction
EP2818985B1 (en) * 2013-06-28 2021-05-12 Nokia Technologies Oy A hovering input field
WO2016039769A1 (en) * 2014-09-12 2016-03-17 Hewlett-Packard Development Company, L.P. Developing contextual information from an image
WO2016168785A1 (en) * 2015-04-17 2016-10-20 Tulip Interfaces, Inc. Augmented manufacturing system
US9690400B2 (en) 2015-04-21 2017-06-27 Dell Products L.P. Information handling system interactive totems
US9983717B2 (en) 2015-04-21 2018-05-29 Dell Products L.P. Disambiguation of false touch inputs at an information handling system projected user interface
US9753591B2 (en) * 2015-04-21 2017-09-05 Dell Products L.P. Capacitive mat information handling system display and totem interactions
US9804733B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Dynamic cursor focus in a multi-display information handling system environment
US11243640B2 (en) 2015-04-21 2022-02-08 Dell Products L.P. Information handling system modular capacitive mat with extension coupling devices
US11106314B2 (en) 2015-04-21 2021-08-31 Dell Products L.P. Continuous calibration of an information handling system projected user interface
US9720446B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Information handling system projected work space calibration
US10139854B2 (en) 2015-04-21 2018-11-27 Dell Products L.P. Dynamic display resolution management for an immersed information handling system environment
US9791979B2 (en) 2015-04-21 2017-10-17 Dell Products L.P. Managing inputs at an information handling system by adaptive infrared illumination and detection
US9921644B2 (en) 2015-04-21 2018-03-20 Dell Products L.P. Information handling system non-linear user interface
US9720550B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Adaptable input active zones at an information handling system projected user interface
US9804718B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Context based peripheral management for interacting with an information handling system
US10481645B2 (en) 2015-09-11 2019-11-19 Lucan Patent Holdco, LLC Secondary gesture input mechanism for touchscreen devices
US10108337B2 (en) * 2016-06-20 2018-10-23 Dell Products L.P. Information handling system hybrid keyboard
US10365822B2 (en) 2016-06-20 2019-07-30 Dell Products L.P. Information handling system multi-handed hybrid interface devices
US10795510B2 (en) 2016-10-25 2020-10-06 Microsoft Technology Licensing, Llc Detecting input based on a capacitive pattern
US10496216B2 (en) 2016-11-09 2019-12-03 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10146366B2 (en) 2016-11-09 2018-12-04 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10139973B2 (en) * 2016-11-09 2018-11-27 Dell Products L.P. Information handling system totem tracking management
US10139930B2 (en) * 2016-11-09 2018-11-27 Dell Products L.P. Information handling system capacitive touch totem management
US10139951B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system variable capacitance totem input management
US10386974B2 (en) 2017-02-07 2019-08-20 Microsoft Technology Licensing, Llc Detecting input based on a sensed capacitive input profile
US10613675B2 (en) * 2017-04-24 2020-04-07 Dell Products L.P. Information handling system totem pressure sensor
US10613649B2 (en) 2017-04-24 2020-04-07 Dell Products L.P. Information handling system totem holder
US10459528B2 (en) 2018-02-28 2019-10-29 Dell Products L.P. Information handling system enhanced gesture management, control and detection
US10795502B2 (en) 2018-06-28 2020-10-06 Dell Products L.P. Information handling system touch device with adaptive haptic response
US10761618B2 (en) 2018-06-28 2020-09-01 Dell Products L.P. Information handling system touch device with automatically orienting visual display
US10852853B2 (en) 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US10817077B2 (en) 2018-06-28 2020-10-27 Dell Products, L.P. Information handling system touch device context aware input tracking
US10635199B2 (en) 2018-06-28 2020-04-28 Dell Products L.P. Information handling system dynamic friction touch device for touchscreen interactions
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
JP7181300B2 (ja) * 2018-08-30 2022-11-30 株式会社ワコム インタフェース装置及びオンパネルパッド
US11128538B2 (en) * 2019-07-16 2021-09-21 Mastercard International Incorporated Method and system for an interactive, tangible system for visualizing, designing and debugging distributed software applications
CN118172980A (zh) * 2024-05-16 2024-06-11 珠海市海康电子科技有限公司 一种教育智慧屏及其使用方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976172A (zh) * 2010-11-13 2011-02-16 上海交通大学 汉语拼音滑行输入键盘动态显示系统及其显示方法
WO2011025601A1 (en) * 2009-08-26 2011-03-03 General Electric Company Imaging multi-modality touch pad interface systems, methods, articles of manufacture, and apparatus
CN102043484A (zh) * 2009-10-26 2011-05-04 宏正自动科技股份有限公司 用于触控面板的具多接触点的工具
GB2493139A (en) * 2011-07-15 2013-01-30 Blue Sky Designs Ltd A handheld device with contact member to contact a touch screen

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8599106B2 (en) * 2010-10-01 2013-12-03 Z124 Dual screen application behaviour
US20080042993A1 (en) * 2006-08-15 2008-02-21 Denny Jaeger Sensor pad using light pipe input devices
US20100066690A1 (en) * 2008-05-17 2010-03-18 Darin Beamish Digitizing tablet devices, methods and systems
CN101730416B (zh) * 2008-10-31 2012-08-29 鸿富锦精密工业(深圳)有限公司 电子设备及其按键
US9207806B2 (en) * 2009-05-28 2015-12-08 Microsoft Technology Licensing, Llc Creating a virtual mouse input device
US20110095994A1 (en) * 2009-10-26 2011-04-28 Immersion Corporation Systems And Methods For Using Static Surface Features On A Touch-Screen For Tactile Feedback
US20110117968A1 (en) * 2009-11-13 2011-05-19 Nokia Corporation Input device for a user interface
US20110185320A1 (en) * 2010-01-28 2011-07-28 Microsoft Corporation Cross-reference Gestures
US8599162B2 (en) * 2010-03-18 2013-12-03 Chris Argiro Actionable-object controller and data-entry attachment for touchscreen-based electronics
US10120446B2 (en) * 2010-11-19 2018-11-06 Apple Inc. Haptic input device
US20120194457A1 (en) 2011-01-28 2012-08-02 Bruce Cannon Identifiable Object and a System for Identifying an Object by an Electronic Device
US20120212422A1 (en) * 2011-02-21 2012-08-23 Iasolution Inc. Software Aided Physical Keyboard for a Touch-Screen
US9369820B2 (en) * 2011-08-23 2016-06-14 Htc Corporation Mobile communication device and application interface switching method
WO2013068863A1 (en) * 2011-11-11 2013-05-16 International Business Machines Corporation Mobile touch-generating device as secure loupe for touchscreen devices
US20130154947A1 (en) * 2011-12-14 2013-06-20 International Business Machines Corporation Determining a preferred screen orientation based on known hand positions
US8866769B2 (en) * 2012-03-13 2014-10-21 Blackberry Limited Device cover with drawing pad input device
US9494427B2 (en) * 2012-04-25 2016-11-15 Tyrell Gray System and method for providing a directional interface
US9250721B2 (en) * 2012-12-17 2016-02-02 Disney Enterprises, Inc. Wireless stylus device with interchangeable tips and eraser
US9448643B2 (en) * 2013-03-11 2016-09-20 Barnes & Noble College Booksellers, Llc Stylus sensitive device with stylus angle detection functionality
US9632594B2 (en) * 2013-03-11 2017-04-25 Barnes & Noble College Booksellers, Llc Stylus sensitive device with stylus idle functionality
GB2516345B (en) 2013-05-02 2015-07-15 Adobe Systems Inc Physical object detection and touchscreen interaction
US10146407B2 (en) 2013-05-02 2018-12-04 Adobe Systems Incorporated Physical object detection and touchscreen interaction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011025601A1 (en) * 2009-08-26 2011-03-03 General Electric Company Imaging multi-modality touch pad interface systems, methods, articles of manufacture, and apparatus
CN102043484A (zh) * 2009-10-26 2011-05-04 宏正自动科技股份有限公司 用于触控面板的具多接触点的工具
CN101976172A (zh) * 2010-11-13 2011-02-16 上海交通大学 汉语拼音滑行输入键盘动态显示系统及其显示方法
GB2493139A (en) * 2011-07-15 2013-01-30 Blue Sky Designs Ltd A handheld device with contact member to contact a touch screen

Also Published As

Publication number Publication date
DE102014006318A1 (de) 2014-11-06
CN104133581A (zh) 2014-11-05
US10146407B2 (en) 2018-12-04
US20140327628A1 (en) 2014-11-06

Similar Documents

Publication Publication Date Title
CN104133581B (zh) 物理对象检测和触摸屏交互
US11301126B2 (en) Icon control method and terminal
CN104144184B (zh) 一种控制远端设备的方法及电子设备
CN102566901A (zh) 一种在手持触摸设备上控制电子表格的方法
JP2016170613A (ja) 会議支援装置、会議支援システム、会議支援プログラム、及び会議支援方法
TW201601051A (zh) 智慧型及可縮放觸控使用者介面顯示器
JP2014106595A (ja) 情報処理装置、その制御方法およびプログラム
CN105204754A (zh) 触摸屏的单手操作方法及装置
GB2516345A (en) Physical object detection and touchscreen interaction
JP6445777B2 (ja) オブジェクトを管理する情報処理装置およびその制御方法
JP6200876B2 (ja) コンテンツオーサリングツールでインデックスページを構築する方法およびシステム
JP2016133978A (ja) 情報処理装置、情報処理方法及びプログラム
CN103941999B (zh) 一种信息处理方法及电子设备
JP6259225B2 (ja) 電子機器およびこれに接続された携帯端末のジェスチャ認識操作方法、車載システム
JP6179353B2 (ja) ファイル管理装置及びプログラム
EP2818998A1 (en) Method and apparatus for creating an electronic document in a mobile terminal
WO2015074193A1 (zh) 视窗显示区调整方法、装置及系统
JP2015079291A (ja) 情報処理装置、情報処理システム及びプログラム
JP5645530B2 (ja) 情報処理装置及びその制御方法
KR101898162B1 (ko) 다중 센서감지를 통해 다른 기기로 추가기능 및 피드백을 제공하는 기기 및 방법
JP6341171B2 (ja) 電子端末、及びその制御方法とプログラム
TWI509496B (zh) 電子裝置之頁面管理方法及系統,及相關電腦程式產品
JP6344355B2 (ja) 電子端末、及びその制御方法とプログラム
JP2023026892A (ja) 情報処理装置及び情報処理プログラム
JP2015225126A (ja) 情報処理装置、方法、及びプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant