CN102770839A - 多屏幕捏合装袋手势 - Google Patents
多屏幕捏合装袋手势 Download PDFInfo
- Publication number
- CN102770839A CN102770839A CN201180011035XA CN201180011035A CN102770839A CN 102770839 A CN102770839 A CN 102770839A CN 201180011035X A CN201180011035X A CN 201180011035XA CN 201180011035 A CN201180011035 A CN 201180011035A CN 102770839 A CN102770839 A CN 102770839A
- Authority
- CN
- China
- Prior art keywords
- screen
- input
- gesture
- leaf
- shows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 167
- 238000000034 method Methods 0.000 claims description 74
- 238000004898 kneading Methods 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000012423 maintenance Methods 0.000 description 89
- 238000003756 stirring Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 22
- 230000008676 import Effects 0.000 description 22
- 230000006870 function Effects 0.000 description 20
- 210000003811 finger Anatomy 0.000 description 17
- 238000004891 communication Methods 0.000 description 12
- 230000014509 gene expression Effects 0.000 description 12
- 230000001404 mediated effect Effects 0.000 description 11
- 230000000717 retained effect Effects 0.000 description 9
- 239000012141 concentrate Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 210000003813 thumb Anatomy 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000009194 climbing Effects 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 238000007599 discharging Methods 0.000 description 2
- 238000011065 in-situ storage Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1641—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1647—Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0483—Interaction with page-structured environments, e.g. book metaphor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
描述了多屏幕捏合装袋手势的各实施例。在各实施例中,在多屏幕系统的第一屏幕处识别对第一屏幕区域的第一运动输入,该第一运动输入被识别为选择所显示的对象。在多屏幕系统的第二屏幕处识别对第二屏幕区域的第二运动输入,该第二运动输入被识别为选择所显示的对象。然后可以根据相应的第一和第二屏幕区域中的识别出的第一和第二运动输入来确定捏合装袋手势,该捏合装袋手势可用于将所显示的对象装袋。
Description
背景
诸如个人计算机、膝上型计算机、桌面计算机、娱乐设备等计算设备越来越多地提供更多功能和特征,这些功能和特征使得用户难以导航并选择与用户想要在设备上启动的功能相关的应用命令。随着计算设备的功能和特征持续增加,诸如鼠标、键盘和其他输入设备等与计算设备交互的传统技术变得较低效。这些设备的设计者持续面临的挑战是如何并入不仅是直观的、而且还允许用户容易且快速地与计算设备的许多功能和特征交互的交互技术。
概述
提供本概述以介绍多屏幕手势的简化概念。这些简化概念在以下详细描述中进一步描述。本概述并不旨在标识所要求保护的主题的必要特征,也不旨在用于帮助确定所要求保护的主题的范围。
描述了多屏幕捏合装袋手势的各实施例。在各实施例中,在多屏幕系统的第一屏幕处识别对第一屏幕区域的第一运动输入,该第一运动输入被识别为选择所显示的对象。在多屏幕系统的第二屏幕处识别对第二屏幕区域的第二运动输入,该第二运动输入被识别为选择所显示的对象。然后可以从相应的第一和第二屏幕区域中的识别出的第一和第二运动输入中确定捏合装袋手势,该捏合装袋手势可用于将所显示的对象装袋。在其他实施例中,当所显示的对象被装袋时,所显示的对象可被保存为缩略图像,并且该缩略图像可以是到所显示的对象的可选择链接。输入可被识别为被装袋的所显示的对象上的轻击手势,并且所显示的对象然后扩张以便显示在第一和第二屏幕上。
附图简述
参考以下附图描述了多屏幕手势的各实施例。在各附图中,使用相同的标号来指代相同的特征和组件:
图1示出了可实现多屏幕手势的各实施例的多屏幕系统的实施例。
图2示出了可实现多屏幕手势的各实施例以便在普遍存在的环境中得到无缝用户体验的具有多个设备的示例系统。
图3示出了多屏幕系统上的多屏幕张合手势的示例。
图4示出了根据一个或多个实施例的用于多屏幕张合手势的示例方法。
图5示出了多屏幕系统上的多屏幕捏合装袋手势的示例。
图6示出了根据一个或多个实施例的用于多屏幕捏合装袋手势的示例方法。
图7示出了多屏幕系统上的多屏幕双击手势的示例。
图8示出了根据一个或多个实施例的用于多屏幕双击手势的示例方法。
图9示出了多屏幕系统上的多屏幕保持并轻击手势的示例。
图10示出了根据一个或多个实施例的用于多屏幕保持并轻击手势的示例方法。
图11示出了多屏幕系统上的多屏幕保持并拖动手势的示例。
图12示出了根据一个或多个实施例的用于多屏幕保持并拖动手势的示例方法。
图13示出了多屏幕系统上的多屏幕保持并翻页手势的示例。
图14示出了根据一个或多个实施例的用于多屏幕保持并翻页手势的示例方法。
图15示出了多屏幕系统上的多屏幕书签保持手势的示例。
图16示出了根据一个或多个实施例的用于多屏幕书签保持手势的示例方法。
图17示出了多屏幕系统上的多屏幕对象保持并换页手势的示例。
图18示出了根据一个或多个实施例的用于多屏幕对象保持并换页手势的示例方法。
图19示出了多屏幕系统上的多屏幕同步滑动手势的示例。
图20示出了根据一个或多个实施例的用于多屏幕同步滑动手势的示例方法。
图21示出了可实现多屏幕手势的各实施例的示例设备的各组件。
详细描述
多屏幕手势的各实施例使得多屏幕系统中的一个或多个计算设备的用户能够在该系统的多于一个屏幕处提供输入来启动计算设备功能。在多屏幕手势的各实施例中,多屏幕系统包括可被实现为独立设备或被集成到单个多屏幕设备中的两个或更多屏幕。用户可输入任何类型的各种输入或输入组合,如选择、保持、运动、触摸和/或轻击输入,这些输入在多屏幕系统或多屏幕设备的多个屏幕处被识别。然后可从各种输入的组合中识别多屏幕手势来启动计算设备功能。因此,多屏幕手势使得用户能够以直观方式而非通过用于向计算机设备输入命令的常规技术来向多屏幕系统或设备提供各种输入。
在各实施例中,多屏幕手势可由具有多个屏幕的计算机设备来实现。或者,多屏幕手势可由两个或更多屏幕的多屏幕系统来实现,这些屏幕可能不是物理连接或集成到单个设备中,而是诸如经由数据或网络连接来通信链接。多屏幕系统可包括多个独立的板或手持设备,这些设备可自动发现彼此、由用户来显式配对、或者另外定位在暂时的物理邻近处。
在多屏幕手势的各实施例中,可使用多屏幕捏合手势来浓缩多屏幕系统或设备的多个屏幕上显示的对象。或者,可使用多屏幕扩张手势来扩张所显示的对象以便显示在多屏幕系统或设备的多个屏幕上。多屏幕张合手势也可在语义上缩放通过与显示器、对象和/或应用相关联的信息体系结构的不同级别。多屏幕捏合装袋手势可用于将所显示的对象装袋,如将所显示的对象保存为多屏幕系统或设备的边框(bezel)下的缩略图像。
可使用多屏幕双击手势来扩张显示在多屏幕系统或设备的多个屏幕上的显示的对象或将所显示的对象装袋。例如,当在所显示的对象被装袋时确定了双击手势,所显示的对象可被扩张以便在第一和第二屏幕上进行全屏显示。或者,当在所显示的对象被全屏显示在第一和第二屏幕上时确定了双击手势,则所显示的对象可被装袋。
可使用多屏幕保持并轻击手势来将显示的对象从一个显示位置移动和/或复制到另一显示位置,如将对象移动或复制到杂志页上,或者将对象合并到笔记本中。可使用多屏幕保持并拖动手势来维持所显示的对象的第一部分在第一屏幕上的显示,并拖动所显示的对象的显示在另一屏幕上的第二部分来将该所显示的对象的第二部分装袋来用于分屏视图。或者,可使用保持并拖动手势来维持所显示的对象的第一部分在一个屏幕上的显示,并拖动所显示的对象的被装袋的第二部分来扩张另一屏幕上的显示。
可使用多屏幕保持并翻页手势来选择显示在一个屏幕上的杂志页,并翻动杂志页来显示两个额外的或新的杂志页,这与书中的翻页非常相似。杂志页在所选杂志页的方向上翻动以便显示两个新的杂志页,这与在书中向前或向后翻页非常相似。或者,保持并翻页手势可用于维持显示在一个屏幕上的杂志页的显示,并翻动杂志页来在另一屏幕上显示不同的杂志页。然后可并排显示不连续的杂志页,这对于书而言将涉及从书中撕出一页以将其置于非连续页序来与另一页并排查看。
可使用多屏幕书签保持手势来在对屏幕上的杂志页的保持输入的位置处对杂志页加书签,并且可在对该杂志页维持书签的同时翻动其他杂志页以便进行查看。书签保持手势模仿了读者在翻过书的其他页的同时在页之间保持拇指或手指来保留书中的一个位置的动作。另外,书签是回到杂志页的可选择链接,且对书签的选择输入翻回到屏幕上的杂志页的显示。可使用多屏幕对象保持并换页手势来将所显示的对象从一个显示位置移动和/或复制到另一位置,如合并所显示的对象以便显示在杂志页上。另外,在所显示的对象从一个显示位置移动或复制到另一位置时可维持相对显示位置。
可使用多屏幕同步滑动手势来将所显示的对象从一个屏幕移动以便显示在另一屏幕上,用不同的所显示的对象来替换设备屏幕上所显示的对象,移动所显示的对象来显露设备屏幕上的工作空间,和/或循环通过显示在系统或设备屏幕上的一个或多个工作空间(例如,应用、界面等)。同步滑动手势也可用于导航到另外的视图,或将当前视图重新分配到不同屏幕。另外,不同应用或工作空间可被保持在栈上并用同步滑动手势被来回循环通过。
虽然所描述的用于多屏幕手势的系统和方法的特征和概念能够在任何数量的不同环境、系统和/或各种配置中实现,但多屏幕手势的各实施例在以下各示例系统和环境的上下文中描述。
图1示出了一示例实现中可用于采用多屏幕手势技术的环境100。所示环境100包括可用各种方式来配置的计算设备102的一个示例,如任何类型的多屏幕计算机或设备。例如,计算设备102可被配置为计算机(例如,膝上型计算机、笔记本计算机、平板PC、桌面计算机等)、移动站、娱乐设备、游戏设备等,如参考图2进一步描述的。计算设备102还可以用使得计算设备102执行一个或多个操作的软件来实现。
在该示例环境100中,计算设备102是包括第一屏幕104和第二屏幕106的多屏幕设备,每一屏幕可被实现为任何类型的显示设备、显示系统和/或触摸屏。第一和第二屏幕可显示任何类型的背景或桌面,以及用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。第一和第二屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。
计算设备102包括手势模块108,手势模块108代表了确定手势并使得对应于手势的操作被执行的功能。计算设备还包括输入识别系统110,输入识别系统110被实现为识别各种输入或输入组合,如选择输入、保持输入、运动输入、触摸输入、轻击输入等。输入识别系统110可包括任何类型的输入检测特征以便在各种类型的输入之间进行区分,这些输入检测特征如传感器、光传感像素、触摸传感器、照相机、和/或解释用户交互、手势、输入和运动的自然用户接口。在各实现中,输入识别系统110可从可辨别变量中,如从方向变量(例如,从右到左或相反);从开始区域位置变量(例如,左1、上1、右1、下1)和结束区域变量(例如,左2、上2、右2、下2);和/或从运动速率变量(例如,每秒某一数量的像素)中检测第一或第二屏幕处的运动输入。
输入识别系统110识别各种类型的输入,且手势模块108从所识别的输入中标识或确定多屏幕手势。例如,输入识别系统110可识别第一屏幕104处的第一输入,如触摸输入112,并识别第二屏幕106处的第二输入,如选择输入114。手势模块108然后可从所识别的触摸和选择输入中确定多屏幕手势的类型。第一或第二屏幕处的输入也可被识别为包括将输入识别系统110识别的一种类型的输入与另一输入进行区分的属性(例如,移动、选择点等)。这一区分然后可用作从触摸输入中标识或确定运动输入并因此标识或确定要基于相应手势的确定来执行的操作的基础。在各实现中,计算设备102可包括手势数据库,手势数据库包括手势、输入和/或运动的各种可确定表示,从中手势模块108可确定或标识多屏幕手势。
计算设备102还可被实现为识别并区分诸如触摸输入和指示笔输入等各种输入。该区分可以用各种方式,如通过识别手指输入的大小对比指示笔输入的大小来执行。区分也可通过使用照相机对触摸输入(例如,举起一个或多个手指)、指示笔输入(例如,将两个手指握在一起来指示一个点)、或经由自然用户接口(NUI)的输入进行区分来执行。构想了各种其他用于区分各种类型的输入的技术。
输入识别系统110可识别各种不同类型的输入,且手势模块108可确定各种不同手势,如被识别为单类输入的手势以及涉及多类输入的手势。因此,计算设备102的手势模块108可包括双模输入模块116,双模输入模块代表了识别输入并标识或确定涉及双模输入的手势的功能。手势模块108可通过使用识别并利用通过使用双模输入模块116的不同类型的输入来支持各种不同的手势技术。例如,双模输入模块116可被配置成将指示笔识别为书写工具,而触摸则用于操纵第一或第二屏幕上所显示的对象。应当注意,通过在各种类型的输入之间进行区分,通过这些手势中的单独每一个而变得可能的手势的数量也增加。
因此,手势模块108可支持各种不同的双模的和其他的多屏幕手势118。此处描述的多屏幕手势118的示例包括张合手势120、捏合装袋手势122、双击手势124、保持并轻击手势126、保持并拖动手势128、保持并翻页手势130、书签保持手势132、对象保持并换页手势134、以及同步滑动手势136。这些不同多屏幕手势中的每一个在以下讨论的相应的节中描述。尽管在不同的节中描述了每一多屏幕手势,但显然这些手势的特征可被组合和/或分开来支持其他手势。因此,本说明书不限于这些示例。另外,尽管以下讨论可描述选择、保持、运动、触摸和轻击输入的具体示例,但在不同情况下可切换各种类型的输入(例如,触摸输入可被用作选择输入,反之亦然),和/或可用相同的输入来提供两个输入而不脱离其精神和范围。
所示环境100还包括多屏幕系统138的示例,该多屏幕系统包括各自具有一屏幕的两个(或更多)设备,如具有屏幕142的第一设备140以及具有屏幕146的第二设备144。屏幕不被物理连接或集成到单个设备中,而是可诸如经由数据或网络连接来通信链接。多屏幕系统可包括多个独立的板或手持设备,这些设备可自动发现彼此、由用户来显式配对、或者另外定位在暂时的物理邻近处。在一个实现中,多屏幕系统还可包括多屏幕设备。多屏幕系统138的第一设备140和第二设备144可各自如参考计算设备102描述的那样来配置,计算设备102是计算机(例如,膝上型计算机、笔记本计算机、平板PC、桌面计算机等)、移动站、娱乐设备、游戏设备等的任何一种形式。
图2示出了包括参考图1描述的计算设备102的示例系统200。示例系统200实现了用于当在个人计算机(PC)、电视机设备和/或移动设备上运行应用程序时的无缝用户体验的普遍存在的环境。服务和应用在所有三个环境中基本相似地运行,以便当使用应用、玩视频游戏、看视频等时在从一个设备转换到下一设备时得到共同的用户体验。
在示例系统200中,多个设备通过中央计算设备互联。中央计算设备可以是多个设备本地的,或者可以位于多个设备的远程。在一个实施例中,中央计算设备是“云”服务器农场,其包括通过网络、因特网或其他数据通信链路连接到多个设备的一个或多个服务器计算机。在一个实施例中,该互联体系结构使得功能能够跨多个设备递送以向多个设备的用户提供共同且无缝的体验。多个设备的每一个可具有不同的物理要求和能力,且中央计算设备使用一平台来使得为设备特制且又对所有设备共同的体验能被递送到设备。在一个实施例中,创建目标设备的类,且为通用设备类定制体验。设备类可由设备的物理特征、用途类型、或其他共同特性来定义。
在各种实现中,计算设备102可采取各种不同的配置,诸如用于计算机202、移动设备204、和电视机206用途。这些配置中的每一个包括可具有一般不同的构造和能力的设备,并且因而计算设备102可根据不同的设备类中的一个或多个来配置。例如,计算设备102可被实现为计算机202设备类,该计算机设备类包括个人计算机、台式计算机、多屏幕桌面计算机、膝上型计算机、上网本等等。计算设备102还可被实现为移动204设备类,该移动设备类包括诸如移动电话、便携式音乐播放器、便携式游戏设备、平板计算机、多屏幕平板计算机等移动设备。计算设备102还可被实现为电视机206设备类,该电视机设备类包括在休闲观看环境中具有或连接到一般更大的屏幕的设备。这些设备包括电视机、机顶盒、游戏控制台等。此处所描述的技术可由计算设备102的这些各种配置来支持,且不限于在以下各节中所描述的多屏幕手势的具体示例。
云208包括和/或代表用于基于服务器的服务212的平台210。平台210抽象云208的硬件(如,服务器)和软件资源的底层功能。基于服务器的服务212可包括可在所有或大多数计算机处理在位于计算设备102远程的服务器上执行时使用的应用和/或数据。基于服务器的服务可以作为因特网上的服务和/或通过订户网络(如蜂窝或WiFi网络)来提供。
平台210可抽象资源和功能以将计算设备102与其他计算设备相连接。平台210还可用于抽象资源的缩放来向所遇到的对经由平台210实现的基于服务器的服务212的需求提供对应的缩放级别。因此,在互联设备的实施例中,手势模块108的功能的实现可分布在系统200上。例如,手势模块108可部分地在计算设备102上以及经由抽象云210的功能的平台208来实现。
此外,功能可由计算设备102以任何一种或多种配置来支持。例如,手势模块108和输入识别系统110所支持的多屏幕手势技术可使用计算机202配置中的跟踪垫功能来支持、使用移动204配置中的触摸屏功能来支持、和/或在电视206配置中由作为不涉及与具体输入设备的接触的自然用户接口(NUI)的一部分的照相机来识别。此外,检测并识别输入来标识或确定某一多屏幕手势的操作的执行可分布在系统200上,如由计算设备102来执行和/或由云208的平台210支持的基于服务器的服务212来执行。
除了以下描述各种多屏幕手势的各节之外,示例方法还参考根据多屏幕手势的各实施例的相应附图来描述。一般而言,在此描述的任何功能、方法、过程、组件以及模块都可使用软件、固件、硬件(例如,固定逻辑电路)、手动处理或其任何组合来实现。软件实现表示当由计算机处理器执行时执行指定任务的程序代码。可以在计算机可执行指令的一般上下文中描述示例方法,这些指令可包括软件、应用、例程、程序、对象、组件、数据结构、过程、模块、功能等等。程序代码可被存储在计算机处理器本地和/或远程的一个或多个计算机可读存储器设备中。方法还可以在分布式计算环境中由多个计算机设备实施。此外,此处所描述的特征是平台无关的,并且可在具有各种处理器的各种计算平台上实现。
多屏幕张合手势
图3示出了多屏幕系统302上的多屏幕张合手势的示例300,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统302可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统302包括第一屏幕304和第二屏幕306,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统302可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕张合手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕捏合手势来浓缩多屏幕系统的多个屏幕上所显示的对象。或者,可使用多屏幕扩张手势来扩张所显示的对象以便显示在多屏幕系统的多个屏幕上。在多屏幕系统308的第一视图302中,第一杂志页310被显示在第一屏幕304上,第二杂志页312被显示在第二屏幕306上。输入识别系统110被实现为识别第一屏幕304处的第一输入314,其中该第一输入还包括第一运动输入316。输入识别系统110还可识别第二屏幕306处的第二输入318,其中该第二输入还包括第二运动输入320,且第二输入大致在第一输入被识别时被识别。
手势模块108被实现为从与所识别的第一输入314和第二输入318相关联的运动输入316、320中确定多屏幕捏合手势。捏合手势可被标识为可用于浓缩所显示的杂志页310、312的第一和第二运动输入的跨屏幕组合。在一实现中,输入识别系统110可识别第一和第二输入之间的距离随着运动输入而改变(例如,减小)。距离改变还可具有最小距离阈值。手势模块108然后可从第一和第二输入之间的距离减小中确定捏合手势。
在某一些实施例中,当在屏幕共享的边缘附近,如在将多屏幕设备上的第一和第二屏幕分开的边框附近的定义的区或区域中识别到手势运动输入时,确定多屏幕捏合手势。边框附近的区或区域可被定义为距离识别捏合手势处的边缘或定界矩形的最小距离。在其他实施例中,捏合手势的各个段可被增量式地识别,如当捏合手势由以下各项构成的时候:相邻边缘上的大致同步的输入(例如,手指触摸接触);第一输入314保持同时第二运动输入320滑向边框(例如,一个手指保持,同时另一手指滑向共同边缘);或导致复合捏合手势的大致同步的两手指提起。另外,用户可以在手势状态之间在相反方向上来回输入张合手势,直到提起第一和第二输入。类似于用户界面上的双击手势,应用可订阅包括部分或全部手势段的复合高级捏合和/或扩张手势。
多屏幕系统302的第二视图322示出了响应于捏合手势,杂志页310、312在方向326上从原始位置324浓缩的转换。多屏幕系统302的第三个视图328示出了被浓缩以供显示的杂志页310、312。捏合手势给出了当浓缩所显示的对象时缩小的外观。在该示例中,捏合手势浓缩杂志页,从而缩小到多屏幕系统302上的虚拟桌面330。虚拟桌面330可被用作导航到其他日志或书、在杂志页之间拖动所显示的对象、或留下诸如粘贴笔记和待办列表等可见的提醒以便在任何特定的个别笔记本、电子书、日志或文档外部进行快速访问的空间。替换的可导航视图可包括:笔记本的多个页的缩略图像的组织性视图(例如,“看版台视图”);具有多个页、页标签和/或书签从笔记本伸出,以及类似于虚拟桌面330的包围(例如,“蝴蝶视图”)的当前笔记本的最小化或收缩的版本;跨多本书和/或日志的“库视图”;或主屏幕。
从第三视图328中,可使用多屏幕扩张手势来返回到杂志页的全屏视图,如第一视图308中所示。手势模块108还被实现为确定可被标识为运动输入的跨屏幕组合的多屏幕扩张手势,该多屏幕扩张手势可用于将杂志页310、312从多屏幕系统的第三视图328中所示的浓缩显示扩张。在一实现中,输入识别系统110可识别输入之间的距离随着运动输入而改变(例如,增大)。手势模块108然后可从输入之间的距离的增加中确定扩张手势。从第三视图328转换回到多屏幕系统302的第一视图308示出了杂志页310、312被扩张以便在第一和第二屏幕上进行全屏显示。扩张手势给出了当扩张所显示的对象时放大的外观。
应当理解,第一和第二输入的表示以及运动方向的指示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。另外,还构想了跨两个或更多屏幕的三、四、或五手指多屏幕张合手势,如同可从多个手指和/或接触输入中识别和确定的双手拉伸和挤压手势一样。
图4示出了多屏幕张合手势的示例方法400。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框402,在多屏幕系统的第一屏幕处识别第一输入,该第一输入包括第一运动输入。例如,输入识别系统110在多屏幕系统302的第一屏幕304处识别第一输入314,该第一输入包括第一运动输入316。在框404,在多屏幕系统的第二屏幕处识别第二输入,该第二输入包括第二运动输入。例如,输入识别系统110还可在第二屏幕306处识别第二输入318,该第二输入包括第二运动输入320,且第二输入大致在第一输入被识别时被识别。另选地或另外地,第一屏幕304处的第一输入314可对输入识别系统110启动一超时(例如,500ms),在该超时之后,如果没有提供第二输入,则处理第一输入来获得其他单屏幕手势。
在框406,基于第一和第二运动输入来识别第一和第二输入之间的距离改变。例如,输入识别系统110识别第一输入314和第二输入318之间的距离随着运动输入而改变(例如,增大或减小)。在框408处,确定第一和第二输入之间的距离改变是否是距离的减小。
如果距离在第一和第二输入之间减小(例如,自框408的“是”),则在框410处,确定捏合手势,这给出了在浓缩所显示的对象时缩小的外观。例如,手势模块108基于在第一和第二输入之间减小距离的第一和第二运动输入来确定捏合手势。捏合手势可被标识为可用于浓缩诸如所显示的杂志页310、312之类的所显示的对象的第一和第二运动输入的跨屏幕组合。捏合手势给出了当浓缩所显示的对象时缩小的外观。
如果距离在第一和第二输入之间增大(例如,自框408的“否”),则在框412处,确定扩张手势,这给出了在扩张所显示的对象时放大的外观。例如,手势模块108基于在第一和第二输入之间增大距离的第一和第二运动输入来确定扩张手势。扩张手势可被标识为用于扩张所显示的对象的第一和第二运动输入的跨屏幕组合,如在扩张所显示的杂志页310、312以便在多屏幕系统302的第一和第二屏幕上进行全屏显示时。
多屏幕捏合装袋手势
图5示出了多屏幕系统502上的多屏幕捏合装袋手势的示例500,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统502可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统502包括第一屏幕504和第二屏幕506,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统502可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕捏合装袋手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
多屏幕捏合装袋手势可用于将所显示的对象装袋,如将所显示的对象保存为多屏幕系统的边框下的缩略图像。在多屏幕系统502的第一视图508中,第一杂志页510被显示在第一屏幕504上,第二杂志页512被显示在第二屏幕506上。输入识别系统110被实现为在第一屏幕504处识别对第一屏幕区域516的第一运动输入514,其中第一运动输入在第一杂志页510被选中时被识别。输入识别系统110还可在第二屏幕506处识别对第二屏幕区域520的第二运动输入518,其中第二运动输入在第二杂志页512被选中时被识别。第一屏幕504的第一屏幕区域516和第二屏幕504的第二屏幕区域520在多屏幕系统502的第二视图522中示出。
手势模块108被实现为从所识别的运动输入514、518中确定捏合装袋手势。捏合装袋手势可被标识为可用于浓缩第一屏幕区域516和第二屏幕区域520中所显示的杂志页510、512并将杂志页装袋在将第一和第二屏幕隔开的边框524附近的第一和第二运动输入的跨屏幕组合。任选地,手势模块108还可从在第一输入和第二输入之间减小距离的第一运动输入514和第二运动输入518中确定捏合装袋手势,其中第一输入是针对第一屏幕504上的杂志页510的,第二输入是针对第二屏幕506上的第二杂志页512的。
多屏幕系统502的第二视图522示出了响应于捏合装袋手势,杂志页510、512在方向528上从原始位置526浓缩的转换。多屏幕系统502的第三视图530示出了在边框524附近装袋并被保存为缩略图像532以供显示的所显示的对象(例如,杂志页)。在该示例中,显示了虚拟桌面534的更多内容,并且当杂志页被装袋为缩略图像532时,该桌面上的任何其他所显示的对象是可访问的。在另一示例中,所显示的对象536(例如,示为被显示为图1中的计算设备102上的文本“zeal”的速写)被装袋到多屏幕系统502的边框524下。
当所显示的对象被装袋以便显示供访问许多其他所显示的对象的虚拟桌面534时,用户可在多个日志或应用视图中交错多个任务,然后容易地返回到被装袋的项目。另外,被装袋的项目可被放到笔记本或打开的笔记本的杂志页上,以便将该项目合并到其他工作和笔记的上下文中。
在各实施例中,多屏幕捏合装袋手势可被用作用于在屏幕视图和/或应用的不同工作集合之间进行多任务处理的通用机制。例如,如果web浏览器被显示在第一屏幕504上,杂志页被显示在第二屏幕506上,则用户可捏合并装袋该屏幕视图对。用户还可捏合并装袋多个屏幕视图,在这一情况下,沿着设备的边框524的该组被装袋的视图表现为任务栏,从中用户可在不同应用和视图之间交替。
在各实施例中,杂志页的缩略图像523在被装袋时被保存到可视剪贴板。另外,当所显示的对象被装袋时,缩略图像532可被显示在第一和/或第二屏幕上作为到杂志页的可选择链接。从该第三视图530中,输入识别系统110可识别手势模块108确定为缩略图像532上的轻击手势的选择输入,该轻击手势可用于扩张杂志页510、512以便显示在第一和第二屏幕上,如在多屏幕系统502的第一视图508中所示的。
应当注意,第一和第二输入的表示和运动方向的指示,以及屏幕区域仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图6示出了多屏幕捏合装袋手势的示例方法600。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框602处,在多屏幕系统的第一屏幕处识别对第一屏幕区域的第一运动输入,该第一运动输入被识别为选择所显示的对象。例如,输入识别系统110在第一屏幕504处识别对第一屏幕区域516的第一运动输入514,且该第一运动输入在第一杂志页510被选中时被识别。在框604处,在多屏幕系统的第二屏幕处识别对第二屏幕区域的第二运动输入,该第二运动输入被识别为选择所显示的对象。例如,输入识别系统110还在第二屏幕506处识别对第二屏幕区域520的第二运动输入518,且该第二运动输入在第二杂志页512被选中时被识别。
在框606处,从相应的第一和第二屏幕区域中所识别的第一和第二运动输入中确定捏合装袋手势。例如,手势模块108从所识别的运动输入514、518中确定捏合装袋手势。该捏合装袋手势可被标识为可用于浓缩第一屏幕区域516和第二屏幕区域520中所显示的杂志页510、512并将杂志页装袋在将第一和第二屏幕隔开的边框524附近的第一和第二运动输入的跨屏幕组合。另选地或另外地,从在第一输入和第二输入之间减小距离的第一和第二运动输入中确定捏合装袋手势,该第一输入是针对第一屏幕上的第一杂志页510的,该第二输入是针对第二屏幕上的第二杂志页512的。
在框608,将所显示的对象装袋在多屏幕系统中将第一和第二屏幕隔开的边框附近。例如,杂志页510、512(例如,所显示的对象)被装袋在边框524附近并被保存为缩略图像532以供显示。在一个实施例中,缩略图像532是到被装袋的杂志页的可选择连接,和/或所显示的对象被保存到可视剪贴板。
在框610,将选择输入识别为被装袋的所显示的对象上的轻击手势,且在框612,响应于轻击手势扩张所显示的对象以便显示在第一和第二屏幕上。例如,输入识别系统110可识别手势模块108确定为缩略图像532上的轻击手势的选择输入,该轻击手势可用于扩张杂志页510、512以便显示在多屏幕系统502的第一和第二屏幕上。
多屏幕双击手势
图7示出了多屏幕系统702上的多屏幕双击手势的示例700,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统702可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统702包括第一屏幕704和第二屏幕706,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统702可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕双击手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕双击手势来扩张或装袋显示在多屏幕系统的多个屏幕上的所显示的对象。例如,当在所显示的对象被装袋时确定了双击手势,所显示的对象可被扩张以便在第一和第二屏幕上进行全屏显示。或者,当在所显示的对象被全屏显示在第一和第二屏幕上时确定了双击手势,则所显示的对象可被装袋。
在多屏幕系统708的第一视图702中,第一杂志页710被显示在第一屏幕704上,第二杂志页712被显示在第二屏幕706上。输入识别系统110被实现为在第一屏幕704处识别对第一杂志页710的第一轻击输入714。输入识别系统110还可在第二屏幕706处识别对第二杂志页712的第二轻击输入716,其中该第二轻击输入大致在第一轻击输入被识别时被识别。
或者,单个输入(例如,用手指、拇指、手掌等)可大致同时接触第一和第二屏幕来启动双击手势输入。例如,多屏幕设备在屏幕之间可具有极少或没有脊线、外壳或边框,在这一情况下,单个输入可一起接触两个屏幕。此外,具有两个(或更多)独立屏幕的多屏幕系统可被定位成使得屏幕之间的拇指或手指(例如,像被放置在书中的页之间的手指)与两个屏幕形成接触。
手势模块108被实现为从所识别的轻击手势714、716中确定多屏幕双击手势。双击手势可被标识为第一和第二轻击输入的跨屏幕组合。多屏幕系统702的第二视图718示出双击手势可用于将杂志页作为缩略图像720装袋在多屏幕系统的将第一和第二屏幕隔开的边框722附近。在该示例中,显示了虚拟桌面724,并且当杂志页被装袋为缩略图像720时,该桌面上的任何其他所显示的对象是可访问的。
多屏幕系统702的第二视图718还示出双击手势可用于扩张所显示的对象以便显示在多屏幕系统的第一和第二屏幕上。例如,输入识别系统110被实现为在第一屏幕704处识别对缩略图像720的第一轻击输入726,并在第二屏幕706处识别对缩略图像720的第二轻击输入728,其中第二轻击输入大致在第一轻击输入被识别时被识别。手势模块108然后可从所识别的轻击输入726、728中确定多屏幕双击手势,且该双击手势可用于扩张杂志页710、712以便显示在第一和第二屏幕上,如多屏幕系统702的第一视图708中所示。
多屏幕系统702的第三视图730示出了一分屏视图,该分屏视图包括在第一屏幕上全屏显示的所显示的对象的第一部分,以及在第二屏幕上浓缩显示的所显示的对象的第二部分。例如,第一杂志页710被全屏显示在第一屏幕704上,而第二杂志页712被装袋以便显示在第二屏幕706上。在一个实现中,输入识别系统110可识别对第一或第二屏幕上的杂志页710、712之一的选择输入,如多屏幕系统702的第二视图718中所示的轻击输入726、728之一。单击输入可用于启动杂志页的分屏视图,如多屏幕系统702的第三视图730中所示。
应当理解,第一和第二输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图8示出了多屏幕双击手势的示例方法800。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框802,在多屏幕系统的第一屏幕处识别对所显示的对象的第一轻击输入。例如,输入识别系统110在第一屏幕704处识别对第一杂志页714的第一轻击输入。在框804,在多屏幕系统的第二屏幕处识别对所显示的对象的第二轻击输入,该第二轻击输入大致在第一轻击输入被识别时被识别。例如,输入识别系统110还可在第二屏幕706处识别对第二杂志页712的第二轻击输入716,其中该第二轻击输入大致在第一轻击输入被识别时被识别。
在框806,从所识别的第一和第二轻击输入中确定双击手势。例如,手势模块108从所识别的轻击手势714、716中确定多屏幕双击手势。双击手势可被标识为第一和第二轻击输入的跨屏幕组合,且该双击手势可用于扩张或装袋显示在多屏幕系统702的第一和第二屏幕上的所显示的对象。或者,大致同时接触第一和第二屏幕的单个输入(例如,用手指、拇指、手掌等)可被识别并确定为双击手势输入。在各实施例中,当在所显示的对象被装袋时确定了双击手势,所显示的对象可被扩张以便在第一和第二屏幕上进行全屏显示。或者,当在所显示的对象被全屏显示在第一和第二屏幕上时确定了双击手势,则所显示的对象可被装袋。
在框808,在第一或第二屏幕之一上识别对所显示的对象的单选输入,来启动所显示的对象的分屏视图。例如,输入识别系统110在第一或第二屏幕上识别对杂志页710、712之一的单选输入,如多屏幕系统702的第二视图718中所示的轻击输入726、728之一。单击输入可用于启动杂志页的分屏视图,如多屏幕系统702的第三视图730中所示。
多屏幕保持并轻击手势
图9示出了多屏幕系统902上的多屏幕保持并轻击手势的示例900,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统902可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统902包括第一屏幕904和第二屏幕906,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统902可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕保持并轻击手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕保持并轻击手势来将显示的对象从一个显示位置移动和/或复制到另一显示位置,如将对象移动或复制到杂志页上,或者将对象合并到笔记本中。在各实施例中,一般的功能可包括:在一个屏幕上对命令的保持输入,以及在另一屏幕上的轻击输入来在该另一屏幕上应用该命令;对参数值(例如,颜色、画笔浓度、图像效果、过滤器等)的保持输入,以及在另一屏幕上的轻击输入来将该参数值应用于显示在该另一屏幕上的对象;和/或对标签、类别或其他元数据的保持输入,以及轻击输入来将该特征应用于显示在另一屏幕上的对象。在一个示例中,日志或笔记本可包括可在日志或笔记本的一页上查看的自定义贴纸。贴纸可被保持在一页上(例如,显示在一个屏幕上),然后轻击以便在另一页上(例如,在另一屏幕上)的轻击位置处应用该贴纸。贴纸可具有附连到它们的具体语义,如“花费”、“待办”、“个人”、“收据”等,且贴纸可用于标记内容以便于后续搜索和组织。
在多屏幕系统902的第一视图908中,杂志页910被显示在第一屏幕904上,且诸如所显示的对象912等各种对象被显示在第二屏幕906上的虚拟桌面914上。输入识别系统110被实现为在第二屏幕906处识别保持输入916,其中保持输入在保持并选择第二屏幕906上所显示的对象912时被识别。输入识别系统110还可在第一屏幕904处识别轻击输入918,其中该轻击输入在第二屏幕906上选择所显示的对象912时被识别。
手势模块108被实现为从所识别的保持输入916和轻击输入918中确定多屏幕保持并轻击手势。保持并轻击手势可被标识为保持和轻击手势的跨屏幕组合,且该手势可用于将所显示的对象912从第二屏幕906上所显示的位置移到轻击输入位置以便显示在第一屏幕904上,如920处所指示的。多屏幕系统902的第二视图922示出了双击手势可用于将所显示的对象912从第二屏幕906上所显示的位置924移动,并合并所显示的对象912以便显示在第一屏幕904的轻击输入位置926处显示的杂志页910上。多屏幕系统902的第三视图928示出了双击手势可用于复制所显示的对象912来生成对象副本930,并在第一屏幕904上的轻击输入位置932处启动对象副本930的显示。
在多屏幕保持并轻击手势的其他实施例中,输入识别系统110可在第一屏幕904上识别对另外的所显示的对象(例如,杂志页910)的轻击输入918,并且该保持并轻击手势因而可用于将所显示的对象912与另外的所显示的对象进行相关(例如,将所显示的对象912与杂志页910进行相关)。另外,所显示的对象可表示一功能,且保持并轻击手势用于将该所显示的对象的功能应用于在多屏幕系统902的第一或第二屏幕上的轻击输入位置处另外的所显示的对象。
应当理解,保持并轻击输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图10示出了多屏幕保持并轻击手势的示例方法1000。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框1002,在多屏幕系统的第一屏幕处识别保持输入,该保持输入当保持以选择第一屏幕上所显示的对象时被识别。例如,输入识别系统110在屏幕906处识别保持输入916,并且该保持输入在保持以便选择屏幕906上所显示的对象912时被识别。在框1004,在多屏幕系统的第二屏幕处识别轻击输入,该轻击输入在所显示的对象被选中时被识别。例如,输入识别系统110还在屏幕904处识别轻击输入918,且该轻击输入在所显示的对象912在屏幕906上被选中时被识别。在一个实施例中,该轻击输入可被识别为对第二屏幕上另外的所显示的对象的轻击输入,且该保持并轻击手势可用于将所显示的对象与所述另外的所显示的对象相关。
在框1006,从所识别的保持和轻击输入中确定保持并轻击手势。例如,手势模块108从所识别的保持输入916和轻击输入918中确定多屏幕保持并轻击手势,并且该保持并轻击手势可被标识为保持和轻击输入的跨屏幕组合。在各实施例中,该保持并轻击手势可用于将所显示的对象从第一屏幕上所显示的位置移到轻击输入位置以便显示在第二屏幕上(在框1008);合并所显示的对象以便显示在第二屏幕上的轻击输入位置处所显示的杂志页上(在框1010);复制所显示的对象来生成对象副本,以及在第二屏幕上的轻击输入位置处显示该对象副本(在框1012);和/或将所显示的对象的功能应用于在第二屏幕上的轻击输入位置处的另外的所显示的对象(在框1014)。
多屏幕保持并拖动手势
图11示出了多屏幕系统1102上的多屏幕保持并拖动手势的示例1100,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统1102可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统1102包括第一屏幕1104和第二屏幕1106,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统1102可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕保持并拖动手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕保持并拖动手势来维持所显示的对象的第一部分在第一屏幕上的显示,并拖动所显示的对象的显示在另一屏幕上的第二部分来将该所显示的对象的第二部分装袋来用于分屏视图。或者,可使用保持并拖动手势来维持所显示的对象的第一部分在一个屏幕上的显示,并拖动所显示的对象的被装袋的第二部分来扩张另一屏幕上的显示。拖动手势的方向也可基于不同语义来确定(例如,向上运动、向下运动、朝向边框、远离边框等)。对于多屏幕保持并拖动手势,可为不同动作定义四到八个基本方向。
在多屏幕系统1108的第一视图1102中,第一杂志页1110被显示在第一屏幕1104上,第二杂志页1112被显示在第二屏幕1106上。输入识别系统110被实现为在第一屏幕1104处识别保持输入1114,其中该保持输入当被保持在原处时被识别。输入识别系统110还可在第二屏幕1106处识别运动输入1116,其中该运动输入被识别为当保持输入保留在原处时选择所显示的对象(例如,杂志页1112)。
手势模块108被实现为从所识别的保持输入1114和运动输入1116中确定多屏幕保持并拖动手势。保持并拖动手势可被标识为保持和运动输入的跨屏幕组合,且该手势可用于维持第一杂志页1110在第一屏幕1104上的显示,并拖动显示在第二屏幕1106上的第二杂志页1112来将第二杂志页装袋来用于杂志页的分屏视图。响应于保持并拖动手势,多屏幕系统1102的第二视图1118示出第一杂志页1110被维持显示在第一屏幕1104上,且第二杂志页1112被装袋在第二屏幕1106上的、该多屏幕系统的边框1120附近,来用于杂志页的分屏视图。在一个实施例中,第二杂志页1112被装袋为缩略图像,该缩略图像也可以是到第二杂志页1112的可选择链接。
多屏幕系统1102的第三视图1122示出了多屏幕保持并拖动手势可用于维持所显示的对象的第一部分在一个屏幕上的显示,并拖动所显示的对象的被装袋的第二部分以便在另一屏幕上扩张显示,或启动所显示的对象的多屏幕显示。例如,输入识别系统110可在第一屏幕1104处识别保持输入1124,其中该保持输入当被保持在原处时被识别。输入识别系统110还可在第二屏幕1106处识别运动输入1126,其中该运动输入被识别为在杂志页被装袋(例如,如第二视图1118中所示的杂志页1112)时在保持输入保留在原处(例如,保持第一杂志页1110)的同时选择第二杂志页1112。手势模块108可从所识别的保持输入1124和运动输入1126中识别多屏幕保持并拖动手势,且该保持并拖动手势可用于在方向1128上扩张被装袋的第二杂志页1112以便显示在第二屏幕1106上。
应当注意,保持和运动输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图12示出了多屏幕保持并拖动手势的示例方法1200。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框1202,在多屏幕系统的第一屏幕处识别保持输入,该保持输入在保持在原处时被识别。例如,输入识别系统110在第一屏幕1104处识别保持输入1114,其中该保持输入当被保持在原处时被识别。在框1204,在多屏幕系统的第二屏幕处识别运动输入,该运动输入被识别为在保持输入保留在原处的同时选择所显示的对象。例如,输入识别系统110还在第二屏幕1106处识别运动输入1116,其中该运动输入被识别为当保持输入保留在原处的同时选择第二杂志页1112。
在框1206,从所识别的保持和运动输入中确定保持并拖动手势。例如,手势模块108从所识别的保持输入1114和运动输入1116中确定多屏幕保持并拖动手势。保持并拖动手势可被标识为保持和运动输入的跨屏幕组合。在各实施例中,保持并拖动手势可用于维持所显示的对象的第一部分在第一屏幕上的显示,并拖动所显示的对象的被显示在第二屏幕上的第二部分以便将所显示的对象的第二部分装袋来用于分屏视图(在框1208);维持所显示的对象的第一部分在第一屏幕上的显示并拖动所显示的对象的被装袋的第二部分来扩张第二屏幕上的显示(在框1210);维持所显示的对象在第一屏幕上的显示并将所显示的对象的显示扩张到第二屏幕上(在框1212);和/或启动所显示的对象的多屏幕显示(在框1214)。
多屏幕保持并翻页手势
图13示出了多屏幕系统1302上的多屏幕保持并翻页手势的示例1300,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统1302可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统1302包括第一屏幕1304和第二屏幕1306,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统1302可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕保持并翻页手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕保持并翻页手势来选择显示在一个屏幕上的杂志页,并翻动杂志页来显示两个额外的或新的杂志页,这与书中的翻页非常相似。杂志页在所选杂志页的方向上翻动以便显示两个新的杂志页,这与在书中向前或向后翻页非常相似。或者,保持并翻页手势可用于维持显示在一个屏幕上的杂志页的显示,并翻动杂志页来在另一屏幕上显示不同的杂志页。然后可并排显示不连续的杂志页,这对于书而言将涉及从书中撕出一页以将其置于非连续页序来与另一页并排查看。在一个实施例中,多屏幕保持并翻页手势可被配置成或者翻动杂志页来显示两个新的杂志页,或者维持第一杂志页的显示并翻动杂志页来与第一杂志页并排地显示不同的、非连续的第二杂志页。
在多屏幕系统1308的第一视图1302中,第一杂志页1310被显示在第一屏幕1304上,第二杂志页1312被显示在第二屏幕1306上。输入识别系统110被实现为在第一屏幕1304处识别保持输入1314,其中该保持输入在保持来选择在第一屏幕1304上显示的杂志页1310时被识别。输入识别系统110还可在第二屏幕1316处识别运动输入1306,其中该运动输入在保持输入保留在原处时被识别。
手势模块108被实现为从所识别的保持输入1314和运动输入1316中确定多屏幕保持并翻页手势。保持并翻页手势可被标识为保持和运动输入的跨屏幕组合,在各实施例中这些输入可包括:使用一个或两个输入设备(例如,一个手指、或两个手指)在相对的屏幕上的保持和拖动输入;和/或保持输入和跨过边框到相对屏幕上的拖动输入。保持并翻页手势可用于在第一屏幕1304上选择杂志页1310,同时翻动一个或多个另外的杂志页以便显示。多屏幕系统1302的第二视图1318示出两个另外的杂志页1320、1322被翻页以便显示在相应的第一和第二屏幕1304、1306上。或者,多屏幕系统1302的第三视图1324示出杂志页1310的显示被维持在第一屏幕1304上,且非连续的杂志页1322被翻页以便在第二屏幕1306上并排显示。
应当注意,保持和运动输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图14示出了多屏幕保持并翻页手势的示例方法1400。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框1402,在多屏幕系统的第一屏幕处识别保持输入,该保持输入在保持以便选择第一屏幕上所显示的杂志页时被识别。例如,输入识别系统110在第一屏幕1304处识别保持输入1314,且该保持输入在保持来选择在第一屏幕1304上显示的杂志页1310时被识别。在框1404,在多屏幕系统的第二屏幕处识别运动输入,该运动输入在保持输入保留在原处时被识别。例如,输入识别系统110还在第二屏幕1306处识别运动输入1316,且该运动输入在保持输入保留在原处时被识别。
在框1406,从所识别的保持和运动输入中确定保持并翻页手势,且该保持并翻页手势可用于选择杂志页同时翻动另外的杂志页以便显示。例如,手势模块108从所识别的保持输入1314和运动输入1316中确定多屏幕保持并翻页手势。保持并翻页手势可被标识为保持和运动输入的跨屏幕组合。在各实施例中,保持并翻页手势可用于选择显示在第一屏幕上的杂志页并翻动杂志页(任选地,在所选杂志页的方向上)以便显示另外两个杂志页,这两个杂志页中的每一页被各自显示在第一和第二屏幕上(在框1408);维持第一屏幕上显示的杂志页的显示并翻动杂志页来在第二屏幕上显示不同的杂志页(在框1410);和/或维持第一屏幕上显示的杂志页的显示并翻动杂志页来在第二屏幕上与第一杂志页并排地显示非连续的杂志页(在框1412)。
在一个实施例中,保持并翻页手势可被配置成选择第一屏幕上显示的杂志页,并翻动杂志页来显示两个另外的杂志页,这两个另外的杂志页的每一页各自被显示在第一和第二屏幕上(如参考框1408所描述的),或维持第一屏幕上显示的杂志页的显示并翻动杂志页来在第二屏幕上显示不同的杂志页(如参考框1410和1412所描述的)。
多屏幕书签保持手势
图15示出了多屏幕系统1502上的多屏幕书签保持手势的示例1500,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统1502可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统1502包括第一屏幕1504和第二屏幕1506,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统1502可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕书签保持手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
可使用多屏幕书签保持手势来在对屏幕上的杂志页的保持输入的位置处对杂志页加书签,并且可在对该杂志页维持书签的同时翻动其他杂志页以便进行查看。书签保持手势模仿了读者在翻过书的其他页的同时在页之间保持拇指或手指来保留书中的一个位置的动作。另外,书签是回到杂志页的可选择链接,且对书签的选择输入翻回到屏幕上的杂志页的显示。
在多屏幕系统1508的第一视图1502中,第一杂志页1510被显示在第一屏幕1504上,第二杂志页1512被显示在第二屏幕1506上。第一杂志页1510被显示在加了书签的杂志页1514上。输入识别系统110被实现为在第一屏幕1504处识别保持输入1516,其中该保持输入当在第一屏幕1504上加了书签的杂志页1514的边缘附近保持在原处时被识别。输入识别系统110还可在第二屏幕1506处识别运动输入1518,其中该运动输入在保持输入保留在原处时被识别。在一个实施例中,在第二屏幕1506处沿着杂志页1512的外边缘识别运动输入1518,且该运动输入可用于在1520处翻动杂志页同时对第一屏幕1504上的杂志页1514维持书签。
手势模块108被实现为从所识别的保持输入1516和运动输入1518中确定多屏幕书签保持手势。书签保持手势可被标识为保持和运动输入的跨屏幕组合,且该手势可用于在第一屏幕1504上的保持输入1516的位置处为杂志页1514加书签。在各实施例中,显示书签标识符1522来标识加了书签的杂志页1514以及该书签在第一屏幕上的位置。在该示例中,书签标识符1522是加书签的杂志页1514的部分显示。书签和/或书签标识符是到第一屏幕1504上加书签的杂志页1514的可选择链接,且输入识别系统110可识别对书签的选择输入,该选择输入可用于翻回来并在第一屏幕上显示杂志页1514。
多屏幕系统1502的第二视图1524示出了替换保持输入1526,如当用户用一个手保持两屏幕设备同时在第一屏幕1504上对杂志页1510加书签的时候。输入识别系统110被实现为在第一屏幕1504处识别保持输入1526,并且还在第二屏幕1506处识别运动输入1528,其中该运动输入是在保持输入保留在原处时被识别的。在一个实施例中,运动输入1528在第二屏幕1506处识别,且可用于在维持书签的同时翻动杂志页。在一个实现中,输入识别系统110可在定义的区域,如用户可能既保持设备又对页加书签的区域中识别书签保持手势。另选地或另外地,多屏幕系统1502可以被实现为传感屏幕的定向,使得对页加书签自动自适应于用户保持设备的方式。
多屏幕系统1502的第三视图1530示出从中确定书签的保持输入可包括在杂志页1514的角落附近的滑动运动输入1532。滑动运动输入1532可被识别为启动保持输入的运动的进展,且滑动运动输入可被确定为在角落处对杂志页1514加书签。对杂志页1514,书签被维持在第一屏幕1504上,同时在1534处翻动其他杂志页以便查看。在各实施例中,存在可被实现来在以下各动作之间区分的各种技术:保持一页以便临时保存位置;用书签来显式地对页折角摂;或翻回到由临时保持或书签表示的页。在一个实施例中,保持输入可被识别为隐式地临时保存页位置。然后,用户可简单地提起输入来丢弃临时书签,或者提供滑动运动输入来翻回到所保存的页位置。在另一实施例中,如果大致在保持输入的同时启动了滑动运动输入,则可创建页折角书签。在另一实施例中,折角书签可以仅在杂志页的边界周围的定义位置处识别(例如,在页的角落处),而隐式临时页保持可对较大的面积或区域实现。
应当注意,保持和运动输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图16示出了多屏幕书签保持手势的示例方法1600。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框1602,在多屏幕系统的第一屏幕处识别保持输入,该保持输入当在显示在第一屏幕上的杂志页的边缘附近保持在原处时被识别。例如,输入识别系统110在第一屏幕1504处识别保持输入1516,且保持输入当在第一屏幕1504上加书签的杂志页1514的边缘附近保持在原处时被识别。保持输入可包括在杂志页1514的角落附近的滑动运动输入1532。输入识别系统110将滑动运动输入识别为启动保持输入的运动的进展,且手势模块108从该滑动运动输入中确定书签保持手势来对杂志页加书签。
在框1604,在多屏幕系统的第二屏幕处识别运动输入,该运动输入在保持输入保留在原处时被识别。例如,输入识别系统110还在第二屏幕1506处识别运动输入1518,且该运动输入在保持输入保留在原处时被识别。输入识别系统110还可识别沿着显示在第二屏幕1506上的相对的杂志页的外边缘的运动输入,且该运动输入可用于翻动杂志页同时对第一屏幕1504上的杂志页1514维持书签。
在框1606,从所识别的保持和运动输入中确定书签保持手势,该书签保持手势可用于在第一屏幕上的保持输入的位置处对杂志页加书签。例如,手势模块108从所识别的保持输入1516和运动输入1518中确定多屏幕书签保持手势。书签保持手势可被标识为保持和运动输入的跨屏幕组合。书签和/或书签标识符是到第一屏幕1504上加书签的杂志页的可选择链接,且输入识别系统110识别对书签的选择输入,该选择输入可用于翻回并在第一屏幕上显示杂志页。
在框1608,显示书签标识符来标识加书签的杂志页以及该书签在第一屏幕上的位置。例如,显示书签标识符1522来标识加书签的杂志页1514以及该书签在第一屏幕上的位置。在一个实现中,书签标识符1522可以是加书签的杂志页本身的部分显示。
多屏幕对象保持并换页手势
图17示出了多屏幕系统1702上的多屏幕对象保持并换页手势的示例1700,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统1702可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统1702包括第一屏幕1704和第二屏幕1706,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统1702可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕对象保持并换页手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
多屏幕对象保持并换页手势可用于将所显示的对象(或多个对象)从一个显示位置移动和/或复制到另一位置,如合并所显示的对象以便显示在杂志页上。另外,在所显示的对象从一个显示位置移动或复制到另一位置时可维持相对显示位置。这还可包括对用对于一系列连续的对象的轻击选择输入来选择的多个对象的选择,然后保持输入保持该选择同时识别改变杂志页的运动输入。该手势然后可被确定为将保持的对象全部移动和/或复制到所显示的新杂志页,同时维持对象之间的相对显示位置和/或相对空间关系。另选地或另外地,该手势可包括对在一页上开始的对象的选择,然后保持这些对象同时翻动杂志页,并且选择来自其他页的另外的对象以便添加到对象选择中并随着组一起携带。
在多屏幕系统1708的第一视图1702中,第一杂志页1710被显示在第一屏幕1704上,第二杂志页1712被显示在第二屏幕1706上。输入识别系统110被实现为在第一屏幕1704处识别保持输入1714,其中该保持输入在保持以选择第一屏幕1704上所显示的对象1716时被识别。输入识别系统110还可在第二屏幕1706处识别运动输入1718,其中该运动输入在所显示的对象1716被选中的同时被识别,且该运动输入可用于在1720处改变杂志页。当在1720处改变杂志页时,显露后续的杂志页1722以便显示。在一个实施例中,在第二屏幕1506处沿着杂志页1512的外边缘识别运动输入1518,且该运动输入可用于在1520处翻动杂志页同时对第一屏幕1504上的杂志页1514维持书签。
手势模块108被实现为从所识别的保持输入1714和运动输入1718中确定多屏幕对象保持并换页手势。对象保持并换页手势可被标识为保持和运动输入的跨屏幕组合,且该手势可用于移动或复制所显示的对象1716以便显示在当前显示的杂志页上。多屏幕系统1702的第二视图1724示出所显示的对象1716从杂志页1710移动(例如,或者从杂志页1710复制)以便显示在当前显示的杂志页1726上,该杂志页在第一屏幕1704上显示。所显示的对象1716在杂志页被改变的同时保留被选中。输入识别系统110然后可识别所显示的对象1716从保持输入释放,且该对象保持并换页手势可用于移动或复制所显示的对象以便显示在当前显示的杂志页上。另外,在所显示的对象从一个显示位置移动或复制到另一位置时可维持所显示的对象的相对显示位置。
应当注意,保持和运动输入的表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图18示出了多屏幕对象保持并换页手势的示例方法1800。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框1802,在多屏幕系统的第一屏幕处识别保持输入,该保持输入当保持以选择第一屏幕上所显示的对象时被识别。例如,输入识别系统110在第一屏幕1704处识别保持输入1714,其中该保持输入在保持以选择第一屏幕1704上所显示的对象1716时被识别。在框1804,在多屏幕系统的第二屏幕处识别运动输入,该运动输入在所显示的对象被选中的同时被识别,且该运动输入可用于改变一个或多个杂志页。例如,输入识别系统110还在第二屏幕1706处识别运动输入1718,该运动输入在所显示的对象1716被选中的同时被识别,且该运动输入可用于在1720处改变杂志页。
在框1806,从所识别的保持和运动输入中确定对象保持并换页手势。例如,手势模块108从所识别的保持输入1714和运动输入1718中确定多屏幕对象保持并换页手势。对象保持并换页手势可被标识为保持和运动输入的跨屏幕组合。在一个实施例中,对象保持并换页手势可用于启动复制和粘贴功能来复制所显示的对象1716以便显示在当前显示的杂志页1726上。
在框1808,在所显示的对象从保持输入释放时识别该对象,且该对象保持并换页手势可用于移动和/或复制所显示的对象以便显示在当前显示的杂志页上。例如,输入识别系统110可在所显示的对象1716从保持输入释放时识别该对象,且该对象保持并换页手势可用于移动或复制所显示的对象以便显示在当前显示的杂志页上。多屏幕系统1702的第二视图1724示出所显示的对象1716从杂志页1710移动(例如,或者从杂志页1710复制)以便显示在当前显示的杂志页1726上,该杂志页在第一屏幕1704上显示。另外,在所显示的对象从一个显示位置移动或复制到另一位置时维持所显示的对象的相对显示位置。对象保持并换页手势还可用于选择作为一个组从一个显示位置移动和/或复制到另一位置的多个所显示的对象。
多屏幕同步滑动手势
图19示出了多屏幕系统1902上的多屏幕同步滑动手势的示例1900,该多屏幕系统在这些示例中被示为两屏幕设备。多屏幕系统1902可以被实现为参考图1和2描述的各种设备中的任一种。在该示例中,多屏幕系统1902包括第一屏幕1904和第二屏幕1906,每一屏幕被实现为显示任何类型的用户界面和各种可显示对象(例如,任何类型的图片、图像、图形、文本、笔记、草图、绘图、可选择控件、用户界面元素等)。屏幕还可显示电子形式的杂志页,如任何类型的笔记本、期刊、书、纸、单页等。多屏幕系统1902可包括如参考图1所示的计算设备102所描述的手势模块108和输入识别系统110,并且还可用参考图21所示的示例设备所描述的组件的任意组合来实现。尽管各示例是参考两屏幕设备来示出并描述的,但多屏幕同步滑动手势的各实施例可以由具有两个以上屏幕的多屏幕系统来实现。
多屏幕同步滑动手势可用于将所显示的对象从一个屏幕移动以便显示在另一屏幕上,用不同的所显示的对象来替换系统屏幕上所显示的对象,移动所显示的对象来显露系统屏幕上的工作空间,和/或循环通过显示在系统屏幕上的一个或多个工作空间(例如,应用、界面等)。同步滑动手势也可用于导航到另外的视图,或将当前视图重新分配到不同屏幕。另外,不同应用或工作空间可被保持在栈上并用同步滑动手势被来回循环通过。
在多屏幕系统1902的第一视图1908中,杂志页1910被显示为从第一屏幕1904移动以便显示在第二屏幕1906上。输入识别系统110被实现为当第一运动输入在特定方向上移过第一屏幕时在第一屏幕1904处识别第一运动输入1912。输入识别系统110还可在第二运动输入在特定方向上移过第二屏幕时且大致在识别第一运动输入时在第二屏幕1914处识别第二运动输入1922。
手势模块108被实现为从所识别的运动输入1912、1914中确定多屏幕同步滑动手势。同步滑动手势可被标识为运动输入的跨屏幕组合,且该手势可用于将杂志页1910从第一屏幕1904上的显示移到第二屏幕1906上的显示。
在多屏幕系统1902的第二视图1916中,显示在第一屏幕1904上的第一杂志页1910和显示在第二屏幕1906上的第二杂志页1918被示为用不同的杂志页替换。输入识别系统110可在第一运动输入在特定方向上移过第一屏幕时在第一屏幕1904处识别第一运动输入1920。输入识别系统110还可在第二运动输入在特定方向上移过第二屏幕时且大致在识别第一运动输入时在第二屏幕1906处识别第二运动输入1922。手势模块108可从所识别的运动输入1920、1922中确定多屏幕同步滑动手势。如多屏幕系统1902的第三视图1924中所示,同步滑动手势可用于移动杂志页1910、1918和/或用不同的杂志页1926、1928替换杂志页1910、1918以便显示在系统屏幕上。
应当注意,运动输入的各种表示仅是出于讨论目的的图示,并且当实现所描述的实施例时可以出现也可以不出现在多屏幕系统的屏幕上。另外,此处对可能与另一屏幕处的另一输入或运动相关的、一个屏幕处的输入或运动的任何描述适用于多屏幕系统的第一或第二屏幕。
图20示出了多屏幕同步滑动手势的示例方法2000。描述方法的次序并不旨在解释为限制,并且任何数量的所述方法框都可以按任何次序组合以实现本方法或实现替换方法。
在框2002,当在特定方向上移过第一屏幕时在多屏幕系统的第一屏幕处识别第一运动输入。例如,输入识别系统110可在第一运动输入在特定方向上移过第一屏幕时在第一屏幕1904处识别第一运动输入1912。在框2004,当在特定方向上移过第二屏幕时且大致在第一运动输入被识别时在多屏幕系统的第二屏幕处识别第二运动输入。例如,输入识别系统110还在第二运动输入在特定方向上移过第二屏幕时且大致在第一运动输入被识别时在第二屏幕1906处识别第二运动输入1914。
在框2006,从所识别的第一和第二运动输入中确定同步滑动手势。例如,手势模块108从所识别的运动输入1912、1914中确定多屏幕同步滑动手势。同步滑动手势被标识为第一和第二运动输入的跨屏幕组合。在各实施例中,同步滑动手势可用于将所显示的对象从第一屏幕上的显示移动到第二屏幕上的显示(在框2008);用不同的所显示的对象替换第一和第二屏幕上的一个或多个所显示的对象(在框2010);移动一个或多个所显示的对象并显露第一和第二屏幕上的工作空间(在框2012);循环通过显示在第一和第二屏幕上的一个或多个工作空间(在框2014);和/或用不同的应用替换第一和第二屏幕上的一个或多个应用(在框2016)。
图21示出了可被实现为参考图1和2来描述的任何类型的便携式和/或计算机设备来实现多屏幕手势的各实施例的示例设备2100的各个组件。在各实施例中,设备2100可被实现为有线和/或无线设备、多屏幕设备、任何形式的电视客户端设备(例如,电视机顶盒、数字录像机(DVR)等)、消费设备、计算机设备、服务器设备、便携式计算机设备、用户设备、通信设备、视频处理和/或呈现设备、电器设备、游戏设备、电子设备和/或任何其他类型的设备中的任一个或其组合。设备2100也可以与操作该设备的用户(即,人)和/或实体相关联,以使得设备描述包括用户、软件、固件、和/或设备的组合的逻辑器件。
设备2100包括允许设备数据2102(例如,接收到的数据、正被接收的数据、安排用于广播的数据、数据的数据包等)的有线和/或无线通信的通信设备2104。设备数据2104或其他设备内容可以包括设备的配置设置、存储在设备上的媒体内容和/或与设备用户相关联的信息。存储在设备2100上的媒体内容可以包括任何类型的音频、视频和/或图像数据。设备2100包括经由其可接收任何类型的数据、媒体内容、和/或输入的一个或多个数据输入2106,诸如用户可选输入、消息、音乐、电视机媒体内容、记录的视频内容、以及从任何内容源和/或数据源接收的任何其他类型的音频、视频和/或图像数据。
设备2100还包括通信接口2108,其可被实现为串行和/或并行接口、无线接口、任何类型的网络接口、调制解调器、和任何其他类型的通信接口中的任一个或多个。通信接口2108提供设备2100和通信网络之间的连接和/或通信链路,其他电子、计算和通信设备通过其来与设备2100传递数据。
设备2100包括一个或多个处理器2110(例如,微处理器、控制器等中的任一个),处理器处理各种计算机可执行指令来控制设备2100的操作并实现多屏幕手势的各实施例。作为补充或替换,设备2100可用硬件、固件、或结合在2112处概括标识的处理和控制电路来实现的固定逻辑电路中的任何一个或组合来实现。虽然未示出,但是设备2100可包括耦合设备内的各种组件的系统总线或数据传输系统。系统总线可包括不同总线结构中的任一个或组合,诸如存储器总线或存储器控制器、外围总线、通用串行总线、和/或利用各种总线体系结构中的任一种的处理器或局部总线。
设备2100还包括计算机可读介质2114,诸如一个或多个存储器组件,存储器组件的示例包括随机存取存储器(RAM)、非易失性存储器(例如,只读存储器(ROM)、闪存、EPROM、EEPROM等中的任一个或多个)、以及盘存储设备。盘存储设备可被实现为任何类型的磁性或光学存储设备,如硬盘驱动器、可记录和/或可重写紧致盘(CD)、任何类型的数字多功能盘(DVD)等等。设备2100还可包括大容量存储介质设备2116。
计算机可读介质2114提供数据存储机制以存储设备数据2104,以及各种设备应用2118和与设备2100的各操作方面相关的任何其他类型的信息和/或数据。例如,操作系统2120可用计算机可读介质2114作为计算机应用来维护并且在处理器2110上执行。设备应用2118可包括设备管理器(例如,控制应用、软件应用、信号处理和控制模块、特定设备本地的代码、特定设备的硬件抽象层等)。
设备应用2118还包括实现多屏幕手势的各实施例的任何系统组件或模块。在该示例中,设备应用2118可包括接口应用2122和手势模块2124,如当设备2100被实现为多屏幕设备的时候。接口应用2122和手势模块2124被示为软件模块和/或计算机应用。另选地或另外地,接口应用2122和/或手势模块2124可被实现为硬件、软件、固件、或其任意组合。
设备2100还包括输入识别系统2126,输入识别系统2126被实现为识别各种输入或输入组合,如选择输入、保持输入、运动输入、触摸输入、轻击输入等。输入识别系统2126可包括任何类型的输入检测特征以便在各种类型的输入之间进行区分,这些输入检测特征如传感器、光传感像素、触摸传感器、照相机、和/或解释用户交互、手势、输入和运动的自然用户接口。
设备2100还包括生成并向音频系统2128提供音频数据和/或生成并向显示系统2130提供显示数据的音频和/或视频呈现系统2132。音频系统2130和/或显示系统2132可包括处理、显示、和/或以其他方式呈现音频、视频、和图像数据的任何设备。显示数据和音频信号可经由RF(射频)链路、S视频链路、复合视频链路、分量视频链路、DVI(数字视频接口)、模拟音频连接、或其它类似的通信链路来从设备2100传输给音频设备和/或显示设备。在一实施例中,音频系统2130和/或显示系统2132被实现为设备2100的外部组件。或者,音频系统2130和/或显示系统2132被实现为示例设备2100的集成组件。
尽管已经用结构特征和/或方法专用的语言描述了多屏幕手势的各实施例,但是应该理解所附权利要求的主题不必限于所述的具体特征或方法。相反,这些具体特征和方法是作为多屏幕手势的示例实现来公开的。
Claims (14)
1.一种计算机实现的方法,包括:
在多屏幕系统的第一屏幕处识别对第一屏幕区域的第一运动输入,所述第一运动输入被识别为选择所显示的对象;
在所述多屏幕系统的第二屏幕处识别对第二屏幕区域的第二运动输入,所述第二运动输入被识别为选择所述所显示的对象;
从相应的所述第一和第二屏幕区域中的识别出的第一和第二运动输入中确定捏合装袋手势,所述捏合装袋手势可用于将所述所显示的对象装袋。
2.如权利要求1所述的方法,其特征在于,所述捏合装袋手势被标识为所述第一和第二运动输入的跨屏幕组合,所述跨屏幕组合可用于浓缩所述第一和第二屏幕区域中所述所显示的对象并将所述所显示的对象装袋在所述多屏幕系统中将所述第一和第二屏幕隔开的边框附近。
3.如权利要求1所述的方法,其特征在于,当所述所显示的对象被装袋时,所述所显示的对象被保存为缩略图像。
4.如权利要求3所述的方法,其特征在于,当所述所显示的对象被装袋时,所述缩略图像是到所述所显示的对象的可选择链接。
5.如权利要求1所述的方法,其特征在于,当所述所显示的对象被装袋时,所述所显示的对象被保存到可视剪贴板。
6.如权利要求1所述的方法,其特征在于,还包括从在针对所述第一屏幕上的所述所显示的对象的第一输入和针对所述第二屏幕上的所述所显示的对象的第二输入之间减小距离的所述第一和第二运动输入中确定所述捏合装袋手势。
7.如权利要求1所述的方法,其特征在于,还包括将选择输入识别为被装袋的所述所显示的对象上的轻击手势,所述轻击手势可用于扩张所述所显示的对象以便显示在所述第一和第二屏幕上。
8.一种多屏幕系统,包括:
至少存储器和处理器以实现手势模块,所述手势模块被配置成从识别出的运动输入中确定捏合装袋手势,所述捏合装袋手势可用于将所显示的对象装袋;
输入识别系统,所述输入识别系统被配置成:
在第一屏幕处识别对第一屏幕区域的第一运动输入,所述第一运动输入在所述所显示的对象被选中时被识别;以及
在第二屏幕处识别对第二屏幕区域的第二运动输入,所述第二运动输入在所述所显示的对象被选中时被识别。
9.如权利要求0所述的多屏幕系统,其特征在于,所述手势模块还被配置成将所述捏合装袋手势标识为所述第一和第二运动输入的跨屏幕组合,所述跨屏幕组合可用于浓缩所述第一和第二屏幕区域中所述所显示的对象并将所述所显示的对象装袋在将所述第一和第二屏幕隔开的边框附近。
10.如权利要求0所述的多屏幕系统,其特征在于,当所述所显示的对象被装袋时,所述所显示的对象被保存为缩略图像。
11.如权利要求10所述的多屏幕系统,其特征在于,当所述所显示的对象被装袋时,所述缩略图像是到所述所显示的对象的可选择链接。
12.如权利要求0所述的多屏幕系统,其特征在于,当所述所显示的对象被装袋时,所述所显示的对象被保存到可视剪贴板。
13.如权利要求0所述的多屏幕系统,其特征在于,所述手势模块还被配置成从在针对所述第一屏幕上的所述所显示的对象的第一输入和针对所述第二屏幕上的所述所显示的对象的第二输入之间减小距离的所述第一和第二运动输入中确定所述捏合装袋手势。
14.如权利要求0所述的多屏幕系统,其特征在于,所述输入识别系统还被配置成将选择输入识别为被装袋的所述所显示的对象上的轻击手势,所述轻击手势可用于扩张所述所显示的对象以便显示在所述第一和第二屏幕上。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/713,081 US20110209101A1 (en) | 2010-02-25 | 2010-02-25 | Multi-screen pinch-to-pocket gesture |
US12/713,081 | 2010-02-25 | ||
PCT/US2011/025971 WO2011106465A2 (en) | 2010-02-25 | 2011-02-24 | Multi-screen pinch-to-pocket gesture |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102770839A true CN102770839A (zh) | 2012-11-07 |
Family
ID=44477532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180011035XA Pending CN102770839A (zh) | 2010-02-25 | 2011-02-24 | 多屏幕捏合装袋手势 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20110209101A1 (zh) |
EP (1) | EP2539800A4 (zh) |
CN (1) | CN102770839A (zh) |
WO (1) | WO2011106465A2 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104915172A (zh) * | 2015-06-26 | 2015-09-16 | 努比亚技术有限公司 | 多移动终端屏幕的拼接方法及装置 |
CN110109603A (zh) * | 2019-04-29 | 2019-08-09 | 努比亚技术有限公司 | 一种页面操作方法、可穿戴设备及计算机可读存储介质 |
CN110928614A (zh) * | 2019-10-11 | 2020-03-27 | 广州视源电子科技股份有限公司 | 界面显示方法、装置、设备及存储介质 |
CN112384972A (zh) * | 2018-03-27 | 2021-02-19 | 维泽托有限责任公司 | 用于多屏幕显示和交互的系统和方法 |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8225231B2 (en) | 2005-08-30 | 2012-07-17 | Microsoft Corporation | Aggregation of PC settings |
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
US8210331B2 (en) * | 2006-03-06 | 2012-07-03 | Hossein Estahbanati Keshtkar | One-way pawl clutch with backlash reduction means and without biasing means |
US8836648B2 (en) | 2009-05-27 | 2014-09-16 | Microsoft Corporation | Touch pull-in gesture |
US8239785B2 (en) | 2010-01-27 | 2012-08-07 | Microsoft Corporation | Edge gestures |
US9411504B2 (en) | 2010-01-28 | 2016-08-09 | Microsoft Technology Licensing, Llc | Copy and staple gestures |
US8261213B2 (en) | 2010-01-28 | 2012-09-04 | Microsoft Corporation | Brush, carbon-copy, and fill gestures |
US9519356B2 (en) | 2010-02-04 | 2016-12-13 | Microsoft Technology Licensing, Llc | Link gestures |
US9274682B2 (en) | 2010-02-19 | 2016-03-01 | Microsoft Technology Licensing, Llc | Off-screen gestures to create on-screen input |
US9965165B2 (en) | 2010-02-19 | 2018-05-08 | Microsoft Technology Licensing, Llc | Multi-finger gestures |
US8799827B2 (en) | 2010-02-19 | 2014-08-05 | Microsoft Corporation | Page manipulations using on and off-screen gestures |
US9310994B2 (en) | 2010-02-19 | 2016-04-12 | Microsoft Technology Licensing, Llc | Use of bezel as an input mechanism |
US9367205B2 (en) | 2010-02-19 | 2016-06-14 | Microsoft Technolgoy Licensing, Llc | Radial menus with bezel gestures |
US20110209098A1 (en) * | 2010-02-19 | 2011-08-25 | Hinckley Kenneth P | On and Off-Screen Gesture Combinations |
US8707174B2 (en) | 2010-02-25 | 2014-04-22 | Microsoft Corporation | Multi-screen hold and page-flip gesture |
US9075522B2 (en) | 2010-02-25 | 2015-07-07 | Microsoft Technology Licensing, Llc | Multi-screen bookmark hold gesture |
US8473870B2 (en) | 2010-02-25 | 2013-06-25 | Microsoft Corporation | Multi-screen hold and drag gesture |
US9454304B2 (en) | 2010-02-25 | 2016-09-27 | Microsoft Technology Licensing, Llc | Multi-screen dual tap gesture |
US8539384B2 (en) * | 2010-02-25 | 2013-09-17 | Microsoft Corporation | Multi-screen pinch and expand gestures |
US8751970B2 (en) | 2010-02-25 | 2014-06-10 | Microsoft Corporation | Multi-screen synchronous slide gesture |
US20120084737A1 (en) | 2010-10-01 | 2012-04-05 | Flextronics Id, Llc | Gesture controls for multi-screen hierarchical applications |
US8823640B1 (en) | 2010-10-22 | 2014-09-02 | Scott C. Harris | Display reconfiguration and expansion across multiple devices |
US20120159395A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Application-launching interface for multiple modes |
US8689123B2 (en) | 2010-12-23 | 2014-04-01 | Microsoft Corporation | Application reporting in an application-selectable user interface |
US8612874B2 (en) | 2010-12-23 | 2013-12-17 | Microsoft Corporation | Presenting an application change through a tile |
US9423951B2 (en) | 2010-12-31 | 2016-08-23 | Microsoft Technology Licensing, Llc | Content-based snap point |
US9383917B2 (en) | 2011-03-28 | 2016-07-05 | Microsoft Technology Licensing, Llc | Predictive tiling |
US8893033B2 (en) | 2011-05-27 | 2014-11-18 | Microsoft Corporation | Application notifications |
US9658766B2 (en) | 2011-05-27 | 2017-05-23 | Microsoft Technology Licensing, Llc | Edge gesture |
US9104307B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US9158445B2 (en) | 2011-05-27 | 2015-10-13 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
US9104440B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US8687023B2 (en) | 2011-08-02 | 2014-04-01 | Microsoft Corporation | Cross-slide gesture to select and rearrange |
US20130057587A1 (en) | 2011-09-01 | 2013-03-07 | Microsoft Corporation | Arranging tiles |
US8922575B2 (en) | 2011-09-09 | 2014-12-30 | Microsoft Corporation | Tile cache |
US10353566B2 (en) | 2011-09-09 | 2019-07-16 | Microsoft Technology Licensing, Llc | Semantic zoom animations |
US9557909B2 (en) | 2011-09-09 | 2017-01-31 | Microsoft Technology Licensing, Llc | Semantic zoom linguistic helpers |
US20130067420A1 (en) * | 2011-09-09 | 2013-03-14 | Theresa B. Pittappilly | Semantic Zoom Gestures |
US9244802B2 (en) | 2011-09-10 | 2016-01-26 | Microsoft Technology Licensing, Llc | Resource user interface |
US8933952B2 (en) | 2011-09-10 | 2015-01-13 | Microsoft Corporation | Pre-rendering new content for an application-selectable user interface |
US9146670B2 (en) | 2011-09-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
US9395868B2 (en) | 2011-12-06 | 2016-07-19 | Google Inc. | Graphical user interface window spacing mechanisms |
US9223472B2 (en) | 2011-12-22 | 2015-12-29 | Microsoft Technology Licensing, Llc | Closing applications |
US20130271355A1 (en) | 2012-04-13 | 2013-10-17 | Nokia Corporation | Multi-segment wearable accessory |
KR102092234B1 (ko) * | 2012-08-03 | 2020-03-23 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR102099646B1 (ko) * | 2012-09-25 | 2020-04-13 | 삼성전자 주식회사 | 휴대단말의 분할화면 전환 장치 및 방법 |
US9582122B2 (en) | 2012-11-12 | 2017-02-28 | Microsoft Technology Licensing, Llc | Touch-sensitive bezel techniques |
CN105103116B (zh) * | 2013-03-05 | 2018-09-21 | 日本电气株式会社 | 移动终端设备、图像生成方法和存储程序的非暂时性计算机可读介质 |
KR102089951B1 (ko) * | 2013-03-14 | 2020-04-14 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
CN104748737B (zh) | 2013-12-30 | 2017-09-29 | 华为技术有限公司 | 一种多终端定位方法、相关设备及系统 |
CN104750238B (zh) | 2013-12-30 | 2018-10-02 | 华为技术有限公司 | 一种基于多终端协同的手势识别方法、设备及系统 |
US20150231501A1 (en) * | 2014-02-19 | 2015-08-20 | Zynga Inc. | Systems and methods of managing game objects using multiple inputs |
US9477337B2 (en) | 2014-03-14 | 2016-10-25 | Microsoft Technology Licensing, Llc | Conductive trace routing for display and bezel sensors |
CN105359094A (zh) | 2014-04-04 | 2016-02-24 | 微软技术许可有限责任公司 | 可扩展应用表示 |
WO2015154276A1 (en) | 2014-04-10 | 2015-10-15 | Microsoft Technology Licensing, Llc | Slider cover for computing device |
KR102107275B1 (ko) | 2014-04-10 | 2020-05-06 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | 컴퓨팅 디바이스에 대한 접이식 쉘 커버 |
US10592080B2 (en) | 2014-07-31 | 2020-03-17 | Microsoft Technology Licensing, Llc | Assisted presentation of application windows |
US10678412B2 (en) | 2014-07-31 | 2020-06-09 | Microsoft Technology Licensing, Llc | Dynamic joint dividers for application windows |
US10254942B2 (en) | 2014-07-31 | 2019-04-09 | Microsoft Technology Licensing, Llc | Adaptive sizing and positioning of application windows |
US10642365B2 (en) | 2014-09-09 | 2020-05-05 | Microsoft Technology Licensing, Llc | Parametric inertia and APIs |
CN106662891B (zh) | 2014-10-30 | 2019-10-11 | 微软技术许可有限责任公司 | 多配置输入设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1921671A (zh) * | 2005-08-23 | 2007-02-28 | Lg电子株式会社 | 用于显示信息的移动通信终端 |
CN101198925A (zh) * | 2004-07-30 | 2008-06-11 | 苹果公司 | 用于触敏输入设备的手势 |
US20080165255A1 (en) * | 2007-01-05 | 2008-07-10 | Apple Inc. | Gestures for devices having one or more touch sensitive surfaces |
CN101356493A (zh) * | 2006-09-06 | 2009-01-28 | 苹果公司 | 用于照片管理的便携式电子装置 |
US20100020025A1 (en) * | 2008-07-25 | 2010-01-28 | Intuilab | Continuous recognition of multi-touch gestures |
CN101866263A (zh) * | 2009-04-14 | 2010-10-20 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
Family Cites Families (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4843538A (en) * | 1985-04-30 | 1989-06-27 | Prometrix Corporation | Multi-level dynamic menu which suppresses display of items previously designated as non-selectable |
US5231578A (en) * | 1988-11-01 | 1993-07-27 | Wang Laboratories, Inc. | Apparatus for document annotation and manipulation using images from a window source |
US5237647A (en) * | 1989-09-15 | 1993-08-17 | Massachusetts Institute Of Technology | Computer aided drawing in three dimensions |
US5898434A (en) * | 1991-05-15 | 1999-04-27 | Apple Computer, Inc. | User interface system having programmable user interface elements |
US5349658A (en) * | 1991-11-01 | 1994-09-20 | Rourke Thomas C O | Graphical user interface |
US5351995A (en) * | 1992-01-29 | 1994-10-04 | Apple Computer, Inc. | Double-sided, reversible electronic paper |
US6097392A (en) * | 1992-09-10 | 2000-08-01 | Microsoft Corporation | Method and system of altering an attribute of a graphic object in a pen environment |
US5463725A (en) * | 1992-12-31 | 1995-10-31 | International Business Machines Corp. | Data processing system graphical user interface which emulates printed material |
EP0622722B1 (en) * | 1993-04-30 | 2002-07-17 | Xerox Corporation | Interactive copying system |
EP0626635B1 (en) * | 1993-05-24 | 2003-03-05 | Sun Microsystems, Inc. | Improved graphical user interface with method for interfacing to remote devices |
US5583984A (en) * | 1993-06-11 | 1996-12-10 | Apple Computer, Inc. | Computer system with graphical user interface including automated enclosures |
US5596697A (en) * | 1993-09-30 | 1997-01-21 | Apple Computer, Inc. | Method for routing items within a computer system |
EP0667567B1 (en) * | 1993-12-30 | 2001-10-17 | Xerox Corporation | Apparatus and method for supporting the implicit structure of freeform lists, outlines, text, tables, and diagrams in a gesture-based input system and editing system |
US5491783A (en) * | 1993-12-30 | 1996-02-13 | International Business Machines Corporation | Method and apparatus for facilitating integrated icon-based operations in a data processing system |
US5555369A (en) * | 1994-02-14 | 1996-09-10 | Apple Computer, Inc. | Method of creating packages for a pointer-based computer system |
JPH0926769A (ja) * | 1995-07-10 | 1997-01-28 | Hitachi Ltd | 画像表示装置 |
US5969720A (en) * | 1997-03-07 | 1999-10-19 | International Business Machines Corporation | Data processing system and method for implementing an informative container for a file system |
EP2256605B1 (en) * | 1998-01-26 | 2017-12-06 | Apple Inc. | Method and apparatus for integrating manual input |
US6239798B1 (en) * | 1998-05-28 | 2001-05-29 | Sun Microsystems, Inc. | Methods and apparatus for a window access panel |
US6507352B1 (en) * | 1998-12-23 | 2003-01-14 | Ncr Corporation | Apparatus and method for displaying a menu with an interactive retail terminal |
US6545669B1 (en) * | 1999-03-26 | 2003-04-08 | Husam Kinawi | Object-drag continuity between discontinuous touch-screens |
US6992687B1 (en) * | 1999-12-07 | 2006-01-31 | Microsoft Corporation | Bookmarking and placemarking a displayed document in a computer system |
AU2001271763A1 (en) * | 2000-06-30 | 2002-01-14 | Zinio Systems, Inc. | System and method for encrypting, distributing and viewing electronic documents |
WO2002059868A1 (en) * | 2001-01-24 | 2002-08-01 | Interlink Electronics, Inc. | Game and home entertainment device remote control |
US20020101457A1 (en) * | 2001-01-31 | 2002-08-01 | Microsoft Corporation | Bezel interface for small computing devices |
US20020116421A1 (en) * | 2001-02-17 | 2002-08-22 | Fox Harold L. | Method and system for page-like display, formating and processing of computer generated information on networked computers |
US7085274B1 (en) * | 2001-09-19 | 2006-08-01 | Juniper Networks, Inc. | Context-switched multi-stream pipelined reorder engine |
US6762752B2 (en) * | 2001-11-29 | 2004-07-13 | N-Trig Ltd. | Dual function input device and method |
US20030179541A1 (en) * | 2002-03-21 | 2003-09-25 | Peter Sullivan | Double screen portable computer |
US7158675B2 (en) * | 2002-05-14 | 2007-01-02 | Microsoft Corporation | Interfacing with ink |
US7330184B2 (en) * | 2002-06-12 | 2008-02-12 | Smart Technologies Ulc | System and method for recognizing connector gestures |
US7656393B2 (en) * | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
US20090143141A1 (en) * | 2002-08-06 | 2009-06-04 | Igt | Intelligent Multiplayer Gaming System With Multi-Touch Display |
US7159189B2 (en) * | 2003-06-13 | 2007-01-02 | Alphabase Systems, Inc. | Method and system for controlling cascaded windows on a GUI desktop on a computer |
US7532196B2 (en) * | 2003-10-30 | 2009-05-12 | Microsoft Corporation | Distributed sensing techniques for mobile devices |
TWI275041B (en) * | 2003-12-10 | 2007-03-01 | Univ Nat Chiao Tung | System and method for constructing large-scaled drawings of similar objects |
CA2557507A1 (en) * | 2004-02-25 | 2005-09-09 | Xplore Technologies Corporation | Apparatus providing multi-mode digital input |
US7743348B2 (en) * | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
TWI291161B (en) * | 2004-07-15 | 2007-12-11 | N trig ltd | Automatic switching for a dual mode digitizer |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
US7454717B2 (en) * | 2004-10-20 | 2008-11-18 | Microsoft Corporation | Delimiters for selection-action pen gesture phrases |
US20060092177A1 (en) * | 2004-10-30 | 2006-05-04 | Gabor Blasko | Input method and apparatus using tactile guidance and bi-directional segmented stroke |
US8161415B2 (en) * | 2005-06-20 | 2012-04-17 | Hewlett-Packard Development Company, L.P. | Method, article, apparatus and computer system for inputting a graphical object |
US7636071B2 (en) * | 2005-11-30 | 2009-12-22 | Hewlett-Packard Development Company, L.P. | Providing information in a multi-screen device |
US7603633B2 (en) * | 2006-01-13 | 2009-10-13 | Microsoft Corporation | Position-based multi-stroke marking menus |
US20100045705A1 (en) * | 2006-03-30 | 2010-02-25 | Roel Vertegaal | Interaction techniques for flexible displays |
US8587526B2 (en) * | 2006-04-12 | 2013-11-19 | N-Trig Ltd. | Gesture recognition feedback for a dual mode digitizer |
US8086971B2 (en) * | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US7813774B2 (en) * | 2006-08-18 | 2010-10-12 | Microsoft Corporation | Contact, motion and position sensing circuitry providing data entry associated with keypad and touchpad |
US7956847B2 (en) * | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
US7978182B2 (en) * | 2007-01-07 | 2011-07-12 | Apple Inc. | Screen rotation gestures on a portable multifunction device |
US8347206B2 (en) * | 2007-03-15 | 2013-01-01 | Microsoft Corporation | Interactive image tagging |
JP2008305036A (ja) * | 2007-06-06 | 2008-12-18 | Hitachi Displays Ltd | タッチパネル付表示装置 |
MY154070A (en) * | 2007-07-19 | 2015-04-30 | Choy Heng Kah | Dual screen presentation notebook computer |
WO2009018314A2 (en) * | 2007-07-30 | 2009-02-05 | Perceptive Pixel, Inc. | Graphical user interface for large-scale, multi-user, multi-touch systems |
US20090033632A1 (en) * | 2007-07-30 | 2009-02-05 | Szolyga Thomas H | Integrated touch pad and pen-based tablet input system |
US20090054107A1 (en) * | 2007-08-20 | 2009-02-26 | Synaptics Incorporated | Handheld communication device and method for conference call initiation |
US8122384B2 (en) * | 2007-09-18 | 2012-02-21 | Palo Alto Research Center Incorporated | Method and apparatus for selecting an object within a user interface by performing a gesture |
KR100869557B1 (ko) * | 2007-10-18 | 2008-11-27 | 김종대 | 무체인 자전거용 동력전달장치 |
TW200943140A (en) * | 2008-04-02 | 2009-10-16 | Asustek Comp Inc | Electronic apparatus and control method thereof |
US20090276701A1 (en) * | 2008-04-30 | 2009-11-05 | Nokia Corporation | Apparatus, method and computer program product for facilitating drag-and-drop of an object |
JP5164675B2 (ja) * | 2008-06-04 | 2013-03-21 | キヤノン株式会社 | ユーザインターフェースの制御方法及び情報処理装置及びプログラム |
US20090309846A1 (en) * | 2008-06-11 | 2009-12-17 | Marc Trachtenberg | Surface computing collaboration system, method and apparatus |
US20090327975A1 (en) * | 2008-06-27 | 2009-12-31 | Stedman Roy W | Multi-Touch Sorting Gesture |
WO2010005423A1 (en) * | 2008-07-07 | 2010-01-14 | Hewlett-Packard Development Company, L.P. | Tablet computers having an internal antenna |
US8159455B2 (en) * | 2008-07-18 | 2012-04-17 | Apple Inc. | Methods and apparatus for processing combinations of kinematical inputs |
US8686953B2 (en) * | 2008-09-12 | 2014-04-01 | Qualcomm Incorporated | Orienting a displayed element relative to a user |
US8600446B2 (en) * | 2008-09-26 | 2013-12-03 | Htc Corporation | Mobile device interface with dual windows |
US9250797B2 (en) * | 2008-09-30 | 2016-02-02 | Verizon Patent And Licensing Inc. | Touch gesture interface apparatuses, systems, and methods |
US20100185949A1 (en) * | 2008-12-09 | 2010-07-22 | Denny Jaeger | Method for using gesture objects for computer control |
US8219937B2 (en) * | 2009-02-09 | 2012-07-10 | Microsoft Corporation | Manipulation of graphical elements on graphical user interface via multi-touch gestures |
TWI370473B (en) * | 2009-02-20 | 2012-08-11 | Wistron Corp | Switch structure mounted on the sidewall of circuit boards for electronic devices and manufacturing methods of the circuit boards thereof |
US8134539B2 (en) * | 2009-03-30 | 2012-03-13 | Eastman Kodak Company | Digital picture frame having near-touch and true-touch |
US8370762B2 (en) * | 2009-04-10 | 2013-02-05 | Cellco Partnership | Mobile functional icon use in operational area in touch panel devices |
TW201040823A (en) * | 2009-05-11 | 2010-11-16 | Au Optronics Corp | Multi-touch method for resistive touch panel |
US9274699B2 (en) * | 2009-09-03 | 2016-03-01 | Obscura Digital | User interface for a large scale multi-user, multi-touch system |
US20110126094A1 (en) * | 2009-11-24 | 2011-05-26 | Horodezky Samuel J | Method of modifying commands on a touch screen user interface |
US20110167336A1 (en) * | 2010-01-04 | 2011-07-07 | Hit Development Llc | Gesture-based web site design |
US8239785B2 (en) * | 2010-01-27 | 2012-08-07 | Microsoft Corporation | Edge gestures |
US8261213B2 (en) * | 2010-01-28 | 2012-09-04 | Microsoft Corporation | Brush, carbon-copy, and fill gestures |
USD631043S1 (en) * | 2010-09-12 | 2011-01-18 | Steven Kell | Electronic dual screen personal tablet computer with integrated stylus |
EP2437153A3 (en) * | 2010-10-01 | 2016-10-05 | Samsung Electronics Co., Ltd. | Apparatus and method for turning e-book pages in portable terminal |
US8495522B2 (en) * | 2010-10-18 | 2013-07-23 | Nokia Corporation | Navigation in a display |
-
2010
- 2010-02-25 US US12/713,081 patent/US20110209101A1/en not_active Abandoned
-
2011
- 2011-02-24 CN CN201180011035XA patent/CN102770839A/zh active Pending
- 2011-02-24 WO PCT/US2011/025971 patent/WO2011106465A2/en active Application Filing
- 2011-02-24 EP EP11748026A patent/EP2539800A4/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101198925A (zh) * | 2004-07-30 | 2008-06-11 | 苹果公司 | 用于触敏输入设备的手势 |
CN1921671A (zh) * | 2005-08-23 | 2007-02-28 | Lg电子株式会社 | 用于显示信息的移动通信终端 |
CN101356493A (zh) * | 2006-09-06 | 2009-01-28 | 苹果公司 | 用于照片管理的便携式电子装置 |
US20080165255A1 (en) * | 2007-01-05 | 2008-07-10 | Apple Inc. | Gestures for devices having one or more touch sensitive surfaces |
US20100020025A1 (en) * | 2008-07-25 | 2010-01-28 | Intuilab | Continuous recognition of multi-touch gestures |
CN101866263A (zh) * | 2009-04-14 | 2010-10-20 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104915172A (zh) * | 2015-06-26 | 2015-09-16 | 努比亚技术有限公司 | 多移动终端屏幕的拼接方法及装置 |
CN112384972A (zh) * | 2018-03-27 | 2021-02-19 | 维泽托有限责任公司 | 用于多屏幕显示和交互的系统和方法 |
CN110109603A (zh) * | 2019-04-29 | 2019-08-09 | 努比亚技术有限公司 | 一种页面操作方法、可穿戴设备及计算机可读存储介质 |
CN110928614A (zh) * | 2019-10-11 | 2020-03-27 | 广州视源电子科技股份有限公司 | 界面显示方法、装置、设备及存储介质 |
CN110928614B (zh) * | 2019-10-11 | 2021-06-29 | 广州视源电子科技股份有限公司 | 界面显示方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2011106465A3 (en) | 2011-12-29 |
EP2539800A2 (en) | 2013-01-02 |
WO2011106465A2 (en) | 2011-09-01 |
US20110209101A1 (en) | 2011-08-25 |
EP2539800A4 (en) | 2013-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102141858B (zh) | 多屏幕同步滑动的方法 | |
CN102147704B (zh) | 多屏幕对象保持并换页手势 | |
CN102147705B (zh) | 多屏幕书签保持手势 | |
CN102770839A (zh) | 多屏幕捏合装袋手势 | |
CN102770834A (zh) | 多屏幕保持并翻页手势 | |
CN102782634A (zh) | 多屏幕保持并轻叩手势 | |
CN102770837A (zh) | 多屏幕张合手势 | |
CN102147679B (zh) | 用于多屏幕系统的手势输入方法和系统 | |
CN102770838A (zh) | 多屏幕双叩手势 | |
Li et al. | Holodoc: Enabling mixed reality workspaces that harness physical and digital content | |
CN103218069A (zh) | 触控简报系统及其执行方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20121107 |