[go: up one dir, main page]

CN108227979A - 用于具有触觉的柔顺性幻觉的系统和方法 - Google Patents

用于具有触觉的柔顺性幻觉的系统和方法 Download PDF

Info

Publication number
CN108227979A
CN108227979A CN201711296122.XA CN201711296122A CN108227979A CN 108227979 A CN108227979 A CN 108227979A CN 201711296122 A CN201711296122 A CN 201711296122A CN 108227979 A CN108227979 A CN 108227979A
Authority
CN
China
Prior art keywords
haptic
haptic effect
user
sensor
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711296122.XA
Other languages
English (en)
Inventor
胡安·曼纽尔·克鲁兹-赫尔南德斯
伍黎雯
尼尔·T·奥里恩
丹尼·A·格兰特
贾马尔·萨波恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of CN108227979A publication Critical patent/CN108227979A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

本公开涉及用于具有触觉的柔顺性幻觉的系统和方法。公开了用于具有触觉的柔顺性幻觉的系统和方法。本文描述的一个说明性系统包括用户界面设备,其包括:传感器,该传感器被配置为检测手势;触觉输出设备,该触觉输出设备被配置为输出触觉效果;以及处理器,该处理器被耦合到传感器和触觉输出设备,该处理器被配置为:从传感器接收传感器信号;确定与虚拟对象的用户交互;部分地基于传感器信号和用户交互来确定触觉效果;以及向触觉输出设备发送与触觉效果相关联的触觉信号。

Description

用于具有触觉的柔顺性幻觉的系统和方法
技术领域
本申请涉及用户界面设备的领域。更具体地,本申请涉及具有触觉的柔顺性幻觉(compliance illusion)。
背景技术
手持设备(包括触摸使能设备)已经变得越来越流行。例如,移动设备和其他设备可被配置有触敏显示器,以使得用户可以通过触摸触敏显示器的部分来提供输入。许多设备还配置有触觉功能。混合现实和虚拟现实也都已经变得越来越流行。因此,存在对混合现实或虚拟现实环境中的触觉效果的需要。
发明内容
在一个实施例中,一种用于具有触觉的柔顺性幻觉的系统,包括:用户界面设备,包括:传感器,其被配置为检测手势;触觉输出设备,其被配置为输出触觉效果;以及耦合到传感器和触觉输出设备的处理器,该处理器被配置为:从传感器接收传感器信号;确定混合现实中的用户交互;部分地基于传感器信号和用户交互来确定触觉效果;并且向触觉输出设备发送与触觉效果相关联的触觉信号。
在另一实施例中,一种用于具有触觉的柔顺性幻觉的方法,包括:从被配置为检测手势的传感器接收传感器信号;确定混合现实中的用户交互;部分地基于传感器信号和用户交互来确定触觉效果;并且向被配置为输出触觉效果的触觉输出设备输出与触觉效果相关联的触觉信号。
在又一实施例中,计算机可读介质可以包括程序代码,该程序代码在由处理器执行时,被配置为实现具有触觉的柔顺性幻觉。该程序代码可以包括在由处理器执行时被配置为执行以下操作的程序代码:从被配置为检测手势的传感器接收传感器信号;确定混合现实中的用户交互;部分地基于传感器信号和用户交互来确定触觉效果;以及向被配置为输出触觉效果的触觉输出设备输出与触觉效果相关联的触觉信号。
提及这些说明性实施例不是为了限制本主题或定义本主题的限制,而是为了提供示例以辅助对其的理解。在具体实施方式中讨论了说明性示例,并且在其中提供了进一步的描述。可以通过检查本说明书和/或通过实施所要求保护的主题的一个或多个实施例来进一步理解各个示例所提供的优势。
附图说明
在本说明书的其余部分更具体地阐述了完整和可以实现的公开。本说明书参考以下附图。
图1A示出了用于具有触觉的柔顺性幻觉的说明性系统。
图1B示出了图1A所示的系统的一个实施例的外视图。
图1C示出了图1A所示的系统的另一实施例的外视图。
图2A示出了具有触觉的柔顺性幻觉的示例实施例。
图2B示出了具有触觉的柔顺性幻觉的另一示例实施例。
图3A示出了具有触觉的柔顺性幻觉的另一示例实施例。
图3B示出了具有触觉的柔顺性幻觉的另一示例实施例。
图4示出了具有触觉的柔顺性幻觉的另一示例实施例。
图5是具有触觉的柔顺性幻觉的一个示例实施例的方法步骤的流程图。
具体实施方式
现在将详细参考各个示例和替代的说明性示例和附图。每个实例通过解释的方式被提供,并且不作为限制。对于本领域技术人员明显的是,可以做出修改和变化。例如,作为一个实施例的一部分而被示出或描述的特征可用于另一实施例中以产生又一实施例。因此,本公开旨在包括落入所附权利要求及其等同物的范围内的修改和变化。
用于具有触觉的柔顺性幻觉的设备的说明性示例
本公开的一个说明性实施例包括电子设备,例如,平板计算机、电子阅读器、移动电话、或诸如膝上型计算机或台式计算机之类的计算机、或可穿戴设备。电子设备包括显示器(例如,触摸屏显示器)、存储器、以及与这些元件中的每一个进行通信的处理器。在说明性实施例中,电子设备被配置为输出触觉效果并且执行用于混合现实(例如,虚拟现实和/或增强现实)的应用。另外的说明性电子设备可以被配置为使用传统接口设备(例如,鼠标、操纵杆、多功能控制器、触摸屏等)来向用户输出触觉效果。
一个说明性实施例包括执行混合现实应用的移动设备。混合现实应用可以包括一个或多个虚拟对象,例如,应用中的对象或应用中的人物。在一些实施例中,用户可以与这些对象中的一个进行交互。在说明性实施例中,移动设备被配置为确定并输出与交互相关联的一个或多个触觉效果。例如,用户可以按压其中一个虚拟对象(例如,在触敏显示器的表面上或从输入设备的侧面)。作为响应,说明性移动设备输出触觉效果。
在说明性实施例中,触觉效果被配置为模拟对象的柔顺性(例如,在交互期间模拟对象的刚度)。这样的触觉效果可以包括具有特定包络(envelope)和频率调制的振动触觉效果,该特定包络和频率调制被配置为模拟移动设备的一个或多个表面上的柔顺性。可以通过将振动效果作为感测到的力/压力的函数进行调制来实现柔顺性幻觉,其中,利用粒度合成方法来创建振动。当设备输出这样的触觉效果时,用户可以感觉到触觉效果为电子设备的表面的柔顺性(例如,刚度)的变化。该触觉效果可以与音频和/或视觉效果相协调以进一步增强体验。例如,显示器所显示的对象可以在输出触觉效果时弯曲。
在另一说明性实施例中,用户可以使用控制器(例如,游戏界面、桨、操纵杆、多功能控制器、可穿戴设备(例如,表、带、头带、手套、鞋等)、或移动设备(例如,智能电话或平板计算机))来与混合现实或虚拟现实界面中的对象进行交互。在这样的实施例中,当用户与混合现实或虚拟现实界面中的一个或多个对象进行交互时,处理器可以确定与对象的柔顺性相关联的触觉效果,并且经由控制器向用户输出这些触觉效果。在一些实施例中,触觉效果可以与音频和/或视觉效果相协调以进一步增强体验。例如,在这样的实施例中,控制器可以通信地耦合到用于混合现实或虚拟现实的耳机。在这样的实施例中,显示器(例如,耳机或显示屏)所显示的对象可以在输出触觉效果时弯曲。
用于具有触觉的柔顺性幻觉的说明性系统
图1A示出了用于具有触觉的柔顺性幻觉的说明性系统100。具体地,在该示例中,系统100包括计算设备101,该计算设备101具有经由总线106与其他硬件相接口的处理器102。存储器104体现配置计算设备的操作的程序组件,该存储器104可以包括任意适当的有形(和非暂态)计算机可读介质,例如,RAM、ROM、EEPROM等。在该示例中,计算设备101还包括一个或多个网络接口设备110、输入/输出(I/O)接口组件112、以及另外的存储装置114。
网络设备110可以表示有助于网络连接的任意组件中的一个或多个。示例包括但不限于有线接口(例如,以太网、USB、IEEE 1394)和/或无线接口(例如,IEEE 802.11、蓝牙)、或用于接入蜂窝电话网络的无线电接口(例如,用于接入CDMA、GSM、UMTS或其他移动通信网络的收发器/天线)。
I/O组件112可以用于促进到设备的连接,例如,一个或多个显示器、包括显示器的耳机、曲面显示器(例如,包括延伸到计算设备101的一个或多个侧面上的、在其上可以显示图像的成角度的表面的显示器)、键盘、鼠标、扬声器、麦克风、相机(例如,移动设备上的前置和/或后置相机)、和/或用于输入数据或输出数据的其他硬件。存储装置114表示非易失性存储装置,例如,设备101中包括的磁、光、或其他存储介质。
(一个或多个)音频/视觉输出设备115包括被配置为从(一个或多个)处理器102接收信号并向用户提供音频或视觉输出的一个或多个设备。例如,在一些实施例中,(一个或多个)音频/视觉输出设备115可以包括显示器,例如,触摸屏显示器、LCD显示器、等离子显示器、CRT显示器、投影显示器、包括用于每只眼睛的显示器的耳机(例如,用于混合现实或虚拟现实)、或本领域已知的一些显示器。此外,音频/视觉输出设备可以包括被配置为向用户输出音频的一个或多个扬声器。
系统100还包括触摸表面116,在该示例中,该触摸表面116被集成到设备101中。触摸表面116表示被配置为感测用户的触摸输入的任意表面。在一些实施例中,触摸表面116可以被配置为检测与触摸输入相关联的附加信息,例如,压力、运动的速度、运动的加速度、用户皮肤的温度、或与触摸输入相关联的一些其他信息。一个或多个传感器108可以被配置位在对象接触触摸表面时检测触摸区域中的触摸,并且提供适当的数据以供由处理器102使用。可以使用任意适当数目、类型或布置的传感器。例如,电阻式和/或电容式传感器可被嵌入触摸表面116中,并且用于确定触摸的位置以及诸如压力之类的其他信息。作为另一示例,可以使用具有触摸表面的视图的光学传感器来确定触摸位置。
此外,在一些实施例中,触摸表面116和/或(一个或多个)传感器108可以包括不依赖于触摸传感器而检测用户交互的传感器。例如,在一个实施例中,传感器可以包括被配置为使用肌电图(EMG)信号来检测用户在表面上施加的压力的传感器。此外,在一些实施例中,传感器可以包括RGB或热照相机,并且使用由这些照相机捕获的图像来估计用户施加在表面上的压力的量。
在一些实施例中,传感器108和触摸表面116可以包括触摸屏或触摸板。例如,在一些实施例中,触摸表面116和传感器108可以包括安装在显示器上方、被配置为接收显示信号并向用户输出图像的触摸屏。在其他实施例中,传感器108可以包括LED检测器。例如,在一个实施例中,触摸表面116可以包括安装在显示器侧面上的LED指状检测器。在一些实施例中,处理器与单个传感器108进行通信,在其他实施例中,处理器与多个传感器108(例如,第一触摸屏和第二触摸屏)进行通信。在一些实施例中,一个或多个传感器108还包括被配置为检测移动设备的运动的一个或多个传感器(例如,加速度计、陀螺仪、照相机、GPS或其他传感器)。这些传感器可以被配置为检测在X、Y或Z平面中移动设备的用户交互。传感器108被配置为检测用户交互,并且基于用户交互,向处理器102发送信号。在一些实施例中,传感器108可以被配置为检测用户交互的多个方面。例如,传感器108可以检测用户交互的速度和压力,并且将该信息结合到接口信号中。此外,在一些实施例中,用户交互包括远离设备的多维用户交互。例如,在一些实施例中,与设备相关联的照相机可以被配置为检测用户运动,例如,手部、手指、身体、头部、眼睛或脚部运动或与另一人或对象的交互。
在一些实施例中,输入可以包括手势。手势是传达意义或用户意图的任意身体运动。将认识到,可以组合简单的手势以形成更复杂的手势。例如,使手指接触触敏表面可被称为“手指打开(finger on)”手势,而从触敏表面移除手指可被称为单独的“手指断开(finger off)”手势。如果“手指打开”和“手指断开”手势之间的时间相对较短,则组合手势可被称为“敲击”;如果“手指打开”和“手指断开”手势之间的时间相对较长,则组合手势可被称为“长敲击”;如果“手指打开”和“手指断开”手势的二维(x,y)位置之间的距离相对较大,则组合的手势可被称为“滑动”;如果“手指打开”和“手指断开”手势的二维(x,y)位置之间的距离相对较小,则组合手势可被称为“涂抹(smearing)”、“模糊(smudging)”或“点击”。可以以任意方式来组合任意数目的二维或三维简单或复杂手势,以形成任意数目的其他手势,包括但不限于:多个手指接触、手掌或第一接触、或接近设备。手势也可以是由具有加速度计、陀螺仪或其他运动传感器的设备识别、并被转换为电子信号的任意形式的手部运动。这类电子信号可以激活动态效果,例如,摇动虚拟骰子,其中,传感器捕获产生动态效果的用户意图。
在该示例中,与处理器102进行通信的触觉输出设备118被耦合到触摸表面116。在一些实施例中,触觉输出设备118被配置为响应于触觉信号来输出模拟触摸表面的柔顺性的触觉效果。另外或替代地,触觉输出设备118可以提供以受控方式来移动触摸表面的振动触觉效果。一些触觉效果可以利用耦合到设备的壳体的执行器,并且一些触觉效果可以依次和/或一起地使用多个执行器。例如,在一些实施例中,可以通过以不同频率振动表面来模拟表面纹理。在这样的实施例中,触觉输出设备118可以包括下列项中的一项或多项:例如,压电执行器、电动机、电磁执行器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量电机(ERM)、或线性共振执行器(LRA)。在一些实施例中,触觉输出设备118可以包括多个执行器,例如,ERM和LRA。在又其他实施例中,触觉输出设备118可以使用提供阻力的非执行触觉(例如,空气、流体或超声波输出)来作为传送较粗糙表面的手段。
在一些实施例中,一个或多个触觉输出设备可以被配置为相对于设备在X、Y或Z平面中输出力。在一些实施例中,这些效果可以被配置为模拟对象的柔顺性。例如,可以使用振动触觉效果来模拟柔顺性。在一些实施例中,可以使用包括粒度合成的触觉信号来生成被配置为模拟柔顺性的触觉效果。在这样的触觉信号中,可以使用若干参数来生成不同的柔顺性。例如参数可以包括:
●颗粒大小:颗粒中正弦曲线的时间段;
●颗粒密度:可用于控制颗粒频率,较高的颗粒密度指较高的颗粒频率;
●每循环最大颗粒:用于每次更新的最大颗粒数目,这是用于控制颗粒频率的另一参数,每更新颗粒数目越高,则颗粒频率越高;和/或
●颗粒幅值:颗粒的最大幅值。
在一些实施例中,这些参数中的每一个可以被调整或调制为生成模拟柔顺性的触觉效果。下面表格包括模拟柔顺性的两个示例触觉效果的参数。
在上面的示例中,与柔顺性效果1相比,柔顺性效果2可以生成更柔顺和弹性的幻觉。在一些实施例中,可以基于输入值来动态地改变参数。在这样的实施例中,输入值可以是VR/AR对象的压力值、行进距离、或其他参数。例如,在一些实施例中,一个或多个参数可以随着输入值的增加或减少而被增加或减少。在一些实施例中,这可以生成更动态的柔顺性幻觉。在其他实施例中,触觉信号可以包括例如具有正弦载波的锯齿状向下颗粒,以及作为用户施加在触摸表面上的压力的函数的包络变量的幅值。在一些实施例中,正弦载波可以具有从80Hz到300Hz的频率,而其余的颗粒保持相同。在这样的触觉信号中,频率变化可以模拟平滑到粗糙变形幻觉。
在一些实施例中,可以基于关于用户交互的其他感测信息(例如,虚拟环境中的手部的相对位置、VR/AR环境中的对象位置、对象变形、GUI、UI、AR、VR中的相对对象交互等)来调制触觉效果。在又其他实施例中,创建触觉效果的方法包括短持续时间的效果变化,其中,效果的幅值作为感测信号值(例如,与用户交互相关联的信号值)的函数而变化。在一些实施例中,当效果的频率可能变化时,可以选择固定的感知幅值,并且效果的频率可以作为感测信号值的函数而变化。
例如,在一个实施例中,用户可以在真实空间做出手势,例如,手部运动。在该运动期间,用户的手部可以在它从第一位置移动到第二位置时被跟踪。可以基于该手势来确定触觉效果。此外,触觉效果可以作为用户的位置的函数(例如,两个点之间的距离或用户在两个点之间的位置的函数)而变化。例如,在一个实施例中,处理器101可以部分地基于手势(例如,基于两个点之间的距离和/或用户的手部和其中一个点之间的距离)来修改触觉效果的频率、幅值、颗粒大小、颗粒幅值、或颗粒密度中的一项或多项。此外,在一些实施例中,手势可以包括混合现实中的手势。因此,在一些实施例中,手势可以包括虚拟现实中的手势,并且可以包括虚拟现实中的两个点之间的移动。
尽管这里示出了单个触觉输出设备118,但实施例可以使用相同或不同类型的多个触觉输出设备来输出触觉效果。例如,在一个实施例中,可以使用压电执行器来以超声频率垂直和/或水平地移动触摸表面116中的一些或全部,例如,在一些实施例中,通过使用以大于20-25kHz的频率移动的执行器。在一些实施例中,可以单独或一起使用多个执行器(例如,偏心旋转质量电机和线性共振执行器)来提供不同的纹理和其他触觉效果。
在又其他实施例中,触觉输出设备118可以使用静电力(例如,通过使用静电表面执行器)来模拟触摸表面116的表面上的纹理。类似地,在一些实施例中,触觉输出设备118可以使用静电力来改变用户在触摸表面116的表面上感觉到的摩擦。例如,在一个实施例中,触觉输出设备118可以包括静电显示器或施加电压和电流而不是机械运动来生成触觉影响的任意其他设备。在这样的实施例中,静电执行器可以包括导电层和绝缘层。在这样的实施例中,导电层可以是任意半导体或其他导电材料,例如,铜、铝、金或银。并且绝缘层可以是玻璃、塑料、聚合物、或任意其他绝缘材料。
处理器102可以通过向导电层施加电信号来操作静电执行器。电信号可以是AC信号,在一些实施例中,AC信号将导电层和靠近或触摸触摸表面116的对象电容地耦合。在一些实施例中,AC信号可以由高电压放大器生成。在其他实施例中,电容耦合可以模拟触摸表面116的表面上的摩擦系数或纹理。例如,在一个实施例中,触摸表面116的表面可以是平滑的,但电容耦合可以在靠近触摸表面116的表面的对象之间产生吸引力。在一些实施例中,改变对象和导电层之间的吸引水平可以改变跨触摸表面116的表面移动的对象上的模拟纹理,或者可以改变对象跨触摸表面116的表面移动时感觉到的摩擦的系数。此外,在一些实施例中,可以结合传统执行器来使用静电执行器以改变触摸表面116的表面的模拟纹理。例如,执行器可以振动以模拟触摸表面116的表面的纹理的变化,同时,静电执行器可以在触摸表面116的表面上、或计算设备101的另一部分(例如,其壳体或另一输入设备)上模拟不同的纹理、或其他效果。
在一些实施例中,静电执行器可用于通过刺激靠近或接触触摸表面116的身体部位来生成触觉效果。例如,在一些实施例中,静电执行器可以刺激用户手指的皮肤中的神经末梢、或可响应于静电执行器的触笔中的组件。例如,皮肤中的神经末梢可以被刺激,并且感测静电执行器(例如,电容耦合)为振动或一些更具体的感觉。例如,在一个实施例中,静电执行器的导电层可以接收与用户的手指的导电部分相耦合的AC电压信号。当用户触摸触摸表面116并在触摸表面上移动他或她的手指时,用户可以感觉到多刺、颗粒、凹凸、粗糙、粘性的纹理、或一些其他纹理。
转到存储器104,描绘了示例性程序组件124、126和128以示出在一些实施例中可以如何配置设备以提供具有触觉的柔顺性幻觉。在该示例中,检测模块124配置处理器102来经由传感器108监测触摸表面116以确定触摸,例如,触摸的位置和/或压力。例如,模块124可以对传感器108进行采样以便跟踪触摸存在或不存在,并且若存在触摸,则随时间跟踪触摸的位置、路径、速度、加速度、压力、和/或其他特性中的一项或多项。
触觉效果确定模块126表示分析关于触摸特性的数据以选择要生成的触觉效果的程序组件。例如,在一个实施例中,模块126包括基于触摸来确定要生成的触觉效果的代码。例如,模块126可以包括被配置为部分地基于触摸(例如,触摸的压力)来确定触觉信号的颗粒大小、颗粒密度、每循环最大颗粒、和/或颗粒幅值的程序代码。替代地,在一些实施例中,触觉效果确定模块126可以包括一个或多个预先加载的触觉效果,例如,与混合现实或虚拟现实环境中的特定对象相关联的触觉效果。这些触觉效果可以包括(一个或多个)触觉输出设备118能够生成的任意类型的触觉效果。此外,在一些实施例中,模块126可以包括被配置为操纵触觉效果的特性(例如,效果的强度、频率、持续时间、占空比、或与触觉效果相关联的任意其他特性)的程序代码。在一些实施例中,模块126可以包括允许用户例如经由图形用户界面来操纵这些特性的程序代码。
此外,在一些实施例中,模块126可以包括被配置为基于用户交互来确定触觉效果的程序代码。例如,模块126可以被配置为监测触摸表面116上的用户输入、或被配置为检测移动设备的运动的其他传感器,例如,惯性传感器。模块126可以检测该输入并基于该输入来生成触觉效果。例如,在一些实施例中,模块126可以被配置为确定被配置为模拟用户交互的触觉效果。
触觉效果生成模块128表示使得处理器102生成触觉信号并将其发送到触觉输出设备118的编程,该触觉信号使得触觉输出设备118生成所选择的触觉效果。例如,生成模块128可以访问所存储的波形或命令以发送到触觉输出设备118。作为另一示例,触觉效果生成模块128可以接收期望类型的效果,并且利用信号处理算法来生成适当的信号以发送到触觉输出设备118。作为另一示例,可以连同触觉效果的目标坐标和发送到一个或多个执行器的适当波形一起指示期望效果,来生成表面(和/或其他设备组件)的适当位移以提供触觉效果。一些实施例可以一起使用多个触觉输出设备来输出触觉效果。
触摸表面可以覆盖(或以其他方式对应于)显示器,取决于计算系统的特定配置。在图1B中,示出了计算系统100B的外视图。计算设备101包括触摸使能显示器116,其组合了触摸表面和设备的显示器。触摸表面可以对应于显示器外部、或实际显示器组件上方的一层或多层材料。
图1C示出了其中触摸表面未覆盖显示器的触摸使能计算系统100C的另一示例。在该示例中,计算设备101以触摸表面116为特征,该触摸表面116可被映射到包括在与设备101相接口的计算系统120中的显示器122所提供的图形用户界面。例如,计算设备101可以包括鼠标、触控板或其他设备,而计算系统120可以包括台式计算机或膝上型计算机、机顶盒(例如,DVD播放器、DVR、有线电视盒)或另一计算系统。作为另一示例,触摸表面116和显示器122可被布置在同一设备中,例如,以显示器122为特征的膝上型计算机中的触摸使能触控板。无论是否与显示器相集成,本文的示例中对平面触摸表面的描绘都不意味着是限制性的。其他实施例包括弯曲或不规则触摸使能表面,其还被配置为提供触觉效果,例如,被配置为模拟柔顺性幻觉的触觉效果。
图2A-2B示出了具有触觉的柔顺性幻觉的设备的示例实施例。图2A是示出系统200的外视图的图示,该系统200包括以显示器202为特征的计算设备201。图2B示出了设备201的横截面图。设备201可以类似于图1A的设备101来进行配置,但为了清楚起见,在该视图中未示出诸如处理器、存储器、传感器等之类的组件。
从图2B中可以看出的,设备201以多个触觉输出设备218和另外的触觉输出设备222为特征。触觉输出设备218-1可以包括被配置为向显示器202传递垂直力的执行器,而218-2可以横向移动显示器202。在该示例中,触觉输出设备218、222被直接耦合到显示器,但应理解的是,触觉输出设备218、222可被耦合到另一触摸表面,例如,显示器202顶部的材料层。此外,应理解的是,触觉输出设备218或222中的一个或多个可以包括静电执行器,如上所述。此外,触觉输出设备222可被耦合到包含设备201的组件的壳体。在图2A-2B的示例中,显示器202的区域对应于触摸区域,但原理可以应用于完全与显示器分离的触摸表面。
在一个实施例中,触觉输出设备218各自包括压电执行器,而另外的触觉输出设备222包括偏心旋转质量电机、线性共振执行器、或另一压电执行器。触觉输出设备222可以被配置为响应于来自处理器的触觉信号来提供振动触觉效果。该振动触觉效果可以结合基于表面的触觉效果来使用和/或用于其他目的。
在一些实施例中,触觉输出设备218-1和218-2中的任一个或二者可以包括除了压电执行器之外的执行器。任意执行器可以包括:例如,压电执行器、电磁执行器、电活性聚合物、形状记忆合金、柔性复合压电执行器(例如,包括柔性材料的执行器)、静电和/或磁致伸缩执行器。此外,示出了触觉输出设备222,但多个其他触觉输出设备可被耦合到设备201的壳体、和/或触觉输出设备222可被耦合到别处。装置201还可以以在不同位置处耦合到触摸表面的多个触觉输出设备218-1/218-2为特征。
现在转到图3A,图3A示出了系统300。系统300包括移动设备302、显示器304、以及显示器304中示出的对象306。移动设备302包括本领域已知的任意类型的移动设备,例如,智能电话、平板计算机、膝上型计算机、或其他类型的设备。显示器304还可包括触敏输入设备,例如,触摸屏。
显示器302示出了对象306。如图3A所示,对象306包括剑。剑306可以是用于在混合现实或虚拟现实界面中使用的对象。例如,剑306可以是可以在混合现实或虚拟现实游戏中使用的武器。
在图3A所示的实施例中,移动设备302上的传感器检测与剑306的用户交互。这些传感器可以包括例如触摸屏上的传感器或遍及设备302的表面的其它传感器。这些传感器可以检测用户交互的压力(例如,用户紧握的强度、或用户在触摸屏上的触摸的压力)。当用户与剑306交互时,移动设备302确定并输出被配置为模拟剑的柔顺性的触觉效果。在一些实施例中,这些触觉效果可以模拟剑306的刚度。在其他实施例中,触觉效果可以模拟与剑306的移动或冲击,例如,当用户参与混合现实或虚拟现实界面中的战斗时。
在一些实施例中,设备302可以部分地基于检测到的用户交互的压力来确定触觉效果。此外,设备302可以通过部分地基于用户交互的压力确定和调整触觉信号的参数(例如,触觉信号的颗粒大小、颗粒密度、每循环最大颗粒、和/或颗粒幅值)来确定触觉效果。
此外,在一些实施例中,不是将剑306显示在移动设备上的触摸屏中,剑306替代地可被显示在远程显示器或可穿戴显示器(例如,耳机)上,以在虚拟现实或混合现实环境中使用。在这样的实施例中,设备302可以不包括显示器,并且替代地可以是游戏控制器(例如,桨或多功能控制器),用户可以操纵该游戏控制器以便与混合现实或虚拟现实环境进行交互。
现在转到图3B,图3B示出了系统350。系统350包括移动设备352、显示器354、以及显示器中示出的对象356。移动设备352包括本领域已知的任意类型的移动设备,例如,智能电话、平板计算机、膝上型计算机、或其他类型的设备。显示器354还可包括触敏输入设备,例如,触摸屏。
显示器352示出了对象356。如图3B所示,对象356包括角色。该角色356可以是混合现实或虚拟现实界面中的角色。例如,角色356可以是用户在混合现实或虚拟现实游戏中捕捉的角色。
在图3A所示的实施例中,移动设备352上的传感器检测与角色356的用户交互。这些传感器可以包括例如触摸屏上的传感器或遍及设备352的表面的其它传感器。这些传感器可以检测用户交互的压力(例如,用户紧握的强度、或用户在触摸屏上的触摸的压力)。当用户与角色356交互时,移动设备352确定并输出被配置为模拟角色的柔顺性的触觉效果。在一些实施例中,这些触觉效果可以模拟角色356的刚度或柔度。例如,在一些实施例中,角色356可能感觉坚硬的,像大理石。在其他实施例中,角色356可能感觉比较柔顺,例如,像膨胀的气球或水球。在其它实施例中,触觉效果可以模拟角色356的移动,例如,当角色挣扎以使其脱离用户的抓握时。
此外,在一些实施例中,用户的手势的强度(例如,用户施加到虚拟对象的压力的量)不必被确定为由用户施加的实际压力(例如,因为混合或虚拟现实中的对象在现实世界中可能不存在)。在一些实施例中,可以根据其他输入(例如,手势的角度(例如,手势期间用户的手指的角度(例如,挤压手势))来确定或模拟用户的手势的强度。在一些实施例中,可以从跟踪传感器(例如,Leap Motion)来确定该数据。在一些实施例中,用户的手势的强度还可以映射到诸如操纵杆、按钮、键盘等之类的其它输入。例如,处理器可以确定非常强的手势旨在按下按钮,而较弱手势旨在提出一个新的用户界面。
在一些实施例中,设备352可以部分地基于检测到的用户交互的压力来确定触觉效果。此外,设备352可以通过部分地基于用户交互的压力确定和调整触觉信号的参数(例如,触觉信号的颗粒大小、颗粒密度、每循环最大颗粒、和/或颗粒幅值)来确定触觉效果。
现在转到图4,图4示出了系统400。系统400包括具有输入界面404的手持设备402。手持设备402由用户406控制。
手持设备402包括本领域已知的任意类型的手持设备,例如,游戏控制器(例如,桨、操纵杆、或多功能控制器)、智能电话、平板计算机、膝上型计算机、或其他类型的设备。在实施例中,所示出的手持设备还包括方向按钮404。在一些实施例中,这些方向输入按钮404可以是固定按钮,在其他实施例中,它们可被显示在触摸屏显示器上。
手持设备402包括一个或多个传感器,例如,惯性传感器、压力传感器、按钮、和/或触敏输入设备。用户406可以与手持设备402交互以便与混合现实或虚拟现实界面进行交互。例如,用户406可以在显示器(例如,可穿戴显示器)上查看虚拟或混合现实界面。用户可以通过移动、挤压、按压、滑动、或以其他方式与手持设备402交互来与虚拟或混合现实进行交互。
当用户与手持设备402进行交互时,处理器可以接收来自设备的传感器的信号并控制混合现实或虚拟现实中的一个或多个角色或对象。在整个交互过程中,手持设备或通信地耦合到手持设备的处理器确定并输出被配置为模拟混合现实或虚拟现实中的对象的柔顺性的触觉效果。在一些实施例中,这些触觉效果可以模拟那些对象的刚度或柔度。例如,在一些实施例中,对象可能感觉坚硬的,像大理石。在其他实施例中,对象可能感觉比较柔顺,例如,像膨胀的气球或水球。在其他实施例中,触觉效果可以模拟角色或对象的移动。在又其他实施例中,当用户在混合现实或虚拟现实中移动一个或多个对象时,触觉效果可以模拟摩擦或阻力。
用于具有触觉的柔顺性幻觉的说明性方法
图5是根据一个实施例的用于执行具有触觉的柔顺性幻觉的方法的步骤的流程图。在一些实施例中,图5中的步骤可以在由处理器(例如,通用计算机、移动设备、或服务器中的处理器)执行的程序代码中实现。在一些实施例中,这些步骤可以由一组处理器来实现。在一些实施例中,图5中示出的一个或多个步骤可以被省略或以不同的顺序被执行。类似地,在一些实施例中,还可以执行图5中未示出的另外的步骤。下面参考上面关于图1所示的计算设备100所描述的组件来描述这些步骤。
方法500在步骤502处开始,其中处理器102从传感器108接收传感器信号。传感器108可以包括本领域已知的多个传感器中的一个或多个,例如,电阻和/或电容传感器可被嵌入在触摸表面116中并用于确定触摸的位置以及诸如压力之类的其他信息。作为另一示例,可以使用具有触摸表面的视图的光学传感器来确定触摸位置。在又其他实施例中,传感器108和触摸表面116可以包括触摸屏显示器。在又其他实施例中,传感器108可以被配置为检测用户在用户交互期间所施加的压力的量,例如,施加到设备100的表面或侧面的压力。在又其他实施例中,传感器108可以包括被配置为检测设备100的方向和/或运动的传感器(例如,惯性传感器、速度传感器、GPS传感器等)。
此外,在一些实施例中,触摸表面116和/或(一个或多个)传感器108可以包括不依赖于触摸传感器来检测用户交互的传感器。例如,在一个实施例中,传感器可以包括被配置为使用肌电图(EMG)信号来检测用户在表面上施加的压力的传感器。此外,在一些实施例中,传感器可以包括RGB或热照相机,并且使用由这些照相机捕获的图像来估计用户施加在表面上的压力的量。例如,在一个实施例中,在混合或虚拟现实环境中,用户可以触摸存在于混合或虚拟现实中但不存在于真实世界中的表面或对象。在这样的实施例中,用户施加到虚拟表面或对象的压力可被模拟为用户的手部朝向虚拟表面或对象的移动距离。在一些实施例中,可以通过例如一个或多个照相机传感器(诸如,体感控制器)、附接到计算机设备101的任意手势跟踪传感器、或通信地耦合到设备的设备(例如,可穿戴设备)来跟踪用户的手势。此外,在一些实施例中,用户的手势还可以与诸如操纵杆、按钮、键盘等之类的其他输入相关联。
在步骤504处,处理器102确定用户交互。该用户交互可以包括混合现实或虚拟现实环境中的交互,例如,与显示器上显示的混合现实或虚拟现实环境中的一个或多个角色的交互。在一些实施例中,该交互可以通过上述传感器108或输入输出设备112。
在步骤506处,处理器102确定触觉效果。在一些实施例中,触觉效果可以被配置为模拟与混合现实或虚拟现实界面相关联的特征,例如,以模拟界面中的对象或角色的柔顺性。在一些实施例中,处理器102可以通过部分地基于触摸(例如,触摸的压力)确定和/或修改触觉信号的颗粒大小、颗粒密度、每循环最大颗粒、和/或颗粒幅值来确定触觉效果。替代地,在一些实施例中,触觉效果确定模块126可以包括一个或多个预先加载的触觉效果,例如,与混合现实或虚拟现实环境中的特定对象相关联的触觉效果。
在其他实施例中,处理器102可以基于用户选择来确定触觉效果。例如,用户可以选择可用的触觉效果。例如,计算设备101的数据存储可以包括与触觉设计者或用户可以选择的多个触觉效果相关联的数据。此外,触觉设计者或用户可以调整与触觉效果相关联的特性。例如,触觉设计者可以修改持续时间、频率、强度、或与触觉效果相关联的一些其他特性。在一些实施例中,处理器102可以自动选择触觉效果。例如,在一些实施例中,处理器102可以选择与在计算设备101的显示器的面板上显示的视频内发生的事件相关联的触觉效果。此外,在一些实施例中,处理器102可以执行预先设计的算法来修改触觉效果的参数。
在步骤508处,处理器102向触觉输出设备118输出触觉信号。为了输出触觉效果,处理器102可以向输出触觉效果的触觉输出设备118发送与触觉效果相关联的触觉信号。
在步骤510处,处理器102改变触觉信号的包络。例如,处理器可以部分地基于触摸(例如,触摸的压力)来修改触觉信号的颗粒大小、颗粒密度、每循环最大颗粒、和/或颗粒幅值中的一个或多个。这些修改可以改变用户对触觉效果的感知,例如,当处理器102改变触觉效果的参数时,用户可能感觉到不同的和/或变化的柔顺性。例如,在一个实施例中,可以修改用于创建触觉效果的“颗粒”以在设备100中创建不同类型的柔顺性。在这样的实施例中,处理器102可以修改触觉信号的正弦载波以具有从80Hz到300Hz的频率,而其余的颗粒保持不变。在这样的实施例中,频率变化可以模拟由设备100的用户感觉到的平滑到粗糙变形幻觉。
在步骤512处,处理器向可以包括显示器的(一个或多个)音频视觉输出设备115输出显示信号。在一些实施例中,显示信号可以包括混合现实或虚拟现实界面中的角色和/或对象。在输出触觉效果的同时,对象或角色可以对用户交互作出反应,从而进一步增加混合现实或虚拟现实体验的真实性。例如,在一些实施例中,可以利用视觉效果来增强效果。在一个这样的示例中,用户可以移动30cm但虚拟对象仅移动10cm,给出混合现实界面中较重对象和较高摩擦的印象。此外,在一些实施例中,可以在用户界面上下文中使用幻觉。在一个这样的实施例中,力敏触摸屏可以具有图标/按钮,这些图标/按钮具有与UI中的不同功能相关联的不同的柔顺性(软、硬)。
具有触觉的柔顺性幻觉具有许多优点。本文讨论的实施例得到更真实的混合现实或虚拟现实体验。因此,当与配备有本文描述的特征的设备和软件进行交互时,用户可以获得更大的乐趣和体验。因此,以上示例中的每一个都增加了用户满意度,从而得到本文描述的技术的更高的用户采用。
总体考虑
上面讨论的方法、系统和设备是示例。各种配置可以适当地省略、替代、或添加各种程序或组件。例如,在替代配置中,可以以与所描述的顺序不同的顺序来执行方法,和/或可以添加、省略、和/或组合各个阶段。此外,相对于一些配置所描述的特征在各种其他配置中可被组合。可以以类似的方式来组合配置的不同方面和要素。此外,技术在发展,因此许多要素是示例并且不限制本公开或权利要求的范围。
在描述中给出具体细节以提供对示例配置(包括实现方式)的透彻理解。然而,可以在没有这些具体细节的情况下实施配置。例如,公知的电路、过程、算法、结构和技术已经在没有不必要的细节的情况下被示出,以便避免模糊配置。该描述仅提供示例配置,并且不限制权利要求的范围、适用性或配置。相反,配置的前述描述将为本领域技术人员提供用于实现所描述的技术的使能描述。在不脱离本公开的精神或范围的情况下,可以对元件的功能和布置进行各种改变。
此外,配置可以被描述为被描绘为流程图或框图的过程。尽管各自可以将操作描述为顺序过程,但许多操作可以并行或同时执行。此外,可以重新排列操作的顺序。过程可以具有未包括在附图中的另外的步骤。此外,方法的示例可以通过硬件、软件、固件、中间件、微码、硬件描述语言、或其任意组合来实现。当在软件、固件、中间件或微码实现时,执行必要任务的程序代码或代码段可被存储在诸如存储介质之类的非暂态计算机可读介质中。处理器可以执行所描述的任务。
已经描述了若干示例配置,在不脱离本公开的精神的情况下,可以使用各种修改、替代构造和等同物。例如,以上要素可以是更大系统的组件,其中,其他规则可以优先于或以其他方式修改本发明的应用。此外,可以在考虑以上要素之前、期间或之后进行多个步骤。因此,以上描述不限制权利要求的范围。
本文对“适用于”或“配置为”的使用表示开放性和包容性的语言,不排除设备适用于或配置为执行另外的任务或步骤。此外,对“基于”的使用旨在是开放性和包容性的,“基于”一个或多个所叙述的条件或值的过程、步骤、计算、或其他动作在实践中可以基于除了所叙述之外的另外的条件或值。本文包括的小标题、列表、以及编号仅是为了便于解释,并且不意味着限制。
根据本主题的各方面的实施例可以在数字电子电路中、在计算机硬件、固件、软件、或前述的组合中实现。在一个实施例中,计算机可以包括一个或多个处理器。处理器包括或可以访问计算机可读介质,例如,耦合到处理器的随机存取存储器(RAM)。处理器执行存储在存储器中的计算机可执行程序指令,例如,执行包括传感器采样例程、选择例程和其他例程的一个或多个计算机程序以执行上述方法。
这类处理器可以包括微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)和状态机。这类处理器还可以包括可编程电子设备,例如,PLC、可编程中断控制器(PIC)、可编程逻辑设备(PLD)、可编程只读存储器(PROM)、电子可编程只读存储器(EPROM或EEPROM)、或其他类似设备。
这类处理器可以包括介质或可以与介质进行通信,例如,有形计算机可读介质,其可以存储指令,当由处理器执行时,这些指令可以使得处理器执行本文描述的如由处理器执行或辅助的步骤。计算机可读介质的实施例可以包括但不限于能够提供具有计算机可读指令的处理器(例如,网络服务器中的处理器)的电子、光、磁、或其他存储设备。介质的其他示例包括但不限于:软盘、CD-ROM、磁盘、存储器芯片、ROM、RAM、ASIC、配置的处理器、所有光学介质、所有磁带或其他磁介质、或计算机处理器可以从其进行读取的任意其他介质。此外,各种其他设备可以包括计算机可读介质,例如,路由器、专用或公共网络、或其他传输设备。所描述的处理器和处理可以在一个或多个结构中,并且可以通过一个或多个结构来分散。处理器可以包括用于执行本文描述的方法(或方法的部分)中的一个或多个的代码。
尽管本主题已经相对于其中的具体实施例进行了详细描述,但将理解的是,本领域技术人员在获得对上述内容的理解之后可以容易地产生对这些实施例的更改、变化和等同物。因此,应理解的是,本公开为了示例而非限制的目的被呈现,并且不排除包括如对于本领域普通技术人员将显而易见的对本主题的这类修改、变化和/或添加。

Claims (21)

1.一种系统,包括:
用户界面设备,所述用户界面设备包括:
传感器,所述传感器被配置为检测手势;
触觉输出设备,所述触觉输出设备被配置为输出触觉效果;以及
处理器,所述处理器被耦合到所述传感器和所述触觉输出设备,所述处理器被配置为:
从所述传感器接收传感器信号;
确定与虚拟对象的用户交互;
部分地基于所述传感器信号和所述用户交互来确定触觉效果;以及
向所述触觉输出设备发送与所述触觉效果相关联的触觉信号。
2.根据权利要求1所述的系统,其中,所述触觉信号包括具有包络的正弦载波,并且其中所述处理器被配置为部分地基于所述手势的压力来改变所述包络的幅值。
3.根据权利要求1所述的系统,其中,所述触觉效果被配置为模拟所述虚拟对象的柔顺性。
4.根据权利要求1所述的系统,其中,所述手势包括第一位置与第二位置之间的移动,并且其中确定触觉效果包括确定部分地基于所述第一位置与所述第二位置之间的距离的函数而改变的触觉效果。
5.根据权利要求4所述的系统,其中,所述处理器被配置为部分地基于所述距离来改变所述触觉效果的频率、幅值、颗粒大小、颗粒幅值、或颗粒密度中的一个或多个。
6.根据权利要求4所述的系统,其中,所述第一位置和所述第二位置包括混合现实中的位置。
7.根据权利要求4所述的系统,其中,所述第一位置和所述第二位置包括真实空间中的位置。
8.根据权利要求1所述的系统,其中,所述处理器是通信地耦合到所述用户界面设备的远程设备的一部分。
9.根据权利要求1所述的系统,其中,所述处理器是所述用户界面设备的组件,并且其中所述用户界面设备包括可穿戴设备或手持设备。
10.根据权利要求1所述的系统,其中,所述传感器被配置为检测来自用户的紧握的压力,并且所述触觉输出装置被配置为向所述用户的手掌输出触觉效果。
11.根据权利要求1所述的系统,其中,所述触觉输出设备包括下列项中的一项或多项:压电执行器、电动机、电磁执行器、音圈、形状记忆合金、电活性聚合物、螺线管、偏心旋转质量电机、线性共振执行器、或静电输出设备。
12.一种方法,包括:
从被配置为检测手势的传感器接收传感器信号;
确定与虚拟对象的用户交互;
部分地基于所述传感器信号和所述用户交互来确定触觉效果;以及
向被配置为输出触觉效果的触觉输出设备发送与所述触觉效果相关联的触觉信号。
13.根据权利要求12所述的方法,其中,所述触觉信号包括具有包络的正弦载波,并且还包括部分地基于所述手势的压力来改变所述包络的幅值。
14.根据权利要求12所述的方法,还包括输出与混合现实相关联的显示信号。
15.根据权利要求12所述的方法,其中,所述触觉效果被配置为模拟所述虚拟对象的柔顺性。
16.根据权利要求12所述的方法,其中,所述手势包括第一位置与第二位置之间的移动,并且其中确定触觉效果包括确定部分地基于所述第一位置与所述第二位置之间的距离的函数而改变的触觉效果。
17.根据权利要求16所述的方法,还包括部分地基于所述距离来改变所述触觉效果的频率、幅值、颗粒大小、颗粒幅值、或颗粒密度中的一个或多个。
18.根据权利要求16所述的方法,其中,所述第一位置和所述第二位置包括混合现实中的位置。
19.根据权利要求16所述的方法,其中,所述第一位置和所述第二位置包括真实空间中的位置。
20.根据权利要求12所述的方法,其中,所述传感器被配置为检测来自用户的紧握的压力,并且所述触觉输出装置被配置为向所述用户的手掌输出触觉效果。
21.一种包括程序代码的非暂态计算机可读介质,所述程序代码在由处理器执行时,被配置为使得所述处理器执行以下操作:
从被配置为检测手势的传感器接收传感器信号;
确定与虚拟对象的用户交互;
部分地基于所述传感器信号和所述用户交互来确定触觉效果;以及
向被配置为输出触觉效果的触觉输出设备发送与所述触觉效果相关联的触觉信号。
CN201711296122.XA 2016-12-09 2017-12-08 用于具有触觉的柔顺性幻觉的系统和方法 Pending CN108227979A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/374,171 US20180164885A1 (en) 2016-12-09 2016-12-09 Systems and Methods For Compliance Illusions With Haptics
US15/374,171 2016-12-09

Publications (1)

Publication Number Publication Date
CN108227979A true CN108227979A (zh) 2018-06-29

Family

ID=60654807

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711296122.XA Pending CN108227979A (zh) 2016-12-09 2017-12-08 用于具有触觉的柔顺性幻觉的系统和方法

Country Status (5)

Country Link
US (1) US20180164885A1 (zh)
EP (1) EP3333674A1 (zh)
JP (1) JP2018113025A (zh)
KR (1) KR20180066865A (zh)
CN (1) CN108227979A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874158A (zh) * 2018-09-04 2020-03-10 天马日本株式会社 触觉呈现设备
CN113552945A (zh) * 2021-07-16 2021-10-26 浙江大学 一种人机交互的手套系统

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112978A (ja) * 2019-01-10 2020-07-27 ソニー株式会社 触覚提示装置、触覚提示システムおよび触覚提示方法
US10852827B1 (en) * 2019-03-25 2020-12-01 Facebook Technologies, Llc Tactile simulation of initial contact with virtual objects
KR102332318B1 (ko) * 2020-07-22 2021-12-01 이화여자대학교 산학협력단 시공간 인코딩을 사용하여 가상 객체의 거칠기 촉각을 제공하기 위한 방법 및 시스템
US11714491B2 (en) * 2021-06-07 2023-08-01 Huawei Technologies Co., Ltd. Device and method for generating haptic feedback on a tactile surface
CN113296653B (zh) * 2021-07-27 2021-10-22 阿里云计算有限公司 一种仿真交互模型构建方法、交互方法及相关设备
KR102496927B1 (ko) 2022-11-01 2023-02-07 김태원 촉감을 제공하는 성인 콘텐츠용 vr 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140139450A1 (en) * 2012-11-20 2014-05-22 Immersion Corporation System and Method for Simulated Physical Interactions With Haptic Effects
US20140306866A1 (en) * 2013-03-11 2014-10-16 Magic Leap, Inc. System and method for augmented and virtual reality
US20150316985A1 (en) * 2014-05-05 2015-11-05 Immersion Corporation Systems and Methods for Viewport-Based Augmented Reality Haptic Effects
US20160103489A1 (en) * 2014-10-14 2016-04-14 Immersion Corporation Systems and Methods for Impedance Coupling for Haptic Devices
US20160147333A1 (en) * 2014-11-25 2016-05-26 Immerson Corporation Systems and Methods for Deformation-Based Haptic Effects

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10416767B2 (en) * 2003-11-20 2019-09-17 National Institute Of Advanced Industrial Science And Technology Haptic information presentation system and method
KR100883010B1 (ko) * 2004-11-30 2009-02-12 임머숀 코퍼레이션 진동촉각 햅틱 효과를 발생시키는 공진 디바이스를제어하기 위한 시스템 및 방법
US8098235B2 (en) * 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
CN104737096B (zh) * 2012-05-31 2018-01-02 诺基亚技术有限公司 显示装置
US9244549B2 (en) * 2012-06-28 2016-01-26 Samsung Electronics Co., Ltd. Apparatus and method for user input
KR20140090318A (ko) * 2013-01-07 2014-07-17 삼성전자주식회사 햅틱 기반 카메라 운용 지원 방법 및 이를 지원하는 단말기
CN103995584B (zh) * 2014-04-29 2017-11-17 深圳超多维光电子有限公司 立体交互方法及其显示装置、操作棒和系统
US9696806B2 (en) * 2014-07-02 2017-07-04 Immersion Corporation Systems and methods for multi-output electrostatic haptic effects
EP3195088A2 (en) * 2014-09-02 2017-07-26 Apple Inc. Haptic notifications

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140139450A1 (en) * 2012-11-20 2014-05-22 Immersion Corporation System and Method for Simulated Physical Interactions With Haptic Effects
US20140306866A1 (en) * 2013-03-11 2014-10-16 Magic Leap, Inc. System and method for augmented and virtual reality
US20150316985A1 (en) * 2014-05-05 2015-11-05 Immersion Corporation Systems and Methods for Viewport-Based Augmented Reality Haptic Effects
US20160103489A1 (en) * 2014-10-14 2016-04-14 Immersion Corporation Systems and Methods for Impedance Coupling for Haptic Devices
US20160147333A1 (en) * 2014-11-25 2016-05-26 Immerson Corporation Systems and Methods for Deformation-Based Haptic Effects

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874158A (zh) * 2018-09-04 2020-03-10 天马日本株式会社 触觉呈现设备
CN110874158B (zh) * 2018-09-04 2024-06-11 天马日本株式会社 触觉呈现设备
CN113552945A (zh) * 2021-07-16 2021-10-26 浙江大学 一种人机交互的手套系统
CN113552945B (zh) * 2021-07-16 2024-04-05 浙江大学 一种人机交互的手套系统

Also Published As

Publication number Publication date
KR20180066865A (ko) 2018-06-19
JP2018113025A (ja) 2018-07-19
EP3333674A1 (en) 2018-06-13
US20180164885A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
CN108227979A (zh) 用于具有触觉的柔顺性幻觉的系统和方法
US10474238B2 (en) Systems and methods for virtual affective touch
US10564730B2 (en) Non-collocated haptic cues in immersive environments
US11360558B2 (en) Computer systems with finger devices
JP6788719B2 (ja) 力ベースのオブジェクト操作及び触覚的感覚のためのシステム及び方法
CN104679233B (zh) 用于生成摩擦和振动触感效果的系统和方法
US20180275761A1 (en) Systems And Methods For Determining Haptic Effects For Multi-Touch Input
US9170649B2 (en) Audio and tactile feedback based on visual environment
CN104122996B (zh) 用于支持触觉的紧贴式和多面显示器的系统和方法
US20120223880A1 (en) Method and apparatus for producing a dynamic haptic effect
CN108431734B (zh) 用于非触摸式表面交互的触觉反馈
KR20170069936A (ko) 위치 기반 햅틱 효과를 위한 시스템 및 방법
CN110096131A (zh) 触感交互方法、装置、以及触感可穿戴设备
CN106940622A (zh) 电‑振动触感显示器
EP3367216A1 (en) Systems and methods for virtual affective touch
KR20170139508A (ko) 에칭 입력의 동적 렌더링
CN108628444A (zh) 提供具有可编程表面纹理的模式或状态意识的系统和方法
CN107407963A (zh) 用于与弯曲显示器的用户交互的系统和方法
CN107291221A (zh) 基于自然手势的跨屏幕自适应精度调整方法及装置
CN117716322A (zh) 增强现实(ar)笔/手跟踪
CN113508355A (zh) 虚拟现实控制器
CN116643654A (zh) 智能终端虚拟滑动按钮触觉再现渲染方法及装置
TW201329793A (zh) 基於手勢之輸入之縮放

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180629

WD01 Invention patent application deemed withdrawn after publication