CN115735177A - 包括共享对象操纵ar体验的眼戴器 - Google Patents
包括共享对象操纵ar体验的眼戴器 Download PDFInfo
- Publication number
- CN115735177A CN115735177A CN202180046494.5A CN202180046494A CN115735177A CN 115735177 A CN115735177 A CN 115735177A CN 202180046494 A CN202180046494 A CN 202180046494A CN 115735177 A CN115735177 A CN 115735177A
- Authority
- CN
- China
- Prior art keywords
- eye
- user
- image
- processor
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C11/00—Non-optical adjuncts; Attachment thereof
- G02C11/10—Electronic devices other than hearing aids
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- General Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Ophthalmology & Optometry (AREA)
- Acoustics & Sound (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Eyeglasses (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
眼戴器在眼戴设备的两个用户之间提供交互式增强现实体验以执行共享组对象操纵任务。在该共享组任务期间,该眼戴器的每个用户基于虚拟场景的该用户正在注视的一部分来控制该虚拟场景中的相应虚拟对象的移动。每个用户还可以生成口头命令以生成虚拟对象,该虚拟对象与其他虚拟对象中的一个或多个虚拟对象交互。
Description
相关申请的交叉引用
本申请要求于2020年6月30日提交的美国临时专利申请序列号63/046,348的优先权,该专利申请的内容全文以引用方式并入本文。
技术领域
本公开中阐述的示例涉及增强现实(AR)和可穿戴移动设备(诸如眼戴设备)领域。
背景技术
当今可用的许多类型的计算机和电子设备,诸如移动设备(例如,智能电话、平板电脑和膝上型电脑)、手持式设备和可穿戴设备(例如,智能眼镜、数字眼戴器、头饰、头戴器和头戴式显示器),包括各种相机、传感器、无线收发器、输入系统(例如,触敏表面、指示器)、外围设备、显示器和图形用户界面(GUI),用户可通过这些部件与显示内容交互。
增强现实(AR)将物理环境中的现实对象与虚拟对象组合,并将该组合显示给用户。组合显示给出了虚拟对象真实地存在于环境中的印象,尤其是当虚拟对象看起来并且表现得像真实对象一样时。
附图说明
从以下参考附图的具体实施方式中,将容易理解所描述的各种示例的特征。在说明书中和附图的几个视图中,每个元件使用了附图标记。当存在多个相似的元件时,可以给相似的元件指定单个附图标记,通过添加小写字母来指代特定的元件。
除非另外指出,否则图中所示的各种元件并非按比例绘制的。为了清楚起见,可放大或缩小各个元件的尺寸。若干附图描绘了一个或多个具体实施,并且仅作为示例呈现,而不应被解释为限制。附图中包括以下附图:
图1A是适用于增强现实产生系统的眼戴设备的示例性硬件配置的侧视图(右);
图1B是图1A的眼戴设备的右角部的局部横截面透视图,其描绘了右可见光相机和电路板;
图1C是图1A的眼戴设备的示例性硬件配置的侧视图(左),其示出了左可见光相机;
图1D是图1C的眼戴设备的左角部的局部横截面透视图,其描绘了左可见光相机和电路板;
图2A和图2B是在增强现实产生系统中利用的眼戴设备的示例性硬件配置的后视图;
图2C示出了检测眼睛注视方向;
图2D示出了检测眼睛定位;
图3是三维场景、由左可见光相机捕获的左原始图像和由右可见光相机捕获的右原始图像的图形描绘;
图4是包括经由各种网络连接的可穿戴设备(例如,眼戴设备)和服务器系统的示例性增强现实产生系统的功能框图;
图5是用于图4的增强现实产生系统的移动设备的示例性硬件配置的图形表示;
图6A示出了在第一示例中由第一用户A操作的眼戴器显示的虚拟场景;
图6B示出了在第一示例中由第二用户B操作的眼戴器显示的虚拟场景;
图7是在第一用户A和第二用户B的眼戴器中显示虚拟对象的示例性方法的流程图;
图8A示出了在第二示例中由第一用户A操作的眼戴器显示的虚拟场景;
图8B示出了在第二示例中由第二用户B操作的眼戴器显示的虚拟场景;
图9是对应于图8A和图8B的在第一用户A和第二用户B的眼戴器中显示虚拟对象的示例性方法的流程图。
图10A示出了在第三示例中由第一用户A操作的眼戴器显示的虚拟场景,其中使用眼睛追踪来控制相应虚拟对象的定位;
图10B示出了在第三示例中由第二用户B操作的眼戴器显示的虚拟场景;并且
图11是对应于图10A和图10B的在第一用户A和第二用户B的眼戴器中显示虚拟对象并使用眼睛追踪来控制虚拟对象的示例性方法的流程图。
具体实施方式
本发明公开了一种眼戴器,该眼戴器在眼戴设备的两个或更多个用户之间提供交互式增强现实体验以执行共享组对象操纵任务。在共享组任务会话期间,眼戴器的每个用户基于虚拟场景的相应用户正在注视的一部分来控制该虚拟场景中的相应虚拟对象的移动。每个用户还可以生成口头命令以生成虚拟对象,该虚拟对象可以与一个或多个其他虚拟对象交互。
以下具体实施方式包括说明本公开中阐述的示例的系统、方法、技术、指令序列和计算机器程序产品。出于提供对所公开的主题及其相关教导内容的透彻理解的目的而包括许多细节和示例。然而,相关领域的技术人员能够理解如何在没有此类细节的情况下应用相关教导内容。所公开的主题的各方面不限于所描述的特定设备、系统和方法,因为相关教导内容可以以各种方式来应用或实践。本文中所使用的术语和命名仅仅是为了描述特定方面并非旨在进行限制。通常,公知的指令实例、协议、结构和技术不一定被详细示出。
本文中所使用的术语“耦接”或“连接”指的是任何逻辑、光学、物理或电连接(包括链路等),由一个系统元件产生或提供的电或磁信号通过这些连接传递到另一耦接或连接的系统元件。除非另外描述,否则耦接或连接的元件或设备不一定直接彼此连接,并且可以由中间组件、元件或通信介质隔开,中间组件、元件或通信介质中的一者或多者可修改、操纵或承载电信号。术语“上”是指由元件直接支撑或通过另一元件由元件间接支撑,该另一元件集成到元件中或由元件支撑。
术语“近侧”用于描述位于对象或人附近、左近或旁边的物品或物品的一部分;或者相对于该物品的其他部分更近,其他部分可以被描述为“远侧”。例如,物品最靠近对象的端部可以被称为近侧端部,而大致相对的端部可以被称为远侧端部。
出于说明和讨论的目的,仅以示例的方式给出了诸如附图中的任一附图所示的眼戴设备、其他移动设备、相关联部件和结合了相机、惯性测量单元或两者的任何其他设备的定向。在操作中,眼戴设备可以在适合于眼戴设备的特定应用的任何其他方向上定向,例如,向上、向下、侧向或任何其他定向。此外,就本文所用的范围而言,任何方向性术语,诸如前、后、内、外、向、左、右、侧向、纵向、上、下、高、低、顶部、底部、侧面、水平、垂直和对角,仅以示例的方式使用,并且不限制如本文所构造或另外描述的任何相机或惯性测量单元的方向或定向。
示例的其他目的、优点和新颖特征将部分地在以下具体实施方式中阐述,并且部分地在本领域技术人员检查以下内容和附图后将变得显而易见,或者可通过示例的产生或操作来了解。本主题的目的和优点可借助于所附权利要求书中特别指出的方法、手段和组合来实现和达成。
现在详细参考附图所示和下文所讨论的示例。
图1A是包括触敏输入设备或触摸板181的眼戴设备100的示例性硬件配置的侧视图(右)。如图所示,触摸板181可具有细微且不易看到的边界;另选地,边界可清楚可见或包括向用户提供关于触摸板181的位置和边界的反馈的凸起或以其他方式可触知的边缘。在其他具体实施中,眼戴设备100可包括在左侧的触摸板。
触摸板181的表面被配置为检测手指触摸、轻击和手势(例如,移动触摸),以便与眼戴设备在图像显示器上显示的GUI一起使用,从而允许用户以直观的方式浏览并选择菜单选项,这改善并简化了用户体验。
对触摸板181上的手指输入的检测可实现若干功能。例如,触摸触摸板181上的任何地方都可使GUI在图像显示器上显示或突出显示项目,该项目可被投影到光学组件180A、180B中的至少一者上。在触摸板181上双击可选择项目或图标。在特定方向上(例如,从前到后、从后到前、从上到下或从下到上)滑动或轻扫手指可使项目或图标在特定方向上滑动或滚动;例如,以移动到下一项目、图标、视频、图像、页面或幻灯片。在另一方向上滑动手指可以在相反方向上滑动或滚动;例如,以移动到前一项目、图标、视频、图像、页面或幻灯片。触摸板181实际上可以在眼戴设备100上的任何地方。
在一个示例中,在触摸板181上单击的所识别的手指手势发起对呈现在光学组件180A、180B的图像显示器上的图像中的图形用户界面元素的选择或按压。基于所识别的手指手势对呈现在光学组件180A、180B的图像显示器上的图像的调整可以是在光学组件180A、180B的图像显示器上选择或提交图形用户界面元素以用于进一步显示或执行的主要动作。
如图所示,眼戴设备100包括右可见光相机114B。如本文进一步描述,两个相机114A、114B从两个单独视点捕获场景的图像信息。两个所捕获的图像可用于将三维显示投影到图像显示器上以利用3D眼镜进行观看。
眼戴设备100包括右光学组件180B,其具有图像显示器以呈现图像,诸如深度图像。如图1A和图1B所示,眼戴设备100包括右可见光相机114B。眼戴设备100可包括多个可见光相机114A、114B,其形成被动式三维相机,诸如立体相机,其中右可见光相机114B位于右角部110B。如图1C至图1D所示,眼戴设备100还包括左可见光相机114A。
左和右可见光相机114A、114B对可见光范围波长敏感。可见光相机114A、114B中的每一者具有不同的前向视场,这些视场重叠以使得能够生成三维深度图像,例如,右可见光相机114B描绘右视场111B。通常,“视场”是在空间中的特定定位处和定向上通过相机可见的场景的部分。视场111A和111B具有重叠视场304(图3)。当可见光相机捕获图像时,视场111A、111B之外的对象或对象特征未被记录在原始图像(例如,照片或图片)中。视场描述了可见光相机114A、114B的图像传感器在给定场景的所捕获的图像中拾取给定场景的电磁辐射的角度范围或幅度。视场可以被表示为视锥的角度大小;即视角。视角可以水平、垂直或对角地测量。
在示例中,可见光相机114A、114B具有视角在15°至30°之间(例如,24°)的视场,并且具有480×480像素(或更大)的分辨率。在另一示例中,视场可以宽得多,诸如110°。“覆盖角度”描述了可有效成像的可见光相机114A、114B或红外相机220(见图2A)的镜头的角度范围。通常,相机镜头产生大到足以完全覆盖相机的胶片或传感器的成像圈,可能包括某种渐晕(例如,与中心相比,图像朝向边缘变暗)。如果相机镜头的覆盖角度未遍及传感器,则成像圈将是可见的,通常具有朝向边缘的强渐晕,并且有效视角将限于覆盖角度。
此类可见光相机114A、114B的示例包括高分辨率互补金属氧化物半导体(CMOS)图像传感器和能够具有640p(例如,640×480像素,总共0.3兆像素)、720p或1080p的分辨率的数字VGA相机(视频图形阵列)。可见光相机114A、114B的其他示例,其可捕获高清晰度(HD)静止图像且以1642×1642像素(或更大)的分辨率存储这些图像;或者以高帧速率(例如,每秒三十至六十帧或更多)记录高清晰度视频且以1216×1216像素(或更大)的分辨率存储该记录。
眼戴设备100可捕获来自可见光相机114A、114B的图像传感器数据以及由图像处理器数字化的地理定位数据,以存储在存储器中。可见光相机114A、114B在二维空间域中捕获相应的左原始图像和右原始图像,这些原始图像包括二维坐标系上的像素矩阵,该二维坐标系包括用于水平定位的X轴和用于垂直定位的Y轴。每个像素包括颜色属性值(例如,红色像素光值、绿色像素光值或蓝色像素光值);和定位属性(例如,X轴坐标和Y轴坐标)。
为了捕获立体图像以用于稍后显示为三维投影,图像处理器412(在图4中示出)可耦接到可见光相机114A、114B以接收并存储视觉图像信息。图像处理器412或另一处理器控制可见光相机114A、114B的操作以充当模拟人类双眼视觉的立体相机,并且可将时间戳添加到每个图像。每对图像上的时间戳允许将图像一起显示为三维投影的一部分。三维投影产生沉浸式逼真体验,这在包括虚拟现实(VR)和视频游戏的各种上下文中是期望的。
图1B是图1A的眼戴设备100的右角部110B的横截面透视图,其描绘了相机系统的右可见光相机114B和电路板。图1C是图1A的眼戴设备100的示例性硬件配置的侧视图(左),其示出了相机系统的左可见光相机114A。图1D是图1C的眼戴设备的左角部110A的横截面透视图,其描绘了三维相机的左可见光相机114A和电路板。
除了连接和耦接位于左侧面170A上之外,左可见光相机114A的结构和布置基本上类似于右可见光相机114B。如图1B的示例所示,眼戴设备100包括右可见光相机114B和电路板140B,该电路板可以是柔性印刷电路板(PCB)。右铰链126B将右角部110B连接到眼戴设备100的右镜腿125B上。在一些示例中,右可见光相机114B、柔性PCB140B或其他电连接器或触点等部件可位于右镜腿125B或右铰链126B上。
左角部110A和右角部110B包括角部体190和角部盖,在图1B和图1D的横截面中省略了角部盖。设置在左角部110A和右角部110B内部的是各种互连的电路板,诸如PCB或柔性PCB,其包括用于相应左可见光相机114A、右可见光相机114B、麦克风130、扬声器132、低功率无线电路(例如,用于经由BluetoothTM的无线短距离网络通信)、高速无线电路(例如,用于经由Wi-Fi的无线局域网通信)的控制器电路。
右可见光相机114B耦接到或设置在柔性PCB 140B上且由可见光相机覆盖镜头覆盖,该镜头通过形成在框架105中的开口瞄准。例如,框架105的右边缘107B,如图2A所示,该框架连接到右角部110B,并且包括用于可见光相机覆盖镜头的开口。框架105包括被配置为面向外且远离用户的眼睛的前侧。用于可见光相机覆盖镜头的开口形成在框架105的前向或外向侧面上并穿过该前向或外向侧面。在示例中,右可见光相机114B具有面向外的视场111B(图3所示),其视线或视角与眼戴设备100的用户的右眼相关。可见光相机覆盖镜头也可粘附到右角部110B的前侧或面向外的表面,其中开口形成有面向外的覆盖角度,但在不同的向外方向上。耦接也可经由居间部件间接实现。
如图1B所示,柔性PCB 140B设置在右角部110B内,并且耦接到容纳在右角部110B中的一个或多个其他部件。尽管示出为形成在右角部110B的电路板上,但是右可见光相机114B可形成在左角部110A、镜腿125A、125B或框架105的电路板上。
图2A和图2B是包括两种不同类型的图像显示器的眼戴设备100的示例性硬件配置的后透视图。眼戴设备100的尺寸和形状被配置为供用户佩戴的形式;在该示例中为眼镜的形式。眼戴设备100可采取其他形式并且可结合其他类型的框架,例如,头戴器、头戴式耳机或头盔。
在眼镜的示例中,眼戴设备100包括框架105,其包括经由适于由用户的鼻部支撑的鼻梁架106连接到右边缘107B的左边缘107A。左和右边缘107A、107B包括相应的孔口175A、175B,这些孔口保持相应的光学元件180A、180B,诸如镜头和显示设备。如本文所用,术语“镜头”旨在包括透明或半透明玻璃或塑料片,其具有弯曲或平坦表面,使光会聚/发散或几乎或完全不引起会聚或发散。
虽然被示出为具有两个光学元件180A、180B,但是眼戴设备100可包括其他布置,诸如单个光学元件(或者其可不包括任何光学元件180A、180B),这取决于眼戴设备100的应用或预期用户。如图进一步所示,眼戴设备100包括与框架105的左侧面170A相邻的左角部110A以及与框架105的右侧面170B相邻的右角部110B。角部110A、110B可在相应的侧面170A、170B上集成到框架105中(如图所示)或实施为在相应的侧面170A、170B上附接到框架105的单独部件。另选地,角部110A、110B可集成到附接到框架105的镜腿(未示出)中。
在一个示例中,光学组件180A、180B的图像显示器包括集成的图像显示器177。如图2A所示,每个光学组件180A、180B包括合适的显示矩阵177,诸如液晶显示器(LCD)、有机发光二极管(OLED)显示器或任何其他此类显示器。每个光学组件180A、180B还包括一个或多个光学层176,其可以任何组合包括镜头、光学涂层、棱镜、反射镜、波导、光学条带和其他光学部件。光学层176A、176B、…176N(在图2A中示出为176A-N)可包括棱镜,该棱镜具有合适的尺寸和构造并包括用于接收来自显示矩阵的光的第一表面和用于向用户的眼睛发射光的第二表面。光学层176A-N的棱镜在形成在左和右边缘107A、107B中的相应的孔口175A、175B的全部或至少一部分上方延伸,以在用户的眼睛透过对应的左和右边缘107A、107B观看时允许用户看到棱镜的第二表面。光学层176A-N的棱镜的第一表面从框架105面向上,并且显示矩阵177覆盖在棱镜上,使得由显示矩阵177发射的光子和光照射在第一表面上。棱镜的尺寸和形状被设计成使得光在棱镜内被折射并且被光学层176A-N的棱镜的第二表面导向用户的眼睛。在这一点而言,光学层176A-N的棱镜的第二表面可以是凸形的以将光导向眼睛的中心。棱镜的尺寸和形状可任选地被设计成放大由显示矩阵177投影的图像,并且光行进穿过棱镜,使得从第二表面观察的图像在一个或多个维度上大于从显示矩阵177发射的图像。
在一个示例中,光学层176A-N可包括透明的LCD层(保持镜头打开),除非且直到施加使该层不透明(关闭或遮挡镜头)的电压。眼戴设备100上的图像处理器412可执行程序以将电压施加到LCD层,以便产生主动式快门系统,从而使得眼戴设备100适于观看被显示为三维投影的视觉内容。除了LCD之外的技术可用于主动式快门模式,包括响应于电压或另一类型的输入的其他类型的反应层。
在另一示例中,光学组件180A、180B的图像显示设备包括如图2B所示的投影图像显示器。每个光学组件180A、180B包括激光投影仪150,其是使用扫描镜或检流计的三色激光投影仪。在操作期间,光源(诸如激光投影仪150)设置在眼戴设备100的镜腿125A、125B中的一个镜腿之中或之上。在该示例中,光学组件180B包括一个或多个光学条带155A、155B、…155N(在图2B中示出为155A-N),其在每个光学组件180A、180B的镜头的宽度上,或者在镜头的前表面和后表面之间的镜头的深度上间隔开。
当由激光投影仪150投影的光子行进穿过每个光学组件180A、180B的镜头时,光子遇到光学条带155A-N。当特定光子遇到特定光学条带时,光子要么朝向用户的眼睛重定向,要么传递到下一光学条带。激光投影仪150的调制和光学条带的调制的组合可控制特定的光子或光束。在示例中,处理器通过发出机械、声学或电磁信号来控制光学条带155A-N。虽然被示出为具有两个光学组件180A、180B,但是眼戴设备100可包括其他布置,诸如单个或三个光学组件,或者每个光学组件180A、180B可被布置有不同的布置,这取决于眼戴设备100的应用或预期用户。
在另一示例中,图2B中示出的眼戴设备100可包括两个投影仪,左投影仪150A(未示出)和右投影仪150B(示出为投影仪150)。左光学组件180A可包括左显示矩阵177A(未示出)或左光学条带155'A、155'B、…155'N(155撇,A至N,未示出),其被配置为与来自左投影仪150A的光交互。类似地,右光学组件180B可包括右显示矩阵177B(未示出)或右光学条带155”A、155”B、…155”N(155双撇,A至N,未示出),其被配置为与来自右投影仪150B的光交互。在该示例中,眼戴设备100包括左显示器和右显示器。
参考图2A,框架105或左和右镜腿125A-B中的一者或多者包括红外发射器215和红外相机220,它们形成眼睛追踪器(图2C)。红外发射器215和红外相机220可通过例如焊接连接到柔性PCB 140B。
可实施红外发射器215和红外相机220的其他布置,包括以下布置:红外发射器215和红外相机220都在右边缘107B上,或者在框架105上的不同位置中,例如,红外发射器215在左边缘107A上并且红外相机220在右边缘107B上。在另一示例中,红外发射器215在框架105上,并且红外相机220在镜腿125A-B中的一个镜腿上(或角部110A-B),反之亦然。红外发射器215可基本上连接在框架105、左镜腿125A或右镜腿125B上的任何位置,以发射红外光图案。类似地,红外相机220可基本上连接在框架105、左镜腿125A或右镜腿125B上的任何位置,以捕获所发射的红外光图案中的至少一个反射变化。
红外发射器215和红外相机220被布置为向内面向用户的眼睛,具有眼睛的部分或全部视场,以便识别相应的眼睛定位和注视方向。例如,红外发射器215和红外相机220直接定位在眼睛的前面、框架105的上部部分中或框架105两端的镜腿125A-B中。
在示例中,处理器432利用眼睛追踪器213来确定佩戴者的眼睛234的眼睛注视方向230,如图2C所示,以及眼框内佩戴者的眼睛234的眼睛定位236,如图2D所示。眼睛追踪器213是扫描仪,其使用红外光照明(例如,近红外、短波长红外、中波长红外、长波长红外或远红外)来捕获来自眼睛234的红外光的反射变化的图像,以确定眼睛234的瞳孔232的注视方向230,以及相对于透视显示器180D的眼睛定位236。
图3是三维场景306、由左可见光相机114A捕获的左原始图像302A和由右可见光相机114B捕获的右原始图像302B的图形描绘。如图所示,左视场111A可与右视场111B重叠。重叠视场304表示由图像中两个相机114A、114B捕获的部分。术语“重叠”在涉及视场时意味着所生成的原始图像中的像素矩阵重叠百分之三十(30%)或更多。“基本上重叠”意味着所生成的原始图像中的像素矩阵或场景的红外图像中的像素矩阵重叠百分之五十(50%)或更多。如本文所述,两个原始图像302A、302B可被处理为包括时间戳,该时间戳允许将图像一起显示为三维投影的一部分。
为了捕获立体图像,如图3所示在给定时刻捕获真实场景306的一对原始红绿蓝(RGB)图像:由左相机114A捕获的左原始图像302A和由右相机114B捕获的右原始图像302B。当(例如,由图像处理器412)处理该对原始图像302A、302B时,生成深度图像。所生成的深度图像可在眼戴设备的光学组件180A、180B上、在另一显示器(例如,移动设备401上的图像显示器580)上、或在屏幕上查看。
所生成的深度图像在三维空间域中,并且可包括三维位置坐标系上的顶点矩阵,该三维位置坐标系包括用于水平定位(例如,长度)的X轴、用于垂直定位(例如,高度)的Y轴和用于深度(例如,距离)的Z轴。每个顶点可包括颜色属性(例如,红色像素光值、绿色像素光值或蓝色像素光值);定位属性(例如,X位置坐标、Y位置坐标和Z位置坐标);纹理属性;反射率属性;或它们的组合。纹理属性量化深度图像的感知纹理,诸如深度图像的顶点区域中的颜色或强度的空间布置。
在一个示例中,交互式增强现实系统400(图4)包括眼戴设备100,其包括框架105、从框架105的左侧面170A延伸的左镜腿125A、以及从框架105的右侧面170B延伸的右镜腿125B。眼戴设备100可进一步包括具有重叠的视场的至少两个可见光相机114A、114B。在一个示例中,眼戴设备100包括具有左视场111A的左可见光相机114A,如图3所示。左相机114A连接到框架105或左镜腿125A以从场景306的左侧捕获左原始图像302A。眼戴设备100进一步包括具有右视场111B的右可见光相机114B。右相机114B连接到框架105或右镜腿125B以从场景306的右侧捕获右原始图像302B。
图4是示例性交互式增强现实系统400的功能框图,该系统包括经由各种网络495(诸如因特网)连接的可穿戴设备(例如,眼戴设备100)、移动设备401和服务器系统498。交互式增强现实系统400包括眼戴设备100与移动设备401之间的低功率无线连接425和高速无线连接437。
如图4所示,如本文所述,眼戴设备100包括一个或多个可见光相机114A、114B,它们捕获静止图像、视频图像或静止图像和视频图像两者。相机114A、114B可具有对高速电路430的直接存储器访问(DMA)并且用作立体相机。相机114A、114B可用于捕获初始深度图像,这些初始深度图像可被渲染成三维(3D)模型,这些三维模型是红绿蓝(RGB)成像场景的纹理映射图像。设备100还可以包括用于眼睛追踪的一个或多个红外发射器215和红外相机220。
眼戴设备100进一步包括每个光学组件180A、180B的两个图像显示器177(一个与左侧面170A相关联,一个与右侧面170B相关联)。眼戴设备100还包括图像显示器驱动器442、图像处理器412、低功率电路420和高速电路430。每个光学组件180A、180B的图像显示器177用于呈现图像,包括静止图像、视频图像、或静止和视频图像。图像显示器驱动器442耦接到每个光学组件180A、180B的图像显示器,以便控制图像的显示。
眼戴设备100还包括一个或多个扬声器440(例如,一个与眼戴设备的左侧相关联,另一个与眼戴设备的右侧相关联)。扬声器440可并入到眼戴设备100的框架105、镜腿125或角部110中。一个或多个扬声器440由音频处理器443在低功率电路420、高速电路430或两者的控制下驱动。扬声器440用于呈现音频信号,包括例如节拍音轨。音频处理器443耦接到扬声器440以便控制声音的呈现。
图4所示的用于眼戴设备100的部件位于一个或多个电路板上,例如,位于边缘或镜腿中的印刷电路板(PCB)或柔性印刷电路(FPC)。另选地或附加地,所描绘的部件可位于眼戴设备100的角部、框架、铰链或鼻梁架中。左和右可见光相机114A、114B可包括数字相机元件,诸如互补金属氧化物半导体(CMOS)图像传感器、电荷耦合器件、镜头、或可用于捕获数据(包括具有未知对象的场景的静止图像或视频)的任何其他相应的可见或光捕获元件。
如图4所示,高速电路430包括高速处理器432、存储器434和高速无线电路436。在该示例中,图像显示器驱动器442耦接到高速电路430并且由高速处理器432操作,以便驱动每个光学组件180A、180B的左和右图像显示器。高速处理器432可以是能够管理眼戴设备100所需的任何通用计算系统的高速通信和操作的任何处理器。高速处理器432包括使用高速无线电路436来管理到无线局域网(WLAN)的高速无线连接437上的高速数据传输所需的处理资源。
在一些示例中,高速处理器432执行操作系统,诸如LINUX操作系统或眼戴设备100的其他此类操作系统,并且操作系统被存储在存储器434中以供执行。除了任何其他职责之外,执行眼戴设备100的软件架构的高速处理器432还用于管理利用高速无线电路436的数据传输。在一些示例中,高速无线电路436被配置为实现电气和电子工程师协会(IEEE)802.11通信标准,本文中也称为Wi-Fi。在其他示例中,高速无线电路436可实施其他高速通信标准。
低功率电路420包括低功率处理器422和低功率无线电路424。眼戴设备100的低功率无线电路424和高速无线电路436可包括短距离收发器(BluetoothTM或蓝牙低功耗(BLE))和无线广域网、局域网或广域网收发器(例如,蜂窝或Wi-Fi)。包括经由低功率无线连接425和高速无线连接437通信的收发器的移动设备401可使用眼戴设备100的架构的细节来实施,网络495的其他元件同样可如此实施。
存储器434包括能够存储各种数据和应用的任何存储设备,所述数据包括由左和右可见光相机114A、114B、红外相机220、图像处理器412生成的相机数据、以及由图像显示器驱动器442生成以在每个光学组件180A、180B的图像显示器177上显示的图像。虽然存储器434被示出为与高速电路430集成,但在其他示例中,存储器434可以是眼戴设备100的单独的独立元件。在某些此类示例中,电气布线线路可提供从图像处理器412或低功率处理器422通过包括高速处理器432的芯片到存储器434的连接。在其他示例中,高速处理器432可管理存储器434的寻址,使得低功率处理器422将在需要涉及存储器434的读或写操作的任何时间启动高速处理器432。
如图4所示,眼戴设备100的高速处理器432可耦接到相机系统(可见光相机114A、114B)、图像显示器驱动器442、用户输入设备491和存储器434。如图5所示,移动设备401的CPU 530可耦接到相机系统570、移动显示器驱动器582、用户输入层591和存储器540A。
服务器系统498可以是作为服务或网络计算系统的一部分的一个或多个计算设备,例如包括处理器、存储器和网络通信接口以通过网络495与一个或多个眼戴设备100和移动设备401通信的计算设备。
眼戴设备100的输出部件包括视觉元件,诸如与每个镜头或光学组件180A、180B相关联的左和右图像显示器177,如图2A和图2B所述(例如,显示器,诸如液晶显示器(LCD)、等离子体显示面板(PDP)、发光二极管(LED)显示器、投影仪或波导)。眼戴设备100可包括面向用户的指示符(例如,LED、扬声器或振动致动器),或面向外的信号(例如,LED、扬声器)。每个光学组件180A、180B的图像显示器177由图像显示器驱动器442驱动。在一些示例性配置中,眼戴设备100的输出部件进一步包括附加指示符,诸如可听元件(例如,扬声器)、触觉部件(例如,致动器,诸如用于生成触觉反馈的振动马达)和其他信号生成器。例如,设备100可包括面向用户的指示符组和面向外的信号组。面向用户的指示符组被配置为由设备100的用户看到或以其他方式感知到。例如,设备100可包括被定位成使得用户可以看见它的LED显示器、被定位成生成用户可以听到的声音的一个或多个扬声器、或者提供用户可以感觉到的触觉反馈的致动器。面向外的信号组被配置为由设备100附近的观察者看到或以其他方式感知到。类似地,设备100可包括被配置和定位成由观察者感知到的LED、扬声器或致动器。
眼戴设备100的输入部件可包括字母数字输入部件(例如,被配置为接收字母数字输入的触摸屏或触摸板、摄影光学键盘或其他字母数字配置的元件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指点仪器)、触觉输入部件(例如,按钮开关、感测触摸或触摸手势的位置、力或位置和力的触摸屏或触摸板,或其他触觉配置的元件)和音频输入部件(例如,麦克风)等。移动设备401和服务器系统498可包括字母数字、基于点、触觉、音频和其他输入部件。
在一些示例中,眼戴设备100包括被称为惯性测量单元472的运动感测部件的集合。运动感测部件可以是具有微观移动部件的微机电系统(MEMS),这些微观移动部件通常足够小以成为微芯片的一部分。在一些示例性配置中,惯性测量单元(IMU)472包括加速度计、陀螺仪和磁力计。加速度计感测设备100相对于三个正交轴(x、y、z)的线性加速度(包括由于重力而引起的加速度)。陀螺仪感测设备100绕三个旋转轴(俯仰、滚转、偏航)的角速度。加速度计和陀螺仪可一起提供关于设备相对于六个轴(x、y、z、俯仰、滚转、偏航)的定位、定向和运动数据。如果存在磁力计,则磁力计感测设备100相对于磁北极的航向。设备100的定位可以由位置传感器诸如GPS单元473、用于生成相对定位坐标的一个或多个收发器、高度传感器或气压计和其他定向传感器来确定。还可经由低功率无线电路424或高速无线电路436从移动设备401通过无线连接425和437接收此类定位系统坐标。
IMU 472可包括数字运动处理器或程序,或者与数字运动处理器或程序协作,该数字运动处理器或程序从部件采集原始数据,并且计算关于设备100的定位、定向和运动的多个有用值。例如,从加速度计采集的加速度数据可被积分以获得相对于每个轴(x、y、z)的速度;并再次被积分以获得设备100的定位(以线性坐标x、y和z表示)。来自陀螺仪的角速度数据可被积分以获得设备100的定位(以球面坐标表示)。用于计算这些有效值的程序可存储在存储器434中并且由眼戴设备100的高速处理器432执行。
眼戴设备100可以可选地包括附加的外围传感器,诸如与眼戴设备100集成的生物计量传感器、特性传感器或显示元件。例如,外围设备元件可包括任何I/O部件,包括输出部件、运动部件、定位部件或本文所述的任何其他此类元件。例如,生物计量传感器可包括检测表情(例如,手势、面部表情、声音表达、身体姿势或眼睛追踪)、测量生物信号(例如,血压、心率、体温、出汗或脑电波)或识别人(例如,基于语音、视网膜、面部特征、指纹或电生物信号诸如脑电图数据的识别)等的部件。
移动设备401可以是智能电话、平板电脑、膝上型计算机、接入点或能够使用低功率无线连接425和高速无线连接437两者与眼戴设备100连接的任何其他此类设备。移动设备401连接到服务器系统498和网络495。网络495可包括有线和无线连接的任何组合。
如图4所示的交互式增强现实系统400包括通过网络495耦接到眼戴设备100的计算设备,诸如移动设备401。交互式增强现实系统400包括用于存储指令的存储器和用于执行指令的处理器。由处理器432执行交互式增强现实系统400的指令将眼戴设备100配置为与移动设备401协作,并且也通过网络495与另一眼戴设备100协作。交互式增强现实系统400可利用眼戴设备100的存储器434或移动设备401的存储器元件540A、540B、540C(图5)。
交互式增强现实系统400还可以利用单独的远程眼戴设备100B的存储器434来协作数据,诸如在执行共享应用460(图6A、图6B、图8A和图8D)时。此外,交互式增强现实系统400可利用眼戴设备100的处理器元件432、422或移动设备401的中央处理单元(CPU)530(图5)。交互式增强现实系统400还可以利用眼戴设备100B的处理器元件432、422来共享处理,诸如在执行共享应用460(图6A、图6B、图8A和图8D)时。此外,交互式增强现实系统400可进一步利用服务器系统498的存储器和处理器元件。在这个方面中,交互式增强现实系统400的存储器和处理功能可以跨眼戴设备100、移动设备401和服务器系统498共享或分布。
图5是示例性移动设备401的高级功能框图。移动设备401包括闪存存储器540A,其存储要由CPU 530执行以执行本文所述的所有功能或功能子集的程序。
移动设备401可包括相机570,其包括至少两个可见光相机(具有重叠的视场的第一和第二可见光相机)或具有基本上重叠的视场的至少一个可见光相机和深度传感器。闪存存储器540A可进一步包括经由相机570生成的多个图像或视频。
如图所示,移动设备401包括图像显示器580、控制图像显示器580的移动显示器驱动器582和显示控制器584。在图5的示例中,图像显示器580包括用户输入层591(例如,触摸屏),其层叠在由图像显示器580使用的屏幕的顶部上或以其他方式集成到该屏幕中。
可使用的触摸屏式的移动设备的示例包括(但不限于)智能电话、个人数字助理(PDA)、平板计算机、膝上型计算机或其他便携式设备。然而,触摸屏式的设备的结构和操作是以示例的方式提供的;如本文所述的主题技术并不旨在局限于此。出于该讨论的目的,图5因此提供了具有用户界面的示例性移动设备401的框图图示,该用户界面包括用于接收输入(通过手、触笔或其他工具的触摸、多点触摸或手势等)的触摸屏输入层891和用于显示内容的图像显示器580。
如图5所示,移动设备401包括用于经由广域无线移动通信网络进行数字无线通信的至少一个数字收发器(XCVR)510,示出为WWAN XCVR。移动设备401还包括附加的数字或模拟收发器,诸如用于诸如经由NFC、VLC、DECT、ZigBee、BluetoothTM或Wi-Fi进行短距离网络通信的短距离收发器(XCVR)520。例如,短距离XCVR 520可采取与在无线局域网中实施的一个或多个标准通信协议(例如,符合IEEE 802.11的Wi-Fi标准之一)兼容的类型的任何可用双向无线局域网(WLAN)收发器的形式。
为了生成用于定位移动设备401的位置坐标,移动设备401可包括全球定位系统(GPS)接收器。另选地或附加地,移动设备401可利用短距离XCVR 520和WWAN XCVR 510中的任一者或两者来生成用于定位的位置坐标。例如,基于蜂窝网络、Wi-Fi或BluetoothTM的定位系统可生成非常准确的位置坐标,尤其是当它们组合使用时。此类位置坐标可经由XCVR510、520通过一个或多个网络连接传输到眼戴设备。
收发器510、520(即,网络通信接口)符合现代移动网络所利用的各种数字无线通信标准中的一个或多个标准。WWAN收发器510的示例包括(但不限于)被配置为根据码分多址(CDMA)和第3代合作伙伴计划(3GPP)网络技术操作的收发器,所述技术包括例如但不限于3GPP类型2(或3GPP2)和LTE,有时被称为“4G”。例如,收发器510、520提供信息的双向无线通信,所述信息包括数字化音频信号、静止图像和视频信号、用于显示的网页信息以及web相关输入,以及去往/来自移动设备401的各种类型的移动消息通信。
移动设备401进一步包括用作中央处理单元(CPU)的微处理器;如图4中的CPU 530所示。处理器是具有被构造并布置成执行一个或多个处理功能(通常是各种数据处理功能)的元件的电路。尽管可使用分立的逻辑部件,但是这些示例利用形成可编程CPU的部件。微处理器例如包括一个或多个集成电路(IC)芯片,其结合了执行CPU的功能的电子元件。例如,CPU 530可基于任何已知或可用的微处理器架构,诸如使用ARM架构的精简指令集计算(RISC),正如现今在移动设备和其他便携式电子设备中通常使用的。当然,处理器电路的其他布置可用于形成智能电话、膝上型计算机和平板电脑中的CPU 530或处理器硬件。
通过将移动设备401配置为例如根据CPU 530可执行的指令或程序来执行各种操作,CPU 530用作移动设备401的可编程主机控制器。例如,此类操作可包括移动设备的各种一般操作,以及与用于移动设备上的应用的程序相关的操作。尽管处理器可使用硬连线逻辑来配置,但是移动设备中的典型处理器是通过执行程序来配置的通用处理电路。
移动设备401包括用于存储程序和数据的存储器或存储系统。在示例中,存储器系统可根据需要包括闪存存储器540A、随机存取存储器(RAM)540B和其他存储器部件540C。RAM 540B用作由CPU 530处理的指令和数据的短期存储装置,例如,用作工作数据处理存储器。闪存存储器540A通常提供长期存储。
因此,在移动设备401的示例中,闪存存储器540A用于存储由CPU 530执行的程序或指令。根据设备的类型,移动设备401存储并运行移动操作系统,特定应用通过该移动操作系统执行。移动操作系统的示例包括Google Android、Apple iOS(用于iPhone或iPad设备)、Windows Mobile、Amazon Fire OS、RIM BlackBerry OS等。
眼戴设备100内的处理器432可构建眼戴设备100周围的环境的地图,确定眼戴设备在映射的环境内的位置,并且确定眼戴设备相对于映射的环境中的一个或多个对象的相对定位。处理器432可构建地图,并且使用应用于从一个或多个传感器接收的数据的即时定位与地图构建(SLAM)算法来确定位置和定位信息。在增强现实的上下文中,SLAM算法用于构建并更新环境的地图,同时追踪并更新设备(或用户)在映射的环境中的位置。数学解可使用各种统计方法来近似,诸如粒子滤波器、卡尔曼滤波器、扩展卡尔曼滤波器和协方差交集。
传感器数据包括从相机114A、114B中的一者或两者接收的图像、从激光测距仪接收的距离、从GPS单元473接收的定位信息、或两个或更多个此类传感器数据的组合,或来自提供用于确定定位信息的数据的其他传感器的数据。
图6A和图6B示出了可在每个眼戴器上操作以创建增强现实体验的共享组任务应用460的操作的第一示例,其中第一眼戴设备100A的第一用户A和第二眼戴设备100B的第二用户B可以各自查看、操纵和编辑共享图像中的对每个用户可见的一个或多个虚拟对象。该共享组任务应用460是远程异步游戏体验,其使得相应眼戴器的两个或多个用户能够通过一起工作在虚拟环境中协作和远程交互。在示例中,第一用户A和第二用户B可以是经由相应眼戴器交互以共同生成和修改共享图像诸如虚拟场景中的一个或多个虚拟对象的朋友或同事。
图6A示出了第一眼戴设备100A的显示器177A,其在第一参考系中示出了虚拟对象600,该第一参考系被示出为第一用户A可见的虚拟场景602A。图6B示出了第二眼戴设备100B的显示器177B,其在第二参考系中显示了相同的虚拟对象600,该第二参考系被示出为第二用户B可见的虚拟场景602B。所显示的虚拟场景602A和602B彼此相同,并彼此镜像。每个用户A和用户B都可以操纵所显示的虚拟对象600,诸如通过使用相应眼戴设备100的输入部件,诸如触摸板181,通过轻击另一虚拟对象604并相对于虚拟对象600操纵第二虚拟对象604。在眼戴设备100A与眼戴设备100B同步的状态下,一个用户对虚拟对象600的操纵被显示在另一用户的眼戴设备100的显示器177上。
眼戴设备100的输入部件诸如触摸板181和移动设备401可包括字母数字输入部件(例如,键盘、被配置为接收字母数字输入的触摸屏、摄影光学键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指点仪器)、触觉输入部件(例如,物理按钮、提供触摸位置和触摸力或触摸手势的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
例如,如图6A和图6B所示,虚拟对象600被示为建筑物,并且第二虚拟对象604是可以被添加到虚拟对象600的构建块。同样,可以从虚拟对象600中移除虚拟对象604,从而可以根据需要添加、操纵和移除虚拟对象。用户协作允许共同创建和修改虚拟对象。还可以包括场景的其他特征,诸如道路、公园和水域。
图7是描绘处理器432在可穿戴设备(例如,眼戴设备100)上执行本文描述的增强现实共享组任务应用460的指令的操作方法的流程图700。尽管如本文所述,参考眼戴设备100A和眼戴设备100B描述了处理器432的步骤,但是本领域技术人员根据本文的描述将理解所描述的步骤针对其他类型的设备的其他具体实施。另外,可以设想,在图7中以及在其他附图中示出的并且在本文中描述的一个或多个步骤可省略、同时或依序执行、以不同于所示和所述的次序执行、或结合附加步骤执行。
在步骤702,眼戴器100A的用户A发起共享组任务应用460,然后邀请眼戴器100B的用户B加入共享组任务会话,诸如通过经由无线电路436和网络495向用户B传送消息。该消息传送可以由处理器432自动生成,诸如当用户A从可用用户列表诸如朋友列表中点击用户B的名称或图标时。用户B可以接受该邀请,从而通过消息传送和创建共享组任务会话来完成眼戴器100A和100B的同步。
在框704处,眼戴设备100A的处理器432和眼戴设备100B的处理器432分别为用户A和用户B建立虚拟参考系。这在图6A和图6B中示出,其中虚拟参考系是在眼戴器100A的显示器177A上显示的虚拟场景602A和在眼戴器100B的显示器177B上显示的虚场景602B。这些虚拟场景是相同的。首先发起共享组任务应用460的眼戴器用户被称为用户A。
在框706处,眼戴器100A的用户A经由输入部件创建输入以使处理器432在虚拟场景602A中显示虚拟对象600。虚拟对象600可以是从存储在相应存储器434中的对象列表中选择的对象,并且也可以由用户A从头创建。作为响应,眼戴器100B的处理器432在眼戴器100B中的虚拟场景602B中自动向用户B显示虚拟对象600。用户B也可以首先在虚拟场景602B中创建虚拟对象600,然后将其与用户B共享并显示在虚拟场景602A中。
在框708处,用户A诸如通过操纵眼戴器100A上的输入部件来创建对眼戴器100A的输入,从而操纵虚拟场景602A中的虚拟对象600。例如,用户输入可以使虚拟对象604相对于虚拟对象600来被操纵。眼戴器100A的处理器432自动向眼戴器100B的处理器432发送指示用户A操纵虚拟对象600和虚拟对象604的输入的消息。眼戴器100A的处理器432还自动向眼戴器100B的处理器432发送指示用户A修改虚拟场景602A的消息。在图6A所示的示例中,用户A输入可以使包括虚拟对象604的框堆叠在包括建筑物的虚拟对象600上。
在框710处,用户B同样创建到眼戴器100B的输入,诸如通过使用眼戴器100B中的输入部件,从而操纵虚拟场景602B中的虚拟对象600。例如,用户B输入可以使虚拟对象604相对于虚拟对象600来被操纵。眼戴器100B的处理器432还自动向眼戴器100A的处理器432发送指示用户B输入以操纵虚拟对象600的消息。在图6B所示的示例中,输入B可以使包括虚拟对象604的框堆叠在包括建筑物的虚拟对象600上。
在框712处,眼戴器100B的处理器432经由网络495从眼戴器100A接收消息,并翻译所接收的消息以操纵由显示器177B显示的虚拟对象600和虚拟对象604,从而匹配由眼戴器100A的显示器177A所示的操纵。同样,眼戴器100A的处理器432经由网络495从眼戴器100B接收消息,并翻译所接收的消息以操纵由显示器177A显示的虚拟对象600和虚拟对象604,从而匹配由眼戴器100B的显示器177B所示的操纵。
在框714处,眼戴器100B的处理器432使显示器177B在眼戴器100B的虚拟场景602B中显示用户A的操纵,并且眼戴器100A的处理器432使显示器177A在眼戴器100A的虚拟场景602A中显示用户B的操作。
图8A和图8B示出了可在每个眼戴器100A、100B上操作以创建增强现实体验的共享组任务应用460的操作的另一示例,其中第一眼戴设备100A的第一用户A和第二眼戴设备100B的第二用户B可以各自确定另一用户的眼睛正在注视共享图像的哪一部分。该共享组任务应用460是远程异步体验,其使得相应眼戴器的两个或多个用户能够通过一起查看和工作在虚拟环境中协作和远程交互。在一个示例中,第一用户A和第二用户B可以经由相应的眼戴器100交互,以共同查看共享图像诸如相同虚拟场景中的一个或多个图像部分或对象,从而欣赏另一用户感兴趣的图像。
图8A示出了第一眼戴设备100A的显示器177C,其在第一参考系中显示了具有虚拟对象800的图像,该第一参考系被示出为第一用户A可见的虚拟场景802A。图8B示出了第二眼戴设备100B的显示器177D,其在第二参考系中显示了相同的图像诸如相同的虚拟对象800,该第二参考系被示出为第二用户B可见的虚拟场景802B。所显示的虚拟场景802A和802B彼此相同,因此彼此镜像。每个用户A和用户B可以注视相同图像的不同部分或对象800,诸如所显示的虚拟对象800,其中包括发射器215和红外相机220的眼睛追踪器213确定显示器177上显示的虚拟场景的哪个部分或对象800实际上正在被每个用户的眼睛234查看。例如,用户A和用户B中的每一者都可以查看示出加勒比海地区中的多个地理地点的共享浏览器页面,其中每个用户正在注视的地点在相应显示器177上被指示给另一用户,诸如通过用颜色突出显示该地点或放大它。用户A可能正在注视Antique,用户B可能正在注视Bonaire或Curacao,通常被称为荷兰ABC群岛。每个用户的姓名可以在另一用户的显示器177上描述,如806所示。
眼戴设备100的输入部件诸如触摸板181和移动设备401可包括字母数字输入部件(例如,键盘、被配置为接收字母数字输入的触摸屏、摄影光学键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指点仪器)、触觉输入部件(例如,物理按钮、提供触摸位置和触摸力或触摸手势的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
图9是描绘处理器432在相对于图8A和图8B所述的可穿戴设备(例如,眼戴设备100)上执行本文描述的增强现实共享组任务应用460的指令的另一操作方法的流程图900。尽管如本文所述,参考眼戴设备100A和眼戴设备100B描述了处理器432的步骤,但是本领域技术人员根据本文的描述将理解所描述的步骤针对其他类型的设备的其他具体实施。另外,可以设想,在图9中以及在其他附图中示出的并且在本文中描述的一个或多个步骤可省略、同时或依序执行、以不同于所示和所述的次序执行、或结合附加步骤执行。
在步骤902,眼戴器100A的用户A发起共享组任务应用460,然后邀请眼戴器100B的用户B加入共享组任务会话,诸如通过经由无线电路436和网络495向用户B传送消息。该消息传送可以由处理器432自动生成,诸如当用户A从可用用户列表诸如朋友列表中点击用户B的名称或图标时。用户B可以接受该邀请,从而通过消息传送和创建共享组任务会话来完成眼戴器100A和100B的同步。
在框904处,眼戴设备100A的处理器432和眼戴设备100B的处理器432分别为用户A和用户B建立虚拟参考系。这在图8A和图8B中示出,其中虚拟参考系是在眼戴器100A的显示器177C上显示的虚拟场景802A和在眼戴器100B的显示器177D上显示的虚场景802B。这些虚拟场景是相同的。首先发起共享组任务应用460的眼戴器用户被称为用户A。
在框906处,眼戴设备100A的用户A经由输入部件(诸如使用触摸板181)创建输入,以使处理器432在显示器177C上显示虚拟场景802A,该虚拟场景具有图像部分和虚拟场景802A中的虚拟对象800。包括虚拟场景的图像可以从存储器434中的一组存储图像中检索、从远程位置下载、或通过经由网络495浏览因特网上的站点。具有图像部分和对象800的虚拟场景802A也可由用户A使用输入部件从零开始创建。虚拟场景802A自动与眼戴设备100B共享。作为响应,眼戴器100B的处理器432在眼戴器100B的虚拟场景602B中向用户B自动显示包括图像部分和对象800的虚拟场景。用户B也可以首先创建包括对象800的虚拟场景802B,然后将该图像与用户B共享并显示在虚拟场景602A中。
在框908处,每个眼戴设备100的处理器432控制相应的眼睛追踪器213以通过追踪瞳孔232来追踪用户的眼睛234的眼睛定位,并且确定相应的用户实际上正在相应的显示器177上注视什么图像部分或对象800。每个眼戴设备100的处理器432使用经由无线装置436和网络495的消息传送,自动地与其他眼戴设备100的处理器432共享该眼睛追踪信息。
在框910处,眼戴设备100B的处理器432经由无线电路436和网络495自动地从眼戴设备100A的处理器432接收包括用户A的眼睛追踪信息的消息。这允许眼戴设备100B的处理器432确定用户A在显示器177C上正在注视什么图像部分或对象800。
在方框912中,眼戴设备100A的处理器432经由无线电路436和网络495自动地从眼戴设备100B的处理器432接收包括用户B的眼睛追踪信息的消息。这允许眼戴设备100A的处理器432确定用户B在显示器177D上正在注视什么图像部分或对象800。
在框914处,相应眼戴设备100A和100B的每个显示器177自动显示共享图像中另一用户正在注视的图像部分或对象800。这能够以多种方式完成,例如,通过突出显示、着色或放大相应虚拟场景802A和802B中其他用户正在注视的图像部分或对象800。例如,用户A和用户B中的每一者都可以查看示出加勒比海地区中的多个地理地点的共享浏览器页面,其中每个用户正在注视的地点在相应显示器177上的相应虚拟场景802A和802B中被指示给另一用户,诸如通过用颜色突出显示该地点或放大它。用户A可能正在注视Antique,用户B可能正在注视Bonaire或Curacao,通常被称为荷兰ABC群岛。另一用户的名字可以在其他用户的显示器177上描述,如808所示。
两个以上的用户能够操作相应的眼戴设备100,并且共同参与其中每个用户能够看到各用户正在注视的图像的该部分的会话。因此,不应推断出对眼戴器仅由一个用户操作的限制。
图10A和图10B示出了可在每个眼戴器100A、100B上操作以创建增强现实体验的共享组任务应用460的操作的另一示例,其中第一眼戴设备100A的第一用户A和第二眼戴设备100B的第二用户B可以各自基于另一用户的眼睛正在注视什么来协作并交互。该共享组任务应用460是远程异步体验,其使得相应眼戴设备100的两个或更多个用户能够使用眼睛追踪来控制相应虚拟对象的移动。在一个示例中,第一用户A和第二用户B可以经由相应的眼戴器100交互,以共同查看共享图像,诸如相同虚拟场景。每个用户使用眼睛追踪来控制虚拟场景中的相应虚拟对象,并且每个用户还生成语音命令以操纵虚拟场景中的用户的虚拟对象。两个虚拟对象都显示在眼戴器100A和100B中的每一者的显示器177上。在示例中,虚拟场景可以是游戏场景。
图10A示出了第一眼戴设备100A的显示器177E,其在第一参考系中显示了具有虚拟对象1000和1004的图像,该第一参考系被示出为第一用户A可见的虚拟场景1002A。图10B示出了第二眼戴设备100B的显示器177F,其在第二参考系中显示了相同的图像诸如相同的虚拟对象1000和1004,该第二参考系被示出为第二用户B可见的虚拟场景1002B。所显示的虚拟场景1002A和1002B彼此相同,因此彼此镜像。每个用户A和用户B可以注视相同图像的相应对象1000和1004,其中包括发射器215和红外相机220的每个眼戴器的眼睛追踪器213确定在显示器177上显示的虚拟场景中的相应虚拟对象的移动。例如,用户A的眼睛控制虚拟场景1002A和1002B中的相应对象1000的移动和定位,并且用户B的眼睛控制虚拟场景1002A和1002B中的相应对象1004的定位。
图10B示出了虚拟场景1002A和1002B中由来自眼戴设备的用户的语音命令生成的动作。例如,用户A可以生成语音命令,该语音命令经由相应麦克风130接收并且由眼戴器100A的处理器432识别,使得虚拟对象1006生成并且从相应虚拟对象1000在朝向用户B的虚拟对象1004的方向上延伸。虚拟对象1006可以在显示器177E和177F上按顺序从虚拟对象1000朝向虚拟对象1004生成,并且可以经一段时间(诸如0.2秒)生成。眼戴器100B的用户B的眼睛可以移动相应虚拟对象1004的定位远离所生成的虚拟对象1006,以在生成虚拟对象1006时避开它。例如,虚拟对象1006可表示激光束或以虚拟对象1004为目标的其他能量。同样,用户B可生成语音命令,该语音命令使得虚拟对象1006生成并且从相应虚拟对象1004在朝向用户A的虚拟对象1000的方向上延伸。在示例中,观看到的动作可能看上去就像两个用户之间的决斗。
在图10B的示例中,用户A生成语音命令诸如“hocus pocus”,该语音命令使得雷达状的虚拟对象1006立即或按顺序从包括虚拟对象1000的具体实施(诸如魔法棒)向包括虚拟对象1004的角色延伸。用户B使用其眼睛来移动相应虚拟对象1004的定位远离即将发生的虚拟对象1006。每个眼戴器100的眼睛追踪器213追踪相应用户的眼睛的注视方向,并且相应处理器432根据相应用户的眼睛注视来控制相应虚拟对象的定位。
眼戴设备100的输入部件诸如触摸板181和移动设备401可包括字母数字输入部件(例如,键盘、被配置为接收字母数字输入的触摸屏、摄影光学键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指点仪器)、触觉输入部件(例如,物理按钮、提供触摸位置和触摸力或触摸手势的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
图11是描绘处理器432在相对于图10A和图10B所述的可穿戴设备(例如,眼戴设备100)上执行本文描述的增强现实共享组任务应用460的指令的另一操作方法的流程图1100。尽管如本文所述,参考眼戴设备100A和眼戴设备100B描述了处理器432的步骤,但是本领域技术人员根据本文的描述将理解所描述的步骤针对其他类型的设备的其他具体实施。另外,可以设想,在图11中以及在其他附图中示出的并且在本文中描述的一个或多个步骤可省略、同时或依序执行、以不同于所示和所述的次序执行、或结合附加步骤执行。
在步骤1102,眼戴器100A的用户A发起共享组任务应用460,然后邀请眼戴器100B的用户B加入共享组任务会话,诸如通过经由无线电路436和网络495向用户B传送消息。该消息传送可以由处理器432自动生成,诸如当用户A从可用用户列表诸如朋友列表中点击用户B的名称或图标时。用户B可以接受该邀请,从而通过消息传送和创建共享组任务会话(诸如通过轻击接受)来完成眼戴器100A和100B的同步。
在框1104处,眼戴设备100A的处理器432和眼戴设备100B的处理器432分别为用户A和用户B建立虚拟参考系。这在图10A和图10B中示出,其中虚拟参考系是在眼戴器100A的显示器177E上显示的虚拟场景1002A和在眼戴器100B的显示器177F上显示的虚场景1002B。这些虚拟场景是相同的。首先发起共享组任务应用460的眼戴器用户被称为用户A。
在框1106处,眼戴设备100A的用户A经由输入部件(诸如使用触摸板181)创建输入,以使处理器432在显示器177E上显示包括具有虚拟对象1000和1004的虚拟场景1002A的图像。该图像具有作为小于整个图像的图像子集的图像部分。包括虚拟场景的图像可以从存储器434中的一组存储图像中检索、从远程位置下载、或通过经由网络495浏览因特网上的站点获得。具有图像部分和对象1000和1004的虚拟场景1002A也可由用户A使用输入部件从零开始创建。虚拟场景1002A自动与眼戴设备100B共享。作为响应,眼戴器100B的处理器432在眼戴器100B的虚拟场景1002B中向用户B自动显示包括图像部分和对象1000和1004的虚拟场景。用户B也可以首先创建包括对象1000和1004的虚拟场景1002B,然后该虚拟场景与用户B共享并显示在虚拟场景1002A中。
在框1108处,每个眼戴设备100的处理器432控制相应的眼睛追踪器213以通过追踪瞳孔232来追踪用户的眼睛234的眼睛定位,并且确定相应的用户实际上正在相应的显示器177上注视相应的虚拟场景1002的什么部分。每个眼戴设备100的处理器432自动移动相应虚拟对象1000、1004的定位到用户正在注视的虚拟场景内的所确定的定位。眼戴设备的每个处理器432还向其他眼戴设备的处理器432发送消息,该消息指示相应用户正在注视的虚拟场景中的图像定位。
在框1110处,眼戴设备100B的处理器432经由无线电路436和网络495自动地从眼戴设备100A的处理器432接收包括用户A的眼睛追踪信息的消息。这允许眼戴设备100B的处理器432确定用户A在显示器177E上正在注视虚拟场景1002A的什么图像部分。
在框1112中,眼戴设备100A的处理器432经由无线电路436和网络495自动地从眼戴设备100B的处理器432接收包括用户B的眼睛追踪信息的消息。这允许眼戴设备100A的处理器432确定用户B在显示器177F上正在注视虚拟场景1002B的什么图像部分。
在框1114处,每个眼戴设备100的处理器432使相应显示器177自动在共享虚拟场景中其他用户正在注视的图像的定位中显示其他用户的虚拟对象。在图10A和图10B所示的示例中,眼戴设备100A的处理器432和眼戴设备100B的处理器432基于另一用户的眼睛注视来更新另一用户在其显示器上的相应对象1000和1004的定位。当用户B用其眼睛移动对象1004时,对象1004在用户A的显示器177E上移动。同样,当用户A用其眼睛移动对象1000时,对象1000在用户B的显示器177F上移动。
如图10A和图10B的示例中所示,用户A用其眼睛移动包括具体实施(诸如棒)的虚拟对象1000,并且生成口头指令,使得眼戴器100A的处理器432生成虚拟对象1006(框1116)。用户B用其眼睛移动虚拟对象1004(被示为角色),以避开所生成的虚拟对象1006。如果虚拟对象1006与虚拟对象1004交互,则可以奖励用户A分数。眼戴设备100A和眼戴设备100B还可以生成指示命中的声音。
多于两个用户可以操作相应眼戴设备100,并且共同参与会话,其中每个用户可以观看,使得相应对象基于每个用户正在注视的图像部分来移动。因此,不应推断出对眼戴器仅由一个用户操作的限制。
如本文所述,眼戴设备100、移动设备401和服务器系统498的功能中的任何功能可以被体现在一个或多个计算机软件应用或编程指令集中。根据一些示例,“功能”、“应用”、“指令”或“程序”是执行在程序中定义的功能的程序。可采用各种程序设计语言来开发以各种方式结构化的应用中的一个或多个应用,诸如面向对象的程序设计语言(例如,Objective-C、Java或C++)或面向过程程序设计语言(例如,C语言或汇编语言)。在特定示例中,第三方应用(例如,由除特定平台的供应商之外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可包括在移动操作系统(诸如IOSTM、ANDROIDTM、电话或另一移动操作系统)上运行的移动软件。在该示例中,第三方应用可调用由操作系统提供的API调用,以促进本文所述的功能。
因此,机器可读介质可采取许多形式的有形存储介质。非易失性存储介质包括例如光盘或磁盘,诸如任何计算机设备等中的任何存储设备,诸如可用于实施附图中所示的客户端设备、媒体网关、代码转换器等。易失性存储介质包括动态存储器,诸如此类计算机平台的主存储器。有形传输介质包括同轴电缆;铜线和光纤,包括构成计算机系统内的总线的导线。载波传输介质可采取电信号或电磁信号、或声波或光波的形式,诸如在射频(RF)和红外(IR)数据通信期间生成的那些。因此,计算机可读介质的常见形式包括例如:软盘、软磁盘、硬盘、磁带、任何其他磁介质、CD-ROM、DVD或DVD-ROM、任何其他光学介质、穿孔卡片纸带、任何其他具有孔图案的物理存储介质、RAM、PROM和EPROM、FLASH-EPROM、任何其他存储器芯片或盒、传输数据或指令的载波、传输此类载波的电缆或链路、或计算机可以从其中读取程序代码或数据的任何其他介质。许多这些形式的计算机可读介质可参与将一个或多个指令的一个或多个序列承载到处理器以供执行。
除了上文刚刚陈述的,无论是否在权利要求书中陈述,已陈述或说明的内容都不旨在或不应解释为导致任何部件、步骤、特征、对象、益处、优点或等效物献给公众。
应当理解,除非本文另外阐述了特定的含义,否则本文所用的术语和表达具有与关于它们对应的相应调查和研究领域的此类术语和表达一致的通常含义。诸如“第一”和“第二”等的关系术语仅可用于将一个实体或动作与另一个实体或动作区分开,而不一定要求或暗示这些实体或动作之间的任何实际的此类关系或顺序。术语“包括”、“包含”、“含有”、“具有”或其任何其他变型形式旨在涵盖非排他性的包括,使得包括或包含一系列元素或步骤的过程、方法、制品或装置不仅包括那些元素或步骤,而是还可以包括未明确列出的或对于此类过程、方法、制品或装置固有的其他元素或步骤。在没有进一步限制的情况下,前缀为“一”或“一个”的元素并不排除在包括该元素的过程、方法、制品或装置中另外的相同元素的存在。
除非另有说明,否则本说明书中,包括所附权利要求书中阐述的任何和所有测量、值、额定值、定位、量值、尺寸和其他规格是近似的,而不是精确的。此类量旨在具有与它们涉及的功能和它们所属的领域中的惯例一致的合理范围。例如,除非另外明确说明,否则参数值等可以从所述量或范围变化多达正负百分之十。
此外,在前述具体实施方式中可看出,出于使本公开简化的目的,各种特征在各种示例中被组合在一起。公开的本方法不应被解释为反映所要求保护的示例需要比每个权利要求中明确记载的特征更多的特征的意图。相反,如以下权利要求所反映的,要求保护的本主题在于少于任何单个公开的示例的所有特征。因此,将以下权利要求据此并入到具体实施方式中,其中每个权利要求作为独立要求保护的主题而独立存在。
虽然前文已描述了被认为是最佳模式的示例和其他示例,但应当理解,可在其中作出各种修改且本文所公开的主题可以各种形式和示例来实施,并且其可应用于许多应用中,本文仅描述了其中的一些应用。所附权利要求书旨在要求保护落入本发明构思的真实范围内的任何和所有修改和变型。
Claims (20)
1.一种眼戴器,包括:
框架;
眼戴器显示器,所述眼戴器显示器耦接到所述框架;
眼睛追踪器;和
处理器,所述处理器被配置为:
在所述眼戴器显示器上显示包括对象的第一图像;
使用所述眼睛追踪器确定第一用户正在注视的所述第一图像的第一部分;向物理远程设备发送指示所述第一用户正在注视的所述第一图像的所述第一部分的第一消息;
从所述物理远程设备接收指示所述物理远程设备的第二用户正在注视的所述相同第一图像的第二部分的第二消息;以及
根据所述眼睛追踪器对所述第一用户的注视的确定,将所述对象在所述眼戴器显示器上的定位修改到所述第一部分。
2.根据权利要求1所述的眼戴器,其中所述处理器被配置为在所述第一图像中显示另一对象,并且响应于指示所述第二用户正在注视什么的所述第二消息而将所述另一对象在所述眼戴器显示器上的定位修改到所述第二部分。
3.根据权利要求1所述的眼戴器,其中所述处理器被配置为通过在所述第一图像中生成另一对象来响应口头指令。
4.根据权利要求3所述的眼戴器,其中所述另一对象从所述对象延伸。
5.根据权利要求1所述的眼戴器,其中所述处理器被配置为自动向所述物理远程设备发送指示所述第一用户的注视的所述第一消息。
6.根据权利要求1所述的眼戴器,其中所述处理器被配置为自动从所述物理远程设备接收指示所述第二用户的注视的所述第二消息。
7.根据权利要求1所述的眼戴器,其中所述第一图像是第一虚拟场景,并且所述对象是虚拟对象。
8.一种与眼戴设备一起使用的交互式增强现实方法,所述眼戴设备具有框架、耦接到所述框架的眼戴器显示器、眼睛追踪器和处理器,所述处理器:
在所述眼戴器显示器上显示包括对象的第一图像;
使用所述眼睛追踪器确定第一用户正在注视的所述第一图像的第一部分;向物理远程设备发送指示所述第一用户正在注视的所述第一图像的所述第一部分的第一消息;
从所述物理远程设备接收指示所述物理远程设备的第二用户正在注视的所述相同第一图像的第二部分的第二消息;以及
根据所述眼睛追踪器对所述第一用户的注视的确定,将所述对象在所述眼戴器显示器上的定位修改到所述第一部分。
9.根据权利要求8所述的方法,所述处理器另外在所述第一图像中显示另一对象,并且响应于指示所述第二用户正在注视什么的所述第二消息而将所述另一对象在所述眼戴器显示器上的定位修改到所述第二部分。
10.根据权利要求8所述的方法,所述处理器另外响应于口头指令而在所述第一图像中生成另一对象。
11.根据权利要求10所述的方法,其中所述另一对象从所述第一对象延伸。
12.根据权利要求8所述的方法,其中所述处理器自动向所述物理远程设备发送指示所述第一用户的注视的所述第一消息。
13.根据权利要求8所述的方法,其中所述处理器自动从所述物理远程设备接收指示所述第二用户的注视的所述第二消息。
14.根据权利要求8所述的方法,其中所述第一图像是第一虚拟场景,并且所述第一对象是第一虚拟对象。
15.一种存储程序代码的非暂态计算机可读介质,所述程序代码在被执行时运行以使眼戴设备的电子处理器执行以下步骤,所述眼戴设备具有框架、耦接到所述框架的眼戴器显示器和眼戴器追踪器:
在所述眼戴器显示器上显示包括对象的第一图像;
使用所述眼睛追踪器确定第一用户正在注视的所述第一图像的第一部分;
向物理远程设备发送指示所述第一用户正在注视的所述第一图像的所述第一部分的第一消息;
从所述物理远程设备接收指示所述物理远程设备的第二用户正在注视的所述相同第一图像的第二部分的第二消息;以及
根据所述眼睛追踪器对所述第一用户的注视的确定,将所述对象在所述眼戴器显示器上的定位修改到所述第一部分。
16.根据权利要求15所述的存储程序代码的非暂态计算机可读介质,进一步包括用以执行以下步骤的代码:在所述第一图像中显示另一对象,并且响应于指示所述第二用户正在注视什么的所述第二消息而将所述另一对象在所述眼戴器显示器上的定位修改到所述第二部分。
17.根据权利要求16所述的存储程序代码的非暂态计算机可读介质,进一步包括用以执行以下步骤的代码:响应于口头指令而在所述第一图像中生成另一对象。
18.根据权利要求17所述的存储程序代码的非暂态计算机可读介质,其中所述另一对象从所述第一对象延伸。
19.根据权利要求15所述的存储程序代码的非暂态计算机可读介质,其中向所述物理远程设备发送指示所述第一用户的注视的所述第一消息是自动的。
20.根据权利要求15所述的存储程序代码的非暂态计算机可读介质,其中从所述物理远程设备接收指示所述第二用户的注视的所述第二消息是自动的。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063046348P | 2020-06-30 | 2020-06-30 | |
US63/046,348 | 2020-06-30 | ||
PCT/US2021/039553 WO2022006069A1 (en) | 2020-06-30 | 2021-06-29 | Eyewear including shared object manipulation ar experiences |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115735177A true CN115735177A (zh) | 2023-03-03 |
Family
ID=77155854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180046494.5A Pending CN115735177A (zh) | 2020-06-30 | 2021-06-29 | 包括共享对象操纵ar体验的眼戴器 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11573632B2 (zh) |
EP (1) | EP4172741A1 (zh) |
KR (1) | KR20230025919A (zh) |
CN (1) | CN115735177A (zh) |
WO (1) | WO2022006069A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MX2020010475A (es) * | 2018-04-05 | 2020-12-09 | Vid Scale Inc | Metadatos de puntos de vista para video omnidireccional. |
CN115735175A (zh) * | 2020-06-29 | 2023-03-03 | 美国斯耐普公司 | 可共享注视响应观看的眼戴器 |
WO2022006069A1 (en) * | 2020-06-30 | 2022-01-06 | Snap Inc. | Eyewear including shared object manipulation ar experiences |
US20230298247A1 (en) * | 2022-03-15 | 2023-09-21 | Yu Jiang Tham | Sharing received objects with co-located users |
US11949527B2 (en) | 2022-04-25 | 2024-04-02 | Snap Inc. | Shared augmented reality experience in video chat |
US12277632B2 (en) | 2022-04-26 | 2025-04-15 | Snap Inc. | Augmented reality experiences with dual cameras |
US12069399B2 (en) | 2022-07-07 | 2024-08-20 | Snap Inc. | Dynamically switching between RGB and IR capture |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US9122321B2 (en) | 2012-05-04 | 2015-09-01 | Microsoft Technology Licensing, Llc | Collaboration environment using see through displays |
JP5949319B2 (ja) * | 2012-08-21 | 2016-07-06 | 富士通株式会社 | 視線検出装置及び視線検出方法 |
US9123142B2 (en) * | 2012-10-02 | 2015-09-01 | At&T Intellectual Property I, L.P. | Adjusting content display orientation on a screen based on user orientation |
KR102098277B1 (ko) * | 2013-06-11 | 2020-04-07 | 삼성전자주식회사 | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 |
US9804669B2 (en) * | 2014-11-07 | 2017-10-31 | Eye Labs, Inc. | High resolution perception of content in a wide field of view of a head-mounted display |
KR101655818B1 (ko) * | 2014-12-11 | 2016-09-08 | 현대자동차주식회사 | 웨어러블 글래스, 그 제어 방법 및 차량 제어 시스템 |
US9990044B2 (en) * | 2015-10-30 | 2018-06-05 | Intel Corporation | Gaze tracking system |
JP7099444B2 (ja) | 2017-04-03 | 2022-07-12 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN111684497A (zh) * | 2018-02-06 | 2020-09-18 | 索尼公司 | 图像处理设备、图像处理方法和图像提供系统 |
AT522012A1 (de) * | 2018-12-19 | 2020-07-15 | Viewpointsystem Gmbh | Verfahren zur Anpassung eines optischen Systems an einen individuellen Benutzer |
WO2022006069A1 (en) * | 2020-06-30 | 2022-01-06 | Snap Inc. | Eyewear including shared object manipulation ar experiences |
-
2021
- 2021-06-29 WO PCT/US2021/039553 patent/WO2022006069A1/en unknown
- 2021-06-29 US US17/361,951 patent/US11573632B2/en active Active
- 2021-06-29 CN CN202180046494.5A patent/CN115735177A/zh active Pending
- 2021-06-29 EP EP21748996.2A patent/EP4172741A1/en active Pending
- 2021-06-29 KR KR1020237003049A patent/KR20230025919A/ko active Pending
-
2023
- 2023-01-18 US US18/098,384 patent/US11914770B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP4172741A1 (en) | 2023-05-03 |
US11573632B2 (en) | 2023-02-07 |
US20230161407A1 (en) | 2023-05-25 |
US11914770B2 (en) | 2024-02-27 |
WO2022006069A1 (en) | 2022-01-06 |
KR20230025919A (ko) | 2023-02-23 |
US20210405746A1 (en) | 2021-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20230025914A (ko) | 음성 및 텍스트 캡션들을 사용한 증강 현실 경험들 | |
KR20230026505A (ko) | 객체 조작을 사용한 증강 현실 경험들 | |
US11740852B2 (en) | Eyewear including multi-user, shared interactive experiences | |
EP4172733A1 (en) | Augmented reality eyewear 3d painting | |
US11914770B2 (en) | Eyewear including shared object manipulation AR experiences | |
KR20230029885A (ko) | 말 풍선들 및 번역을 갖는 증강 현실 안경류 | |
WO2022005715A1 (en) | Augmented reality eyewear with 3d costumes | |
US11422380B2 (en) | Eyewear including virtual scene with 3D frames | |
US11392199B2 (en) | Eyewear with shared gaze-responsive viewing | |
CN115836269A (zh) | 增强现实环境增强 | |
EP4172732A1 (en) | Augmented reality eyewear with mood sharing | |
KR20230073336A (ko) | 가상 아이웨어 빔들을 사용한 증강 현실 게이밍 | |
WO2024049596A1 (en) | Recording following behaviors between virtual objects and user avatars in ar experiences | |
CN116685934A (zh) | 增强现实精确追踪和显示 | |
CN119816871A (zh) | 用于创建交互式ar故事的交互记录工具 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |