CN113226498A - 能够佩戴的可视化装置系统和方法 - Google Patents
能够佩戴的可视化装置系统和方法 Download PDFInfo
- Publication number
- CN113226498A CN113226498A CN202080008636.4A CN202080008636A CN113226498A CN 113226498 A CN113226498 A CN 113226498A CN 202080008636 A CN202080008636 A CN 202080008636A CN 113226498 A CN113226498 A CN 113226498A
- Authority
- CN
- China
- Prior art keywords
- visualization device
- wearable visualization
- user
- display screen
- lens portion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/24—Constructional details thereof, e.g. game controllers with detachable joystick handles
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
- A63F13/655—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/73—Authorising game programs or game devices, e.g. checking authenticity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/75—Enforcing rules, e.g. detecting foul play or generating lists of cheating players
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
- A63F13/98—Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P15/00—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
- G01P15/18—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0176—Head mounted characterised by mechanical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Computer Security & Cryptography (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Software Systems (AREA)
- General Business, Economics & Management (AREA)
- Biophysics (AREA)
- Computer Graphics (AREA)
- Quality & Reliability (AREA)
- Cardiology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Geometry (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Eye Examination Apparatus (AREA)
- Controls And Circuits For Display Device (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Abstract
一种能够佩戴的可视化装置(12),其被配置成向用户提供增强现实、虚拟现实和/或混合现实体验,能够佩戴的可视化装置(12)包括壳体(18)和从壳体(18)延伸的透镜部分(16)。能够佩戴的可视化装置(12)包括第一显示屏(74)和第二显示屏(76),第一显示屏(74)和第二显示屏(76)耦接到壳体(18)并且被配置成将光投射到透镜部分(16)上,其中透镜部分(16)被配置成将光的至少部分反射到用户的眼睛中。能够佩戴的可视化装置(12)包括相机(84),相机(84)定位在第一显示屏(74)和第二显示屏(76)之间并且被配置成获取透镜部分(16)的图像数据。
Description
对相关申请的交叉引用
本申请要求于2019年1月11日提交的标题为“AUGMENTED REALITY (AR) HEADSETFOR HIGH THROUGHPUT ATTRACTIONS(用于高通过量的景观的增强现实(AR)头部设备)”的第 62/791,735号美国临时申请的优先权和权益,该申请以其整体通过引用方式特此并入以用于所有目的。
背景技术
本部分旨在向读者介绍可能与下面描述和/或要求保护的本技术的各个方面相关的领域的各个方面。相信本论述有助于向读者提供背景信息,以促进对本公开的各个方面的更好的理解。因此,应当理解,这些陈述要从这个角度来阅读,并且不作为对现有技术的承认。
游乐园和/或主题公园可以包括对于向客人提供享受有用的各种娱乐景观、餐馆和乘坐器。游乐园的区域可以具有具体以某些观众为目标的不同主题。例如,某些区域可以包括对儿童来说传统上所感兴趣的主题,而其他区域可以包括对更成熟的观众来说传统上所感兴趣的主题。通常,具有主题的这样的区域可以被称为景观或主题景观。所认识到的是,可能期望诸如通过用虚拟特征增强主题来增强对于这样的景观的客人的沉浸式体验。
发明内容
下面阐述了本文中公开的某些实施例的概述。应当理解,呈现这些方面仅仅是为了向读者提供这些某些实施例的简要概述,并且这些方面不旨在限制本公开的范围。实际上,本公开可以涵盖下面可能未阐述的各种方面。
在一个实施例中,被配置成向用户提供增强现实、虚拟现实和/或混合现实体验的能够佩戴的可视化装置包括壳体和从壳体延伸的透镜部分。能够佩戴的可视化装置包括第一显示屏和第二显示屏,该第一显示屏和第二显示屏耦接到壳体并且被配置成将光投射到透镜部分上,其中透镜部分被配置成将光的至少部分反射到用户的眼睛中。能够佩戴的可视化装置还包括相机,该相机定位在第一显示屏和第二显示屏之间并且被配置成获取透镜部分的图像数据。
在一个实施例中,增强现实、虚拟现实和/或混合现实(AR/VR)系统包括能够佩戴的可视化装置。能够佩戴的可视化装置包括壳体、从壳体延伸的透镜部分、以及具有能够移除地耦接到壳体的框架的显示组件。第一显示屏、第二显示屏和相机耦接到框架,其中相机定位在第一显示屏和第二显示屏之间。
在一个实施例中,被配置成向用户提供增强现实、虚拟现实和/或混合现实体验的能够佩戴的可视化装置包括透镜部分和被配置成将虚拟特征投射到透镜部分上的第一位置上的显示屏。能够佩戴的可视化装置包括相机,该相机被配置成获取指示在透镜部分上能够观看的反射的图像数据,其中反射包括用户的第一眼睛的第一反射和用户的第二眼睛的第二反射。能够佩戴的可视化装置包括通信地耦接到相机和显示屏的处理器,其中处理器被配置成基于图像数据来将虚拟特征的投射从第一位置调整到透镜部分上的第二位置。
可以关于本公开的各个方面对上述特征进行各种改进。另外的特征也可以并入在这些各个方面中。这些改进和附加特征可以单独存在或以任何组合的形式存在。
附图说明
当参考所附附图阅读以下详细描述时,本公开的这些和其他特征、方面和优点将变得更好理解,在附图中,整个附图中相同的符号表示相同的部分,其中:
图1是根据本实施例的在接合配置中的增强现实、虚拟现实和/或混合现实系统(AR/VR系统)的能够佩戴的可视化装置和接口装置的透视图;
图2是根据本实施例的在分离配置中的图1的能够佩戴的可视化装置和接口装置的透视图;
图3是根据本实施例的图1的能够佩戴的可视化装置的底视图;
图4是根据本实施例的可以在图1的能够佩戴的可视化装置中使用的显示系统的示意性侧视图;
图5是根据本实施例的可以在图1的能够佩戴的可视化装置中使用的显示系统的示意性前视图;
图6是根据本实施例的图1的能够佩戴的可视化装置的部分的顶视图;
图7是根据本实施例的图1的能够佩戴的可视化装置的壳体的部分的顶视图;
图8是根据本实施例的可以在图1的能够佩戴的可视化装置中使用的电子板和显示组件的顶视图;
图9是根据本实施例的图8的电子板和显示组件的底视图;
图10是根据本实施例的可以由图1的能够佩戴的可视化装置的相机获取的图像的表示;
图11是根据本实施例的可以在图1的能够佩戴的可视化装置中使用的灯组件的顶视图;
图12是根据本实施例的图1的能够佩戴的可视化装置的壳体的部分的底视图;
图13是根据本实施例的图1的能够佩戴的可视化装置的后视图;
图14是根据本实施例的在分离配置中的AR/VR系统的接口装置和能够佩戴的可视化装置的透视图;以及
图15是根据本实施例的在存储配置中的图1的能够佩戴的可视化装置和存储容器的透视图。
具体实施方式
下面将描述一个或多个具体实施例。为了提供这些实施例的简明描述,在说明书中没有描述实际实施方式的所有特征。应当理解,在任何这样的实际实施方式的开发中,如在任何工程或设计项目中,必须做出许多特定于实施方式的决策以实现开发者的特定目标,诸如对系统相关和商业相关的约束的遵守,所述特定目标可能随实施方式的不同而变化。此外,应当理解,这样的开发工作可能是复杂且耗时的,但是对于受益于本公开的那些普通技术人员而言仍将是设计、制作和制造的例行任务。
当介绍本公开的各种实施例的元素时,冠词“一”、“一个”和“该”旨在意指存在一个或多个元素。术语“包括”、“包含”和“具有”旨在是包含性的,并且意指可以存在除所列出的元素之外的附加元素。另外,应当理解,对本公开的“一个实施例”或“实施例”的引用不旨在被解释为排除也并入所述特征的附加实施例的存在。
游乐园可以包括增强现实(AR)、虚拟现实(VR)和/或混合现实(AR和VR的组合)系统(AR/VR系统),其被配置成通过向客人提供AR/VR体验(例如,AR体验、VR体验或两者)来增强游乐园景观的客人体验。实际上,可以利用某些硬件配置、软件配置(例如,算法结构和/或建模响应)以及某些景观特征的组合来向客人提供可以是可定制的、个性化的和/或交互式的AR/VR体验。
例如,AR/VR系统可以包括能够佩戴的可视化装置,诸如头戴式显示器(例如,电子目镜或显示器、眼镜),其可以由客人佩戴并且可以被配置成使得客人能够观看AR/VR场景。特别地,能够佩戴的可视化装置可以用于通过在游乐园的真实世界环境中虚拟地覆盖特征、通过提供能够调整的虚拟环境以在游乐园乘坐器中提供不同的体验等等来增强客人体验。遗憾的是,在没有所公开的实施例的情况下,制造和组装能够佩戴的可视化装置可能是昂贵和/或耗时的。此外,在没有所公开的实施例的情况下,可能难以有效地将能够佩戴的可视化装置与游乐园乘坐器集成。
因此,本公开的实施例涉及一种能够佩戴的可视化装置,其具有促进能够佩戴的可视化装置的制造和组装的多件式壳体。特别地,壳体可以包括一个或多个能够分离的板,诸如底座、盖和透镜安装件,其可以在组装配置中形成壳体。板中的某些可以包括部件配合特征(例如,形成在板的表面上的经机械加工的或模制的特征),其被配置成接收和/或耦接到能够佩戴的可视化装置的各种子部件(例如,电子部件;光学部件)。部件配合特征使得子部件能够在壳体的组装之前耦接到板,而板的各个部分可以对于操作者(例如,人类技术人员;组装机器人)是更容易接近的。在将子部件安装在板中的一个或多个上之后,可以组装板以形成壳体。在组装配置中,壳体可以将子部件的至少部分从周围的外界环境基本上隔离。
本文中公开的能够佩戴的可视化装置的实施例还可以包括促进能够佩戴的可视化装置与景观(例如,游乐园乘坐器)的集成的各种集成特征。例如,集成特征可以包括相机,该相机耦接到能够佩戴的可视化装置的壳体并且被配置成获取佩戴能够佩戴的可视化装置的客人的生物计量信息(例如,瞳孔间距离)。特别地,当客人首次将能够佩戴的可视化装置装备在他们的头部上时(例如,诸如当客人最初登上景观的乘坐运载器时),相机可以获取这样的生物计量信息。能够佩戴的可视化装置的处理系统可以被配置成基于所获取的客人的生物计量信息来校准能够佩戴的可视化装置的某些部件(例如,一个或多个显示屏),使得能够佩戴的可视化装置可以更有效地向客人提供AR/VR体验。在一些实施例中,处理系统还可以利用由相机获取的图像数据来确定能够佩戴的可视化装置是否适当地装配在客人的头部上。作为示例,处理系统可以利用所获取的图像数据来确定能够佩戴的可视化装置的一个或多个透镜或显示器是否与客人的眼睛适当地对准(例如,以促进向客人有效呈现AR/VR内容的方式)。如果处理系统确定能够佩戴的可视化装置在客人的头部上(例如,相对于客人的眼睛)未对准,则处理系统可以生成指导客人和/或操作景观的乘坐器技术人员执行校正动作的警报。下面将参考附图详细描述这些和其他特征。
考虑到前述内容,图1是AR/VR系统10的实施例的透视图,该AR/VR系统10被配置成使得用户(例如,客人、游乐园员工、乘坐运载器的乘客)能够体验AR/VR场景(例如,观看AR/VR场景、与AR/VR场景交互)。AR/VR系统10包括具有能够佩戴的可视化装置12(例如,头戴式显示器)和客人接口装置14的能够佩戴的可视化系统11,如下面详细论述的那样,能够佩戴的可视化装置12和客人接口装置14能够移除地能够耦接到彼此以促进AR/VR系统10的使用。
在所图示的实施例中,能够佩戴的可视化装置12包括耦接到能够佩戴的可视化装置12的壳体18的透镜部分16(例如,AR/VR眼镜、目镜)。透镜部分16可以包括一个或多个透镜20或显示器(例如,透明的、半透明的、不透光的),某些虚拟特征24(例如,AR特征)可以覆盖到该一个或多个透镜20或显示器上。在一些实施例中,透镜20可以使得用户能够通过透镜20观看真实世界环境22(例如,景观中的物理结构),其中某些虚拟特征24覆盖到透镜20上,使得用户将虚拟特征24感知为集成到真实世界环境22中。也就是说,透镜部分16可以通过将虚拟特征24覆盖到用户的视线上来至少部分地控制用户的视野。为此,能够佩戴的可视化装置12可以使得用户能够可视化和感知超现实环境26(例如,游戏环境),该超现实环境26具有覆盖到由用户通过透镜20能够观看的物理真实世界环境22上的某些虚拟特征24。
以非限制的示例的方式,透镜20可以包括透明(例如,透视)发光二极管(LED)显示器或透明(例如,透视)有机发光二极管(OLED)显示器。在一些实施例中,透镜部分16可以由跨某距离的单件式构造形成,以便向用户的双眼都显示图像。也就是说,在这样的实施例中,透镜20(例如,第一透镜28、第二透镜30)可以由材料的单个、连续的件形成,其中第一透镜28可以与用户的第一眼睛(例如,左眼)对准,并且第二透镜30可以与用户的第二眼睛(例如,右眼)对准。在其他实施例中,透镜部分16可以是由两个或更多个分开的透镜20形成的多件式构造。
在一些实施例中,能够佩戴的可视化装置12可以(例如,使用不透光的观看表面)完全控制用户的视野。也就是说,透镜20可以包括被配置成向用户显示虚拟特征24(例如,VR特征)的不透光或不透明的显示器。因此,由用户能够观看的超现实环境26可以是例如实时视频,其包括与一个或多个虚拟特征24电子地合并的物理真实世界环境22的真实世界图像。因此,在佩戴能够佩戴的可视化装置12时,用户可以感觉到完全被超现实环境26包围,并且可以将超现实环境26感知为包括某些虚拟特征24的真实世界环境22。在一些实施例中,能够佩戴的可视化装置12可以包括诸如光投射特征之类的特征,其被配置成将光投射到用户的一只或两只眼睛中,使得某些虚拟特征24叠加在由用户能够观看的真实世界对象之上。这样的能够佩戴的可视化装置12可以被认为包括视网膜显示器。
因此,应当理解,超现实环境26可以包括AR体验、VR体验、混合现实体验、计算机调解的现实体验、其组合或其他类似的超现实环境。此外,应当理解,能够佩戴的可视化装置12可以单独使用或与其他特征组合使用以创建超现实环境26。实际上,如以下论述的,用户可以在游乐园乘坐器的整个乘坐的持续时间期间或在另一时间期间(诸如在游戏期间、在游乐园的整个特定区域或景观期间、在到与游乐园相关联的酒店的乘坐期间、在酒店处等等)佩戴能够佩戴的可视化装置12。在一些实施例中,当在游乐园设置(setting)中实施时,能够佩戴的可视化装置12可以物理地耦接到(例如,经由线缆32拴系)到结构(例如,游乐园乘坐器的乘坐运载器)以阻止能够佩戴的可视化装置12从结构的分开和/或可以(例如,经由线缆32)电子地耦接到计算系统(例如,计算机图形生成系统)以促进能够佩戴的可视化装置12的操作(例如,虚拟特征24的显示)。
如以下论述的,能够佩戴的可视化装置12能够移除地能够耦接(例如,能够无工具地耦接;能够在没有工具的情况下耦接;在没有螺纹紧固件(诸如螺栓)的情况下耦接;在没有工具且不破坏能够佩戴的可视化装置12或客人接口装置14的部件的情况下能够分开)到客人接口装置14,以使得能够佩戴的可视化装置12能够在接合配置34与解离或分离配置36(参见例如图2)之间快速转换,在接合配置34中能够佩戴的可视化装置12耦接到客人接口装置14,在解离或分离配置36中能够佩戴的可视化装置12从客人接口装置14解耦。客人接口装置14被配置成附连到用户的头部,并且因此使得用户能够在遍及各种景观中或者在穿越某些游乐园环境时舒适地佩戴能够佩戴的可视化装置12。例如,客人接口装置14可以包括头带组件37,该头带组件37被配置成围绕用户的头部的周缘跨过并且被配置成在用户的头部上收紧(例如,收缩)。以这种方式,头带组件37促进将客人接口装置14附连到用户的头部,使得客人接口装置14可以用于将能够佩戴的可视化装置12保持在用户上(例如,当能够佩戴的可视化装置12在接合配置34中时)。客人接口装置14使得用户能够(例如,在客人接口装置14不从用户的头部分离的情况下)将能够佩戴的可视化装置12与客人接口装置14耦接和解耦。
图2是AR/VR系统10的实施例的透视图,其图示了在分离配置36中的能够佩戴的可视化装置12和客人接口装置14。如上面简要论述的那样,能够佩戴的可视化装置12的壳体18可以是被配置成促进能够佩戴的可视化装置12的组装和/或维护的多部件的组件。例如,在一些实施例中,壳体18可以由可以共同形成壳体18的多个板40(例如,壳体区段;模制的和/或经机械加工的板)诸如,盖42、底座44和透镜安装件46(例如,被配置成支撑透镜部分16的板)组装而成。如以下论述的,板40中的一些或全部可以包括部件配合特征(例如,板40的表面上的经机械加工的和/或模制的特征),该部件配合特征被配置成接收和/或耦接到能够佩戴的可视化装置12的各种子部件48(例如,电子部件;光学部件)。以这种方式,在壳体18的组装之前,子部件48可以耦接到例如盖42、底座44和/或透镜部分16,而这些板40的部件配合特征对于操作者是容易接近的(例如,与当壳体18在组装或部分组装配置中时相比)。
如以下论述的,在将子部件48安装在板40中的一个或多个上之后,板40可以被组装(例如,经由紧固件、粘合剂和/或其他技术耦接到彼此)以形成壳体18。因此,壳体18可以封装子部件48以将子部件48的至少部分基本上密封(例如,密闭地密封)在壳体18内,以屏蔽这些子部件48以免直接暴露于能够佩戴的可视化装置12周围的外界环境元素(例如,水分)。要理解,在其他实施例中,壳体18可以由比盖42、底座44和透镜安装件46附加的或更少的板组装。实际上,在某些实施例中,壳体18可以包括1、2、3、4、5、6个或多于六个单独的板40,其在组装配置中可以共同形成壳体18。
在所图示的实施例中,壳体18包括接近于透镜20的前端部50(例如,第一端部)和远离透镜20的后端部52(例如,第二端部)。特别地,后端部52包括第一外围部54(例如,第一远端)和第二外围部56(例如,第二远端),其如以下所论述的那样促进将能够佩戴的可视化装置12能够移除地耦接到客人接口装置14。底座44包括第一外部表面58和与第一外部表面58相对的第二外部表面,第一外部表面58可以限定壳体18的第一横向端部60,第二外部表面可以限定壳体18的第二横向端部62。盖42包括上表面64,该上表面64可以限定壳体18的顶部66。底座包括下表面68(参见例如图1),该下表面68可以限定壳体18的下侧70(参见例如图1)。为了清楚起见,在整个以下论述中使用诸如例如向前、向后、横向、上和下之类的相对术语来描述能够佩戴的可视化装置12的各种部件或区域相对于能够佩戴的可视化装置12的其他部件或区域的相对位置,并且不旨在表示特定方向或空间定向。因此,应当理解,这样的相对术语旨在促进论述,并且取决于观察者相对于能够佩戴的可视化装置12的定向。
图3是能够佩戴的可视化装置12的实施例的底视图,其图示了壳体18的下侧70。如所图示的实施例中所示,透镜部分16可以从底座44的下表面68总体上沿着第一方向71延伸。在一些实施例中,透镜安装件46可以将透镜部分16能够移除地耦接到底座44。因此,透镜安装件46可以实现透镜部分16与另一透镜部分的替换(例如,如果透镜部分16遭受磨损的话)。
底座44可以包括凹部72,该凹部72在总体上与第一方向71相对的第二方向73上延伸,并且凹部72从壳体18的后端部52朝向壳体18的前端部50倾斜。能够佩戴的可视化装置12可以包括第一屏幕74(例如,第一显示屏)和第二屏幕76(例如,第二显示屏),在本文中统称为屏幕78,其可以耦接到壳体18并且定位在凹部72内。特别地,如以下论述的,第一屏幕74可以定位在底座44的第一开口80(参见例如图7)内,并且第二屏幕76可以定位在底座44的第二开口82(参见例如图7)内,使得屏幕78朝向透镜20成角度(参见例如图4)。如以下论述的,以这种方式,屏幕78可以将光(例如,虚拟特征)投射到透镜部分16上,使得透镜部分16可以将投射的光的至少部分反射到用户的眼睛中。
在一些实施例中,相机84可以定位在凹部72内并且定位在第一屏幕74和第二屏幕76之间(例如,沿着能够佩戴的可视化装置12的横向轴线)。特别地,相机84可以设置在底座44的相机开口86(参见例如图7)内,并且可以与能够佩戴的可视化装置12的中心线88(例如,在屏幕78之间平行且等距地延伸的线)对准。在某些实施例中,相机84的透镜可以被定向成与第一屏幕74和第二屏幕76的相应显示表面基本上共面。如下面详细论述的那样,以这种方式,相机84可以获取指示可以在透镜部分16的内表面(例如,面向屏幕78的表面)上能够观看的反射的图像数据。特别地,相机84可以获取指示由屏幕78投射到透镜部分16上的光的反射和/或指示可以在透镜部分16中能够观看的用户的眼睛的反射(例如,当能够佩戴的可视化装置12装配在用户的头部上时)的图像数据。
屏幕78可以包括被配置成将虚拟特征投射到透镜20上的任何合适的显示器。根据非限制的示例,屏幕78可以包括液晶显示器(LCD)、LED显示器、OLED显示器或其他合适的显示器。在任何情况下,第一屏幕74可以将AR/VR内容投射到第一透镜28上,并且第二屏幕76可以将AR/VR内容投射到第二透镜30上。以这种方式,屏幕78可以根据以上论述的技术促进超现实环境26的生成。应当理解,在一些实施例中,屏幕78可以包括单个屏幕(而不是两个分开的屏幕)的第一区段或段和第二区段或段。也就是说,第一屏幕74可以包括特定屏幕的第一区段或段,并且第二屏幕76可以包括特定屏幕的第二区段或段。
如所图示的实施例中所示,第一透镜28和第二透镜30可以各自包括从透镜部分16的中线90延伸的凹曲率。中线90可以与中心线88基本上对准(例如,平行于中心线88)。第一透镜28和第二透镜30的凹曲率可以促进由屏幕78投射到透镜20上的光中的一些或基本上全部反射回到用户的眼睛中。例如,第一透镜28的凹曲率可以使得第一透镜28能够将光(例如,由第一屏幕74投射到第一透镜28上的AR/VR内容)反射到用户的第一眼睛92中,并且使得第二透镜30能够将光(例如,由第二屏幕76投射到第二透镜30上的AR/VR内容)反射到用户的第二眼睛94中。因此,用户可以观看可以(例如,由屏幕78)投射到透镜20上的AR/VR内容,并且因此感知超现实环境26。在整个以下论述中,透镜20和屏幕78可以统称为能够佩戴的可视化装置12的显示系统96。
图4是显示系统96的实施例的示意性侧视图。在一些实施例中,透镜部分16可以包括基本上透明(例如,透视)的材料的件,该材料的件涂覆有增强透镜部分16的反射属性的一个或多个反射层。例如,在一些实施例中,面向第一眼睛92和第二眼睛94(统称为眼睛98)的透镜部分16的内表面97可以涂覆有反射层100,该反射层100可以将(例如,由屏幕78)投射到透镜部分16上的约百分之20和约百分之80之间、约百分之50和约百分之70之间或约百分之62.5的光反射回到用户的眼睛98中,而(例如,由屏幕78)投射到透镜部分16上的光的剩余部分穿过透镜部分16并且分散在外界环境102中。在其他实施例中,反射层100可以将(例如,由屏幕78)投射到透镜部分16的内表面97上的光的任何合适部分反射回到用户的眼睛98中。反射层100可以包括施加到透镜部分16的内表面97的材料的单个涂层或层或者施加到内表面97的材料的多个涂层或层。
在一些实施例中,透镜部分16的(例如,背对着用户的眼睛98的)外表面104可以涂覆有抗反射涂层106的一个或多个层。抗反射涂层106可以准许外界光(例如,阳光)穿过透镜部分16(例如,从外表面104到内表面97),而基本上不在透镜部分16中创建反射(例如,可以降低由屏幕78投射到透镜部分16上的虚拟特征的质量的反射)。附加地或替代地,外表面104可以涂覆有耐刮擦涂层108的一个或多个层,其可以保护透镜部分16在能够佩戴的可视化装置12的重复使用期间免于获得刮擦或其他表面瑕疵。在一些实施例中,还可以将耐刮擦涂层108的一个或多个层施加到透镜部分16的内表面97。
图5是显示系统96的实施例的示意图。通常,用户的视网膜中央凹视觉(fovealvision)(例如,中心视场)可以位于透镜部分16的中心区域120附近。特别地,用户的第一眼睛92的视网膜中央凹视觉可以包括第一透镜28的第一区段122,而用户的第二眼睛94的视网膜中央凹视觉可以包括第二透镜30的第一区段124。第一透镜28的第二区段126可以对应于第一眼睛92的外围视觉的区域,而第二透镜30的第二区段128可以对应于第二眼睛94的外围视觉的区域。
屏幕78可以被配置成将光(例如,虚拟特征;AR/VR内容)光栅化,以用于在线绘制方向129上的到透镜20上的投射,该线绘制方向129总体上与中线90交叉并且从中线90向外延伸。例如,第一屏幕74可以在第一方向132上从(例如,在中线90附近的)第一屏幕74的接近部分134(例如,横向向内的部分)朝向第一屏幕74的远部分136(例如,横向向外的部分)循环地(例如,沿着由线130表示的光栅线)光栅化和更新AR/VR内容。第二屏幕76可以在第二方向139上从第二屏幕76的接近部分141(例如,横向向内的部分)朝向第二屏幕76的远部分143(例如,横向向外的部分)循环地(例如,沿着由线138表示的附加光栅线)光栅化和更新AR/VR内容。
以这种方式,可以包括用户的视网膜中央凹视觉的透镜部分16的中心区域120可以具有比对应于用户的外围视觉的区域的透镜部分16的区域(例如,第二区段126、128)更低的延迟。实际上,在沿着透镜20的第二区段126、128光栅化AR/VR内容之前,屏幕78可以将对投射的AR/VR内容的更新光栅化到透镜20的第一区段122、124上,该第一区段122、124可以限定用户的中心视场,该第二区段126、128可以限定用户的外围视觉。为此,用户可以在例如在透镜部分16上能够观看的虚拟特征和可以与虚拟特征的呈现协调的真实世界环境中的特征(例如,电子动物图形)之间基本上不体验延迟或体验基本上不可感知的延迟。作为非限制的示例,使用屏幕78光栅化和/或更新横跨透镜部分16的中心区域120显示的AR/VR内容所涉及的时间段可以是大约四毫秒、大约三毫秒或小于三毫秒。
图6是能够佩戴的可视化装置12的部分的实施例的顶视图。在所图示的实施例中,盖42从壳体18移除,以更好地图示可以定位在壳体18内的子部件48。如所图示的实施例中所示的那样,能够佩戴的可视化装置12包括显示组件140和电子板142,其可以经由紧固件、粘合剂和/或其他合适的技术耦接到底座44。显示组件140可以包括屏幕78和显示驱动器板144。显示驱动器板144可以(例如,经由连接件146)通信地耦接到屏幕78和电子板142。
电子板142可以包括促进能够佩戴的可视化装置12的操作的一个或多个传感器150。作为非限制的示例,传感器150可以包括定向传感器和/或定位传感器,诸如加速度计、磁力计、陀螺仪、全球定位系统(GPS)接收器、运动跟踪传感器、电磁和固态运动跟踪传感器、一个或多个惯性测量单元152(IMU)、存在传感器、霍尔效应传感器、温度传感器、电压表和/或其他传感器。在一些实施例中,电子板142可以包括通信接口154(例如,包括有线收发器或无线收发器),该通信接口154可以将经由传感器150捕获的实时数据传输到计算机图形生成系统156,该计算机图形生成系统156可以远离能够佩戴的可视化装置12定位(例如,在乘坐运载器上)或与能够佩戴的可视化装置12集成(例如,包括在电子板142上)。在一些实施例中,电子板142可以经由线缆32通信地耦接到计算机图形生成系统156。
电子板142可以包括存储器158,其可以存储能够佩戴的可视化装置12的个性化数据(例如,自测结果、错误日志、操作的小时、序列号)和/或包括促进与能够佩戴的可视化装置12的外围子组件和功能的通信的指令,该外围子组件和功能包括例如灯组件160(例如,发光二极管[LED]组件)、相机84和/或IMU 152。如以下论述的,灯组件160可以响应于用户输入和/或事件的发生而照亮以提供各种发光效果。此外,在某些实施例中,灯组件160可以例如指示(例如,经由特定颜色或色调的光的显示)哪种类型(例如,版本)的软件当前在电子板142上运行。
显示驱动器板144可以被配置成解码视频信号(例如,其可以从计算机图形生成系统156接收)并将信息的行写到屏幕78。以示例的方式,显示驱动器板144可以生成光栅线(例如,线130、138)以更新由屏幕78投射的AR/VR内容。显示驱动器板144还可以优化用于由屏幕78显示的视频信息的分辨率和频率。显示驱动器板144可将高清晰度多媒体接口(HDMI)信号解码成移动行业处理器接口(MIPI)联盟显示串行接口(DSI)规范。因此,应当理解,电子板142、显示驱动器板144和/或计算机图形生成系统156可以协作地控制屏幕78以根据上面论述的技术向用户提供AR/VR体验。
在一些实施例中,电子板142可以包括扩展端口164(例如,管理端口),其可以通信地耦接到电子板142的处理器166或另一合适的处理系统(例如,计算机图形生成系统156)。处理器166可以是通用处理器、片上系统(SoC)装置、专用集成电路(ASIC)或一些其他类似的处理器配置。扩展端口164可以耦接到位于壳体18的外表面上的插塞170。扩展端口164可以使得辅助装置(诸如键盘和/或鼠标)能够通信地耦接到电子板142。因此,辅助装置可以向用户(例如,授权的管理员)提供附加功能性,并且可以使得用户能够使用辅助装置来控制能够佩戴的可视化装置12的特征。作为另一非限制的示例,扩展端口164可以实现蓝牙®功能性、扩展的存储器、一个或多个麦克风、一个或多个声学扬声器或任何其他合适的辅助装置或多个装置与能够佩戴的可视化装置12的集成。
为了促进能够佩戴的可视化装置12上的维护,电子板142、显示驱动器板144和/或屏幕78可以各自是能够单独替换的。例如,为了促进以下论述,图7是底座44的实施例的顶视图。图8是显示组件140和电子板142的实施例的顶视图。图9是显示组件140和电子板142的实施例的底视图。下面将同时论述图7、图8和图9。
显示组件140可以包括框架190,该框架190被配置成支撑屏幕78、相机84和显示驱动器板144。屏幕78、相机84和显示驱动器板144可以使用紧固件、粘合剂和/或其他合适的技术耦接到框架190。在一些实施例中,框架190可以使相机84相对于屏幕78对准。也就是说,框架190可以确保相机84基本上等距地放置在第一屏幕74和第二屏幕76之间。框架190可以包括一个或多个安装突出部(tab)192(例如,部件配合特征),该一个或多个安装突出部192被配置成与底座44的相应安装插脚(prong)194(例如,部件配合特征)接合。为此,诸如紧固件、粘合剂或其他连接器之类的连接器可以用于将框架190耦接到底座44。安装突出部192和安装插脚194可以被定位成使得当框架190在与底座44的接合配置中时,第一屏幕74与第一开口80对准,第二屏幕76与第二开口82对准,并且相机84与相机开口86对准。
底座44可以包括一个或多个附加安装插脚198(例如,附加部件配合特征),在一些实施例中,该一个或多个附加安装插脚198可以促进经由合适的连接器(例如,紧固件)或粘合剂将电子板142耦接到底座44。例如,电子板142可以包括形成在其中的一个或多个孔199(例如,部件配合特征),该一个或多个孔199被配置成与附加安装插脚198对准(例如,在底座44内的电子板142的安装配置中)。因此,可以使用合适的紧固件和/或粘合剂将电子板142耦接到附加安装插脚198。电子板142、显示驱动器板144和/或屏幕78可以经由连接件146(例如,一个或多个有线连接件和/或光学连接件)通信地耦接到彼此。
以下论述参考图3继续。如上面简要论述的那样,相机84可以定位在凹部72内,并且可以被配置成获取指示在透镜部分16上(例如,在透镜部分16的内表面97上)能够观看的反射的图像数据。例如,在一些实施例中,相机84可以朝向中线90定向,使得相机84可以获取第一透镜28的部分和第二透镜30的部分的图像数据。也就是说,单个相机84可以获取第一透镜28和第二透镜30两者的图像数据。特别地,在一个实施例中,相机84可以获取第一透镜28的第一区段122和第二透镜30的第一区段124的图像数据。在其他实施例中,相机84可以获取指示从基本上所有的透镜部分16反射的光的图像数据。
因此,重要的是要注意,通过将相机84定位在第一屏幕74和第二屏幕76之间,可以使用单个相机84来获取指示由第一屏幕74和第二屏幕76两者分别投射到第一透镜28和第二透镜30上的光(例如,虚拟特征)的图像数据。例如,相机84可以观察由第一屏幕74投射到第一透镜28上并且(例如,经由第一透镜28的反射层100)朝向相机84反射回的光。类似地,相机84可以观察由第二屏幕76投射到第二透镜30上并且(例如,经由第二透镜30的反射层100)朝向相机84反射回的光。
附加地或替代地,(例如,当具有能够佩戴的可视化装置12和接口装置14的能够佩戴的可视化系统11装配在用户的头部上时)相机84可以通过观察用户的眼睛98在透镜部分16中的反射来获取用户的眼睛98的图像数据。在一些实施例中,处理器166(或电子板142的另一合适的部件)可以接收由相机84获取的图像数据,并利用所获取的图像数据来确定用户的生物计量信息。例如,如以下论述的,处理器166可以利用所获取的用户的眼睛98的图像数据来确定用户的瞳孔间距离(例如,用户的眼睛98的相应瞳孔之间的距离)。处理器166可以利用得到的生物计量信息来以提高能够佩戴的可视化装置12的性能(例如,感知的用户体验)的方式调整由屏幕78的AR/VR图像的投射。
例如,为了促进论述,图10是(例如,当能够佩戴的可视化系统11装配在用户的头部上时)可以由相机84获取的图像200的实施例。为了清楚起见,如上所述,图像200可以对应于(例如,当能够佩戴的可视化系统11装配在用户的头部上时)由相机84能够观察的在透镜部分16的内表面97上的反射。因此,应当理解,如在图像200中看到的那样,第一眼睛92和第二眼睛94的位置相对于图3和图5中的第一眼睛92和第二眼睛94的所图示的位置是镜像的。
如图10中所图示的实施例中所示,图像200可以包括用户的第一眼睛92(例如,用户的左眼,其可以反射在第一透镜28上)的反射的至少部分和用户的第二眼睛94(例如,用户的右眼,其可以反射在第二透镜30上)的反射的至少部分。图像200可以包括指示透镜部分16的中线90的非光学区域202,其在一些实施例中可以不包括任何反射的特征。在某些实施例中,为了促进图像200的获取,屏幕78中的一个或两个可以被配置成临时照亮(例如,提供相机闪光)以增强用户的眼睛在透镜部分16中的反射。
相机84可以通信地耦接到处理器166并且被配置成向处理器166提供指示图像200的反馈。处理器166可以被配置成分析图像200以检测用户的眼睛98的瞳孔206的相应边缘204。基于边缘204在图像200内的位置,处理器166可以估计用户的第一眼睛92的第一瞳孔周缘208和用户的第二眼睛94的第二瞳孔周缘209。处理器166可确定第一瞳孔周缘208的第一质心,并且可确定第二瞳孔周缘209的第二质心。因此,第一质心可以指示第一眼睛92的第一瞳孔的估计的质心,并且第二质心可以指示第二眼睛94的第二瞳孔的估计的质心。
基于瞳孔206的估计的质心,处理器166可以确定用户的瞳孔间距离210(参见例如图5),其可以指示用户的瞳孔206的相应质心之间的距离。在一些实施例中,处理器166可以被配置成量化用户的瞳孔间距离210。在其他实施例中,处理器166可以被配置成将测量的瞳孔间距离210归类为多个范围集合(例如,小瞳孔间距离、中瞳孔间距离、大瞳孔间距离)中的一个。
以下论述同时参考图5和图10继续。处理器166可以被配置成(例如,向电子板142;向显示驱动器板144)发送指令以基于当前利用能够佩戴的可视化系统11的特定用户的瞳孔间距离210来调整由屏幕78投射的虚拟特征的呈现。例如,如果处理器166确定用户的瞳孔间距离210相对较小(例如,等于或小于第一阈限值),则处理器166可以发送指令,该指令引起屏幕78将虚拟特征更靠近透镜部分16的中线90投射,使得虚拟特征的中心区域与用户的瞳孔206基本上对准(例如,在用户的瞳孔206的中央凹视野内)。相反,如果处理器166确定用户的瞳孔间距离210相对大(例如,高于第一阈限值;高于大于第一阈限值的第二阈限值),则处理器166可以发送指令,该指令引起屏幕78将虚拟特征更靠近透镜部分16的外围边缘205投射,使得虚拟特征再次与用户的瞳孔206基本上对准(例如,在用户的瞳孔206的中央凹视野内)。
在一些实施例中,处理器166可以被配置成基于图像200来评估能够佩戴的可视化系统11是否适当地定向和/或定位在用户的头部上。例如,参考图5,当能够佩戴的可视化系统11适当地装配在用户的头部上(例如,在用户的头部上没有未对准、偏移或倾斜)时,在第一透镜28的第一顶点222与用户的第一眼睛92的第一瞳孔224的质心之间的第一距离220可以基本上等于在第二透镜30的第二顶点228与用户的第二眼睛94的第二瞳孔230的质心之间的第二距离226。因此,应当理解,当能够佩戴的可视化系统11适当地装配在用户的头部上时,在第一透镜28的第一顶点222和第二透镜30的第二顶点228之间延伸的线(在本文中称为参考轴线234(例如,相对于能够佩戴的可视化装置12的已知或预确定的轴线))可以基本上平行于瞳孔间距离210的瞳孔间轴线236(例如,在瞳孔206的相应质心之间延伸的轴线)延伸。
参考图10,处理器166可以确定在参考轴线234与瞳孔间轴线236之间的角度240。如果处理器166确定在参考轴线234和瞳孔间轴线236之间的角度240的量值大于容差值(例如,5度),但小于或等于第一阈限角度值(例如,15度),则处理器166可以(例如,向电子板142和/或向显示驱动器板144)发送指令,以基于角度240调整由屏幕78投射的虚拟特征的呈现。
例如,如果处理器166(例如,基于角度240)确定第一眼睛92的第一瞳孔224定位在第二眼睛94的第二瞳孔230下方(例如,相对于参考轴线234),则处理器166可以发送指令,该指令引起第一屏幕74将虚拟特征的投射调整成更靠近第一屏幕74的下部250,使得第一屏幕74的投射的虚拟特征朝向第一透镜28的下部252更靠近地覆盖。附加地或替代地,处理器166可以发送指令,该指令引起第二屏幕76将虚拟特征的投射调整成更靠近第二屏幕76的上部254,使得第二屏幕76的投射的虚拟特征朝向第二透镜30的上部256更靠近地覆盖。以这种方式,处理器166可以使得在第一透镜28和第二透镜30上显示的投射的虚拟特征能够分别与用户的第一眼睛92和第二眼睛94的瞳孔206基本上对准,即使能够佩戴的可视化系统11在用户的头部上略微偏移(例如,倾斜)。
相反,如果处理器166(例如,基于角度240)确定第一眼睛92的第一瞳孔224定位在第二眼睛94的第二瞳孔230上方(例如,相对于参考轴线234),则处理器166可以发送指令,该指令引起第一屏幕74将虚拟特征的投射调整成更靠近第一屏幕74的上部260,使得第一屏幕74的投射的虚拟特征朝向第一透镜28的上部262更靠近地覆盖。附加地或替代地,处理器166可以发送指令,该指令引起第二屏幕76将虚拟特征的投射调整成更靠近第二屏幕76的下部264,使得第二屏幕76的投射的虚拟特征朝向第二透镜30的下部266更靠近地覆盖。因此,如上面类似地论述的那样,处理器166可以确保在第一透镜28和第二透镜30上显示的投射的虚拟特征可以分别与用户的第一眼睛92和第二眼睛94的瞳孔206基本上对准,即使能够佩戴的可视化系统11在用户的头部上略微偏移(例如,倾斜)。换句话说,处理器166可以执行软件修理(fix)以校正能够佩戴的可视化系统11在用户的头部上的未对准。
在一些实施例中,如果处理器166确定角度240的量值大于第一阈限角度值,则处理器166可以生成指导用户手动执行校正动作(例如,以将能够佩戴的可视化系统11重新定位在用户的头部上)的警报。例如,处理器166可以指导屏幕78将消息投射到透镜20上,该消息指导用户将能够佩戴的可视化系统11在用户的头部上在特定方向(例如,左、右)上倾斜,以引起瞳孔轴线236被调整成基本上平行于参考轴线234。附加地或替代地,处理器166可以(例如,经由声学扬声器)生成听得到的警报,其提供指导用户适当地重新定位能够佩戴的可视化系统11的记录的消息。为此,处理器166可以指导用户执行硬件修理以校正在用户的头部上的AR/VR系统10的未对准。
应当注意,在某些实施例中,相机84可定位在透镜部分16处或附近并被配置成直接获取用户的眼睛的图像数据。也就是说,在这样的实施例中,相机84可以朝向眼睛98定向以获取眼睛98的图像,而不是获取在透镜部分16的内表面97上能够观看的眼睛98的反射的图像(例如,图像200)。此外,在某些实施例中,能够佩戴的可视化装置12可以包括第一相机和附加相机,该第一相机被配置成获取在透镜部分16中能够观看的反射的图像数据,该附加相机针对用户的眼睛并且被配置成直接获取用户的眼睛的图像数据。在一些实施例中,相机84可用于确定用户的注视方向或用于确定用户的任何其他合适的使用信息。
如上所述,在一些实施例中,AR/VR系统10可以与景观(例如,乘客乘坐系统)结合使用。在这样的实施例中,处理器166可以被配置成当用户最初装备能够佩戴的可视化装置12时(例如,当用户在登上景观期间将能够佩戴的可视化装置12装配在已装配在用户的头部上的客人接口装置14上时)执行前述步骤(例如,确定瞳孔间距离210;确定角度240)。以示例的方式,在这样的实施例中,处理器166可以被配置成在确定角度240的量值大于例如第一阈限角度值时向景观的中央控制系统传输警报。因此,中央控制系统可以向操作者(例如,监测景观的操作的乘坐器技术人员)提供警报,使得操作者可以在景观的乘坐循环的启动之前帮助用户将能够佩戴的可视化系统11适当地定位在用户的头部上。
在某些实施例中,处理器166可以基于角度240的量值指导灯组件160以照亮特定颜色。例如,如果角度240的量值小于或等于第一阈限角度值,则处理器166可以指导灯组件160以绿颜色或绿色调照亮,从而发信号报知用户和/或乘坐操作者能够佩戴的可视化系统11适当地装配(例如,对准)在用户的头部上。如上所述,在这种情况下,处理器166可以通过执行软件修理(例如,通过调整由屏幕78的虚拟特征的呈现)来补偿能够佩戴的可视化系统11在用户的头部上的任何微小的未对准。如果角度240的量值大于第一阈限角度值,则处理器166可以指导灯组件160以例如红颜色或红色调照亮,从而发信号报知用户和/或乘坐操作者可能期望能够佩戴的可视化系统11在用户的头部上的重新定位。
图11是灯组件160的实施例的顶视图。下面将同时论述图3和图11。灯组件160可以包括一个或多个LED 270或其他发光元件,其可以经由系绳272(例如,有线连接件)电地和/或通信地耦接到电子板142。在一些实施例中,灯组件160可以耦接到底座44并且定位在底座44的内表面274附近。在这样的实施例中,LED 270可以定位在底座44中形成的相应发光孔内,使得LED 270可以通过发光孔并且朝向用户(例如,向内)、远离用户(例如,向外)、朝向透镜部分16或在任何合适的方向上投射光。
在某些实施例中,LED 270中的一个或多个可以耦接到相应的光导管276(例如,光学纤维;丙烯酸棒),该光导管276被配置成将由LED 270发出的光从耦接到LED 270的相应的第一端部传输到相应的远端部278。因此,光导管276可以使得LED 270能够定位在例如壳体18的中心区域279(参见例如图6)内,同时仍然是能够操作的以通过底座44的发光孔投射光。例如,光导管276可以在LED 270和形成在底座44的外表面内的发光孔之间延伸,使得由LED 270发出的光可以从LED 270(例如,其可以定位在中心区域279中)朝向发光孔传递并从发光孔发出。因此,应当理解,光导管276可以使得LED 270能够定位在壳体18内的任何合适的位置处。
以下论述参考图6继续。在一些实施例中,能够佩戴的可视化装置12可以包括一个或多个初级磁体280,其可以在底座44的第一外围部282和第二外围部284附近耦接到底座44。如下面详细论述的那样,初级磁体280可以促进将能够佩戴的可视化装置12能够移除地耦接到客人接口装置14。在一些实施例中,初级磁体280可以经由保持夹286能够移除地耦接到底座44。因此,保持夹286从底座44的移除可以准许初级磁体280的替换,诸如当初级磁体280磨损时(例如,当初级磁体280的磁强度降在阈限值以下时)。例如,为了从底座44移除初级磁体280,操作者(例如,维修技术人员)可以首先从底座44移除盖42,从底座44移除保持夹286,并且随后从底座44移除初级磁体280。为了重新安装新磁体代替初级磁体280,操作者可以在底座44中的适当位置处插入替换磁体,并以相反的顺序执行上述步骤。
图12是盖42的实施例的底视图。在一些实施例中,盖42可以包括一个或多个二级磁体290,其(例如,经由紧固件、经由合适的粘合剂)耦接到盖42的内表面292。如以下所论述的那样,除了初级磁体280之外或代替初级磁体280,可以使用二级磁体290,以促进将能够佩戴的可视化装置12能够移除地耦接到客人接口装置14。尽管在图12的所图示的实施例中示出了三个二级磁体290,但是应当理解,在其他实施例中,任何合适数量的二级磁体290可以耦接到盖42。
图13是能够佩戴的可视化装置12的实施例的后视图。图14是能够佩戴的可视化装置12和客人接口装置14的实施例的透视图。下面将同时论述图13和图14。此外,应当注意,图14图示了对于客人接口装置14的不同结构(例如,头盔,与图14的遮板(visor)相比),因为设想了对于客人接口装置14的各种不同结构。
能够佩戴的可视化装置12可以包括被配置成与客人接口装置14的相应支撑肋302接合的多个支撑凹槽300。在一些实施例中,支撑凹槽300形成在壳体18的第一外围部54和第二外围部56内,并且沿着壳体18的表面304的至少部分延伸。例如,支撑凹槽300可以总体上沿着方向308从壳体18的远端面306延伸。
客人接口装置14包括接口框架310,该接口框架310具有第一外围端312、与第一外围端312相对的第二外围端、以及在第一外围端312与第二外围端之间延伸的唇部314。接口框架310包括从接口框架310的外部表面318突出的多个支撑肋302。特别地,接口框架310可以包括从第一外围端312延伸的第一支撑肋320和从第二外围端延伸的第二支撑肋。如以下论述的,支撑肋302被配置成与支撑凹槽300中的对应支撑凹槽接合,以将能够佩戴的可视化装置12支撑在接口框架310上并且促进能够佩戴的可视化装置12到接口框架310的耦接。
接口框架310可以包括一个或多个三级磁体324,该三级磁体324(例如,在唇部314内)耦接到接口框架310和/或与接口框架310集成(例如,密闭地密封在接口框架310内)。此外,接口框架310可以包括一个或多个四级磁体326,该四级磁体326耦接到接口框架310的第一外围端312和/或第二外围端,和/或与接口框架310的第一外围端312和/或第二外围端集成(例如,密闭地密封在接口框架310的第一外围端312和/或第二外围端内)。
为了将能够佩戴的可视化装置12耦接到客人接口装置14,用户可以(例如,当将客人接口装置14保持在用户的手中并且当客人接口装置14从用户的头部分开时;当在用户的头部上佩戴客人接口装置14时)在总体上与方向308相对的方向340上朝向客人接口装置14平移能够佩戴的可视化装置12,以使得客人接口装置14的支撑肋302能够与能够佩戴的可视化装置12的对应支撑凹槽300接合。用户可以沿着支撑肋302(例如,在方向340上)平移能够佩戴的可视化装置12,直到壳体18的远端面306邻接客人接口装置14的对应接收面342。因此,能够佩戴的可视化装置的初级磁体280可以与客人接口装置14的四级磁体326对准并且磁性耦接到客人接口装置14的四级磁体326。
能够佩戴的可视化装置12的盖42的至少部分可以被配置成在客人接口装置14的唇部314之下并且沿着唇部314平移,以使得能够佩戴的可视化装置12的二级磁体290能够与客人接口装置14的三级磁体324接合并磁性耦接到客人接口装置14的三级磁体324。为此,支撑肋302和支撑凹槽300之间的机械接合可以支撑能够佩戴的可视化装置12的基本上所有的重量(例如,当耦接到客人接口装置14时),而初级磁体280和四级磁体326和/或二级磁体290和三级磁体324之间的磁性接合阻止能够佩戴的可视化装置12与客人接口装置14解离(例如,从客人接口装置14滑落)。实际上,应当理解,(诸如当能够佩戴的可视化装置12从接合配置34(例如,如图1中所示)转换到分离配置36时)用于将初级磁体280和四级磁体326磁性解耦和/或将二级磁体290和三级磁体324磁性解耦的力可以大于例如由于重力、由于用户的头部的摇动或转动或由于与能够佩戴的可视化装置12的其他非故意的接触而作用在能够佩戴的可视化装置12上的力。因此,磁体280、290、324和326(与支撑肋302和支撑凹槽300结合)可以被配置成将能够佩戴的可视化装置12以接合配置34保持在客人接口装置14上,直到用户手动地从客人接口装置14移除能够佩戴的可视化装置12。
为了从客人接口装置14移除能够佩戴的可视化装置12,用户可以在总体上与方向340相对的方向308上远离客人接口装置14平移能够佩戴的可视化装置12,以使得能够佩戴的可视化装置12的初级磁体280能够从客人接口装置14的四级磁体326磁性解耦和/或使得能够佩戴的可视化装置12的二级磁体290能够从能够佩戴的可视化装置12的三级磁体324磁性解耦。用户可以继续在方向308上相对于客人接口装置14平移能够佩戴的可视化装置12,以从客人接口装置14移除(例如,解耦)能够佩戴的可视化装置12。
应当理解,在某些实施例中,初级磁体280或四级磁体326和/或二级磁体290或三级磁体324可以用合适的反应材料(例如,金属板)代替。因此,磁体280、290、324和/或326可以被配置成吸引对应的反应材料而不是另一磁体。此外,在某些实施例中,磁体280、290、324和/或326中的任一个可以用经由有线电源或无线电源(例如,电池)供电的合适的电磁体替换。在这种情况下,可以去激活电磁体以实现能够佩戴的可视化装置12在某些时间处(诸如在其中用户从游乐园乘坐器的乘坐运载器卸载的卸载过程期间)从客人接口装置14的分开。类似地,可以激活电磁体以促进能够佩戴的可视化装置12在某些时间处(诸如在其中用户装载到游乐园乘坐的乘坐运载器上的装载过程期间)到客人接口装置14的固定。去激活和激活可以由AR/VR系统10基于能够佩戴的可视化装置12的位置自动执行。
应当注意,磁体280、290、324和/或326在本文中分别被描述为初级磁体、二级磁体、三级磁体和四级磁体,以促进论述。然而,可以使用其他术语来表示磁体280、290、324、326(例如,分别是第一磁体、第二磁体、第三磁体和第四磁体)。此外,在某些实施例中,初级磁体280或四级磁体324和/或二级磁体290或三级磁体324可以从AR/VR系统10中省略。
在一些实施例中,能够佩戴的可视化装置12可以包括接近传感器350(例如,霍尔效应传感器),其耦接到壳体18并且位于例如壳体18的第一外围部54附近。特别地,接近传感器350可以定位在壳体18的远端面306附近。接近传感器350可以通信地耦接到电子板142并且被配置成向处理器166(或另一合适的处理部件)提供指示能够佩戴的可视化装置12是在接合配置34中(例如,与客人接口装置14配合)还是在解离配置36中(例如,从客人接口装置14分离)的反馈。特别地,当能够佩戴的可视化装置12在客人接口装置14的阈限距离内时,接近传感器350可以被触发(例如,生成信号),并且因此,接近传感器350可以用于确定能够佩戴的可视化装置12何时被定位在接合配置34中。以示例的方式,当能够佩戴的可视化装置12的第一外围部54的远端面306在接口框架310的第一外围端312的接收面342的阈限距离内或与接口框架310的第一外围端312的接收面342接触时,接近传感器350可以被触发。
在一些实施例中,处理器166可以周期性地或连续地监测从接近传感器350接收的反馈。在从接近传感器350接收指示能够佩戴的可视化装置12在接合配置34中的反馈时,处理器166可以向用户提供确认能够佩戴的可视化装置12已经成功地与客人接口装置14配合的指示。以示例的方式,在接收指示能够佩戴的可视化装置12在接合配置34中的反馈时,处理器166可以指导灯组件160投射特定色调或颜色的光(例如,绿色),可以控制能够佩戴的可视化装置12的一个或多个声学扬声器来向用户提供听得到的消息,可以控制屏幕78在透镜20上向用户显示消息,和/或可以经由另一合适的介质向用户和/或向操作者提供反馈。
应当理解,在其他实施例中,能够佩戴的可视化装置12可以包括沿着能够佩戴的可视化装置12的任何合适部分定位的多个接近传感器。例如,能够佩戴的可视化装置12可以包括定位在壳体18的第一外围部54内的第一接近传感器和定位在壳体18的第二外围部56内的第二接近传感器。在这样的实施例中,处理器166可以在接收第一接近传感器和第二接近传感器两者都被触发的反馈时,确定能够佩戴的可视化装置12被耦接到客人接口装置14。实际上,在某些实施例中,处理器166可以在接收任何一个特定接近传感器被触发或者被包括在能够佩戴的可视化12装置中的阈限数量的接近传感器被触发的反馈时,确定能够佩戴的可视化装置12被耦接到客人接口装置14。
图15是能够佩戴的可视化装置12和被配置成接收能够佩戴的可视化装置12的容器370的实施例的透视图。在一些实施例中,当能够佩戴的可视化装置12未装配在用户的客人接口装置14上时,能够佩戴的可视化装置12可以存储在容器370中。以示例的方式,容器370可以包括形成在乘坐运载器的膝部杆372内的腔体或其他存储区域。在一些实施例中,处理器166可以被配置成利用来自接近传感器350和/或IMU 152(例如,定向传感器)的反馈来确定能够佩戴的可视化装置12是否以存储配置374在容器370内。
例如,IMU 152可以包括在装备有加速度计、陀螺仪、磁力计和/或用于执行传感器融合算法的处理器的片上的九个自由度系统。处理器166可以利用从IMU 152接收的反馈来确定沿着各个轴的能够佩戴的可视化装置12(例如,相对于重力的方向)的定向。在一些实施例中,当能够佩戴的可视化装置12定位在容器370中时,能够佩戴的可视化装置12的定向(在本文中称为存储定向)可以是已知的并且存储在例如存储器158上。
在从IMU 152接收能够佩戴的可视化装置12在存储定向中的反馈时并且在从接近传感器380(例如,邻近透镜安装件46设置的接近传感器;接近传感器350)接收例如透镜安装件46与容器370的配合表面382相距阈限距离或与配合表面382接触的反馈时,处理器166可以确定能够佩戴的可视化装置12在存储配置374中。当用户临时将能够佩戴的可视化装置12定向在存储定向中时(例如,诸如在将能够佩戴的可视化装置12配合到客人接口装置14的过程期间),处理器166可以不疏忽地确定能够佩戴的可视化装置12在存储配置374中。替代地,当从IMU 152和接近传感器350两者接收指示能够佩戴的可视化装置12以特定角度定位在容器370内并且与配合表面382接合(例如,与配合表面382物理接触)的反馈时,处理器166可以确定能够佩戴的可视化装置12定位在存储配置374中。根据上面论述的技术,处理器116可以被配置成在确定能够佩戴的可视化装置12转换到存储配置374时提供听得到的和/或视觉的警报或确认。作为示例,在确定能够佩戴的可视化装置12转换到存储配置374时,处理器166可以指导灯组件160发出蓝颜色或其他色调的光。
在一些实施例中,膝部杆372可以响应于能够佩戴的可视化装置12处于存储配置374中而移动(例如,释放)。应当理解,容器370可以定位在乘坐运载器的任何合适的部分(例如,仪表板、扶手、壁部)中。容器370可以用在其他类型的景观(例如,没有乘坐运载器)中,并且容器370可以定位在壁部或结构中,诸如在座位中或在景观的出口处。
如以上阐述的,本公开的实施例可以提供一个或多个技术效果,其对于降低能够佩戴的可视化装置的整体制造成本和/或制造复杂性、对于促进在能够佩戴的可视化装置上的维护活动的执行、以及对于促进能够佩戴的可视化装置在游乐园环境中的集成是有用的。应当理解,说明书中的技术效果和技术问题是示例而不是限制的。实际上,应当注意,说明书中描述的实施例可以具有其他技术效果并且能够解决其他技术问题。
虽然本公开中阐述的实施例可以易于进行各种修改和替代形式,但是已经在附图中以示例的方式示出了并且已经在本文中详细描述了具体实施例。然而,应当理解,本公开不旨在限制于所公开的特定形式。本公开将覆盖落入如由以下所附权利要求书所限定的本公开的精神和范围内的所有修改、等效方案和替代方案。
本文中提出和要求保护的技术被引用并应用于明显地改进了本技术领域的具有实际性质的实物和具体示例,并且因此不是抽象的、无形的或纯理论的。此外,如果附到本说明书末尾的任何权利要求包含被指定为“用于[执行]……[功能]的装置”或“用于[执行]……[功能]的步骤”的一个或多个元素,则其旨在要根据35 U.S.C.112(f)来解释这样的元素。然而,对于包含以任何其他方式指定的元素的任何权利要求,其旨在不要根据35U.S.C.112(f)来解释这样的元素。
Claims (20)
1.一种能够佩戴的可视化装置,其被配置成向用户提供增强现实、虚拟现实和/或混合现实体验,所述能够佩戴的可视化装置包括:
壳体;
透镜部分,所述透镜部分从所述壳体延伸;
第一显示屏和第二显示屏,所述第一显示屏和所述第二显示屏耦接到所述壳体并且被配置成将光投射到所述透镜部分上,其中所述透镜部分被配置成将所述光的至少部分反射到所述用户的眼睛中;以及
相机,所述相机定位在所述第一显示屏和所述第二显示屏之间,并且被配置成获取所述透镜部分的图像数据。
2.根据权利要求1所述的能够佩戴的可视化装置,其中所述图像数据包括所述光的所述部分和在所述透镜部分上能够观看的所述用户的所述眼睛的反射。
3.根据权利要求2所述的能够佩戴的可视化装置,其包括通信地耦接到所述相机的处理器,其中所述处理器被配置成接收所述图像数据并基于所述眼睛的所述反射来确定所述用户的生物计量信息。
4.根据权利要求3所述的能够佩戴的可视化装置,其中所述生物计量信息包括所述用户的瞳孔间距离。
5.根据权利要求3所述的能够佩戴的可视化装置,其中所述处理器被配置成基于所述生物计量信息控制所述第一显示屏和所述第二显示屏来调整所述光到所述透镜部分上的投射。
6.根据权利要求1所述的能够佩戴的可视化装置,其中所述第一显示屏和所述第二显示屏从所述能够佩戴的可视化装置的中心线基本上等距地间隔,其中所述第一显示屏被配置成在与所述中心线交叉并从所述中心线向外延伸的第一方向上将虚拟特征光栅化到所述透镜部分上,并且所述第二显示屏被配置成在与所述中心线交叉并从所述中心线向外延伸的第二方向上将附加虚拟特征光栅化到所述透镜部分上。
7.根据权利要求1所述的能够佩戴的可视化装置,其中所述透镜部分包括朝向所述第一显示屏和所述第二显示屏定向的内表面,其中所述内表面涂覆有反射层,所述反射层被配置成将投射到所述透镜部分上的百分之50和百分之70之间的所述光反射到所述用户的所述眼睛中。
8.根据权利要求7所述的能够佩戴的可视化装置,其中所述透镜部分包括与所述内表面相对的外表面,其中所述外表面涂覆有抗反射层、耐刮擦涂层或两者。
9.一种增强现实、虚拟现实和/或混合现实(AR/VR)系统,其包括:
能够佩戴的可视化装置,其包括:
壳体;
透镜部分,所述透镜部分从所述壳体延伸;以及
显示组件,所述显示组件具有能够移除地耦接到所述壳体的框架,其中第一显示屏、第二显示屏和相机耦接到所述框架,其中所述相机定位在所述第一显示屏和所述第二显示屏之间。
10.根据权利要求9所述的AR/VR系统,其中所述壳体包括具有第一屏幕开口、第二屏幕开口和相机开口的底座,其中所述框架被配置成能够移除地耦接到所述底座,并且在与所述底座的接合配置中,所述框架被配置成将所述第一显示屏、所述第二显示屏和所述相机分别与所述第一屏幕开口、所述第二屏幕开口和所述相机开口对准。
11.根据权利要求9所述的AR/VR系统,其包括设置在所述壳体的内部内的发光二极管(LED)以及在所述LED和所述壳体的外表面之间延伸的光导管。
12.根据权利要求9所述的AR/VR系统,其包括被配置成耦接到用户的头部的接口装置,其中所述能够佩戴的可视化装置被配置成能够移除地耦接到所述接口装置。
13.根据权利要求12所述的AR/VR系统,其包括:
接近传感器,所述接近传感器耦接到所述壳体并且被配置成提供指示所述壳体相对于所述接口装置的表面的接近度的反馈;以及
处理器,所述处理器通信地耦接到所述接近传感器,其中所述处理器被配置成基于所述反馈来确定所述能够佩戴的可视化装置是否耦接到所述接口装置。
14.根据权利要求13所述的AR/VR系统,其中所述处理器被配置成在确定所述能够佩戴的可视化装置耦接到所述接口装置时照亮所述能够佩戴的可视化装置的发光元件。
15.一种能够佩戴的可视化装置,其被配置成向用户提供增强现实、虚拟现实和/或混合现实体验,所述能够佩戴的可视化装置包括:
透镜部分;
显示屏,所述显示屏被配置成将虚拟特征投射到所述透镜部分上的第一位置上;
相机,所述相机被配置成获取指示在所述透镜部分上能够观看的反射的图像数据,其中所述反射包括所述用户的第一眼睛的第一反射和所述用户的第二眼睛的第二反射;以及
处理器,所述处理器通信地耦接到所述相机和所述显示屏,其中所述处理器被配置成基于所述图像数据来将所述虚拟特征的投射从所述第一位置调整到所述透镜部分上的第二位置。
16.根据权利要求15所述的能够佩戴的可视化装置,其中,基于所述图像数据,所述处理器被配置成:
确定在所述用户的所述第一眼睛的第一瞳孔和所述用户的所述第二眼睛的第二瞳孔之间延伸的瞳孔间轴线;以及
确定在所述瞳孔间轴线和沿着所述透镜部分延伸的参考轴线之间的角度,其中所述角度指示所述能够佩戴的可视化装置相对于所述用户的头部的定向。
17.根据权利要求16所述的能够佩戴的可视化装置,其中所述处理器被配置成在确定所述角度大于容差值时指导所述显示屏将所述虚拟特征投射到所述透镜部分的所述第二位置上。
18.根据权利要求17所述的能够佩戴的可视化装置,其中所述处理器被配置成在确定所述角度超过大于所述容差值的阈限值时生成指示所述能够佩戴的可视化装置在所述用户的所述头部上未对准的警报。
19.根据权利要求15所述的能够佩戴的可视化装置,其包括:
接近传感器,所述接近传感器被配置成监测所述能够佩戴的可视化装置相对于表面的接近度;以及
定向传感器,所述定向传感器被配置成监测所述能够佩戴的可视化装置相对于重力的定向,其中所述处理器被配置成:在从所述接近传感器接收指示所述能够佩戴的可视化装置在所述表面的阈限距离内的反馈时并且在从所述定向传感器接收指示所述能够佩戴的可视化装置在存储定向中的附加反馈时,确定所述能够佩戴的可视化装置在存储配置中。
20.根据权利要求19所述的能够佩戴的可视化装置,其包括通信地耦接到所述处理器的一个或多个发光元件,其中所述处理器被配置成在确定所述能够佩戴的可视化装置在所述存储配置中时指导所述一个或多个发光元件照亮。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962791735P | 2019-01-11 | 2019-01-11 | |
US62/791735 | 2019-01-11 | ||
US16/738,906 US11210772B2 (en) | 2019-01-11 | 2020-01-09 | Wearable visualization device systems and methods |
US16/738906 | 2020-01-09 | ||
PCT/US2020/013159 WO2020146780A1 (en) | 2019-01-11 | 2020-01-10 | Wearable visualization device systems and methods |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113226498A true CN113226498A (zh) | 2021-08-06 |
CN113226498B CN113226498B (zh) | 2025-06-03 |
Family
ID=71516768
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080008663.1A Active CN113226499B (zh) | 2019-01-11 | 2020-01-10 | 能够穿戴的可视化系统及方法 |
CN202080008636.4A Active CN113226498B (zh) | 2019-01-11 | 2020-01-10 | 能够佩戴的可视化装置系统和方法 |
CN202080008665.0A Active CN113260427B (zh) | 2019-01-11 | 2020-01-10 | 掉落检测系统和方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080008663.1A Active CN113226499B (zh) | 2019-01-11 | 2020-01-10 | 能够穿戴的可视化系统及方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080008665.0A Active CN113260427B (zh) | 2019-01-11 | 2020-01-10 | 掉落检测系统和方法 |
Country Status (9)
Country | Link |
---|---|
US (3) | US11210772B2 (zh) |
EP (3) | EP3908380B1 (zh) |
JP (4) | JP7529672B2 (zh) |
KR (3) | KR20210114023A (zh) |
CN (3) | CN113226499B (zh) |
CA (3) | CA3125222A1 (zh) |
ES (2) | ES3000091T3 (zh) |
SG (3) | SG11202106742XA (zh) |
WO (3) | WO2020146780A1 (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11127212B1 (en) * | 2017-08-24 | 2021-09-21 | Sean Asher Wilens | Method of projecting virtual reality imagery for augmenting real world objects and surfaces |
US11313704B2 (en) | 2019-12-16 | 2022-04-26 | Plusai, Inc. | System and method for a sensor protection assembly |
US11470265B2 (en) | 2019-12-16 | 2022-10-11 | Plusai, Inc. | System and method for sensor system against glare and control thereof |
US11738694B2 (en) | 2019-12-16 | 2023-08-29 | Plusai, Inc. | System and method for anti-tampering sensor assembly |
US11754689B2 (en) | 2019-12-16 | 2023-09-12 | Plusai, Inc. | System and method for detecting sensor adjustment need |
US11650415B2 (en) | 2019-12-16 | 2023-05-16 | Plusai, Inc. | System and method for a sensor protection mechanism |
US11724669B2 (en) | 2019-12-16 | 2023-08-15 | Plusai, Inc. | System and method for a sensor protection system |
US11077825B2 (en) * | 2019-12-16 | 2021-08-03 | Plusai Limited | System and method for anti-tampering mechanism |
US11792500B2 (en) | 2020-03-18 | 2023-10-17 | Snap Inc. | Eyewear determining facial expressions using muscle sensors |
US11774770B2 (en) | 2020-06-03 | 2023-10-03 | Universal City Studios Llc | Interface device with three-dimensional (3-D) viewing functionality |
JP2022020093A (ja) * | 2020-07-20 | 2022-02-01 | 株式会社斉藤正▲こしき▼工房 | エアカーテン発生装置およびウイルス防除方法 |
US20220026723A1 (en) * | 2020-07-24 | 2022-01-27 | Universal City Studios Llc | Electromagnetic coupling systems and methods for visualization device |
US11803063B2 (en) | 2020-08-18 | 2023-10-31 | Universal City Studios Llc | Tether actuation systems and methods for visualization device |
CN116601543A (zh) * | 2020-09-21 | 2023-08-15 | 苹果公司 | 具有显示器和传感器的系统 |
WO2022124326A1 (ja) * | 2020-12-11 | 2022-06-16 | 株式会社Jvcケンウッド | ヘッドマウントディスプレイ、及びその調整方法 |
KR20230144042A (ko) | 2021-02-08 | 2023-10-13 | 사이트풀 컴퓨터스 리미티드 | 생산성을 위한 확장 현실 |
JP7665161B2 (ja) | 2021-02-08 | 2025-04-21 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるユーザ相互作用 |
US12245485B2 (en) * | 2021-04-08 | 2025-03-04 | Semiconductor Energy Laboratory Co., Ltd. | Display apparatus including light-emitting device and light-receiving device |
CN113786277B (zh) * | 2021-09-15 | 2024-07-19 | 南京云视郎生物科技有限公司 | 一种弱视及斜视恢复训练设备及系统 |
US11772667B1 (en) | 2022-06-08 | 2023-10-03 | Plusai, Inc. | Operating a vehicle in response to detecting a faulty sensor using calibration parameters of the sensor |
US12079442B2 (en) | 2022-09-30 | 2024-09-03 | Sightful Computers Ltd | Presenting extended reality content in different physical environments |
WO2025144826A1 (en) * | 2023-12-28 | 2025-07-03 | Universal City Studios Llc | Systems and methods for impact detection in an environment |
WO2025144827A1 (en) * | 2023-12-28 | 2025-07-03 | Universal City Studios Llc | Systems and methods for detecting handling events for portable devices |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130318776A1 (en) * | 2012-05-30 | 2013-12-05 | Joel Jacobs | Customized head-mounted display device |
CN104067160A (zh) * | 2011-11-22 | 2014-09-24 | 谷歌公司 | 使用眼睛跟踪在显示屏中使图像内容居中的方法 |
CN106526857A (zh) * | 2016-12-09 | 2017-03-22 | 珠海市魅族科技有限公司 | 调焦方法和装置 |
US20170184847A1 (en) * | 2015-12-28 | 2017-06-29 | Oculus Vr, Llc | Determining interpupillary distance and eye relief of a user wearing a head-mounted display |
CN107209960A (zh) * | 2014-12-18 | 2017-09-26 | 脸谱公司 | 用于提供虚拟现实环境的用户界面的系统、设备及方法 |
US20170316264A1 (en) * | 2015-09-24 | 2017-11-02 | Tobii Ab | Eye-tracking enabled wearable devices |
CN107407807A (zh) * | 2015-01-21 | 2017-11-28 | 欧库勒斯虚拟现实有限责任公司 | 虚拟现实头戴设备中的可压缩眼杯组件 |
US20180052501A1 (en) * | 2016-08-22 | 2018-02-22 | Magic Leap, Inc. | Thermal dissipation for wearable device |
US20180098056A1 (en) * | 2016-10-03 | 2018-04-05 | Microsoft Technology Licensing, Llc | Automatic Detection and Correction of Binocular Misalignment in a Display Device |
CN107991775A (zh) * | 2016-10-26 | 2018-05-04 | 中国科学院深圳先进技术研究院 | 能够进行人眼追踪的头戴式可视设备及人眼追踪方法 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
Family Cites Families (281)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7355807B2 (en) * | 2006-04-28 | 2008-04-08 | Hewlett-Packard Development Company, L.P. | Hard disk drive protection system and method |
JP3672586B2 (ja) * | 1994-03-24 | 2005-07-20 | 株式会社半導体エネルギー研究所 | 補正システムおよびその動作方法 |
JP2002515127A (ja) * | 1994-08-31 | 2002-05-21 | バーチュアル・アイ/オゥ・インコーポレイテッド | パーソナルディスプレイシステム |
TW290678B (zh) * | 1994-12-22 | 1996-11-11 | Handotai Energy Kenkyusho Kk | |
KR100189178B1 (ko) * | 1995-05-19 | 1999-06-01 | 오우라 히로시 | 패널 화질 검사 장치 및 화질 보정 방법 |
JP3256834B2 (ja) * | 1995-06-01 | 2002-02-18 | キヤノン株式会社 | 液晶表示装置 |
WO1998022844A1 (en) | 1996-11-19 | 1998-05-28 | Sony Corporation | Display |
JPH11143379A (ja) * | 1997-09-03 | 1999-05-28 | Semiconductor Energy Lab Co Ltd | 半導体表示装置補正システムおよび半導体表示装置の補正方法 |
JP3854763B2 (ja) | 1999-11-19 | 2006-12-06 | キヤノン株式会社 | 画像表示装置 |
JP3583684B2 (ja) * | 2000-01-12 | 2004-11-04 | シャープ株式会社 | 画像欠陥検出装置および画像欠陥検出方法 |
US7734101B2 (en) * | 2000-10-11 | 2010-06-08 | The United States Of America As Represented By The Secretary Of The Army | Apparatus and system for testing an image produced by a helmet-mounted display |
US7129975B2 (en) * | 2001-02-07 | 2006-10-31 | Dialog Imaging System Gmbh | Addressable imager with real time defect detection and substitution |
GB0121067D0 (en) * | 2001-08-31 | 2001-10-24 | Ibm | Drop detection device |
US7019909B2 (en) | 2001-11-14 | 2006-03-28 | Canon Kabushiki Kaisha | Optical system, image display apparatus, and image taking apparatus |
US7012756B2 (en) | 2001-11-14 | 2006-03-14 | Canon Kabushiki Kaisha | Display optical system, image display apparatus, image taking optical system, and image taking apparatus |
US20030215129A1 (en) * | 2002-05-15 | 2003-11-20 | Three-Five Systems, Inc. | Testing liquid crystal microdisplays |
US7495638B2 (en) | 2003-05-13 | 2009-02-24 | Research Triangle Institute | Visual display with increased field of view |
JP2005091219A (ja) * | 2003-09-18 | 2005-04-07 | Tokyo Electron Ltd | 落下検知装置又は異常検知装置と該装置を有する携帯機器 |
US20160098095A1 (en) | 2004-01-30 | 2016-04-07 | Electronic Scripting Products, Inc. | Deriving Input from Six Degrees of Freedom Interfaces |
JP2005241825A (ja) | 2004-02-25 | 2005-09-08 | Nikon Corp | 画像表示装置 |
US7059182B1 (en) * | 2004-03-03 | 2006-06-13 | Gary Dean Ragner | Active impact protection system |
ITTO20040436A1 (it) | 2004-06-28 | 2004-09-28 | St Microelectronics Srl | Dispositivo di rilevamento di caduta libera per la protezione di apparecchi portatili. |
JP4965800B2 (ja) | 2004-10-01 | 2012-07-04 | キヤノン株式会社 | 画像表示システム |
KR100618866B1 (ko) | 2004-10-02 | 2006-08-31 | 삼성전자주식회사 | 전자기기의 자유 낙하 검출방법 및 장치 |
US7350394B1 (en) | 2004-12-03 | 2008-04-01 | Maxtor Corporation | Zero-g offset identification of an accelerometer employed in a hard disk drive |
US7639260B2 (en) * | 2004-12-15 | 2009-12-29 | Xerox Corporation | Camera-based system for calibrating color displays |
JP2006203440A (ja) | 2005-01-19 | 2006-08-03 | Konica Minolta Photo Imaging Inc | 外界光透過型ヘッドマウントディスプレイ |
TWI255342B (en) * | 2005-02-04 | 2006-05-21 | Benq Corp | Portable electronic device with an impact-detecting function |
JP4364157B2 (ja) * | 2005-04-22 | 2009-11-11 | トレックス・セミコンダクター株式会社 | 落下検出装置 |
US20060250322A1 (en) | 2005-05-09 | 2006-11-09 | Optics 1, Inc. | Dynamic vergence and focus control for head-mounted displays |
US7364306B2 (en) * | 2005-06-20 | 2008-04-29 | Digital Display Innovations, Llc | Field sequential light source modulation for a digital display system |
WO2007000178A1 (de) * | 2005-06-29 | 2007-01-04 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur verzerrungsfreien darstellung |
KR100723494B1 (ko) * | 2005-07-23 | 2007-06-04 | 삼성전자주식회사 | 모바일 기기의 자유 낙하 검출 방법, 이에 적합한 장치,그리고 이에 적합한 기록매체 |
KR100630762B1 (ko) | 2005-08-26 | 2006-10-04 | 삼성전자주식회사 | 디스크 드라이브의 자유 낙하 검출 방법 및 그 장치 |
JP2007264088A (ja) * | 2006-03-27 | 2007-10-11 | Funai Electric Co Ltd | 表示装置、焼き付き補正システム及び焼き付き補正方法 |
US7477469B2 (en) * | 2006-04-27 | 2009-01-13 | Seagate Technology Llc | Active protection system |
KR100818984B1 (ko) * | 2006-08-01 | 2008-04-04 | 삼성전자주식회사 | 영상 보정 시스템 및 그 동작 방법 |
US8406562B2 (en) * | 2006-08-11 | 2013-03-26 | Geo Semiconductor Inc. | System and method for automated calibration and correction of display geometry and color |
JP2010002181A (ja) | 2006-10-06 | 2010-01-07 | T & D:Kk | 落下を記録するための装置および方法 |
US8212859B2 (en) | 2006-10-13 | 2012-07-03 | Apple Inc. | Peripheral treatment for head-mounted displays |
US9667954B2 (en) | 2006-10-13 | 2017-05-30 | Apple Inc. | Enhanced image display in head-mounted displays |
JP5539857B2 (ja) | 2007-04-19 | 2014-07-02 | コーニンクレッカ フィリップス エヌ ヴェ | 転倒検知システム |
JP5603597B2 (ja) * | 2007-09-21 | 2014-10-08 | 株式会社村田製作所 | 落下検知装置、磁気ディスク装置および携帯電子機器 |
KR100920225B1 (ko) * | 2007-12-17 | 2009-10-05 | 한국전자통신연구원 | 영상을 이용한 3차원 그래픽 모델의 정확도 측정 방법 및장치 |
GB2468997A (en) | 2008-01-22 | 2010-09-29 | Univ Arizona State | Head-mounted projection display using reflective microdisplays |
US8025581B2 (en) | 2008-05-09 | 2011-09-27 | Disney Enterprises, Inc. | Interactive interface mounting assembly for amusement and theme park rides |
CN102099859B (zh) * | 2008-07-23 | 2015-04-15 | 株式会社村田制作所 | 下落检测装置、磁盘装置、以及便携式电子设备 |
JP5594944B2 (ja) | 2008-08-05 | 2014-09-24 | 株式会社島津製作所 | モーショントラッカ装置 |
CN101382559A (zh) * | 2008-09-04 | 2009-03-11 | 宇龙计算机通信科技(深圳)有限公司 | 一种移动终端及物体的掉落报警方法和装置 |
CN101377918B (zh) * | 2008-09-19 | 2013-02-27 | 李鑫 | 一种电子显示屏系统、电子显示屏亮度校正方法及系统 |
US8061182B2 (en) * | 2009-06-22 | 2011-11-22 | Research In Motion Limited | Portable electronic device and method of measuring drop impact at the portable electronic device |
JP2011077960A (ja) * | 2009-09-30 | 2011-04-14 | Brother Industries Ltd | ヘッドマウントディスプレイ |
JP6112865B2 (ja) * | 2009-11-25 | 2017-04-12 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 加速度計測定サンプルから速度及び/又は変位を推定する方法 |
US8330305B2 (en) * | 2010-02-11 | 2012-12-11 | Amazon Technologies, Inc. | Protecting devices from impact damage |
US8477425B2 (en) | 2010-02-28 | 2013-07-02 | Osterhout Group, Inc. | See-through near-eye display glasses including a partially reflective, partially transmitting optical element |
US8964298B2 (en) | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
US20130278631A1 (en) * | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
JP5499854B2 (ja) | 2010-04-08 | 2014-05-21 | ソニー株式会社 | 頭部装着型ディスプレイにおける光学的位置調整方法 |
WO2011156195A2 (en) * | 2010-06-09 | 2011-12-15 | Dynavox Systems Llc | Speech generation device with a head mounted display unit |
EP2619749A4 (en) | 2010-09-21 | 2017-11-15 | 4IIII Innovations Inc. | Head-mounted peripheral vision display systems and methods |
US8941559B2 (en) | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
US10359545B2 (en) | 2010-10-21 | 2019-07-23 | Lockheed Martin Corporation | Fresnel lens with reduced draft facet visibility |
IT1403374B1 (it) * | 2010-10-29 | 2013-10-17 | Bosco System Lab S P A | Apparato per la trasmissione di vibrazioni localizzate, in particolare a muscoli di un utilizzatore . |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8576276B2 (en) | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
US8694251B2 (en) * | 2010-11-25 | 2014-04-08 | Texas Instruments Incorporated | Attitude estimation for pedestrian navigation using low cost mems accelerometer in mobile applications, and processing methods, apparatus and systems |
JP2012141461A (ja) | 2010-12-29 | 2012-07-26 | Sony Corp | ヘッド・マウント・ディスプレイ |
JP5830546B2 (ja) * | 2011-02-25 | 2015-12-09 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 対象物のモデル変換に基づくモデルパラメータの決定 |
US9183811B2 (en) * | 2011-04-01 | 2015-11-10 | Sharp Kabushiki Kaisha | Method of correcting unevenness of display panel and correction system |
JP5790187B2 (ja) | 2011-06-16 | 2015-10-07 | ソニー株式会社 | 表示装置 |
US9638711B2 (en) * | 2011-06-17 | 2017-05-02 | Verizon Telematics Inc. | Method and system for discerning a false positive in a fall detection signal |
CN102231016B (zh) * | 2011-06-28 | 2013-03-20 | 青岛海信电器股份有限公司 | 一种液晶模组亮度补偿方法、装置和系统 |
WO2013000075A1 (en) | 2011-06-29 | 2013-01-03 | Recon Instruments Inc. | Modular heads-up display systems |
AU2011204946C1 (en) | 2011-07-22 | 2012-07-26 | Microsoft Technology Licensing, Llc | Automatic text scrolling on a head-mounted display |
US9638836B1 (en) | 2011-08-17 | 2017-05-02 | Lockheed Martin Corporation | Lenses having astigmatism correcting inside reflective surface |
US9342610B2 (en) | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
US9402568B2 (en) | 2011-08-29 | 2016-08-02 | Verizon Telematics Inc. | Method and system for detecting a fall based on comparing data to criteria derived from multiple fall data sets |
KR101614148B1 (ko) * | 2011-09-16 | 2016-04-20 | 퀄컴 인코포레이티드 | 이동 디바이스가 차량에 탑승하고 있는 것의 검출 |
US9342108B2 (en) * | 2011-09-16 | 2016-05-17 | Apple Inc. | Protecting an electronic device |
US9285871B2 (en) | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Personal audio/visual system for providing an adaptable augmented reality environment |
US8866870B1 (en) | 2011-10-20 | 2014-10-21 | Lockheed Martin Corporation | Methods, apparatus, and systems for controlling from a first location a laser at a second location |
US8610781B2 (en) * | 2011-11-02 | 2013-12-17 | Stmicroelectronics, Inc. | System and method for light compensation in a video panel display |
CN105974587B (zh) | 2011-11-24 | 2018-09-28 | 松下知识产权经营株式会社 | 头戴式显示器装置 |
US20130137076A1 (en) | 2011-11-30 | 2013-05-30 | Kathryn Stone Perez | Head-mounted display based education and instruction |
US20130141419A1 (en) | 2011-12-01 | 2013-06-06 | Brian Mount | Augmented reality with realistic occlusion |
US8705177B1 (en) | 2011-12-05 | 2014-04-22 | Google Inc. | Integrated near-to-eye display module |
US20150312561A1 (en) | 2011-12-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Virtual 3d monitor |
US9497501B2 (en) | 2011-12-06 | 2016-11-15 | Microsoft Technology Licensing, Llc | Augmented reality virtual monitor |
CN102402005B (zh) | 2011-12-06 | 2015-11-25 | 北京理工大学 | 自由曲面双焦面单目立体头盔显示器装置 |
US9451915B1 (en) * | 2012-02-29 | 2016-09-27 | Google Inc. | Performance of a diagnostic procedure using a wearable computing device |
CN102610056B (zh) * | 2012-03-16 | 2013-09-04 | 清华大学 | 面向手机佩戴方式的跌倒事件检测系统和方法 |
JP5958689B2 (ja) | 2012-03-22 | 2016-08-02 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
US8905177B2 (en) * | 2012-03-27 | 2014-12-09 | Vitaly Grossman | Wheeled platform powered by a cargo tracked vehicle and method of propulsion control thereof |
US9454007B1 (en) | 2012-05-07 | 2016-09-27 | Lockheed Martin Corporation | Free-space lens design and lenses therefrom |
US9253524B2 (en) | 2012-07-20 | 2016-02-02 | Intel Corporation | Selective post-processing of decoded video frames based on focus point determination |
WO2014017348A1 (ja) * | 2012-07-24 | 2014-01-30 | ソニー株式会社 | 画像表示装置および画像表示方法 |
US9088787B1 (en) | 2012-08-13 | 2015-07-21 | Lockheed Martin Corporation | System, method and computer software product for providing visual remote assistance through computing systems |
US9470893B2 (en) * | 2012-10-11 | 2016-10-18 | Sony Computer Entertainment Europe Limited | Head mountable device |
US10073201B2 (en) | 2012-10-26 | 2018-09-11 | Qualcomm Incorporated | See through near-eye display |
US20140146394A1 (en) | 2012-11-28 | 2014-05-29 | Nigel David Tout | Peripheral display for a near-eye display device |
US8867139B2 (en) | 2012-11-30 | 2014-10-21 | Google Inc. | Dual axis internal optical beam tilt for eyepiece of an HMD |
US20140168264A1 (en) | 2012-12-19 | 2014-06-19 | Lockheed Martin Corporation | System, method and computer program product for real-time alignment of an augmented reality device |
US20140188426A1 (en) | 2012-12-27 | 2014-07-03 | Steven FASTERT | Monitoring hit count for impact events |
AU2014204252B2 (en) | 2013-01-03 | 2017-12-14 | Meta View, Inc. | Extramissive spatial imaging digital eye glass for virtual or augmediated vision |
US9788714B2 (en) | 2014-07-08 | 2017-10-17 | Iarmourholdings, Inc. | Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance |
US20140253702A1 (en) * | 2013-03-10 | 2014-09-11 | OrCam Technologies, Ltd. | Apparatus and method for executing system commands based on captured image data |
US9432492B2 (en) * | 2013-03-11 | 2016-08-30 | Apple Inc. | Drop countermeasures for electronic device |
US9582922B2 (en) | 2013-05-17 | 2017-02-28 | Nvidia Corporation | System, method, and computer program product to produce images for a near-eye light field display |
US9519144B2 (en) | 2013-05-17 | 2016-12-13 | Nvidia Corporation | System, method, and computer program product to produce images for a near-eye light field display having a defect |
US10137361B2 (en) | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
JP2014238731A (ja) * | 2013-06-07 | 2014-12-18 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理システム、および画像処理方法 |
US10905943B2 (en) | 2013-06-07 | 2021-02-02 | Sony Interactive Entertainment LLC | Systems and methods for reducing hops associated with a head mounted system |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US20140375540A1 (en) * | 2013-06-24 | 2014-12-25 | Nathan Ackerman | System for optimal eye fit of headset display device |
US20150003819A1 (en) | 2013-06-28 | 2015-01-01 | Nathan Ackerman | Camera auto-focus based on eye gaze |
US9152022B2 (en) * | 2013-07-11 | 2015-10-06 | Intel Corporation | Techniques for adjusting a projected image |
US9264702B2 (en) * | 2013-08-19 | 2016-02-16 | Qualcomm Incorporated | Automatic calibration of scene camera for optical see-through head mounted display |
JP6237000B2 (ja) | 2013-08-29 | 2017-11-29 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
CN103472257A (zh) * | 2013-09-12 | 2013-12-25 | 天津三星通信技术研究有限公司 | 一种便携式终端加速度的检测方法及其检测系统 |
WO2015051660A1 (zh) | 2013-10-13 | 2015-04-16 | 北京蚁视科技有限公司 | 头戴式立体显示器 |
US9569886B2 (en) | 2013-12-19 | 2017-02-14 | Intel Corporation | Variable shading |
US9319622B2 (en) * | 2014-01-09 | 2016-04-19 | International Business Machines Corporation | Video projector with automated image enhancement |
US9696552B1 (en) | 2014-01-10 | 2017-07-04 | Lockheed Martin Corporation | System and method for providing an augmented reality lightweight clip-on wearable device |
US9310610B2 (en) | 2014-01-21 | 2016-04-12 | Osterhout Group, Inc. | See-through computer display systems |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US9389423B2 (en) | 2014-03-11 | 2016-07-12 | Google Inc. | Head wearable display with adjustable transparency |
US9037125B1 (en) * | 2014-04-07 | 2015-05-19 | Google Inc. | Detecting driving with a wearable computing device |
US9715257B2 (en) * | 2014-04-18 | 2017-07-25 | Apple Inc. | Active screen protection for electronic device |
JP2015228050A (ja) | 2014-05-30 | 2015-12-17 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US9360671B1 (en) | 2014-06-09 | 2016-06-07 | Google Inc. | Systems and methods for image zoom |
CN106029190B (zh) | 2014-08-11 | 2020-03-10 | Vr考斯特有限及两合公司 | 操作装置,尤其为游乐设施、运输工具、健身设备等的方法 |
US9690375B2 (en) | 2014-08-18 | 2017-06-27 | Universal City Studios Llc | Systems and methods for generating augmented and virtual reality images |
KR102230076B1 (ko) | 2014-09-01 | 2021-03-19 | 삼성전자 주식회사 | 헤드 마운트 디스플레이 장치 |
US10261579B2 (en) | 2014-09-01 | 2019-04-16 | Samsung Electronics Co., Ltd. | Head-mounted display apparatus |
US9984505B2 (en) | 2014-09-30 | 2018-05-29 | Sony Interactive Entertainment Inc. | Display of text information on a head-mounted display |
US20160093230A1 (en) | 2014-09-30 | 2016-03-31 | Lockheed Martin Corporation | Domeless simulator |
US20160097929A1 (en) | 2014-10-01 | 2016-04-07 | Dawson Yee | See-through display optic structure |
US20160097930A1 (en) | 2014-10-06 | 2016-04-07 | Steven John Robbins | Microdisplay optical system having two microlens arrays |
WO2016061447A1 (en) | 2014-10-17 | 2016-04-21 | Lockheed Martin Corporation | Head-wearable ultra-wide field of view display device |
WO2016069398A2 (en) | 2014-10-24 | 2016-05-06 | Emagin Corporation | Microdisplay based immersive headset |
US10057968B2 (en) | 2014-11-18 | 2018-08-21 | Meta Company | Wide field of view head mounted display apparatuses, methods and systems |
US10495884B2 (en) | 2014-12-14 | 2019-12-03 | Elbit Systems Ltd. | Visual perception enhancement of displayed color symbology |
US9581819B1 (en) | 2014-12-17 | 2017-02-28 | Lockheed Martin Corporation | See-through augmented reality system |
WO2016105521A1 (en) | 2014-12-23 | 2016-06-30 | Meta Company | Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest |
EP3237953A1 (en) | 2014-12-26 | 2017-11-01 | CY Vision Inc. | Near-to-eye display device with variable resolution |
US10108832B2 (en) | 2014-12-30 | 2018-10-23 | Hand Held Products, Inc. | Augmented reality vision barcode scanning system and method |
EP3243557B1 (en) | 2015-01-05 | 2020-03-04 | Sony Corporation | Information processing device, information processing method, and program |
KR102261876B1 (ko) * | 2015-01-06 | 2021-06-07 | 삼성디스플레이 주식회사 | 표시 장치 및 그 구동 방법 |
US10740971B2 (en) | 2015-01-20 | 2020-08-11 | Microsoft Technology Licensing, Llc | Augmented reality field of view object follower |
US20160225191A1 (en) * | 2015-02-02 | 2016-08-04 | Daqri, Llc | Head mounted display calibration |
WO2016130941A1 (en) | 2015-02-12 | 2016-08-18 | Google Inc. | Combining a high resolution narrow field display and a mid resolution wide field display |
US9939650B2 (en) | 2015-03-02 | 2018-04-10 | Lockheed Martin Corporation | Wearable display system |
US9726885B2 (en) * | 2015-03-31 | 2017-08-08 | Timothy A. Cummings | System for virtual display and method of use |
US9690374B2 (en) | 2015-04-27 | 2017-06-27 | Google Inc. | Virtual/augmented reality transition system and method |
US20160349509A1 (en) * | 2015-05-26 | 2016-12-01 | Microsoft Technology Licensing, Llc | Mixed-reality headset |
US20170363949A1 (en) | 2015-05-27 | 2017-12-21 | Google Inc | Multi-tier camera rig for stereoscopic image capture |
US9877016B2 (en) | 2015-05-27 | 2018-01-23 | Google Llc | Omnistereo capture and render of panoramic virtual reality content |
US10038887B2 (en) | 2015-05-27 | 2018-07-31 | Google Llc | Capture and render of panoramic virtual reality content |
US10366534B2 (en) | 2015-06-10 | 2019-07-30 | Microsoft Technology Licensing, Llc | Selective surface mesh regeneration for 3-dimensional renderings |
US9638921B2 (en) | 2015-06-11 | 2017-05-02 | Oculus Vr, Llc | Strap system for head-mounted displays |
US9977493B2 (en) | 2015-06-17 | 2018-05-22 | Microsoft Technology Licensing, Llc | Hybrid display system |
US9939648B2 (en) | 2015-06-23 | 2018-04-10 | Google Llc | Head mounted display device with dual curved displays |
US10712573B2 (en) | 2015-07-06 | 2020-07-14 | Frank Jones | Methods and devices for demountable head mounted displays |
US9606362B2 (en) | 2015-08-07 | 2017-03-28 | Ariadne's Thread (Usa), Inc. | Peripheral field-of-view illumination system for a head mounted display |
US9454010B1 (en) | 2015-08-07 | 2016-09-27 | Ariadne's Thread (Usa), Inc. | Wide field-of-view head mounted display system |
JP6565465B2 (ja) * | 2015-08-12 | 2019-08-28 | セイコーエプソン株式会社 | 画像表示装置、コンピュータープログラム、および画像表示システム |
US20170053445A1 (en) | 2015-08-20 | 2017-02-23 | Microsoft Technology Licensing, Llc | Augmented Reality |
US10169917B2 (en) | 2015-08-20 | 2019-01-01 | Microsoft Technology Licensing, Llc | Augmented reality |
US10235808B2 (en) | 2015-08-20 | 2019-03-19 | Microsoft Technology Licensing, Llc | Communication system |
CN105139596A (zh) * | 2015-09-15 | 2015-12-09 | 广东小天才科技有限公司 | 一种基于可穿戴设备进行脱落提醒的方法和系统 |
KR102411738B1 (ko) * | 2015-09-25 | 2022-06-21 | 삼성전자 주식회사 | 낙상 감지 장치 및 그 제어방법 |
US10082865B1 (en) * | 2015-09-29 | 2018-09-25 | Rockwell Collins, Inc. | Dynamic distortion mapping in a worn display |
EP3360029B1 (en) | 2015-10-08 | 2019-11-13 | PCMS Holdings, Inc. | Methods and systems of automatic calibration for dynamic display configurations |
WO2017061677A1 (en) | 2015-10-08 | 2017-04-13 | Lg Electronics Inc. | Head mount display device |
US10088685B1 (en) | 2015-10-19 | 2018-10-02 | Meta Company | Apparatuses, methods and systems for multiple focal distance display |
US10754156B2 (en) | 2015-10-20 | 2020-08-25 | Lockheed Martin Corporation | Multiple-eye, single-display, ultrawide-field-of-view optical see-through augmented reality system |
US20170116950A1 (en) | 2015-10-22 | 2017-04-27 | Google Inc. | Liquid crystal display with variable drive voltage |
US9741125B2 (en) | 2015-10-28 | 2017-08-22 | Intel Corporation | Method and system of background-foreground segmentation for image processing |
CN105389957B (zh) * | 2015-10-29 | 2017-12-29 | 小米科技有限责任公司 | 可穿戴设备的通信方法、装置及系统 |
CN105208219A (zh) * | 2015-10-30 | 2015-12-30 | 努比亚技术有限公司 | 一种移动终端跌落提醒的方法及装置 |
KR102744773B1 (ko) | 2015-11-04 | 2024-12-18 | 매직 립, 인코포레이티드 | 눈-추적 기반 동적 디스플레이 교정 |
US10001683B2 (en) | 2015-11-06 | 2018-06-19 | Microsoft Technology Licensing, Llc | Low-profile microdisplay module |
USD812612S1 (en) | 2015-11-18 | 2018-03-13 | Meta Company | Optical head mounted display with transparent visor |
US10347048B2 (en) * | 2015-12-02 | 2019-07-09 | Seiko Epson Corporation | Controlling a display of a head-mounted display device |
US10173588B2 (en) * | 2015-12-04 | 2019-01-08 | Karl Lenker | Systems and methods for motorbike collision avoidance |
US10445860B2 (en) * | 2015-12-08 | 2019-10-15 | Facebook Technologies, Llc | Autofocus virtual reality headset |
US9763342B2 (en) | 2015-12-09 | 2017-09-12 | Oculus Vr, Llc | Cable retention assembly for a head mounted display |
US10147235B2 (en) | 2015-12-10 | 2018-12-04 | Microsoft Technology Licensing, Llc | AR display with adjustable stereo overlap zone |
US20170176747A1 (en) | 2015-12-21 | 2017-06-22 | Tuomas Heikki Sakari Vallius | Multi-Pupil Display System for Head-Mounted Display Device |
US10229540B2 (en) | 2015-12-22 | 2019-03-12 | Google Llc | Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image |
WO2017112958A1 (en) | 2015-12-24 | 2017-06-29 | Meta Company | Optical engine for creating wide-field of view fovea-based display |
US10026232B2 (en) | 2016-01-04 | 2018-07-17 | Meta Compnay | Apparatuses, methods and systems for application of forces within a 3D virtual environment |
US10043305B2 (en) | 2016-01-06 | 2018-08-07 | Meta Company | Apparatuses, methods and systems for pre-warping images for a display system with a distorting optical component |
CN113156650B (zh) * | 2016-01-19 | 2024-06-28 | 奇跃公司 | 利用映像的增强现实系统和方法 |
US10318226B2 (en) | 2016-01-21 | 2019-06-11 | Google Llc | Global command interface for a hybrid display |
CN108700743A (zh) * | 2016-01-22 | 2018-10-23 | 康宁股份有限公司 | 宽视场个人显示器 |
US10229541B2 (en) | 2016-01-28 | 2019-03-12 | Sony Interactive Entertainment America Llc | Methods and systems for navigation within virtual reality space using head mounted display |
US10209785B2 (en) | 2016-02-02 | 2019-02-19 | Microsoft Technology Licensing, Llc | Volatility based cursor tethering |
US11112266B2 (en) | 2016-02-12 | 2021-09-07 | Disney Enterprises, Inc. | Method for motion-synchronized AR or VR entertainment experience |
USD776110S1 (en) | 2016-02-15 | 2017-01-10 | Meta Company | Head-mounted display |
USD776111S1 (en) | 2016-02-15 | 2017-01-10 | Meta Company | Forehead pad |
US10665020B2 (en) | 2016-02-15 | 2020-05-26 | Meta View, Inc. | Apparatuses, methods and systems for tethering 3-D virtual elements to digital content |
US10169922B2 (en) | 2016-02-16 | 2019-01-01 | Microsoft Technology Licensing, Llc | Reality mixer for mixed reality |
WO2017143303A1 (en) | 2016-02-17 | 2017-08-24 | Meta Company | Apparatuses, methods and systems for sharing virtual elements |
US10473933B2 (en) | 2016-02-19 | 2019-11-12 | Microsoft Technology Licensing, Llc | Waveguide pupil relay |
US9933624B1 (en) | 2016-03-01 | 2018-04-03 | Daryl White | System and method for providing individualized virtual reality for an amusement attraction |
US9778467B1 (en) | 2016-03-01 | 2017-10-03 | Daryl White | Head mounted display |
US9928661B1 (en) | 2016-03-02 | 2018-03-27 | Meta Company | System and method for simulating user interaction with virtual objects in an interactive space |
US9984510B1 (en) | 2016-03-02 | 2018-05-29 | Meta Company | System and method for modifying virtual elements in a virtual environment using hierarchical anchors incorporated into virtual elements |
US10168768B1 (en) | 2016-03-02 | 2019-01-01 | Meta Company | Systems and methods to facilitate interactions in an interactive space |
US10212517B1 (en) | 2016-03-02 | 2019-02-19 | Meta Company | Head-mounted display system with a surround sound system |
US9964767B2 (en) | 2016-03-03 | 2018-05-08 | Google Llc | Display with reflected LED micro-display panels |
CN108781320B (zh) * | 2016-03-14 | 2020-08-04 | 索诺瓦公司 | 具有丢失检测功能的无线身体佩戴式个人设备 |
US10878352B2 (en) * | 2016-03-16 | 2020-12-29 | Triax Technologies, Inc. | Mesh based system and method for tracking worksite events experienced by workers via a wearable sensor |
KR102448919B1 (ko) | 2016-03-16 | 2022-10-04 | 삼성디스플레이 주식회사 | 표시 장치 |
US10133345B2 (en) | 2016-03-22 | 2018-11-20 | Microsoft Technology Licensing, Llc | Virtual-reality navigation |
US10003726B2 (en) * | 2016-03-25 | 2018-06-19 | Microsoft Technology Licensing, Llc | Illumination module for near eye-to-eye display system |
US10175487B2 (en) | 2016-03-29 | 2019-01-08 | Microsoft Technology Licensing, Llc | Peripheral display for head mounted display device |
US9946074B2 (en) | 2016-04-07 | 2018-04-17 | Google Llc | See-through curved eyepiece with patterned optical combiner |
US20170305083A1 (en) | 2016-04-26 | 2017-10-26 | David A Smith | Systems and methods for forming optical lenses with an undercut |
US9965899B2 (en) | 2016-04-28 | 2018-05-08 | Verizon Patent And Licensing Inc. | Methods and systems for minimizing pixel data transmission in a network-based virtual reality media delivery configuration |
US20170323482A1 (en) * | 2016-05-05 | 2017-11-09 | Universal City Studios Llc | Systems and methods for generating stereoscopic, augmented, and virtual reality images |
US20170323416A1 (en) | 2016-05-09 | 2017-11-09 | Intel Corporation | Processing image fragments from one frame in separate image processing pipes based on image analysis |
US9990779B2 (en) | 2016-05-13 | 2018-06-05 | Meta Company | System and method for modifying virtual objects in a virtual environment in response to user interactions |
US10186088B2 (en) | 2016-05-13 | 2019-01-22 | Meta Company | System and method for managing interactive virtual frames for virtual objects in a virtual environment |
US10502363B2 (en) | 2016-05-17 | 2019-12-10 | Occipital, Inc. | Self-contained mixed reality head mounted display |
US10496156B2 (en) | 2016-05-17 | 2019-12-03 | Google Llc | Techniques to change location of objects in a virtual/augmented reality system |
US9983697B1 (en) | 2016-05-18 | 2018-05-29 | Meta Company | System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors |
US10151927B2 (en) | 2016-05-31 | 2018-12-11 | Falcon's Treehouse, Llc | Virtual reality and augmented reality head set for ride vehicle |
US9979956B1 (en) * | 2016-06-09 | 2018-05-22 | Oculus Vr, Llc | Sharpness and blemish quality test subsystem for eyecup assemblies of head mounted displays |
US10226204B2 (en) | 2016-06-17 | 2019-03-12 | Philips North America Llc | Method for detecting and responding to falls by residents within a facility |
US10075685B1 (en) * | 2016-06-19 | 2018-09-11 | Oculus Vr, Llc | Virtual image distance test subsystem for eyecup assemblies of head mounted displays |
US9773438B1 (en) | 2016-06-29 | 2017-09-26 | Meta Company | System and method for providing views of virtual content in an augmented reality environment |
JP6717377B2 (ja) | 2016-07-04 | 2020-07-01 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN114495249A (zh) | 2016-07-14 | 2022-05-13 | 奇跃公司 | 使用角膜曲率的虹膜边界估计 |
US10614653B2 (en) * | 2016-07-22 | 2020-04-07 | Universal Entertainment Corporation | Gaming machine including projection-type display screen |
CN106019597A (zh) | 2016-07-27 | 2016-10-12 | 北京小米移动软件有限公司 | 虚拟现实眼镜 |
CA3034088A1 (en) * | 2016-08-17 | 2018-02-22 | Racing Optics, Inc. | Mobile device impact protection |
CN106154555B (zh) | 2016-08-24 | 2020-08-21 | 北京小米移动软件有限公司 | 虚拟现实眼镜 |
CN106355828A (zh) * | 2016-08-26 | 2017-01-25 | 深圳市沃特沃德股份有限公司 | 检测穿戴设备脱落的方法和装置 |
TWI622803B (zh) | 2016-08-30 | 2018-05-01 | 廣達電腦股份有限公司 | 頭戴式顯示裝置 |
US9958951B1 (en) | 2016-09-12 | 2018-05-01 | Meta Company | System and method for providing views of virtual content in an augmented reality environment |
US10026231B1 (en) | 2016-09-12 | 2018-07-17 | Meta Company | System and method for providing views of virtual content in an augmented reality environment |
DE202017105948U1 (de) | 2016-10-03 | 2018-03-07 | Google LLC (n.d.Ges.d. Staates Delaware) | Augmented-Reality- und/oder Virtual-Reality-Headset |
US10334240B2 (en) * | 2016-10-28 | 2019-06-25 | Daqri, Llc | Efficient augmented reality display calibration |
US20180126116A1 (en) * | 2016-11-07 | 2018-05-10 | Blw Ip, Llc | Integrated Stroboscopic Eyewear For Sensory Training |
US10459236B2 (en) | 2016-12-09 | 2019-10-29 | Lg Electronics Inc. | Head-mounted display device with earbud holder |
US10805767B2 (en) * | 2016-12-15 | 2020-10-13 | Philips North America Llc | Method for tracking the location of a resident within a facility |
CN110114814B (zh) * | 2016-12-20 | 2023-04-14 | 堺显示器制品株式会社 | 校正系统、显示面板、显示装置、校正方法以及记录介质 |
JP6215441B1 (ja) * | 2016-12-27 | 2017-10-18 | 株式会社コロプラ | 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置 |
US20190333480A1 (en) * | 2017-01-05 | 2019-10-31 | Philipp K. Lang | Improved Accuracy of Displayed Virtual Data with Optical Head Mount Displays for Mixed Reality |
KR102623391B1 (ko) * | 2017-01-10 | 2024-01-11 | 삼성전자주식회사 | 영상 출력 방법 및 이를 지원하는 전자 장치 |
US10127727B1 (en) | 2017-01-10 | 2018-11-13 | Meta Company | Systems and methods to provide an interactive environment over an expanded field-of-view |
US20180196262A1 (en) | 2017-01-12 | 2018-07-12 | Artavious Cage | Virtual reality system |
CN106652347A (zh) * | 2017-01-24 | 2017-05-10 | 深圳前海零距物联网科技有限公司 | 智能头盔摔倒检测方法及智能头盔 |
CN106693338B (zh) * | 2017-02-13 | 2022-04-19 | 中国航天员科研训练中心 | 视觉虚拟涌浪运动防护训练装置 |
JP6801073B2 (ja) * | 2017-02-24 | 2020-12-16 | 富士フイルム株式会社 | 付加情報表示装置、方法およびプログラム |
US12153723B2 (en) | 2017-03-06 | 2024-11-26 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
US10785471B1 (en) * | 2017-05-12 | 2020-09-22 | Facebook Technologies, Llc | Upsampling content for head-mounted displays |
CA3063710A1 (en) | 2017-05-18 | 2018-11-22 | Arizona Board Of Regents On Behalf Of The University Of Arizona | Multilayer high-dynamic-range head-mounted display |
GB2562758B (en) | 2017-05-24 | 2021-05-12 | Sony Interactive Entertainment Inc | Input device and method |
US10168789B1 (en) | 2017-05-31 | 2019-01-01 | Meta Company | Systems and methods to facilitate user interactions with virtual content having two-dimensional representations and/or three-dimensional representations |
US10241545B1 (en) * | 2017-06-01 | 2019-03-26 | Facebook Technologies, Llc | Dynamic distortion correction for optical compensation |
US10277893B1 (en) * | 2017-06-22 | 2019-04-30 | Facebook Technologies, Llc | Characterization of optical distortion in a head mounted display |
US10430939B1 (en) * | 2017-08-28 | 2019-10-01 | Facebook Technologies, Llc | Full display panel grid-based virtual image distance test subsystem for eyecup assemblies of head mounted displays |
US10522110B1 (en) * | 2017-08-30 | 2019-12-31 | Facebook Technologies, Llc | Apparatuses, systems, and methods for measuring and adjusting the luminance of a head-mounted display |
JP6953247B2 (ja) * | 2017-09-08 | 2021-10-27 | ラピスセミコンダクタ株式会社 | ゴーグル型表示装置、視線検出方法及び視線検出システム |
SG11202001373UA (en) * | 2017-11-27 | 2020-03-30 | Guangdong Oppo Mobile Telecommunications Corp Ltd | Electronic device |
US10663738B2 (en) * | 2017-12-04 | 2020-05-26 | Samsung Electronics Co., Ltd. | System and method for HMD configurable for various mobile device sizes |
ES2969540T3 (es) * | 2017-12-21 | 2024-05-21 | Bae Systems Plc | Oculometría para pantalla llevada en la cabeza |
CN208233070U (zh) * | 2018-01-18 | 2018-12-14 | 武汉汉宁轨道交通技术有限公司 | 轨道表面波浪磨耗及伤损检测装置 |
US10692473B1 (en) * | 2018-03-13 | 2020-06-23 | Facebook Technologies, Llc | Display pixel correction using compression |
US10948983B2 (en) * | 2018-03-21 | 2021-03-16 | Samsung Electronics Co., Ltd. | System and method for utilizing gaze tracking and focal point tracking |
US10902820B2 (en) | 2018-04-16 | 2021-01-26 | Facebook Technologies, Llc | Display device with dynamic resolution enhancement |
US10591737B2 (en) * | 2018-04-20 | 2020-03-17 | Dell Products L.P. | Systems and methods for automatic adjustment of head mounted display straps |
US10491890B1 (en) * | 2018-05-14 | 2019-11-26 | Dell Products L.P. | Systems and methods for automatic adjustment for vertical and rotational imbalance in augmented and virtual reality head-mounted displays |
US10685515B2 (en) * | 2018-09-10 | 2020-06-16 | Ford Global Technologies, Llc | In-vehicle location uncertainty management for passive start |
JP7143736B2 (ja) * | 2018-11-20 | 2022-09-29 | トヨタ自動車株式会社 | 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム |
US11009943B2 (en) * | 2018-12-02 | 2021-05-18 | Vigo Technologies, Inc. | On/off detection in wearable electronic devices |
US11042034B2 (en) * | 2018-12-27 | 2021-06-22 | Facebook Technologies, Llc | Head mounted display calibration using portable docking station with calibration target |
-
2020
- 2020-01-09 US US16/738,906 patent/US11210772B2/en active Active
- 2020-01-09 US US16/738,788 patent/US11200655B2/en active Active
- 2020-01-09 US US16/738,908 patent/US11200656B2/en active Active
- 2020-01-10 SG SG11202106742XA patent/SG11202106742XA/en unknown
- 2020-01-10 KR KR1020217025239A patent/KR20210114023A/ko not_active Ceased
- 2020-01-10 ES ES20704156T patent/ES3000091T3/es active Active
- 2020-01-10 JP JP2021540204A patent/JP7529672B2/ja active Active
- 2020-01-10 KR KR1020217025240A patent/KR20210114439A/ko active Pending
- 2020-01-10 ES ES20704668T patent/ES2966264T3/es active Active
- 2020-01-10 CN CN202080008663.1A patent/CN113226499B/zh active Active
- 2020-01-10 WO PCT/US2020/013159 patent/WO2020146780A1/en active IP Right Grant
- 2020-01-10 WO PCT/US2020/013163 patent/WO2020146783A1/en not_active Application Discontinuation
- 2020-01-10 CN CN202080008636.4A patent/CN113226498B/zh active Active
- 2020-01-10 CA CA3125222A patent/CA3125222A1/en active Pending
- 2020-01-10 CA CA3125224A patent/CA3125224A1/en active Pending
- 2020-01-10 KR KR1020217024863A patent/KR102753104B1/ko active Active
- 2020-01-10 EP EP20703905.8A patent/EP3908380B1/en active Active
- 2020-01-10 JP JP2021539873A patent/JP2022517775A/ja active Pending
- 2020-01-10 SG SG11202106745SA patent/SG11202106745SA/en unknown
- 2020-01-10 JP JP2021539874A patent/JP7518081B2/ja active Active
- 2020-01-10 EP EP20704156.7A patent/EP3908381B1/en active Active
- 2020-01-10 SG SG11202106819TA patent/SG11202106819TA/en unknown
- 2020-01-10 CA CA3124892A patent/CA3124892A1/en active Pending
- 2020-01-10 CN CN202080008665.0A patent/CN113260427B/zh active Active
- 2020-01-10 EP EP20704668.1A patent/EP3908382B1/en active Active
- 2020-01-10 WO PCT/US2020/013165 patent/WO2020146785A1/en not_active Application Discontinuation
-
2024
- 2024-11-25 JP JP2024204550A patent/JP2025041603A/ja active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104067160A (zh) * | 2011-11-22 | 2014-09-24 | 谷歌公司 | 使用眼睛跟踪在显示屏中使图像内容居中的方法 |
US20130318776A1 (en) * | 2012-05-30 | 2013-12-05 | Joel Jacobs | Customized head-mounted display device |
CN107209960A (zh) * | 2014-12-18 | 2017-09-26 | 脸谱公司 | 用于提供虚拟现实环境的用户界面的系统、设备及方法 |
CN107407807A (zh) * | 2015-01-21 | 2017-11-28 | 欧库勒斯虚拟现实有限责任公司 | 虚拟现实头戴设备中的可压缩眼杯组件 |
US20170316264A1 (en) * | 2015-09-24 | 2017-11-02 | Tobii Ab | Eye-tracking enabled wearable devices |
US20170184847A1 (en) * | 2015-12-28 | 2017-06-29 | Oculus Vr, Llc | Determining interpupillary distance and eye relief of a user wearing a head-mounted display |
US20180052501A1 (en) * | 2016-08-22 | 2018-02-22 | Magic Leap, Inc. | Thermal dissipation for wearable device |
US20180098056A1 (en) * | 2016-10-03 | 2018-04-05 | Microsoft Technology Licensing, Llc | Automatic Detection and Correction of Binocular Misalignment in a Display Device |
CN107991775A (zh) * | 2016-10-26 | 2018-05-04 | 中国科学院深圳先进技术研究院 | 能够进行人眼追踪的头戴式可视设备及人眼追踪方法 |
CN106526857A (zh) * | 2016-12-09 | 2017-03-22 | 珠海市魅族科技有限公司 | 调焦方法和装置 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及系统 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113226498B (zh) | 能够佩戴的可视化装置系统和方法 | |
US20230305309A1 (en) | Head-mounted display for public use | |
US10496130B1 (en) | Adjustable facial-interface systems for head-mounted displays | |
US20140375540A1 (en) | System for optimal eye fit of headset display device | |
US11675217B2 (en) | Wearable proximity sensing array for the visually impaired | |
US20240012260A1 (en) | Interface device with three-dimensional (3-d) viewing functionality | |
US11619809B2 (en) | Eyewear eye-tracking using optical waveguide | |
US12241755B2 (en) | Navigation assistance for the visually impaired | |
WO2019094047A1 (en) | Head-mounted display for public use | |
JP2002515127A (ja) | パーソナルディスプレイシステム | |
CN113939760B (zh) | 非侵入性头戴式设备 | |
HK40057793A (zh) | 能夠佩戴的可視化裝置系統和方法 | |
US20230168522A1 (en) | Eyewear with direction of sound arrival detection | |
HK40058509A (zh) | 掉落檢測系統和方法 | |
JP2021047370A (ja) | 表示装置、表示装置の制御方法、表示装置の制御プログラム、及び表示システム | |
HK1171515B (zh) | 用於擴展現實顯示的優化聚焦區 | |
HK1171515A1 (zh) | 用於擴展現實顯示的優化聚焦區 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40057793 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |