[go: up one dir, main page]

KR102779068B1 - Systems and methods for augmented reality - Google Patents

Systems and methods for augmented reality Download PDF

Info

Publication number
KR102779068B1
KR102779068B1 KR1020247034640A KR20247034640A KR102779068B1 KR 102779068 B1 KR102779068 B1 KR 102779068B1 KR 1020247034640 A KR1020247034640 A KR 1020247034640A KR 20247034640 A KR20247034640 A KR 20247034640A KR 102779068 B1 KR102779068 B1 KR 102779068B1
Authority
KR
South Korea
Prior art keywords
delete delete
display system
article
electromagnetic
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR1020247034640A
Other languages
Korean (ko)
Other versions
KR20240155973A (en
Inventor
사무엘 에이. 밀러
마이클 제이. 우즈
데이비드 씨. 런드마크
Original Assignee
매직 립, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/062,104 external-priority patent/US20160259404A1/en
Application filed by 매직 립, 인코포레이티드 filed Critical 매직 립, 인코포레이티드
Publication of KR20240155973A publication Critical patent/KR20240155973A/en
Application granted granted Critical
Publication of KR102779068B1 publication Critical patent/KR102779068B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Abstract

증강 현실 디스플레이 시스템은, 알려진 좌표계(coordinate system)에서 알려진 자기장을 방출하기 위한 전자기장 방출기를 포함한다. 시스템은 또한, 전자기 센서를 포함하며, 이 전자기 센서는 알려진 자기장에 기인한, 전자기 센서의 자속과 관련된 파라미터를 측정한다. 시스템은 알려진 좌표계에서의 거리를 측정하기 위한 깊이 센서(depth sensor)를 더 포함한다. 또한, 시스템은 깊이 센서에 의해 측정되는 거리 및 전자기 센서에 의해 측정되는 자속과 관련된 파라미터에 적어도 부분적으로 기반하여, 알려진 좌표계에서의 전자기장 방출기에 대한 전자기 센서의 포즈 정보를 결정하기 위한 제어기를 포함한다. 또한, 시스템은 전자기장 방출기에 대한 전자기 센서의 포즈 정보에 적어도 부분적으로 기반하여, 사용자에게 가상 콘텐츠를 디스플레이하기 위한 디스플레이 시스템을 포함한다.An augmented reality display system includes an electromagnetic field emitter for emitting a known magnetic field in a known coordinate system. The system also includes an electromagnetic sensor, the electromagnetic sensor measuring a parameter related to a flux of the electromagnetic sensor due to the known magnetic field. The system further includes a depth sensor for measuring a distance in the known coordinate system. The system also includes a controller for determining pose information of the electromagnetic sensor relative to the electromagnetic field emitter in the known coordinate system, based at least in part on the distance measured by the depth sensor and the parameter related to the flux measured by the electromagnetic sensor. The system also includes a display system for displaying virtual content to a user, based at least in part on the pose information of the electromagnetic sensor relative to the electromagnetic field emitter.

Description

증강 현실을 위한 시스템들 및 방법들{SYSTEMS AND METHODS FOR AUGMENTED REALITY}SYSTEMS AND METHODS FOR AUGMENTED REALITY

[0001] 본 출원은 2016년 2월 5일자로 출원된 미국 가특허출원 일련 번호 제62/292,185호 및 2016년 2월 23일자로 출원된 미국 가특허출원 일련 번호 제62/298,993호의 우선권의 이익을 청구한다. 본 출원은 또한, 2015년 3월 5일자로 출원된 미국 가특허 출원 일련 번호 제62/128,993호 및 2016년 2월 5일자로 출원된 미국 가특허 출원 일련 번호 제62/292,185호의 우선권의 이익을 청구하는, 2016년 3월 5일자로 출원된 미국 특허 출원 일련 번호 제15/062,104호의 부분연속 출원이다. 본 출원은 또한 2016년 3월 1일자로 출원된 미국 가특허 출원 일련 번호 제62/301,847호와 관련된다. 앞서 말한 출원들은 이로써 그 전체가 인용에 의해 본 출원에 포함된다.[0001] This application claims the benefit of U.S. Provisional Patent Application Serial No. 62/292,185, filed February 5, 2016 and U.S. Provisional Patent Application Serial No. 62/298,993, filed February 23, 2016. This application is also a continuation-in-part of U.S. Provisional Patent Application Serial No. 15/062,104, filed March 5, 2016, which claims the benefit of U.S. Provisional Patent Application Serial No. 62/128,993, filed March 5, 2015 and U.S. Provisional Patent Application Serial No. 62/292,185, filed February 5, 2016. This application is also related to U.S. Provisional Patent Application Serial No. 62/301,847, filed March 1, 2016. The foregoing applications are hereby incorporated by reference in their entirety into this application.

[0002] 본 개시내용은 증강 현실 시스템들의 맥락에서 하나 또는 그 초과의 객체들의 포지션 및 배향을 로컬화하는 시스템들 및 방법들에 관한 것이다.[0002] The present disclosure relates to systems and methods for localizing the position and orientation of one or more objects in the context of augmented reality systems.

[0003] 현대의 컴퓨팅 및 디스플레이 기술들은, 소위 "가상 현실" 또는 "증강 현실" 경험들을 위한 시스템들의 개발을 가능하게 하였으며, 여기서 디지털방식으로 재생되는 이미지들 또는 이들의 부분들은 이들이 실제 있는 것으로 보이거나 또는 실제인 것으로서 인지될 수 있는 방식으로 사용자에게 제시된다. 가상 현실, 또는 "VR" 시나리오는 통상적으로, 다른 실제의 실세계 시각적 입력에 투명하지 않은 디지털 또는 가상 이미지 정보의 프리젠테이션(presentation)을 수반하며; 증강 현실, 또는 "AR" 시나리오는 통상적으로, 사용자 주위의 실제 세계의 시각화에 대한 증강으로서 디지털 또는 가상 이미지 정보의 프리젠테이션을 수반한다.[0003] Modern computing and display technologies have enabled the development of systems for so-called "virtual reality" or "augmented reality" experiences, in which digitally reproduced images or portions thereof are presented to a user in such a way that they appear or can be perceived as being real. Virtual reality, or "VR" scenarios typically involve the presentation of digital or virtual image information that is not transparent to other actual, real-world visual inputs; augmented reality, or "AR" scenarios typically involve the presentation of digital or virtual image information as an augmentation to a visualization of the real world around the user.

[0004] 예컨대, 도 1을 참조하면, 증강 현실 장면(4)이 도시되며, 여기서 AR 기술의 사용자는 배경에 있는 사람들, 나무들, 빌딩들, 그리고 콘크리트 플랫폼(1120)을 특징으로 하는 실세계 공원 같은 세팅(6)을 본다. 이러한 아이템들 이외에, AR 기술의 사용자는 또한, 그가 실세계 플랫폼(1120) 상에 서 있는 로봇 동상(1110), 및 호박벌의 의인화인 것으로 보여지는 날고 있는 카툰형 아바타 캐릭터(2)를 (비록 이들 엘리먼트들(2, 1110)이 실세계에 존재하지 않을지라도) "본다"는 것을 인지한다. 밝혀진 바와 같이, 인간 시각적 인지 시스템은 매우 복잡하고, 다른 가상 또는 실세계 이미저리(imagery) 엘리먼트들 사이에서 가상 이미지 엘리먼트들의 편안하고, 자연스러운 느낌의, 풍부한 프리젠테이션을 가능하게 하는 VR 또는 AR 기술을 산출하는 것은 난제시된다.[0004] For example, referring to FIG. 1 , an augmented reality scene (4) is depicted, wherein a user of the AR technology sees a real-world park-like setting (6) featuring people, trees, buildings, and a concrete platform (1120) in the background. In addition to these items, the user of the AR technology also perceives that he "sees" a robot statue (1110) standing on the real-world platform (1120), and a flying cartoon avatar character (2) that appears to be an anthropomorphic bumblebee (even though these elements (2, 1110) do not exist in the real world). As it turns out, the human visual perception system is very complex, and it is challenging to produce VR or AR technologies that enable a comfortable, natural-feeling, rich presentation of virtual imagery elements among other virtual or real-world imagery elements.

[0005] 예컨대, 헤드-착용 AR 디스플레이들(또는, 헬멧-장착 디스플레이들, 또는 스마트 안경)은 통상적으로, 사용자의 헤드에 적어도 느슨하게 커플링되며, 따라서 사용자의 헤드가 움직일 때 움직인다. 사용자의 헤드 모션들이 디스플레이 시스템에 의해 검출되면, 디스플레이되고 있는 데이터는 헤드 포즈의 변화를 고려하도록 업데이트될 수 있다. [0005] For example, head-worn AR displays (or helmet-mounted displays, or smart glasses) are typically at least loosely coupled to the user's head, and thus move as the user's head moves. When the user's head motions are detected by the display system, the data being displayed can be updated to account for changes in head pose.

[0006] 예로서, 헤드-착용 디스플레이를 착용한 사용자가 디스플레이 상에서 3차원(3D) 객체의 가상 표현을 보고, 3D 객체가 나타나는 영역 주위를 걷는다면, 그 3D 객체가 각각의 뷰포인트에 대해 재렌더링될 수 있어, 사용자에게 자신이 실제 공간을 차지하는 객체 주위를 걷고 있다는 인지를 제공한다. 헤드-착용 디스플레이가 다수의 객체들을 가상 공간(예를 들면, 풍부한 가상 세계)내에 제시하는데 사용되는 경우, 헤드 포즈(즉, 사용자의 헤드의 위치 및 배향)의 측정들은 사용자의 동적으로 변하는 헤드 위치 및 배향을 매칭시키기 위해 장면을 재렌더링하고 가상 공간에서 증가된 몰입감(sense of immersion)을 제공하는 데 사용될 수 있다.[0006] For example, if a user wearing a head-worn display views a virtual representation of a three-dimensional (3D) object on the display and walks around an area where the 3D object appears, the 3D object may be re-rendered for each viewpoint, giving the user the perception that he or she is walking around an object that occupies real space. If the head-worn display is used to present multiple objects in a virtual space (e.g., a rich virtual world), measurements of head pose (i.e., the position and orientation of the user's head) may be used to re-render the scene to match the user's dynamically changing head position and orientation, thereby providing an increased sense of immersion in the virtual space.

[0007] AR 시스템들에서, 헤드 포즈의 검출 또는 계산은, 사용자가 감지하게 하는 방식으로 가상 객체들이 실세계의 공간을 점유하는 것처럼 나타나도록, 디스플레이 시스템이 이 가상 객체들을 렌더링하는 것을 가능하게 할 수 있다. 또한, 사용자의 헤드 또는 AR 시스템과 관련하여, 핸드헬드 디바이스(handheld device)("토템(totem)"으로도 지칭될 수 있음), 햅틱 디바이스, 또는 다른 실제 물리적 객체와 같은 실제 객체의 포지션 및/또는 배향의 검출은 또한, 사용자가 AR 시스템의 특정 양상들과 효율적으로 상호작용할 수 있게 하기 위해 디스플레이 정보를 사용자에게 제시하는 데 있어 디스플레이 시스템을 용이하게 할 수 있다. 사용자의 헤드가 실세계 주위를 이동할 때, 가상 객체들은 헤드 포즈의 함수로써 재렌더링될 수 있어, 가상 객체들은 실세계에 대해 안정하게 유지되는 것처럼 나타난다. 적어도 AR 애플리케이션들에 대해, (예컨대, 2 차원 또는 3 차원으로 물리적 객체에 공간적으로 근접한 것처럼 나타나도록 제시되는) 가상 객체들의 물리적 객체들에 대한 공간적 배치는 중요한 문제일 수 있다. 예컨대, 헤드 움직임은 주변 환경들의 관점에서 가상 객체들의 배치를 상당히 복잡하게 할 수 있다. 이는, 뷰가 주변 환경의 이미지로서 캡처된 다음, 최종 사용자에 프로젝팅되거나 또는 디스플레이되든지 간에, 또는 최종 사용자가 주변 환경들의 뷰를 직접적으로 인지하든지 간에 참일 수 있다. 이를테면, 헤드 움직임은 최종 사용자의 시야가 변하게 할 가능성이 있으며, 이는 다양한 가상 객체들이 최종 사용자의 시야에 디스플레이되는 위치에 대한 업데이트를 요구할 가능성이 있다. 부가적으로, 헤드 움직임들은 매우 다양한 범위들 및 스피드들내에서 발생할 수 있다. 헤드 움직임 스피드는 상이한 헤드 움직임들 간에 변할 수 있을 뿐만 아니라, 단일 헤드 움직임의 범위 내에서 또는 이 단일 헤드 움직임의 범위에 걸쳐 변할 수 있다. 예컨대, 헤드 움직임 스피드는 초기에 시작 포인트로부터 (예컨대, 선형으로 또는 비선형으로) 증가할 수 있고, 종료 포인트에 도달됨에 따라 감소하여, 헤드 움직임의 시작 포인트와 종료 포인트 간의 어딘가에서 최대 스피드를 획득할 수 있다. 신속한 헤드 움직임들은 심지어, 최종 사용자에게 균일한 및/또는 부드러운 모션으로 나타나는 이미지들을 렌더링하기 위한 특정 디스플레이 또는 프로젝션 기술의 능력을 능가할 수 있다. [0007] In AR systems, detection or calculation of head pose may enable the display system to render virtual objects so that they appear to occupy real-world space in a manner that is perceptible to the user. Additionally, detection of the position and/or orientation of a real-world object, such as a handheld device (which may also be referred to as a "totem"), a haptic device, or other real-world physical object, relative to the user's head or the AR system may also facilitate the display system in presenting display information to the user so that the user can efficiently interact with certain aspects of the AR system. As the user's head moves around the real-world, the virtual objects may be re-rendered as a function of the head pose, such that the virtual objects appear to remain stationary relative to the real world. At least for AR applications, the spatial placement of virtual objects relative to physical objects (e.g., presented so that they appear spatially close to the physical objects in two or three dimensions) may be an important issue. For example, head movements can significantly complicate the placement of virtual objects in terms of the surroundings. This may be true whether the view is captured as an image of the surroundings and then projected or displayed to the end user, or whether the end user perceives the view of the surroundings directly. For example, head movements may cause the end user's field of view to change, which may require updates to the positions where various virtual objects are displayed in the end user's field of view. Additionally, head movements may occur within a wide variety of ranges and speeds. Head movement speed may vary not only between different head movements, but also within or across a range of a single head movement. For example, head movement speed may initially increase (e.g., linearly or non-linearly) from a starting point and decrease as an end point is reached, achieving a maximum speed somewhere between the starting and ending points of the head movement. Rapid head movements may even surpass the ability of certain display or projection technologies to render images that appear to the end user as uniform and/or smooth motion.

[0008] 헤드 추적 정확도 및 레이턴시(즉, 사용자가 자신의 헤드를 움직이는 시간과, 이미지가 업데이트되고 사용자에게 디스플레이되는 시간 간의 경과된 시간)는 VR 및 AR 시스템들에 대한 난제들이었다. 특히, 가상 엘리먼트들로 사용자의 시각적 필드(visual field)의 상당 부분을 채우는 디스플레이 시스템들의 경우, 헤드-추적의 정확도가 높고 그리고 헤드 모션의 최초 검출로부터 디스플레이에 의해 사용자의 시각적 시스템으로 전달되는 광의 업데이트까지 전체 시스템 레이턴시가 매우 낮다는 것은 매우 중요하다. 레이턴시가 높으면, 시스템은 사용자의 전정계(vestibular system)와 시각적 감각계(visual sensory system) 간의 미스매치를 생성할 수 있고, 멀미(motion sickness) 또는 시뮬레이터 질병(simulator sickness)를 초래할 수 있는 사용자 인지 시나리오를 생성할 수 있다. 시스템 레이턴시가 높으면, 가상 객체들의 자명한 위치는 신속한 헤드 모션들 동안 불안정하게 나타날 것이다. [0008] Head tracking accuracy and latency (i.e., the time elapsed between the time a user moves his or her head and the time an image is updated and displayed to the user) have been challenges for VR and AR systems. In particular, for display systems that fill a significant portion of the user's visual field with virtual elements, it is critical that head tracking accuracy be high and overall system latency be very low from the initial detection of head motion to the update of the light delivered to the user's visual system by the display. If latency is high, the system can create a mismatch between the user's vestibular system and visual sensory system, creating user perception scenarios that can lead to motion sickness or simulator sickness. If system latency is high, the apparent positions of virtual objects will appear unstable during rapid head motions.

[0009] 헤드-착용 디스플레이 시스템들 이외에도, 다른 디스플레이 시스템들이 정확하고 낮은 레이턴시의 헤드 포즈 검출로부터 이익을 얻을 수 있다. 이들은, 디스플레이가 사용자의 신체에 착용되는 것이 아니라, 예컨대 벽 또는 다른 표면 상에 장착되는 헤드-추적 디스플레이 시스템들을 포함한다. 헤드-추적 디스플레이는 장면 상의 윈도우처럼 동작할 수 있고, 사용자가 "윈도우"에 대해 자신의 헤드를 움직일 때, 장면은 사용자의 변화하는 뷰포인트에 매칭하도록 재렌더링된다. 다른 시스템들은, 헤드-착용 디스플레이가 실세계상에 광을 프로젝팅하는 헤드-착용 프로젝션 시스템을 포함한다.[0009] In addition to head-worn display systems, other display systems may benefit from accurate, low-latency head pose detection. These include head-tracked display systems, where the display is not worn on the user's body, but rather mounted on, for example, a wall or other surface. A head-tracked display may act as a window onto a scene, and as the user moves his or her head relative to the "window," the scene is re-rendered to match the user's changing viewpoint. Other systems include head-worn projection systems, where the head-worn display projects light onto the real world.

[00010] 부가적으로, 현실적인 증강 현실 경험을 제공하기 위해, AR 시스템들은 사용자와 상호작용하도록 설계될 수 있다. 예컨대, 다수의 사용자들은 가상 공 및/또는 다른 가상 객체들로 공 게임을 플레이할 수 있다. 한명의 사용자가 가상 공을 "캐치"할 수 있고 그 공을 다시 다른 사용자에게 던질 수 있다. 다른 실시예에서, 제1 사용자에게 가상 공을 치기 위한 토템(예컨대, AR 시스템에 통신가능하게 커플링된 실제 배트)이 제공될 수 있다. 다른 실시예들에서, AR 사용자가 많은 옵션들 중 하나를 선택할 수 있도록 하기 위해, 가상 사용자 인터페이스가 그 AR 사용자에게 제시될 수 있다. 사용자는 시스템과 상호작용하기 위해 토템들, 햅틱 디바이스들, 웨어러블 컴포넌트들을 사용할 수 있거나, 또는 단순히 가상 스크린을 터치할 수 있다. [00010] Additionally, to provide a realistic augmented reality experience, AR systems may be designed to interact with the user. For example, multiple users may play a ball game with a virtual ball and/or other virtual objects. One user may "catch" the virtual ball and throw the ball back to another user. In another embodiment, a totem (e.g., a real bat communicatively coupled to the AR system) may be provided to the first user to hit the virtual ball. In other embodiments, a virtual user interface may be presented to the AR user to allow the AR user to select one of many options. The user may use totems, haptic devices, wearable components, or simply touch the virtual screen to interact with the system.

[00011] 사용자의 헤드 포즈 및 배향을 검출하는 것 및 공간에서의 실제 객체들의 물리적 위치를 검출하는 것은 AR 시스템이 효과적이고 즐거운 방식으로 가상 콘텐츠를 디스플레이하게 할 수 있다. 그러나, 이러한 능력들은 AR 시스템의 핵심사항(key)이지만, 달성하기 어렵다. 다시 말해서, AR 시스템은 실제 객체(예컨대, 사용자의 헤드, 토템, 햅틱 디바이스, 웨어러블 컴포넌트, 사용자의 핸드 등)의 물리적 위치를 인식해야 하고, 실제 객체의 물리적 좌표들을, 사용자에게 디스플레이되고 있는 하나 또는 그 초과의 가상 객체들에 해당하는 가상 좌표들에 상관시켜야 한다. 이는 하나 또는 그 초과의 객체들의 포지션 및 배향을 고속으로 추적하는 매우 정확한 센서들 및 센서 인식 시스템들을 요구한다. 현재의 접근법들은 만족스러운 스피드 또는 정밀도 표준들의 로컬화를 수행하지 않는다.[00011] Detecting the user's head pose and orientation and detecting the physical locations of real objects in space can enable AR systems to display virtual content in an effective and enjoyable manner. However, these capabilities are key to AR systems, but are difficult to achieve. In other words, the AR system must recognize the physical locations of real objects (e.g., the user's head, a totem, a haptic device, a wearable component, the user's hand, etc.) and correlate the physical coordinates of the real objects to virtual coordinates corresponding to one or more virtual objects being displayed to the user. This requires highly accurate sensors and sensor recognition systems that can track the position and orientation of the one or more objects at high speed. Current approaches do not perform localization to satisfactory speed or accuracy standards.

[00012] 따라서, AR 및 VR 디바이스들의 맥락에서 더 양호한 로컬화 시스템에 대한 요구가 존재한다.[00012] Therefore, there is a need for a better localization system in the context of AR and VR devices.

[00013] 본 발명의 실시예들은 하나 또는 그 초과의 사용자들에 대한 가상 현실 및/또는 증강 현실 상호작용을 가능하게 하기 위한 디바이스들, 시스템들 및 방법들에 관한 것이다. [00013] Embodiments of the present invention relate to devices, systems and methods for enabling virtual reality and/or augmented reality interaction for one or more users.

[00014] 일 실시예에서, AR(augmented reality) 디스플레이 시스템은, 알려진 좌표계(coordinate system)에서 알려진 자기장을 방출하기 위한 전자기장 방출기를 포함한다. 시스템은 또한, 전자기 센서를 포함하며, 이 전자기 센서는 알려진 자기장에 기인한, 전자기 센서의 자속과 관련된 파라미터를 측정한다. 시스템은 알려진 좌표계에서의 거리를 측정하기 위한 깊이 센서(depth sensor)를 더 포함한다. 또한, 시스템은, 깊이 센서에 의해 측정되는 거리 및 전자기 센서에 의해 측정되는 자속과 관련된 파라미터에 적어도 부분적으로 기반하여, 알려진 좌표계에서의 전자기장 방출기에 대한 전자기 센서의 포즈 정보를 결정하기 위한 제어기를 포함한다. 또한, 시스템은, 전자기장 방출기에 대한 전자기 센서의 포즈 정보에 적어도 부분적으로 기반하여, 사용자에게 가상 콘텐츠를 디스플레이하기 위한 디스플레이 시스템을 포함한다.[00014] In one embodiment, an augmented reality (AR) display system includes an electromagnetic field emitter for emitting a known magnetic field in a known coordinate system. The system also includes an electromagnetic sensor, the electromagnetic sensor measuring a parameter related to a flux of the electromagnetic sensor due to the known magnetic field. The system further includes a depth sensor for measuring a distance in the known coordinate system. The system also includes a controller for determining pose information of the electromagnetic sensor relative to the electromagnetic field emitter in the known coordinate system based at least in part on the distance measured by the depth sensor and the parameter related to the flux measured by the electromagnetic sensor. The system also includes a display system for displaying virtual content to a user based at least in part on the pose information of the electromagnetic sensor relative to the electromagnetic field emitter.

[00015] 하나 또는 그 초과의 실시예들에서, 깊이 센서는 패시브 스테레오(passive stereo) 깊이 센서이다. [00015] In one or more embodiments, the depth sensor is a passive stereo depth sensor.

[00016] 하나 또는 그 초과의 실시예들에서, 깊이 센서는 액티브(active) 깊이 센서이다. 깊이 센서는 텍스처 프로젝션 스테레오(texture projection stereo) 깊이 센서, 구조화된 광 프로젝션 스테레오(structured light projection stereo) 깊이 센서, 비행 시간(time of flight) 깊이 센서, 라이더(LIDAR) 깊이 센서, 또는 변조 방출(modulated emission) 깊이 센서일 수 있다. [00016] In one or more embodiments, the depth sensor is an active depth sensor. The depth sensor can be a texture projection stereo depth sensor, a structured light projection stereo depth sensor, a time of flight depth sensor, a LIDAR depth sensor, or a modulated emission depth sensor.

[00017] 하나 또는 그 초과의 실시예들에서, 깊이 센서는 제1 FOV(field of view)를 갖는 깊이 카메라를 포함한다. AR 디스플레이 시스템은 또한, 세계 캡처 카메라(world capture camera)를 포함할 수 있으며, 세계 캡처 카메라는 제1 FOV와 적어도 부분적으로 오버랩하는 제2 FOV를 갖는다. AR 디스플레이 시스템은 또한, 사진 카메라(picture camera)를 포함할 수 있으며, 사진 카메라는 제1 FOV 및 제2 FOV와 적어도 부분적으로 오버랩하는 제3 FOV를 갖는다. 깊이 카메라, 세계 캡처 카메라 및 사진 카메라는 각각 상이한 제1 해상도, 제2 해상도 및 제3 해상도를 가질 수 있다. 깊이 카메라의 제1 해상도는 VGA 미만(sub-VGA)일 수 있고, 세계 캡처 카메라의 제2 해상도는 720p일 수 있고, 사진 카메라의 제3 해상도는 2 메가픽셀(megapixels)일 수 있다. [00017] In one or more embodiments, the depth sensor includes a depth camera having a first field of view (FOV). The AR display system may also include a world capture camera, the world capture camera having a second FOV that at least partially overlaps the first FOV. The AR display system may also include a picture camera, the picture camera having a third FOV that at least partially overlaps the first FOV and the second FOV. The depth camera, the world capture camera, and the picture camera may each have different first resolutions, second resolutions, and third resolutions. The first resolution of the depth camera may be sub-VGA, the second resolution of the world capture camera may be 720p, and the third resolution of the picture camera may be 2 megapixels.

[00018] 하나 또는 그 초과의 실시예들에서, 깊이 카메라, 세계 캡처 카메라, 및 사진 카메라는 각각 제1 이미지, 제2 이미지 및 제3 이미지를 캡처하도록 구성된다. 제어기는 제2 이미지 및 제3 이미지를 세그먼트화하도록 프로그래밍될 수 있다. 제어기는, 융합된 이미지(fused image)를 생성하기 위해, 제2 이미지 및 제3 이미지를 세그먼트화한 후 제2 이미지 및 제3 이미지를 융합시키도록 프로그래밍될 수 있다. 알려진 좌표계에서의 거리를 측정하는 것은, 깊이 카메라로부터의 제1 이미지를 분석함으로써 가설 거리(hypothetical distance)를 생성하는 것 및 가설 거리 및 융합된 이미지를 분석함으로써 거리를 생성하는 것을 포함할 수 있다. 깊이 카메라, 세계 캡처 카메라, 및 사진 카메라는 하나의 통합형 센서를 형성할 수 있다.[00018] In one or more embodiments, the depth camera, the world capture camera, and the photo camera are configured to capture a first image, a second image, and a third image, respectively. The controller can be programmed to segment the second image and the third image. The controller can be programmed to segment the second image and the third image, and then fuse the second image and the third image to generate a fused image. Measuring the distance in a known coordinate system can include generating a hypothetical distance by analyzing the first image from the depth camera, and generating the distance by analyzing the hypothetical distance and the fused image. The depth camera, the world capture camera, and the photo camera can form a single integrated sensor.

[00019] 하나 또는 그 초과의 실시예들에서, AR 디스플레이 시스템은 또한, 부가적인 정보를 제공하기 위한 부가적인 로컬화 자원(additional localization resource)을 포함한다. 알려진 좌표계에서의 전자기장 방출기에 대한 전자기 센서의 포즈 정보는, 부가적인 로컬화 자원에 의해 제공되는 부가적인 정보, 깊이 센서에 의해 측정되는 거리 및 전자기 센서에 의해 측정되는 자속과 관련된 파라미터에 적어도 부분적으로 기반하여 결정될 수 있다. [00019] In one or more embodiments, the AR display system also includes an additional localization resource for providing additional information. The pose information of the electromagnetic sensor with respect to the electromagnetic field emitter in a known coordinate system can be determined at least in part based on the additional information provided by the additional localization resource, parameters related to the distance measured by the depth sensor and the magnetic flux measured by the electromagnetic sensor.

[00020] 하나 또는 그 초과의 실시예들에서, 부가적인 로컬화 자원은 WiFi 트랜시버, 부가적인 전자기 방출기 또는 부가적인 전자기 센서를 포함할 수 있다. 부가적인 로컬화 자원은 비콘을 포함할 수 있다. 비콘은 방사선을 방출할 수 있다. 방사선은 적외선 방사선일 수 있고, 비콘은 적외선 LED를 포함할 수 있다. 부가적인 로컬화 자원은 반사기를 포함할 수 있다. 반사기는 방사선을 반사시킬 수 있다. [00020] In one or more embodiments, the additional localization resource can include a WiFi transceiver, an additional electromagnetic emitter, or an additional electromagnetic sensor. The additional localization resource can include a beacon. The beacon can emit radiation. The radiation can be infrared radiation, and the beacon can include an infrared LED. The additional localization resource can include a reflector. The reflector can reflect the radiation.

[00021] 하나 또는 그 초과의 실시예들에서, 부가적인 로컬화 자원은 셀룰러 네트워크 트랜시버, 레이더(RADAR) 방출기, 레이더 검출기, 라이더(LIDAR) 방출기, 라이더 검출기, GPS 트랜시버, 알려진 검출가능한 패턴을 갖는 포스터(poster), 알려진 검출가능한 패턴을 갖는 마커, 관성 측정 유닛, 또는 스트레인 게이지(strain gauge)를 포함할 수 있다. [00021] In one or more embodiments, the additional localization resource may include a cellular network transceiver, a RADAR emitter, a RADAR detector, a LIDAR emitter, a LIDAR detector, a GPS transceiver, a poster having a known detectable pattern, a marker having a known detectable pattern, an inertial measurement unit, or a strain gauge.

[00022] 하나 또는 그 초과의 실시예들에서, 전자기장 방출기는 AR 디스플레이 시스템의 모바일 컴포넌트에 커플링된다. 모바일 컴포넌트는 핸드헬드 컴포넌트, 토템, 디스플레이 시스템을 하우징하는 헤드 장착 컴포넌트, 몸통 착용(torso-worn) 컴포넌트 또는 벨트 팩일 수 있다. [00022] In one or more embodiments, the electromagnetic field emitter is coupled to a mobile component of the AR display system. The mobile component can be a handheld component, a totem, a head-mounted component housing the display system, a torso-worn component, or a belt pack.

[00023] 하나 또는 그 초과의 실시예들에서, 전자기장 방출기는, 전자기장 방출기가 알려진 포지션 및 알려진 배향을 갖도록, 알려진 좌표계에 있는 객체에 커플링된다. 전자기 센서는 AR 디스플레이 시스템의 모바일 컴포넌트에 커플링될 수 있다. 모바일 컴포넌트는 핸드헬드 컴포넌트, 토템, 디스플레이 시스템을 하우징하는 헤드 장착 컴포넌트, 몸통 착용(torso-worn) 컴포넌트 또는 벨트 팩일 수 있다.[00023] In one or more embodiments, the electromagnetic field emitter is coupled to an object in a known coordinate system such that the electromagnetic field emitter has a known position and a known orientation. The electromagnetic sensor can be coupled to a mobile component of the AR display system. The mobile component can be a handheld component, a totem, a head-mounted component housing the display system, a torso-worn component, or a belt pack.

[00024] 하나 또는 그 초과의 실시예들에서, 포즈 정보는 알려진 좌표계에서의 전자기장 방출기에 대한 전자기 센서의 포지션 및 배향을 포함한다. 제어기는 알려진 좌표계에서의 전자기 센서의 포지션 및 배향을 결정하기 위해 포즈 정보를 분석할 수 있다.[00024] In one or more embodiments, the pose information includes a position and orientation of the electromagnetic sensor relative to the electromagnetic field emitter in a known coordinate system. The controller can analyze the pose information to determine the position and orientation of the electromagnetic sensor in the known coordinate system.

[00025] 다른 실시예에서, 증강 현실을 디스플레이하기 위한 방법은, 전자기장 방출기를 사용하여, 알려진 좌표계에서 알려진 자기장을 방출하는 단계를 포함한다. 방법은 또한, 전자기 센서를 사용하여, 알려진 자기장에 기인한, 전자기 센서의 자속과 관련된 파라미터를 측정하는 단계를 포함한다. 방법은, 깊이 센서를 사용하여, 알려진 좌표계에서의 거리를 측정하는 단계를 더 포함한다. 또한, 방법은, 깊이 센서를 사용하여 측정되는 거리 및 전자기 센서를 사용하여 측정되는 자속과 관련된 파라미터에 적어도 부분적으로 기반하여, 알려진 좌표계에서의 전자기장 방출기에 대한 전자기 센서의 포즈 정보를 결정하는 단계를 포함한다. 또한, 방법은, 전자기장 방출기에 대한 전자기 센서의 포즈 정보에 적어도 부분적으로 기반하여, 사용자에게 가상 콘텐츠를 디스플레이하는 단계를 포함한다. [00025] In another embodiment, a method for displaying augmented reality includes emitting a known magnetic field in a known coordinate system using an electromagnetic field emitter. The method also includes measuring a parameter related to a flux of the electromagnetic sensor due to the known magnetic field using an electromagnetic sensor. The method further includes measuring a distance in the known coordinate system using a depth sensor. The method also includes determining pose information of the electromagnetic sensor relative to the electromagnetic field emitter in the known coordinate system based at least in part on the distance measured using the depth sensor and the parameter related to the flux measured using the electromagnetic sensor. The method also includes displaying virtual content to a user based at least in part on the pose information of the electromagnetic sensor relative to the electromagnetic field emitter.

[00026] 하나 또는 그 초과의 실시예들에서, 깊이 센서는 패시브 스테레오 깊이 센서이다. [00026] In one or more embodiments, the depth sensor is a passive stereo depth sensor.

[00027] 하나 또는 그 초과의 실시예들에서, 깊이 센서는 액티브 깊이 센서이다. 깊이 센서는 텍스처 프로젝션 스테레오 깊이 센서, 구조화된 광 프로젝션 스테레오 깊이 센서, 비행 시간 깊이 센서, 라이더 깊이 센서, 또는 변조 방출 깊이 센서일 수 있다. [00027] In one or more embodiments, the depth sensor is an active depth sensor. The depth sensor can be a texture projection stereo depth sensor, a structured light projection stereo depth sensor, a time-of-flight depth sensor, a lidar depth sensor, or a modulated emission depth sensor.

[00028] 하나 또는 그 초과의 실시예들에서, 깊이 센서는 제1 FOV(field of view)를 갖는 깊이 카메라를 포함한다. 깊이 센서는 또한, 세계 캡처 카메라를 포함할 수 있으며, 세계 캡처 카메라는 제1 FOV와 적어도 부분적으로 오버랩하는 제2 FOV를 갖는다. 깊이 센서는 또한, 사진 카메라를 포함할 수 있으며, 사진 카메라는 제1 FOV 및 제2 FOV와 적어도 부분적으로 오버랩하는 제3 FOV를 갖는다. 깊이 카메라, 세계 캡처 카메라 및 사진 카메라는 각각 상이한 제1 해상도, 제2 해상도 및 제3 해상도를 가질 수 있다. 깊이 카메라의 제1 해상도는 VGA 미만일 수 있고, 세계 캡처 카메라의 제2 해상도는 720p일 수 있고, 사진 카메라의 제3 해상도는 2 메가픽셀일 수 있다. [00028] In one or more embodiments, the depth sensor includes a depth camera having a first field of view (FOV). The depth sensor may also include a world capture camera, the world capture camera having a second FOV that at least partially overlaps the first FOV. The depth sensor may also include a photographic camera, the photographic camera having a third FOV that at least partially overlaps the first FOV and the second FOV. The depth camera, the world capture camera, and the photographic camera may each have different first resolutions, second resolutions, and third resolutions. The first resolution of the depth camera may be less than VGA, the second resolution of the world capture camera may be 720p, and the third resolution of the photographic camera may be 2 megapixels.

[00029] 하나 또는 그 초과의 실시예들에서, 방법은 또한, 각각, 깊이 카메라, 세계 캡처 카메라, 및 사진 카메라를 사용하여 제1 이미지, 제2 이미지 및 제3 이미지를 캡처하는 단계를 포함한다. 방법은 또한, 제2 이미지 및 제3 이미지를 세그먼트화하는 단계를 포함할 수 있다. 방법은, 융합된 이미지를 생성하기 위해, 제2 이미지 및 제3 이미지를 세그먼트화한 후 제2 이미지 및 제3 이미지를 융합시키는 단계를 더 포함할 수 있다. 알려진 좌표계에서의 거리를 측정하는 단계는, 깊이 카메라로부터의 제1 이미지를 분석함으로써 가설 거리를 생성하는 단계 및 가설 거리 및 융합된 이미지를 분석함으로써 거리를 생성하는 단계를 포함할 수 있다. 깊이 카메라, 세계 캡처 카메라, 및 사진 카메라는 하나의 통합형 센서를 형성할 수 있다.[00029] In one or more embodiments, the method further comprises capturing a first image, a second image and a third image using the depth camera, the world capture camera and the photo camera, respectively. The method may further comprise segmenting the second image and the third image. The method may further comprise fusion of the second image and the third image after segmenting the second image and the third image to generate a fused image. The step of measuring a distance in a known coordinate system may comprise generating a hypothesis distance by analyzing the first image from the depth camera and generating a distance by analyzing the hypothesis distance and the fused image. The depth camera, the world capture camera, and the photo camera may form a single integrated sensor.

[00030] 하나 또는 그 초과의 실시예들에서, 방법은 또한, 부가적인 로컬화 자원에 의해 제공되는 부가적인 정보, 깊이 센서를 사용하여 측정되는 거리 및 전자기 센서를 사용하여 측정되는 자속과 관련된 파라미터에 적어도 부분적으로 기반하여, 알려진 좌표계에서의 전자기장 방출기에 대한 전자기 센서의 포즈 정보를 결정하는 단계를 포함한다.[00030] In one or more embodiments, the method also includes determining pose information of the electromagnetic sensor relative to the electromagnetic field emitter in a known coordinate system, based at least in part on additional information provided by additional localization resources, parameters relating to a distance measured using the depth sensor and a magnetic flux measured using the electromagnetic sensor.

[00031] 하나 또는 그 초과의 실시예들에서, 부가적인 로컬화 자원은 WiFi 트랜시버, 부가적인 전자기 방출기 또는 부가적인 전자기 센서를 포함할 수 있다. 부가적인 로컬화 자원은 비콘을 포함할 수 있다. 방법은 또한, 비콘이 방사선을 방출하는 단계를 포함할 수 있다. 방사선은 적외선 방사선일 수 있고, 비콘은 적외선 LED를 포함할 수 있다. 부가적인 로컬화 자원은 반사기를 포함할 수 있다. 방법은 또한, 반사기가 방사선을 반사시키는 단계를 포함할 수 있다. [00031] In one or more embodiments, the additional localization resource may include a WiFi transceiver, an additional electromagnetic emitter, or an additional electromagnetic sensor. The additional localization resource may include a beacon. The method may also include a step of the beacon emitting radiation. The radiation may be infrared radiation, and the beacon may include an infrared LED. The additional localization resource may include a reflector. The method may also include a step of the reflector reflecting the radiation.

[00032] 하나 또는 그 초과의 실시예들에서, 부가적인 로컬화 자원은 셀룰러 네트워크 트랜시버, 레이더 방출기, 레이더 검출기, 라이더 방출기, 라이더 검출기, GPS 트랜시버, 알려진 검출가능한 패턴을 갖는 포스터, 알려진 검출가능한 패턴을 갖는 마커, 관성 측정 유닛, 또는 스트레인 게이지를 포함할 수 있다.[00032] In one or more embodiments, the additional localization resource may include a cellular network transceiver, a radar emitter, a radar detector, a lidar emitter, a lidar detector, a GPS transceiver, a poster having a known detectable pattern, a marker having a known detectable pattern, an inertial measurement unit, or a strain gauge.

[00033] 하나 또는 그 초과의 실시예들에서, 전자기장 방출기는 AR 디스플레이 시스템의 모바일 컴포넌트에 커플링된다. 모바일 컴포넌트는 핸드헬드 컴포넌트, 토템, 디스플레이 시스템을 하우징하는 헤드 장착 컴포넌트, 몸통 착용 컴포넌트 또는 벨트 팩일 수 있다. [00033] In one or more embodiments, the electromagnetic field emitter is coupled to a mobile component of the AR display system. The mobile component may be a handheld component, a totem, a head-mounted component housing the display system, a torso-worn component, or a belt pack.

[00034] 하나 또는 그 초과의 실시예들에서, 전자기장 방출기는, 전자기장 방출기가 알려진 포지션 및 알려진 배향을 갖도록, 알려진 좌표계에 있는 객체에 커플링된다. 전자기 센서는 AR 디스플레이 시스템의 모바일 컴포넌트에 커플링될 수 있다. 모바일 컴포넌트는 핸드헬드 컴포넌트, 토템, 디스플레이 시스템을 하우징하는 헤드 장착 컴포넌트, 몸통 착용 컴포넌트 또는 벨트 팩일 수 있다. [00034] In one or more embodiments, the electromagnetic field emitter is coupled to an object in a known coordinate system such that the electromagnetic field emitter has a known position and a known orientation. The electromagnetic sensor can be coupled to a mobile component of the AR display system. The mobile component can be a handheld component, a totem, a head-mounted component housing the display system, a torso-worn component, or a belt pack.

[00035] 하나 또는 그 초과의 실시예들에서, 포즈 정보는 알려진 좌표계에서의 전자기장 방출기에 대한 전자기 센서의 포지션 및 배향을 포함한다. 방법은 또한, 알려진 좌표계에서의 전자기 센서의 포지션 및 배향을 결정하기 위해 포즈 정보를 분석하는 단계를 포함할 수 있다. [00035] In one or more embodiments, the pose information includes a position and orientation of the electromagnetic sensor relative to the electromagnetic field emitter in a known coordinate system. The method may also include analyzing the pose information to determine a position and orientation of the electromagnetic sensor in the known coordinate system.

[00036] 또 다른 실시예에서, 증강 현실 디스플레이 시스템은 전자기장 방출기에 커플링되는 핸드헬드 컴포넌트를 포함하며, 전자기장 방출기는 자기장을 방출한다. 시스템은 또한, 가상 콘텐츠를 사용자에게 디스플레이하는 디스플레이 시스템을 갖는 헤드 장착 컴포넌트를 포함한다. 헤드 장착 컴포넌트는 전자기 센서에 커플링되며, 이 전자기 센서는 자기장에 기인한, 전자기 센서의 자속과 관련된 파라미터를 측정하며, 알려진 좌표계에서의 헤드 장착 컴포넌트의 헤드 포즈는 알려져 있다. 시스템은 알려진 좌표계에서의 거리를 측정하는 깊이 센서를 더 포함한다. 또한, 시스템은, 핸드헬드 컴포넌트, 헤드 장착 컴포넌트 및 깊이 센서에 통신가능하게 커플링된 제어기를 포함한다. 제어기는 헤드 장착 컴포넌트로부터 전자기 센서의 자속과 관련된 파라미터를 그리고 깊이 센서로부터 거리를 수신한다. 제어기는, 깊이 센서에 의해 측정되는 거리 및 전자기 센서에 의해 측정되는 자속과 관련된 파라미터에 적어도 부분적으로 기반하여, 핸드헬드 컴포넌트의 핸드 포즈를 결정한다. 시스템은 핸드 포즈에 적어도 부분적으로 기반하여, 사용자에게 디스플레이되는 가상 콘텐츠를 수정한다.[00036] In another embodiment, an augmented reality display system includes a handheld component coupled to an electromagnetic field emitter, wherein the electromagnetic field emitter emits a magnetic field. The system also includes a head-mounted component having a display system for displaying virtual content to a user. The head-mounted component is coupled to an electromagnetic sensor, wherein the electromagnetic sensor measures a parameter related to a magnetic flux of the electromagnetic sensor due to the magnetic field, wherein a head pose of the head-mounted component in a known coordinate system is known. The system further includes a depth sensor that measures a distance in the known coordinate system. The system also includes a controller communicatively coupled to the handheld component, the head-mounted component, and the depth sensor. The controller receives a parameter related to the magnetic flux of the electromagnetic sensor from the head-mounted component and a distance from the depth sensor. The controller determines a hand pose of the hand-held component based at least in part on the distance measured by the depth sensor and the parameter related to the magnetic flux measured by the electromagnetic sensor. The system modifies the virtual content displayed to the user based at least in part on the hand pose.

[00037] 하나 또는 그 초과의 실시예들에서, 깊이 센서는 패시브 스테레오 깊이 센서이다. [00037] In one or more embodiments, the depth sensor is a passive stereo depth sensor.

[00038] 하나 또는 그 초과의 실시예들에서, 깊이 센서는 액티브 깊이 센서이다. 깊이 센서는 텍스처 프로젝션 스테레오 깊이 센서, 구조화된 광 프로젝션 스테레오 깊이 센서, 비행 시간 깊이 센서, 라이더 깊이 센서, 또는 변조 방출 깊이 센서일 수 있다. [00038] In one or more embodiments, the depth sensor is an active depth sensor. The depth sensor can be a texture projection stereo depth sensor, a structured light projection stereo depth sensor, a time-of-flight depth sensor, a lidar depth sensor, or a modulated emission depth sensor.

[00039] 하나 또는 그 초과의 실시예들에서, 깊이 센서는 제1 FOV(field of view)를 갖는 깊이 카메라를 포함한다. AR 디스플레이 시스템은 또한, 세계 캡처 카메라를 포함할 수 있으며, 세계 캡처 카메라는 제1 FOV와 적어도 부분적으로 오버랩하는 제2 FOV를 갖는다. AR 디스플레이 시스템은 또한, 사진 카메라를 포함할 수 있으며, 사진 카메라는 제1 FOV 및 제2 FOV와 적어도 부분적으로 오버랩하는 제3 FOV를 갖는다. 깊이 카메라, 세계 캡처 카메라 및 사진 카메라는 각각 상이한 제1 해상도, 제2 해상도 및 제3 해상도를 가질 수 있다. 깊이 카메라의 제1 해상도는 VGA 미만일 수 있고, 세계 캡처 카메라의 제2 해상도는 720p일 수 있고, 사진 카메라의 제3 해상도는 2 메가픽셀일 수 있다. [00039] In one or more embodiments, the depth sensor includes a depth camera having a first field of view (FOV). The AR display system may also include a world capture camera, the world capture camera having a second FOV that at least partially overlaps the first FOV. The AR display system may also include a photographic camera, the photographic camera having a third FOV that at least partially overlaps the first FOV and the second FOV. The depth camera, the world capture camera, and the photographic camera may each have different first resolutions, second resolutions, and third resolutions. The first resolution of the depth camera may be less than VGA, the second resolution of the world capture camera may be 720p, and the third resolution of the photographic camera may be 2 megapixels.

[00040] 하나 또는 그 초과의 실시예들에서, 깊이 카메라, 세계 캡처 카메라, 및 사진 카메라는 각각 제1 이미지, 제2 이미지 및 제3 이미지를 캡처하도록 구성된다. 제어기는 제2 이미지 및 제3 이미지를 세그먼트화하도록 프로그래밍될 수 있다. 제어기는, 융합된 이미지를 생성하기 위해, 제2 이미지 및 제3 이미지를 세그먼트화한 후 제2 이미지 및 제3 이미지를 융합시키도록 프로그래밍될 수 있다. 알려진 좌표계에서의 거리를 측정하는 것은, 깊이 카메라로부터의 제1 이미지를 분석함으로써 가설 거리를 생성하는 것 및 가설 거리 및 융합된 이미지를 분석함으로써 거리를 생성하는 것을 포함할 수 있다. 깊이 카메라, 세계 캡처 카메라, 및 사진 카메라는 하나의 통합형 센서를 형성할 수 있다.[00040] In one or more embodiments, the depth camera, the world capture camera, and the photo camera are configured to capture a first image, a second image, and a third image, respectively. The controller can be programmed to segment the second image and the third image. The controller can be programmed to segment the second image and the third image, and then fuse the second image and the third image to generate a fused image. Measuring the distance in a known coordinate system can include generating a hypothesis distance by analyzing the first image from the depth camera, and generating the distance by analyzing the hypothesis distance and the fused image. The depth camera, the world capture camera, and the photo camera can form a single integrated sensor.

[00041] 하나 또는 그 초과의 실시예들에서, AR 디스플레이 시스템은 또한, 부가적인 정보를 제공하기 위한 부가적인 로컬화 자원을 포함한다. 제어기는, 부가적인 로컬화 자원에 의해 제공되는 부가적인 정보, 깊이 센서에 의해 측정되는 거리 및 전자기 센서에 의해 측정되는 자속과 관련된 파라미터에 적어도 부분적으로 기반하여, 핸드헬드 컴포넌트의 핸드 포즈를 결정한다. [00041] In one or more embodiments, the AR display system also includes an additional localization resource for providing additional information. The controller determines a hand pose of the handheld component based at least in part on parameters related to the additional information provided by the additional localization resource, the distance measured by the depth sensor, and the magnetic flux measured by the electromagnetic sensor.

[00042] 하나 또는 그 초과의 실시예들에서, 부가적인 로컬화 자원은 WiFi 트랜시버, 부가적인 전자기 방출기 또는 부가적인 전자기 센서를 포함할 수 있다. 부가적인 로컬화 자원은 비콘을 포함할 수 있다. 비콘은 방사선을 방출할 수 있다. 방사선은 적외선 방사선일 수 있고, 비콘은 적외선 LED를 포함할 수 있다. 부가적인 로컬화 자원은 반사기를 포함할 수 있다. 반사기는 방사선을 반사시킬 수 있다. [00042] In one or more embodiments, the additional localization resource can include a WiFi transceiver, an additional electromagnetic emitter, or an additional electromagnetic sensor. The additional localization resource can include a beacon. The beacon can emit radiation. The radiation can be infrared radiation, and the beacon can include an infrared LED. The additional localization resource can include a reflector. The reflector can reflect the radiation.

[00043] 하나 또는 그 초과의 실시예들에서, 부가적인 로컬화 자원은 셀룰러 네트워크 트랜시버, 레이더 방출기, 레이더 검출기, 라이더 방출기, 라이더 검출기, GPS 트랜시버, 알려진 검출가능한 패턴을 갖는 포스터, 알려진 검출가능한 패턴을 갖는 마커, 관성 측정 유닛, 또는 스트레인 게이지를 포함할 수 있다. [00043] In one or more embodiments, the additional localization resource may include a cellular network transceiver, a radar emitter, a radar detector, a lidar emitter, a lidar detector, a GPS transceiver, a poster having a known detectable pattern, a marker having a known detectable pattern, an inertial measurement unit, or a strain gauge.

[00044] 하나 또는 그 초과의 실시예들에서, 전자기장 핸드헬드 컴포넌트는 토템이다. 핸드 포즈 정보는 알려진 좌표계에서의 핸드헬드 컴포넌트의 포지션 및 배향을 포함할 수 있다. [00044] In one or more embodiments, the electromagnetic handheld component is a totem. The hand pose information can include a position and orientation of the handheld component in a known coordinate system.

[00045] 본 발명의 부가적인 및 다른 목적들, 특징들, 및 장점들은 상세한 설명, 도면들, 및 청구항들에서 설명된다.[00045] Additional and further objects, features, and advantages of the present invention are set forth in the detailed description, drawings, and claims.

[00046] 도면들은 본 발명의 다양한 실시예들의 설계 및 유용성을 예시한다. 도면들은 실척대로 도시된 것이 아니고, 유사한 구조들 또는 기능들의 엘리먼트들은 도면들 전체에 걸쳐 동일한 참조 번호들로 표현된다는 것이 주목되어야 한다. 본 발명의 다양한 실시예들의 위에서 열거된 및 다른 장점들 및 목적들을 획득하기 위한 방법을 더 잘 인지하기 위해, 위에서 간략하게 설명된 본 발명들의 더 상세한 설명이 본 발명의 특정 실시예들을 참조하여 제공될 것이고, 그 특정 실시예들은 첨부 도면들에서 예시된다. 이들 도면들이 본 발명의 단지 전형적인 실시예들만을 도시하고 그에 따라 본 발명의 범위를 제한하는 것으로 간주되지 않아야한다는 것을 이해하여, 본 발명은 첨부 도면들을 사용하여 부가적인 특성 및 세부사항과 함께 기술 및 설명될 것이다.
[00047] 도 1은 일 실시예에 따른 AR 시스템의 사용자에게 디스플레이되는 AR 장면의 평면도를 예시한다.
[00048] 도 2a 내지 도 2d는 웨어러블 AR 디바이스들의 다양한 실시예들을 예시한다.
[00049] 도 3은 AR 시스템의 하나 또는 그 초과의 클라우드 서버들과 상호작용하는 웨어러블 AR 디바이스의 예시적 실시예를 예시한다.
[00050] 도 4는 전자기 추적 시스템의 예시적 실시예를 예시한다.
[00051] 도 5는 일 예시적 실시예에 따른, 센서들의 포지션 및 배향을 결정하는 예시적 방법을 예시한다.
[00052] 도 6은 전자기 추적 시스템을 갖는 AR 시스템의 예시적 실시예를 예시한다.
[00053] 도 7은 검출된 헤드 포즈에 기반하여 사용자에게 가상 콘텐츠를 전달하는 예시적 방법을 예시한다.
[00054] 도 8은 전자기 송신기 및 전자기 센서를 갖는, 일 실시예에 따른 AR 시스템의 다양한 컴포넌트들의 개략도를 예시한다.
[00055] 도 9a 내지 도 9f는 컨트롤 및 퀵 릴리즈 모듈(control and quick release module)들의 다양한 실시예들을 예시한다.
[00056] 도 10은 웨어러블 AR 디바이스의 하나의 간략한 실시예를 예시한다.
[00057] 도 11a 및 도 11b는 헤드 장착 AR 시스템들 상의 전자기 센서들의 배치의 다양한 실시예들을 예시한다.
[00058] 도 12a 내지 도 12e는 전자기 센서들에 커플링될 페라이트 큐브(ferrite cube)들의 다양한 실시예들을 예시한다.
[00059] 도 13a 내지 도 13c는 전자기 센서들에 대한 데이터 프로세서들의 다양한 실시예들을 예시한다.
[00060] 도 14는 헤드 및 핸드 포즈를 검출하기 위해 전자기 추적 시스템을 사용하는 예시적 방법을 예시한다.
[00061] 도 15는 헤드 및 핸드 포즈를 검출하기 위해 전자기 추적 시스템을 사용하는 다른 예시적 방법을 예시한다.
[00062] 도 16a는 깊이 센서, 전자기 송신기 및 전자기 센서를 갖는, 다른 실시예에 따른 AR 시스템의 다양한 컴포넌트들의 개략도를 예시한다.
[00063] 도 16b는 깊이 센서, 전자기 송신기 및 전자기 센서를 갖는, 또 다른 실시예에 따른 AR 시스템의 다양한 컴포넌트들 및 다양한 시야들의 개략도를 예시한다.
[00046] The drawings illustrate the design and utility of various embodiments of the present invention. It should be noted that the drawings are not drawn to scale, and that elements of similar structures or functions are represented by like reference numerals throughout the drawings. In order to better appreciate how the various embodiments of the present invention achieve the above-recited and other advantages and objects, a more detailed description of the inventions briefly described above will now be provided by reference to specific embodiments of the invention, which specific embodiments are illustrated in the accompanying drawings. Understanding that these drawings illustrate only typical embodiments of the present invention and are therefore not to be considered limiting of the scope of the present invention, the present invention will be described and illustrated with additional features and details by using the accompanying drawings.
[00047] FIG. 1 illustrates a plan view of an AR scene displayed to a user of an AR system according to one embodiment.
[00048] FIGS. 2A to 2D illustrate various embodiments of wearable AR devices.
[00049] FIG. 3 illustrates an exemplary embodiment of a wearable AR device interacting with one or more cloud servers of an AR system.
[00050] Figure 4 illustrates an exemplary embodiment of an electromagnetic tracking system.
[00051] FIG. 5 illustrates an exemplary method for determining the position and orientation of sensors, according to one exemplary embodiment.
[00052] FIG. 6 illustrates an exemplary embodiment of an AR system having an electromagnetic tracking system.
[00053] Figure 7 illustrates an exemplary method for delivering virtual content to a user based on a detected head pose.
[00054] FIG. 8 illustrates a schematic diagram of various components of an AR system according to one embodiment, having an electromagnetic transmitter and an electromagnetic sensor.
[00055] FIGS. 9A through 9F illustrate various embodiments of control and quick release modules.
[00056] Figure 10 illustrates a simplified embodiment of a wearable AR device.
[00057] FIGS. 11A and 11B illustrate various embodiments of the arrangement of electromagnetic sensors on head-mounted AR systems.
[00058] Figures 12a through 12e illustrate various embodiments of ferrite cubes to be coupled to electromagnetic sensors.
[00059] Figures 13a through 13c illustrate various embodiments of data processors for electromagnetic sensors.
[00060] Figure 14 illustrates an exemplary method using an electromagnetic tracking system to detect head and hand poses.
[00061] Figure 15 illustrates another exemplary method using an electromagnetic tracking system to detect head and hand poses.
[00062] FIG. 16A illustrates a schematic diagram of various components of an AR system according to another embodiment, having a depth sensor, an electromagnetic transmitter, and an electromagnetic sensor.
[00063] FIG. 16b illustrates a schematic diagram of various components and various fields of view of an AR system according to another embodiment, having a depth sensor, an electromagnetic transmitter, and an electromagnetic sensor.

[00064] 도 2a-도 2d를 참조하면, 몇몇 일반적인 구성 옵션들이 예시된다. 도 2a-도 2d의 논의에 뒤따르는 상세한 설명의 부분들에서, 인간의 VR 및/또는 AR에 대한 고품질의 편안하게 인지되는 디스플레이 시스템을 제공하는 목적들을 다루기 위한 다양한 시스템들, 서브시스템들, 및 컴포넌트들이 제시된다. [00064] Referring to FIGS. 2a-2d , several general configuration options are illustrated. In the sections of the detailed description that follow the discussion of FIGS. 2a-2d , various systems, subsystems, and components are presented to address the goals of providing a high-quality, comfortably perceived display system for human VR and/or AR.

[00065] 도 2a에 도시된 바와 같이, AR 시스템의 사용자(60)는 사용자의 눈들의 전방에 포지셔닝된 디스플레이 시스템(62)에 커플링된 프레임(64) 구조를 특징으로 하는(featuring) 헤드 장착 컴포넌트(58)를 착용하고 있는 것으로 도시된다. 스피커(66)는 도시된 구성에서 프레임(64)에 커플링되고 사용자의 외이도(ear canal)에 인접하게 포지셔닝된다(일 실시예에서는, 도시되지 않은 다른 스피커가 사용자의 다른 외이도에 인접하게 포지셔닝되어 스테레오/형상조절가능 사운드 제어를 제공한다). 디스플레이(62)는, 예컨대, 유선 리드(wired lead) 또는 무선 연결(wireless connectivity)에 의해, 다양한 구성들로 장착될 수 있는 로컬 프로세싱 및 데이터 모듈(70)에 동작가능하게 커플링(68)되는데, 여기서 다양한 구성들은 예컨대, 프레임(64)에 고정식으로 부착되는 구성, 도 2b의 실시예에 도시된 바와 같이 헬멧 또는 모자(80)에 고정식으로 부착되는 구성, 헤드폰들에 내장되는 구성, 도 2c의 실시예에 도시된 바와 같은 백팩-스타일 구성으로 사용자(60)의 몸통(82)에 탈착가능하게 부착되는 구성, 또는 도 2d의 실시예에 도시된 바와 같이 벨트-커플링 스타일 구성으로 사용자(60)의 힙(84)에 탈착가능하게 부착되는 구성을 말한다. [00065] As illustrated in FIG. 2A, a user (60) of the AR system is depicted wearing a head mounted component (58) featuring a frame (64) structure coupled to a display system (62) positioned in front of the user's eyes. A speaker (66) is coupled to the frame (64) in the depicted configuration and positioned adjacent to the user's ear canal (in one embodiment, another speaker, not depicted, is positioned adjacent the other ear canal of the user to provide stereo/shapeable sound control). The display (62) is operatively coupled (68) to a local processing and data module (70) which may be mounted in a variety of configurations, such as fixedly attached to a frame (64), fixedly attached to a helmet or hat (80) as shown in the embodiment of FIG. 2b, built into headphones, removably attached to the torso (82) of the user (60) in a backpack-style configuration as shown in the embodiment of FIG. 2c, or removably attached to the hips (84) of the user (60) in a belt-coupled style configuration as shown in the embodiment of FIG. 2d.

[00066] 로컬 프로세싱 및 데이터 모듈(70)은, 전력-효율적인 프로세서 또는 제어기뿐만 아니라 디지털 메모리(예컨대, 플래시 메모리)를 포함할 수 있는데, 이 둘다는 데이터의 프로세싱, 캐싱, 및 저장을 보조하기 위해 활용될 수 있으며, 이 데이터는 (a) 프레임(64)에 동작가능하게 커플링될 수 있는 센서들, 예컨대, (카메라들과 같은) 이미지 캡처 디바이스들, 마이크로폰들, 관성 측정 유닛들, 가속도계들, 컴퍼스들, GPS 유닛들, 라디오 디바이스들 및/또는 자이로(gyro)들로부터 캡처되고, 그리고/또는 (b) 이러한 프로세싱 또는 리트리벌 이후 가능하게는 디스플레이(62)로의 패시지(passage)를 위해, 원격 프로세싱 모듈(72) 및/또는 원격 데이터 저장소(74)를 사용하여 획득되고 그리고/또는 프로세싱된다. 로컬 프로세싱 및 데이터 모듈(70)은, 예컨대, 유선 또는 무선 통신 링크들을 통해서, 원격 프로세싱 모듈(72) 및 원격 데이터 저장소(74)에 동작가능하게 커플링(76, 78)될 수 있으며, 그에 따라, 이러한 원격 모듈들(72, 74)은 서로 동작가능하게 커플링되고, 로컬 프로세싱 및 데이터 모듈(70)에 대한 자원들로서 이용가능하다. [00066] A local processing and data module (70) may include a power-efficient processor or controller as well as digital memory (e.g., flash memory), both of which may be utilized to assist in the processing, caching, and storage of data, which data is (a) captured from sensors operatively coupled to the frame (64), such as image capture devices (such as cameras), microphones, inertial measurement units, accelerometers, compasses, GPS units, radio devices, and/or gyros, and/or (b) obtained and/or processed using a remote processing module (72) and/or remote data storage (74), possibly for passage to a display (62) following such processing or retrieval. The local processing and data module (70) may be operatively coupled (76, 78) to a remote processing module (72) and a remote data store (74), for example, via wired or wireless communication links, such that these remote modules (72, 74) are operatively coupled to one another and available as resources to the local processing and data module (70).

[00067] 일 실시예에서, 원격 프로세싱 모듈(72)은 데이터 및/또는 이미지 정보를 분석하고 프로세싱하도록 구성된 하나 또는 그 초과의 비교적 강력한 프로세서들 또는 제어기들을 포함할 수 있다. 일 실시예에서, 원격 데이터 저장소(74)는, "클라우드" 자원 구성의 인터넷 또는 다른 네트워킹 구성을 통해 이용가능할 수 있는, 비교적 대규모(large-scale) 디지털 데이터 저장 설비를 포함할 수 있다. 일 실시예에서, 로컬 프로세싱 및 데이터 모듈에 모든 데이터가 저장되고 모든 컴퓨테이션이 수행되어, 임의의 원격 모듈들로부터의 완전히 자율적인 사용이 허용된다. [00067] In one embodiment, the remote processing module (72) may include one or more relatively powerful processors or controllers configured to analyze and process data and/or image information. In one embodiment, the remote data storage (74) may include a relatively large-scale digital data storage facility, which may be available via the Internet or other networking configuration of a “cloud” resource configuration. In one embodiment, all data is stored and all computations are performed in the local processing and data module, allowing for completely autonomous use from any remote modules.

[00068] 이제 도 3을 참조하면, 개략도는, 도 3에 도시된 바와 같이, 예컨대, 사용자의 헤드(120)에 커플링된 헤드 장착 컴포넌트(58) 및 사용자의 벨트(308)에 커플링된 로컬 프로세싱 및 데이터 모듈(70)(따라서, 컴포넌트(70)는 또한 "벨트 팩(70)"으로 지칭될 수 있음)에 상주할 수 있는, 클라우드 컴퓨팅 어셋들(46)과 로컬 프로세싱 어셋들 사이의 조정을 예시한다. 일 실시예에서, 하나 또는 그 초과의 서버 시스템들(110)과 같은 클라우드(46) 어셋(asset)들은 예컨대, 유선 또는 무선 네트워킹(이동성을 위해서는 무선이 선호되고, 요구될 수 있는 특정 고-대역폭 또는 고-데이터-볼륨 전송들에 대해서는 유선이 선호됨)을 통해, 위에 설명된 바와 같이, 사용자의 헤드(120) 및 벨트(308)에 커플링되는, 프로세서 및 메모리 구성들과 같은 로컬 컴퓨팅 어셋들 중 하나 또는 이 둘 모두에 직접적으로(40, 42) 동작가능하게 커플링(115)된다. 사용자에게 로컬인 이러한 컴퓨팅 어셋들은 도 8을 참조하여 아래에 논의되는 유선 커플링(68)과 같은 유선 및/또는 무선 접속 구성들(44)을 통해 서로에게도 역시 동작 가능하게 커플링될 수 있다. 일 실시예에서, 사용자의 헤드(120)에 장착된 저-관성 및 작은 크기 서브시스템을 유지하기 위해, 사용자와 클라우드(46) 사이의 1차 전송은 벨트(308)에 장착된 서브시스템과 클라우드 사이의 링크를 통해 이루어질 수 있고, 헤드(120) 장착 서브시스템은 예컨대, 퍼스널 컴퓨팅 주변장치 연결 애플리케이션들에 현재 이용되는 것과 같은 초광대역("UWB") 연결과 같은 무선 연결을 이용하여 주로 벨트(308)-기반 서브시스템에 데이터-테더링된다. [00068] Referring now to FIG. 3 , a schematic diagram illustrates coordination between cloud computing assets (46) and local processing assets, which may reside, for example, on a head mounted component (58) coupled to the user's head (120) and a local processing and data module (70) coupled to the user's belt (308) (and thus, the component (70) may also be referred to as a "belt pack (70)"), as shown in FIG. 3 . In one embodiment, cloud (46) assets, such as one or more server systems (110), are operatively coupled (115) directly (40, 42) to one or both of the local computing assets, such as processor and memory configurations, coupled to the user's head (120) and belt (308), as described above, for example, via wired or wireless networking (wireless being preferred for mobility, wired being preferred for certain high-bandwidth or high-data-volume transfers that may be required). These computing assets local to the user may also be operatively coupled to each other via wired and/or wireless connection configurations (44), such as the wired coupling (68) discussed below with reference to FIG. 8 . In one embodiment, to maintain the low-inertia and small size subsystem mounted on the user's head (120), the primary transmission between the user and the cloud (46) may be via a link between the belt-mounted subsystem (308) and the cloud, with the head-mounted subsystem (120) being data-tethered to the belt-based subsystem primarily using a wireless connection, such as an ultra-wideband ("UWB") connection, such as is currently used in personal computing peripheral connectivity applications.

[00069] 효율적인 로컬 및 원격 프로세싱 조정, 및 사용자를 위한 적절한 디스플레이 디바이스, 이를테면, 도 2a에 도시된 사용자 인터페이스 또는 사용자 디스플레이 시스템(62), 또는 그의 변형들을 이용하여, 사용자의 현재 실제 또는 가상 위치와 관련되는 하나의 세계의 양상들은 사용자에게 전송 또는 "전달"되고 효율적인 방식으로 업데이트될 수 있다. 다시 말해서, 세계의 맵은, 사용자의 AR 시스템 상에 부분적으로 상주하고 클라우드 자원들에 부분적으로 상주할 수 있는 저장 위치에서 계속해서 업데이트될 수 있다. 맵(또한 "패스가능 세계 모델(passable world model)"로 지칭됨)은, 래스터 이미저리, 3-D 및 2-D 포인트들, 실세계에 관한 파라미터 정보 및 다른 정보를 포함하는 대형 데이터베이스일 수 있다. 점점 더 많은 AR 사용자들이 자신들의 실제 환경에 관한 정보를 (예컨대, 카메라들, 센서들, IMU들 등을 통해) 계속해서 캡처할수록, 맵은 점점 더 정확하고 완전해진다.[00069] Using efficient local and remote processing coordination, and a suitable display device for the user, such as the user interface or user display system (62) illustrated in FIG. 2a , or variations thereof, aspects of the world relative to the user's current real or virtual location can be transmitted or "delivered" to the user and updated in an efficient manner. In other words, the map of the world can be continually updated in a storage location that may partially reside on the user's AR system and partially reside on cloud resources. The map (also referred to as a "passable world model") can be a large database containing raster imagery, 3-D and 2-D points, parametric information about the real world, and other information. As more and more AR users continually capture information about their real-world environment (e.g., via cameras, sensors, IMUs, etc.), the map becomes increasingly accurate and complete.

[00070] 클라우드 컴퓨팅 자원들 상에 상주할 수 있고 그리고 클라우드 컴퓨팅 자원들로부터 분산될 수 있는 하나의 세계 모델이 존재하는 위에서 설명된 바와 같은 구성에 있어서, 이러한 세계는 실시간 비디오 데이터 등을 배포(pass around)하도록 시도하는 것보다 바람직한 비교적 낮은 대역폭 형태로 하나 또는 그 초과의 사용자들에게 "패스가능"할 수 있다. 동상(즉, 도 1에 도시된 바와 같음) 근처에 서 있는 사람의 증강된 경험은 클라우드-기반 세계 모델에 의해 알려질 수 있으며, 이의 서브세트는 사람들 및 사람들의 로컬 디스플레이 디바이스로 전달되어 뷰를 완료할 수 있다. 데스크 상에 놓여 있는 개인용 컴퓨터와 같이 단순할 수 있는, 원격 디스플레이 디바이스에 앉아 있는 사람은, 클라우드로부터 동일한 정보 섹션을 효율적으로 다운로드하여 이를 자신의 디스플레이 상에 렌더링할 수 있다. 사실상, 동상 근처의 공원에 실제로 있는 한 사람은 그 공원에서의 산책을 위해 멀리 떨어져 있는 친구를 부를 수 있는데, 이 친구는 가상 및 증강 현실을 통해 합류(join)한다. 시스템은 도로가 있는 장소, 나무들이 있는 장소, 동상이 있는 장소를 알 필요가 있지만, 클라우드 상에 해당 정보가 있으면, 합류하는 친구는 클라우드로부터 시나리오의 양상들을 다운로드하고, 그 다음에, 실제로 공원에 있는 사람에 대해 국한된 증강 현실에 따라 걷기 시작할 수 있다.[00070] In a configuration such as the one described above, where there is a world model that can reside on and be distributed from cloud computing resources, such a world can be "passable" to one or more users in a relatively low bandwidth form, which is preferable to trying to pass around real-time video data, etc. The augmented experience of a person standing near a statue (i.e., as shown in FIG. 1 ) can be informed by the cloud-based world model, a subset of which can be passed to the person and their local display device to complete the view. A person sitting at a remote display device, which can be as simple as a personal computer sitting on a desk, can efficiently download the same section of information from the cloud and render it on their display. In effect, a person physically present in a park near the statue can call a friend who is far away to take a walk in the park, who joins them via virtual and augmented reality. The system needs to know where the roads are, where the trees are, where the statues are, but once that information is in the cloud, the joining friend can download aspects of the scenario from the cloud and then start walking around in augmented reality, limited to people who are actually in the park.

[00071] 3-D 포인트들이 환경으로부터 캡처될 수 있고, 그러한 이미지들 또는 포인트들을 캡처하는 카메라들의 포즈(즉, 세계에 대한 벡터 및/또는 오리진 포지션 정보)가 결정될 수 있으며, 이에 이들 포인트들 또는 이미지들이 이 포즈 정보로 "태그되거나" 또는 이와 연관될 수 있다. 이후, 제2 카메라에 의해 캡처된 포인트들은 제2 카메라의 포즈를 결정하는 데 활용될 수 있다. 다시 말해, 제1 카메라로부터 태그된 이미지들과의 비교들에 기반하여 제2 카메라를 배향하고 그리고/또는 로컬화할 수 있다. 그런 다음, 이 정보(knowledge)는 텍스처들을 추출하고, 맵들을 만들고, 그리고 실세계의 가상 카피를 생성하는 데 활용될 수 있다(그렇기 때문에, 그 주위에는 2개의 카메라가 등록되어 있다). [00071] 3-D points can be captured from the environment, the poses (i.e., vector and/or origin position information with respect to the world) of the cameras capturing those images or points can be determined, and these points or images can be "tagged" or associated with this pose information. The points captured by the second camera can then be utilized to determine the pose of the second camera. In other words, the second camera can be orientated and/or localized based on comparisons with the tagged images from the first camera. This knowledge can then be utilized to extract textures, create maps, and generate a virtual copy of the real world (so that there are two cameras registered around it).

[00072] 이에 베이스 레벨에서, 일 실시예들에서, 사람-착용 시스템은 포인트들을 생성한 2-D 이미지들 및 3-D 포인트들 둘 모두를 캡처하는 데 활용될 수 있고, 이 포인트들 및 이미지들은 클라우드 저장소 및 프로세싱 자원에 전송될 수 있다. 이들은 또한, 임베딩된 포즈 정보와 함께 로컬로 캐싱(즉, 태그된 이미지들을 캐싱)될 수 있고; 이에, 클라우드는 3-D 포인트들과 함께, 태그된 2-D 이미지들(즉, 3-D 포즈와 함께 태그됨)을 (즉, 이용가능한 캐시에) 준비시킬 수 있다. 사용자가 동적인 어떤 것을 관측하고 있는 경우, 사용자는 또한, 모션에 관한 부가적인 정보를 클라우드까지 전송할 수 있다(예컨대, 다른 사람의 얼굴을 보는 경우, 사용자는 얼굴의 텍스처 맵을 취해, 그 외의 주변 세계가 기본적으로 정적인 경우라도, 최적화된 빈도로 이를 푸시 업(push up)할 수 있다). 객체 인식기 및 패스가능 세계 모델에 대한 보다 많은 정보는, "System and method for augmented and virtual reality"란 명칭의 미국 특허 출원 일련번호 제14/205,126호에서 확인할 수 있으며, 이 특허 출원은, Florida, Fort Lauderdale에 소재한 Magic Leap, Inc.에 의해 개발된 것들과 같은 증강 및 가상 현실 시스템들과 관련된 하기의 추가 문헌들: 미국 특허 출원 일련 번호 제14/641,376호; 미국 특허 출원 일련 번호 제14/555,585호; 미국 특허 출원 일련 번호 제14/212,961호; 미국 특허 출원 일련 번호 제14/690,401호; 미국 특허 출원 일련 번호 제13/663,466호; 및 미국 특허 출원 일련 번호 제13/684,489호와 함께, 그 전체가 인용에 의해 본원에 포함된다. [00072] At this base level, in some embodiments, the human-worn system can be utilized to capture both 2-D images and 3-D points that generated points, and these points and images can be transmitted to cloud storage and processing resources. These can also be cached locally (i.e., caching the tagged images) along with the embedded pose information; and the cloud can then provision (i.e., in an available cache) the tagged 2-D images (i.e., tagged with the 3-D pose) along with the 3-D points. If the user is observing something dynamic, the user can also transmit additional information about the motion to the cloud (e.g., if viewing another person's face, the user can take a texture map of the face and push it up at an optimized frequency, even if the rest of the surrounding world is essentially static). More information on object recognizers and passable world models can be found in U.S. patent application Ser. No. 14/205,126, entitled "System and method for augmented and virtual reality," which is herein incorporated by reference in its entirety along with the following additional references related to augmented and virtual reality systems, such as those developed by Magic Leap, Inc. of Fort Lauderdale, Florida: U.S. patent application Ser. No. 14/641,376; U.S. patent application Ser. No. 14/555,585; U.S. patent application Ser. No. 14/212,961; U.S. patent application Ser. No. 14/690,401; U.S. patent application Ser. No. 13/663,466; and U.S. patent application Ser. No. 13/684,489.

[00073] "패스가능 세계 모델"을 생성하는 데 사용될 수 있는 포인트들을 캡처하기 위해, 세계에 대한 사용자의 위치, 포즈 및 배향을 정확하게 아는 것이 도움이 된다. 보다 구체적으로는, 사용자의 포지션이 미세한 정도(granular degree)로 로컬화되어야 하는데, 그 이유는 사용자의 헤드 포즈뿐만 아니라 핸드 포즈(사용자가 핸드헬드 컴포넌트를 움켜잡고 있거나, 제스처를 취하고 있는 등의 경우)를 아는 것이 중요할 수 있기 때문이다. 하나 또는 그 초과의 실시예들에서, GPS 및 다른 로컬화 정보가 이러한 프로세싱에 대한 입력들로서 활용될 수 있다. 사용자의 헤드, 토템들, 핸드 제스처들, 햅팁 디바이스들 등의 매우 정확한 로컬화는 적절한 가상 콘텐츠를 사용자에게 디스플레이하는 데 있어 중요하다.[00073] In order to capture points that can be used to generate a "passable world model", it is helpful to know precisely the user's position, pose, and orientation relative to the world. More specifically, the user's position should be localized to a granular degree, since it may be important to know the user's head pose as well as his or her hand pose (e.g., if the user is grasping a handheld component, making a gesture, etc.). In one or more embodiments, GPS and other localization information may be utilized as inputs to this processing. Highly accurate localization of the user's head, totems, hand gestures, haptic devices, etc. is important for displaying appropriate virtual content to the user.

[00074] 고정밀 로컬화를 달성하기 위한 하나의 접근법은, 사용자의 AR 헤드셋, 벨트 팩, 및/또는 다른 보조 디바이스들(예컨대, 토템들, 햅틱 디바이스들, 게임 기기들 등) 상에 전략적으로 배치된 전자기 센서들과 커플링된 전자기장의 사용을 수반할 수 있다. 전자기 추적 시스템들은 통상적으로, 적어도 전자기장 방출기 및 적어도 하나의 전자기장 센서를 포함한다. 센서들은 알려진 분포를 갖는 전자기장들을 측정할 수 있다. 이러한 측정들에 기반하여, 방출기에 대한 필드 센서의 포지션 및 배향이 결정된다. [00074] One approach to achieving high-precision localization may involve the use of electromagnetic fields coupled with electromagnetic sensors strategically placed on the user's AR headset, belt pack, and/or other assistive devices (e.g., totems, haptic devices, gaming devices, etc.). Electromagnetic tracking systems typically include at least an electromagnetic field emitter and at least one electromagnetic field sensor. The sensors can measure electromagnetic fields having a known distribution. Based on these measurements, the position and orientation of the field sensor relative to the emitter is determined.

[00075] 이제 도 4를 참조하면, (예컨대, Vermont, Colchester에 소재한 Polhemus(RTM),Inc., Johnson & Johnson Corporation의 Biosense(RTM) 디비전과 같은 조직들에 의해 개발되고, California, Los Gatos에 소재한 Sixense (RTM) Entertainment,Inc. 및 다른 추적 회사들에 의해 제조된 것들과 같은) 전자기 추적 시스템의 예시적 시스템 다이어그램이 예시된다. 하나 또는 그 초과의 실시예들에서, 전자기 추적 시스템은, 알려진 자기장을 방출하도록 구성된 전자기장 방출기(402)를 포함한다. 도 4에 도시된 바와 같이, 전자기장 방출기는 이 방출기(402)에 전력을 제공하기 위한 전력 공급부(예컨대, 전류, 배터리들 등)에 커플링될 수 있다. [00075] Referring now to FIG. 4 , an exemplary system diagram of an electromagnetic tracking system (such as those developed by organizations such as Polhemus(RTM), Inc. of Colchester, Vermont, a Biosense(RTM) division of Johnson & Johnson Corporation, and manufactured by Sixense (RTM) Entertainment, Inc. of Los Gatos, California, and other tracking companies) is illustrated. In one or more embodiments, the electromagnetic tracking system includes an electromagnetic field emitter (402) configured to emit a known magnetic field. As illustrated in FIG. 4 , the electromagnetic field emitter can be coupled to a power supply (e.g., current, batteries, etc.) for providing power to the emitter (402).

[00076] 하나 또는 그 초과의 실시예들에서, 전자기장 방출기(402)는, 자기장들을 생성하는 몇 개의 코일들(예컨대, x, y, 및 z 방향들로 자기장을 생성하도록 서로 수직으로 포지셔닝된 적어도 3개의 코일들)을 포함한다. 이 자기장은 좌표 공간을 설정하는 데 사용된다. 이는, 시스템이, 센서들의 포지션을 알려진 자기장에 관하여 맵핑하는 것을 허용하며, 센서들의 포지션 및/또는 배향을 결정하는 것을 돕는다. 하나 또는 그 초과의 실시예들에서, 전자기 센서들(404a, 404b, 등)이 하나 또는 그 초과의 실제 객체들에 부착될 수 있다. 전자기 센서들(404)은, 방출된 전자기장을 통해 전류가 유도될 수 있는 더 작은 코일들을 포함할 수 있다. 일반적으로, "센서" 컴포넌트들(404)은, 큐브 또는 다른 컨테이너와 같은 작은 구조 내에서 함께 커플링된 3개의 상이하게-배향된(즉, 예컨대, 서로에 대해 직교하게 배향된) 코일들의 세트와 같은 작은 코일들 또는 루프들을 포함할 수 있으며, 이러한 작은 코일들 또는 루프들은 방출기(402)에 의해 방출되는 자기장으로부터 들어오는 자속을 캡처하도록 포지셔닝/배향되며, 그리고 이러한 코일들을 통해 유도되는 전류들을 비교하는 것에 의해, 그리고 서로에 대해 코일들의 상대적인 포지셔닝 및 배향을 아는 것에 의해, 방출기에 대한 센서의 상대적인 포지션 및 배향이 계산될 수 있다. [00076] In one or more embodiments, the electromagnetic field emitter (402) includes several coils that generate magnetic fields (e.g., at least three coils positioned perpendicular to each other to generate magnetic fields in the x, y, and z directions). The magnetic fields are used to establish a coordinate space. This allows the system to map the positions of the sensors with respect to a known magnetic field, and helps determine the position and/or orientation of the sensors. In one or more embodiments, the electromagnetic sensors (404a, 404b, etc.) may be attached to one or more real-world objects. The electromagnetic sensors (404) may include smaller coils in which a current may be induced via the emitted electromagnetic field. Typically, the "sensor" components (404) may include small coils or loops, such as a set of three differently-oriented (i.e., oriented orthogonally with respect to one another, for example) coils coupled together within a small structure, such as a cube or other container, such that these small coils or loops are positioned/oriented to capture incoming magnetic flux from a magnetic field emitted by the emitter (402), and by comparing the currents induced through these coils, and by knowing the relative positioning and orientation of the coils with respect to one another, the relative position and orientation of the sensor with respect to the emitter can be calculated.

[00077] 전자기장 방출기가 커플링되는 좌표계에 대한 센서(및 센서가 부착되는 객체)의 포지션 및/또는 배향을 검출하기 위해, 전자기 추적 센서들에 동작가능하게 커플링된 "IMU(inertial measurement unit)" 컴포넌트들 및 코일들의 거동에 관한 하나 또는 그 초과의 파라미터들이 측정될 수 있다. 물론 이러한 좌표계는, 실세계에서 전자기장 방출기의 위치 또는 포즈를 결정하기 위해, 세계 좌표계로 변환될 수 있다. 하나 또는 그 초과의 실시예들에서, 좌표 공간 내 센서들 각각의 포지션 및 배향을 검출하기 위해, 전자기 방출기에 관하여 다수의 센서들이 사용될 수 있다. [00077] One or more parameters of the behavior of "inertial measurement unit" (IMU) components and coils operably coupled to the electromagnetic tracking sensors may be measured to detect a position and/or orientation of the sensor (and the object to which the sensor is attached) with respect to a coordinate system to which the electromagnetic emitter is coupled. Of course, such a coordinate system may be transformed into a world coordinate system to determine a position or pose of the electromagnetic emitter in the real world. In one or more embodiments, multiple sensors may be used with respect to the electromagnetic emitter to detect the position and orientation of each of the sensors within the coordinate space.

[00078] 몇몇 실시예들에서, AR 시스템의 헤드 장착 컴포넌트 상의 센서들에 기반하여 헤드 포즈가 이미 알려질 수 있고, 헤드 장착 AR 시스템을 통해 캡처된 이미지 데이터 및 센서 데이터에 기반하여 SLAM 분석이 수행될 수 있다는 것이 인식되어야 한다. 그러나, 알려진 헤드 포즈에 대한 사용자의 핸드(예컨대, 토템과 같은 핸드헬드 컴포넌트 등)의 포지션을 아는 것이 중요할 수 있다. 즉, 헤드 포즈에 대해 핸드 포즈를 아는 것이 중요할 수 있다. 일단 헤드(센서들이 헤드 장착 컴포넌트 상에 위치된다고 가정)와 핸드 사이의 관계가 알려지면, 세계(예컨대, 세계 좌표들)에 대한 핸드의 위치가 쉽게 계산될 수 있다. [00078] It should be recognized that in some embodiments, the head pose may already be known based on sensors on the head-mounted component of the AR system, and the SLAM analysis may be performed based on image data and sensor data captured via the head-mounted AR system. However, it may be important to know the position of the user's hand (e.g., a handheld component such as a totem) with respect to the known head pose. That is, it may be important to know the hand pose with respect to the head pose. Once the relationship between the head (assuming the sensors are positioned on the head-mounted component) and the hand is known, the position of the hand with respect to the world (e.g., world coordinates) can be easily computed.

[00079] 전자기 추적 시스템은 3개의 방향들(즉, X, Y 및 Z 방향들) 및 추가로 2개 또는 3개의 배향 각도들의 포지션들을 제공할 수 있다. 하나 또는 그 초과의 실시예들에서, 센서들의 포지션 및 배향을 결정하기 위해, IMU의 측정들이 코일의 측정들과 비교될 수 있다. 하나 또는 그 초과의 실시예들에서, 포지션 및 배향을 결정하기 위해, 카메라들, 깊이 센서들, 및 다른 센서들과 같은, 데이터의 다양한 다른 소스들과 함께, 전자기(EM) 데이터 및 IMU 데이터 둘 모두가 결합될 수 있다. 이 정보는 제어기(406)로 송신될 수 있다(예컨대, 무선 통신, 블루투스, 등). 하나 또는 그 초과의 실시예들에서, 포즈(또는 포지션 및 배향)는 종래의 시스템에서 비교적 높은 리프레시 레이트로 보고될 수 있다. 통상적으로, 전자기 방출기는, 테이블, 수술대, 벽, 또는 천청과 같은 비교적 안정적이고 큰 객체에 커플링되며, 하나 또는 그 초과의 센서들은, 의료용 디바이스들, 핸드헬드 게이밍 컴포넌트들 등과 같은 보다 작은 객체들에 커플링된다. 대안적으로, 도 6을 참조하여 아래에서 설명되는 바와 같이, 더 안정적인 글로벌 좌표계에 대하여 공간에서 이동하는 2개의 객체들 간의 포지션 및/또는 배향에서의 변화들 또는 델타들이 추적될 수 있는 구성을 생성하기 위해 전자기 추적 시스템의 다양한 피처들이 채용될 수 있다; 다른 말로, 전자기 추적 시스템의 변형이, 헤드 장착 컴포넌트와 핸드헬드 컴포넌트 사이의 포지션 및 배향 델타를 추적하는 데 활용될 수 있는 한편, 글로벌 좌표계(말하자면, 사용자에게 국한된 방 환경)에 대한 헤드 포즈는 다른 방식으로, 예컨대, 시스템의 헤드 장착 컴포넌트에 커플링될 수 있는 외부 캡처 카메라(outward-capturing camera)들을 사용하는 SLAM("simultaneous localization and mapping") 기술들에 의해 결정되는 구성이 도 6에 도시된다. [00079] The electromagnetic tracking system can provide positions in three directions (i.e., X, Y and Z directions) and additionally two or three orientation angles. In one or more embodiments, measurements of the IMU can be compared to measurements of the coils to determine the position and orientation of the sensors. In one or more embodiments, both electromagnetic (EM) data and IMU data can be combined with various other sources of data, such as cameras, depth sensors, and other sensors, to determine the position and orientation. This information can be transmitted to the controller (406) (e.g., wirelessly, Bluetooth, etc.). In one or more embodiments, the pose (or position and orientation) can be reported at a relatively high refresh rate compared to conventional systems. Typically, the electromagnetic emitter is coupled to a relatively stable, large object, such as a table, operating table, wall, or ceiling, and one or more sensors are coupled to smaller objects, such as medical devices, handheld gaming components, etc. Alternatively, various features of the electromagnetic tracking system can be employed to create a configuration in which changes in position and/or orientation, or deltas, between two objects moving in space with respect to a more stable global coordinate system can be tracked, as described below with reference to FIG. 6 ; in other words, a variation of the electromagnetic tracking system can be utilized to track position and orientation deltas between a head-mounted component and a handheld component, while the head pose with respect to the global coordinate system (i.e., the room environment localized to the user) is determined in another manner, such as by SLAM ("simultaneous localization and mapping") techniques using outward-capturing cameras that can be coupled to the head-mounted component of the system, as illustrated in FIG. 6 .

[00080] 제어기(406)는 전자기장 발생기(402)를 제어할 수 있고, 또한, 다양한 전자기 센서들(404)로부터 데이터를 캡처할 수 있다. 시스템의 다양한 컴포넌트들이 임의의 전자-기계적 또는 무선/블루투스 수단을 통해 서로 커플링될 수 있다는 것이 인식되어야 한다. 제어기(406)는 또한, 알려진 자기장, 및 자기장에 대한 좌표 공간에 관한 데이터를 포함할 수 있다. 그런 다음, 이 정보는 알려진 전자기장에 해당하는 좌표 공간에 대한 센서들의 포지션 및 배향을 검출하는 데 사용될 수 있다. [00080] The controller (406) can control the electromagnetic field generator (402) and also capture data from various electromagnetic sensors (404). It should be appreciated that the various components of the system can be coupled to one another via any electro-mechanical or wireless/Bluetooth means. The controller (406) can also include data regarding a known magnetic field, and a coordinate space relative to the magnetic field. This information can then be used to detect the position and orientation of the sensors relative to the coordinate space corresponding to the known electromagnetic field.

[00081] 전자기 추적 시스템들의 하나의 장점은, 이들이 최소의 레이턴시 및 높은 해상도로 매우 정확한 추적 결과들을 생성할 수 있다는 점이다. 부가적으로, 전자기 추적 시스템이 반드시 광학 추적기들에 의존할 필요는 없으며, 사용자의 시선에 있지 않은 센서들/객체들은 쉽게 추적될 수 있다. [00081] One advantage of electromagnetic tracking systems is that they can produce very accurate tracking results with minimal latency and high resolution. Additionally, electromagnetic tracking systems do not necessarily have to rely on optical trackers, and sensors/objects that are not in the user's line of sight can be easily tracked.

[00082] 전자기장(v)의 세기가 코일 송신기(예컨대, 전자기장 방출기(402))로부터의 거리(r)의 3차 함수로써 감소되는(drop) 것이 인식되어야 한다. 따라서, 전자기장 방출기로부터 떨어진 거리에 기반하는 알고리즘이 요구될 수 있다. 제어기(406)는 전자기장 방출기로부터 떨어진 다양한 거리들에서의 센서/객체의 포지션 및 배향을 결정하기 위한 이러한 알고리즘들로 구성될 수 있다. 전자기 방출기로부터 더 멀리 이동함에 따른 전자기장의 세기의 급격한 감소를 고려해 볼 때, 정확도, 효율성 및 낮은 레이턴시와 관련하여 최상의 결과들이 더 가까운 거리들에서 달성될 수 있다. 통상적인 전자기 추적 시스템들에서, 전자기장 방출기는 전류(예컨대, 플러그-인 전력 공급부)에 의해 전력공급되고 전자기장 방출기로부터 떨어져 20ft 반경 내에 위치된 센서들을 갖는다. 센서들과 전자기장 방출기 사이의 보다 짧은 반경은, AR 애플리케이션들을 포함하는 다수의 애플리케이션들에서 더욱 바람직할 수 있다.[00082] It should be recognized that the strength of the electromagnetic field (v) drops as a cubic function of the distance (r) from the coil transmitter (e.g., the electromagnetic field emitter (402)). Therefore, an algorithm based on the distance from the electromagnetic field emitter may be desired. The controller (406) may be configured with such algorithms to determine the position and orientation of the sensor/object at various distances from the electromagnetic field emitter. Given the rapid decrease in the strength of the electromagnetic field with moving further away from the electromagnetic emitter, the best results with respect to accuracy, efficiency and low latency may be achieved at closer distances. In typical electromagnetic tracking systems, the electromagnetic field emitter is powered by current (e.g., a plug-in power supply) and has sensors positioned within a 20 ft radius from the electromagnetic field emitter. A shorter radius between the sensors and the electromagnetic field emitter may be more desirable for many applications, including AR applications.

[00083] 이제 도 5를 참조하면, 통상적인 전자기 추적 시스템의 기능을 설명하는 예시적인 흐름도가 간략하게 설명된다. 502에서, 알려진 전자기장이 방출된다. 하나 또는 그 초과의 실시예들에서, 자기장 방출기는 자기장들을 생성할 수 있으며, 각각의 코일은 일 방향(예컨대, x, y 또는 z)에서 전기장을 생성할 수 있다. 자기장들은 임의의 파형으로 생성될 수 있다. 하나 또는 그 초과의 실시예들에서, 축들 각각은 약간 상이한 주파수에서 오실레이팅할 수 있다. 504에서, 전자기장에 해당하는 좌표 공간이 결정될 수 있다. 예컨대, 도 4의 제어기(406)는 전자기장에 기반하여 방출기 주위의 좌표 공간을 자동으로 결정할 수 있다. 506에서, (알려진 객체에 부착될 수 있는) 센서들의 코일들의 거동이 검출될 수 있다. 예컨대, 코일들에 유도되는 전류가 계산될 수 있다. 다른 실시예들에서, 코일들의 회전, 또는 임의의 다른 정량화가능한 거동이 추적 및 측정될 수 있다. 508에서, 이 거동은 센서(들) 및/또는 알려진 객체의 포지션 및 배향을 검출하는 데 사용될 수 있다. 예컨대, 제어기(406)는 센서들의 코일들의 거동을 다양한 포지션들 또는 배향들에 상관시키는 맵핑 테이블을 참고할 수 있다. 이 계산들에 기반하여, 센서들의 배향과 함께, 좌표 공간에서의 포지션이 결정될 수 있다. 일부 실시예들에서, 포즈/위치 정보가 센서들에서 결정될 수 있다. 다른 실시예에서, 센서들은 센서들에서 검출된 데이터를 제어기에 통신하고, 제어기는 알려진 자기장에 대한 결정된 포즈 정보(예컨대, 핸드헬드 컴포넌트에 대한 좌표들)에 대해 맵핑 테이블을 참고할 수 있다. [00083] Referring now to FIG. 5 , an exemplary flow diagram illustrating the functionality of a typical electromagnetic tracking system is briefly described. At 502, a known electromagnetic field is emitted. In one or more embodiments, the magnetic field emitter may generate magnetic fields, and each coil may generate an electric field in a direction (e.g., x, y, or z). The magnetic fields may be generated in any waveform. In one or more embodiments, each of the axes may oscillate at a slightly different frequency. At 504, a coordinate space corresponding to the electromagnetic field may be determined. For example, the controller (406) of FIG. 4 may automatically determine the coordinate space around the emitter based on the electromagnetic field. At 506, the behavior of coils of sensors (which may be attached to a known object) may be detected. For example, the current induced in the coils may be calculated. In other embodiments, the rotation of the coils, or any other quantifiable behavior, may be tracked and measured. At 508, this behavior can be used to detect positions and orientations of the sensor(s) and/or known objects. For example, the controller (406) can consult a mapping table that correlates the behavior of the coils of the sensors to various positions or orientations. Based on these calculations, a position in coordinate space, along with the orientation of the sensors, can be determined. In some embodiments, pose/position information can be determined from the sensors. In other embodiments, the sensors can communicate data detected by the sensors to the controller, and the controller can consult the mapping table for determined pose information relative to a known magnetic field (e.g., coordinates for a handheld component).

[00084] AR 시스템들의 맥락에서, 전자기 추적 시스템의 하나 또는 그 초과의 컴포넌트들은 모바일 컴포넌트들의 정확한 추적을 가능하게 하기 위해 수정될 필요가 있을 수 있다. 위에서 설명된 바와 같이, 사용자의 헤드 포즈 및 배향을 추적하는 것은 많은 AR 애플리케이션들에서 중요하다. 사용자의 헤드 포즈 및 배향의 정확한 결정은 AR 시스템이 사용자에게 적절한 가상 콘텐츠를 디스플레이하도록 허용한다. 예컨대, 가상 장면은 실제 빌딩 뒤에 숨어있는 몬스터(monster)를 포함할 수 있다. 빌딩에 대한 사용자의 헤드의 포즈 및 배향에 따라, 현실적인 AR 경험이 제공되도록, 가상 몬스터의 뷰가 수정될 필요가 있을 수 있다. 즉, 가상 콘텐츠와 상호작용하는 토템, 햅틱 디바이스 또는 일부 다른 수단들의 포지션 및/또는 배향은 AR 사용자가 AR 시스템과 상호작용할 수 있게 하는 데 중요할 수 있다. 예컨대, 많은 게이밍 애플리케이션들에서, AR 시스템은 가상 콘텐츠에 대한 실제 객체의 포지션 및 배향을 검출해야 한다. 즉, 가상 인터페이스를 디스플레이할 때, 토템, 사용자의 핸드, 햅틱 디바이스, 또는 AR 시스템과의 상호작용을 위해 구성된 임의의 다른 실제 객체의 포지션은, 시스템이 커맨드 등을 이해하도록 하기 위해, 디스플레이된 가상 인터페이스와 관련하여 알려져야 한다. 광학 추적 및 다른 방법들을 포함하는 종래의 로컬화 방법들은 통상적으로 높은 레이턴시 및 낮은 해상도 문제들로 어려움을 겪으며, 이는 많은 증강 현실 애플리케이션들에서 가상 콘텐츠를 렌더링하는 것을 어렵게 만든다. [00084] In the context of AR systems, one or more components of the electromagnetic tracking system may need to be modified to enable accurate tracking of the mobile components. As described above, tracking the user's head pose and orientation is important in many AR applications. Accurate determination of the user's head pose and orientation allows the AR system to display appropriate virtual content to the user. For example, a virtual scene may include a monster hiding behind a real building. Depending on the pose and orientation of the user's head relative to the building, the view of the virtual monster may need to be modified so that a realistic AR experience is provided. That is, the position and/or orientation of a totem, haptic device, or some other means for interacting with the virtual content may be important to enabling the AR user to interact with the AR system. For example, in many gaming applications, the AR system must detect the position and orientation of a real object relative to the virtual content. That is, when displaying a virtual interface, the positions of the totem, the user's hand, the haptic device, or any other real-world objects configured for interaction with the AR system must be known with respect to the displayed virtual interface, in order for the system to understand commands, etc. Conventional localization methods, including optical tracking and other methods, typically suffer from high latency and low resolution issues, which make rendering virtual content difficult in many augmented reality applications.

[00085] 하나 또는 그 초과의 실시예들에서, 도 4 및 도 5와 관련하여 논의된 전자기 추적 시스템은 방출된 전자기장과 관련하여 하나 또는 그 초과의 객체들의 포지션 및 배향을 검출하기 위해 AR 시스템에 적응될 수 있다. 통상적인 전자기 시스템들은 대형 및 부피가 큰 전자기 방출기들(예컨대, 도 4의 402)을 갖는 경향이 있으며, 이는 AR 디바이스들에서 문제시된다. 그러나, (예컨대, 밀리미터 범위의) 더 작은 전자기 방출기들이, AR 시스템의 맥락에서, 알려진 전자기장을 방출하는 데 사용될 수 있다. [00085] In one or more embodiments, the electromagnetic tracking system discussed in connection with FIGS. 4 and 5 may be adapted to an AR system to detect the position and orientation of one or more objects with respect to an emitted electromagnetic field. Conventional electromagnetic systems tend to have large and bulky electromagnetic emitters (e.g., 402 of FIG. 4), which is problematic in AR devices. However, smaller electromagnetic emitters (e.g., in the millimeter range) may be used to emit a known electromagnetic field in the context of an AR system.

[00086] 이제 도 6을 참조하면, 도시된 바와 같이, 전자기 추적 시스템이 AR 시스템과 통합될 수 있는데, 전자기장 방출기(602)는 핸드헬드 제어기(606)의 일부로서 통합된다. 하나 또는 그 초과의 실시예들에서, 핸드헬드 제어기는 게이밍 시나리오에서 사용될 토템일 수 있다. 다른 실시예들에서, 핸드헬드 제어기는 햅틱 디바이스일 수 있다. 또 다른 실시예들에서, 전자기장 방출기는 벨트 팩(70)의 일부로서 간단하게 통합될 수 있다. 핸드헬드 제어기(606)는 전자기장 방출기(602)에 전력을 공급하는 배터리(610) 또는 다른 전력 공급부를 포함할 수 있다. 전자기장 방출기(602)가 또한, 다른 컴포넌트들에 대한 전자기장 방출기(602)의 포지셔닝 및/또는 배향을 결정하는 것을 보조하도록 구성된 IMU 콤포넌트(650)를 포함하거나 또는 이에 커플링될 수 있다는 것이 인식되어야 한다. 이는, 전자기장 방출기(602) 및 센서들(604) 둘 모두 모바일인 경우들에서 특히 중요할 수 있다. 도 6의 실시예에 도시된 바와 같이, 전자기장 방출기(602)를 벨트 팩보다는 핸드헬드 제어기에 배치하는 것은, 전자기장 방출기가 벨트 팩에서의 자원들에 대해 경쟁하지 않고 오히려 핸드헬드 제어기(606)에서 자기 자신의 배터리 소스를 사용하는 것을 보장한다. [00086] Referring now to FIG. 6 , as illustrated, an electromagnetic tracking system may be integrated with an AR system, wherein an electromagnetic field emitter (602) is integrated as part of a handheld controller (606). In one or more embodiments, the handheld controller may be a totem to be used in a gaming scenario. In other embodiments, the handheld controller may be a haptic device. In still other embodiments, the electromagnetic field emitter may be simply integrated as part of a belt pack (70). The handheld controller (606) may include a battery (610) or other power supply that powers the electromagnetic field emitter (602). It should be appreciated that the electromagnetic field emitter (602) may also include or be coupled to an IMU component (650) configured to assist in determining positioning and/or orientation of the electromagnetic field emitter (602) relative to other components. This may be particularly important in cases where both the electromagnetic field emitter (602) and the sensors (604) are mobile. As illustrated in the embodiment of FIG. 6, placing the electromagnetic field emitter (602) on the handheld controller rather than on the belt pack ensures that the electromagnetic field emitter does not compete for resources on the belt pack, but rather uses its own battery source on the handheld controller (606).

[00087] 하나 또는 그 초과의 실시예들에서, 전자기 센서들(604)은, 하나 또는 그 초과의 IMU들 또는 부가적인 자속 캡처 코일들(608)과 같은 다른 감지 디바이스들과 함께, 사용자의 헤드셋(58) 상의 하나 또는 그 초과의 위치들에 배치될 수 있다. 예컨대, 도 6에 도시된 바와 같이, 센서들(604, 608)은 헤드셋(58)의 양측에 배치될 수 있다. 이들 센서들(604, 608)은 다소 작게 엔지니어링되므로(그리고 이에 따라, 어떤 경우들에는 덜 민감할 수 있음), 다수의 센서들을 갖는 것은 효율성 및 정밀도를 향상시킬 수 있다. [00087] In one or more embodiments, the electromagnetic sensors (604) may be positioned at one or more locations on the user's headset (58), along with other sensing devices, such as one or more IMUs or additional flux capturing coils (608). For example, as illustrated in FIG. 6 , the sensors (604, 608) may be positioned on either side of the headset (58). Since these sensors (604, 608) are engineered to be somewhat smaller (and thus may be less sensitive in some cases), having multiple sensors may improve efficiency and precision.

[00088] 하나 또는 그 초과의 실시예들에서, 하나 또는 그 초과의 센서들은 또한, 벨트 팩(620) 상에 또는 사용자 신체의 임의의 다른 부분 상에 배치될 수 있다. 센서들(604, 608)은 센서들(604, 608)(및 전자기장 방출기(602)에 의해 방출되는 알려진 자기장과 관련하여 센서들(604, 608)이 부착된 AR 헤드셋(58))의 포즈 및 배향을 결정하는 컴퓨팅 장치(607)(예컨대, 제어기)와 무선으로 또는 블루투스를 통해 통신할 수 있다. 하나 또는 그 초과의 실시예들에서, 컴퓨팅 장치(607)는 벨트 팩(620)에 상주할 수 있다. 다른 실시예들에서, 컴퓨팅 장치(607)는 헤드셋(58) 자체, 또는 심지어 핸드헬드 제어기(606)에 상주할 수 있다. 컴퓨팅 장치(607)는 센서들(604, 608)의 측정들을 수신하고, 전자기장 방출기(602)에 의해 방출되는 알려진 전자기장과 관련하여 센서들(604, 608)의 포지션 및 배향을 결정할 수 있다. [00088] In one or more embodiments, one or more sensors may also be positioned on the belt pack (620) or on any other part of the user's body. The sensors (604, 608) may communicate wirelessly or via Bluetooth with a computing device (607) (e.g., a controller) that determines the pose and orientation of the sensors (604, 608) (and the AR headset (58) to which the sensors (604, 608) are attached) in relation to the known magnetic field emitted by the electromagnetic field emitter (602). In one or more embodiments, the computing device (607) may reside on the belt pack (620). In other embodiments, the computing device (607) may reside on the headset (58) itself, or even on the handheld controller (606). The computing device (607) can receive measurements from the sensors (604, 608) and determine the position and orientation of the sensors (604, 608) in relation to a known electromagnetic field emitted by the electromagnetic field emitter (602).

[00089] 하나 또는 그 초과의 실시예들에서, 컴퓨팅 장치(607)는 결국, 포즈를 검출하고, 실제 객체들 및 가상 객체들의 좌표들을 결정하기 위해 맵핑 데이터베이스(632)(예컨대 패스가능 세계 모델, 좌표 공간 등)를 포함할 수 있으며, 심지어 클라우드 자원들(630) 및 패스가능 세계 모델에 연결될 수 있다. 맵핑 데이터베이스(632)는 센서들(604, 608)의 위치 좌표들을 결정하기 위해 참고될 수 있다. 맵핑 데이터베이스(632)는 일부 실시예들에서 벨트 팩(620)에 상주할 수 있다. 도 6에 도시된 실시예에서, 맵핑 데이터베이스(632)는 클라우드 자원(630) 상에 상주한다. 컴퓨팅 장치(607)는 클라우드 자원(630)과 무선으로 통신한다. 이후, AR 시스템에 의해 수집된 포인트들 및 이미지들과 함께 결정된 포즈 정보는 클라우드 자원(630)에 통신되고, 그런 다음 패스가능 세계 모델(634)에 추가될 수 있다. [00089] In one or more embodiments, the computing device (607) may ultimately include a mapping database (632) (e.g., a passable world model, coordinate space, etc.) to detect poses and determine coordinates of real and virtual objects, and may even be connected to the cloud resources (630) and the passable world model. The mapping database (632) may be consulted to determine position coordinates of the sensors (604, 608). The mapping database (632) may reside on the belt pack (620) in some embodiments. In the embodiment illustrated in FIG. 6 , the mapping database (632) resides on the cloud resource (630). The computing device (607) communicates wirelessly with the cloud resource (630). The determined pose information along with the points and images collected by the AR system may then be communicated to the cloud resource (630) and then added to the passable world model (634).

[00090] 위에서 설명된 바와 같이, 종래의 전자기 방출기들은 AR 디바이스들에 대해 너무 부피가 클 수 있다. 따라서, 전자기장 방출기는 종래의 시스템들에 비해 더 작은 코일들을 사용하여 콤팩트하게 엔지니어링될 수 있다. 그러나, 전자기장의 세기가 전자기장 방출기로부터의 떨어진 거리의 3차 함수로써 감소한다는 것을 고려하면, 전자기 센서들(604)과 전자기장 방출기(602) 사이의 더 짧은 반경(예컨대, 약 3-3.5ft)은 도 4에서 상술된 것과 같은 종래의 시스템들과 비교할 때 전력 소비를 감소시킬 수 있다. [00090] As described above, conventional electromagnetic emitters may be too bulky for AR devices. Therefore, the electromagnetic field emitter may be engineered to be compact using smaller coils compared to conventional systems. However, considering that the strength of the electromagnetic field decreases as a cubic function of the distance from the electromagnetic field emitter, a shorter radius (e.g., about 3-3.5 ft) between the electromagnetic sensors (604) and the electromagnetic field emitter (602) may reduce power consumption compared to conventional systems such as those described above in FIG. 4.

[00091] 하나 또는 그 초과의 실시예들에서, 이 양상은 제어기(606) 및 전자기장 방출기(602)에 전력을 공급할 수 있는 배터리(610)의 수명을 연장시키는 데 활용될 수 있다. 즉, 다른 실시예들에서, 이 양상은 전자기장 방출기(602)에서 자기장을 발생시키는 코일들의 크기를 감소시키는 데 활용될 수 있다. 그러나, 동일한 세기의 자기장을 얻기 위해, 전력이 증가될 필요가 있을 수 있다. 이는 콤팩트한 전자기장 방출기 유닛(602)이 핸드헬드 제어기(606)에 콤팩트하게 맞춰질 수 있는 것을 가능하게 한다. [00091] In one or more embodiments, this aspect may be utilized to extend the life of the battery (610) that may power the controller (606) and the electromagnetic field emitter (602). That is, in other embodiments, this aspect may be utilized to reduce the size of the coils that generate the magnetic field in the electromagnetic field emitter (602). However, to obtain the same strength of the magnetic field, the power may need to be increased. This enables the compact electromagnetic field emitter unit (602) to fit compactly into the handheld controller (606).

[00092] AR 디바이스들에 전자기 추적 시스템을 사용할 때 몇 가지 다른 변경들이 이루어질 수 있다. 이 포즈 보고 레이트는 다소 양호하지만, AR 시스템들은 훨씬 더 효율적인 포즈 보고 레이트를 요구할 수 있다. 이를 위해, IMU-기반 포즈 추적이 센서들에서 사용될 수 있다. 결정적으로, IMU들은 포즈 검출 프로세스의 효율성을 증가시키기 위해, 가능한 한 안정되게 유지되어야 한다. IMU들은 이들이 50-100 밀리초까지 안정적으로 유지되도록 엔지니어링될 수 있다. 일부 실시예들은 포즈 업데이트들이 10-20Hz의 레이트로 보고될 수 있게 할 수 있는 외부 포즈 추정기 모듈을 활용할 수 있다(즉, IMU들이 시간에 따라 드리프트될 수 있다)는 것이 인식되어야 한다. 적정한 레이트로 IMU들을 안정적으로 유지함으로써, 포즈 업데이트들의 레이트는 (종래의 시스템들에서의 보다 높은 주파수들과 비교할 때) 10-20Hz로 극적으로 감소될 수 있다. [00092] Several other changes can be made when using an electromagnetic tracking system in AR devices. While this pose reporting rate is somewhat good, AR systems may require a much more efficient pose reporting rate. To this end, IMU-based pose tracking can be used in the sensors. Crucially, the IMUs should be kept as stable as possible to increase the efficiency of the pose detection process. The IMUs can be engineered to remain stable for up to 50-100 milliseconds. It should be recognized that some embodiments may utilize an external pose estimator module that may enable pose updates to be reported at a rate of 10-20 Hz (i.e., IMUs may drift over time). By keeping the IMUs stable at a reasonable rate, the rate of pose updates can be dramatically reduced to 10-20 Hz (as compared to the higher frequencies in conventional systems).

[00093] 전자기 추적 시스템이 10% 듀티 사이클로 실행(예컨대, 매 100 밀리초마다 지상 검증(ground truth)에 대해서만 핑잉(pinging))될 수 있는 경우, 이는 AR 시스템의 전력을 보존하는 또 다른 방법일 것이다. 이는, 전자기 추적 시스템이 포즈 추정치를 생성하기 위해 매 100 밀리초 중에서 매 10 밀리초마다 웨이크 업(wake up)한다는 것을 의미하는 것이다. 이는 바로 전력 소비 절약으로 해석되며, 이는 결국 AR 디바이스의 크기, 배터리 수명 및 비용에 영향을 줄 수 있다.[00093] Another way to conserve power in the AR system would be if the electromagnetic tracking system could run at a 10% duty cycle (e.g., only pinging for ground truth every 100 milliseconds). This would mean that the electromagnetic tracking system would wake up every 10 milliseconds out of every 100 milliseconds to generate a pose estimate. This directly translates into power savings, which could ultimately impact the size, battery life, and cost of the AR device.

[00094] 하나 또는 그 초과의 실시예들에서, 듀티 사이클의 이러한 감소는 단지 하나보다는 (도시되지 않은) 2개의 핸드헬드 제어기들을 제공함으로써 전략적으로 활용될 수 있다. 예컨대, 사용자는 2개의 토템들 등을 요구하는 게임을 플레이하고 있을 수 있다. 즉, 다중-사용자 게임에서 2명의 사용자들이 게임을 플레이하기 위해 그들 자신의 토템들/핸드헬드 제어기들을 가질 수 있다. 1개보다는 2개의 제어기들(예컨대, 각각의 핸드에 대한 대칭 제어기들)이 사용되는 경우, 제어기들은 오프셋 듀티 사이클들로 동작할 수 있다. 동일한 개념이 또한 예컨대, 멀티-플레이어 게임을 플레이하는 2명의 상이한 사용자들에 의해 활용되는 제어기들에 적용될 수 있다. [00094] In one or more embodiments, this reduction in duty cycle may be strategically exploited by providing two (not shown) handheld controllers rather than just one. For example, a user may be playing a game that requires two totems, etc. That is, in a multi-player game, two users may have their own totems/handheld controllers to play the game. If two controllers are used rather than one (e.g., symmetric controllers for each hand), the controllers may operate with offset duty cycles. The same concept may also be applied to controllers utilized by two different users playing a multi-player game, for example.

[00095] 이제 도 7을 참조하면, AR 디바이스들의 맥락에서 전자기 추적 시스템을 설명하는 예시적인 흐름도가 설명된다. 702에서, 핸드헬드 제어기는 자기장을 방출한다. 704에서, (헤드셋, 벨트 팩 등에 배치된) 전자기 센서들이 자기장을 검출한다. 706에서, 헤드셋/벨트의 포지션 및 배향이 센서들에서 코일들/IMU들의 거동에 기반하여 결정된다. 708에서, 포즈 정보는 (예컨대, 벨트 팩 또는 헤드셋에 있는) 컴퓨팅 장치에 전달된다. 710에서, 선택적으로, 맵핑 데이터베이스(예컨대, 패스가능 세계 모델)는 실제 세계 좌표들을 가상 세계 좌표들과 상관시키기 위해 참고될 수 있다. 712에서, 가상 콘텐츠는 AR 헤드셋에서 사용자에게 전달될 수 있다. 위에서 설명된 흐름도가 단지 예시적 목적들을 위한 것이며, 제한하는 것으로서 해석되지 않아야 한다는 것이 인식되어야 한다. [00095] Referring now to FIG. 7 , an exemplary flow diagram illustrating an electromagnetic tracking system in the context of AR devices is described. At 702, a handheld controller emits a magnetic field. At 704, electromagnetic sensors (located in the headset, belt pack, etc.) detect the magnetic field. At 706, the position and orientation of the headset/belt are determined based on the behavior of the coils/IMUs in the sensors. At 708, pose information is communicated to a computing device (e.g., in the belt pack or headset). At 710, optionally, a mapping database (e.g., a passable world model) may be consulted to correlate real world coordinates with virtual world coordinates. At 712, virtual content may be delivered to a user in the AR headset. It should be appreciated that the flow diagram described above is for illustrative purposes only and should not be construed as limiting.

[00096] 유리하게, 도 6에서 약술된 것과 유사한 전자기 추적 시스템을 사용하는 것은, 포즈 추적(예컨대, 헤드 포지션 및 배향, 다른 제어기들 및 토템들의 포지션 및 배향)을 가능하게 한다. 이는, AR 시스템으로 하여금, 광학 추적 기술들과 비교할 때, 더 높은 정확도 및 매우 낮은 레이턴시로 가상 콘텐츠를 프로젝팅하도록 허용한다. [00096] Advantageously, using an electromagnetic tracking system similar to that outlined in FIG. 6 enables pose tracking (e.g., head position and orientation, positions and orientations of other controllers and totems). This allows the AR system to project virtual content with higher accuracy and very low latency compared to optical tracking techniques.

[00097] 도 8을 참조하면, 많은 감지 컴포넌트들을 특징으로 하는 시스템 구성이 예시된다. 도 9a-도 9f를 참조하여 아래에서 설명되는 컨트롤 및 퀵 릴리즈 모듈(86)을 또한 특징으로 하는 물리적 멀티코어 리드를 여기서 사용하여, 로컬 프로세싱 및 데이터 모듈(70), 이를테면 벨트 팩에 동작가능하게 커플링(68)된 헤드 장착 웨어러블 컴포넌트(58)가 도시된다. 로컬 프로세싱 및 데이터 모듈(70)은 핸드헬드 컴포넌트(606)에, 여기서는 저전력 블루투스와 같은 무선 연결에 의해 동작가능하게 커플링(100)되며; 핸드헬드 컴포넌트(606)는 또한, 이를테면 저전력 블루투스와 같은 무선 연결에 의해, 헤드 장착 웨어러블 컴포넌트(58)에 직접 동작가능하게 커플링(94)될 수 있다. 일반적으로, 다양한 컴포넌트들의 포즈 검출을 조정하기 위하여 IMU 데이터가 전달되는 경우, 이를테면 수백 또는 수천 사이클/초 또는 그 초과의 범위에서의 고-주파수 연결이 바람직할 수 있고; 이를테면 센서(604) 및 송신기(602) 페어링들에 의해, 초당 수십 사이클들이 전자기 로컬화 감지에 적합할 수 있다. 또한, 사용자 주위의 실세계의 고정 객체들, 이를테면 벽(8)을 표현하는 글로벌 좌표계(10)가 도시된다. 클라우드 자원들(46)이 또한, 로컬 프로세싱 및 데이터 모듈(70), 헤드 장착 웨어러블 컴포넌트(58), 벽(8)에 커플링될 수 있는 자원들, 또는 글로벌 좌표계(10)에 대해 고정된 다른 아이템에 각각 동작가능하게 커플링(42, 40, 88, 90)될 수 있다. 벽(8)에 커플링된, 또는 글로벌 좌표계(10)에 대해 알려진 포지션들 및/또는 배향들을 갖는 자원들은 WiFi 트랜시버(114), 전자기 방출기(602) 및/또는 수신기(604), 주어진 타입의 방사선을 방출하거나 또는 반사하도록 구성된 비콘 또는 반사기(112), 이를테면 적외선 LED 비콘, 셀룰러 네트워크 트랜시버(110), 레이더 방출기 또는 검출기(108), 라이더 방출기 또는 검출기(106), GPS 트랜시버(118), 알려진 검출가능한 패턴(122)을 갖는 포스터 또는 마커, 및 카메라(124)를 포함할 수 있다. 헤드 장착 웨어러블 컴포넌트(58)는, 카메라(124) 검출기들을 보조하도록 구성된 조명 방출기들(130), 이를테면 적외선 카메라(124)용 적외선 방출기들(130) 이외에, 예시된 바와 같이, 유사한 컴포넌트들을 특징으로 하며; 또한, 헤드 장착 웨어러블 컴포넌트(58) 상에 하나 또는 그 초과의 스트레인 게이지들(116)이 있다는 것이 특징화되며, 이 하나 또는 그 초과의 스트레인 게이지들(116)은, 헤드 장착 웨어러블 컴포넌트(58)의 프레임 또는 기계적 플랫폼에 고정식으로 커플링되며 전자기 수신기 센서들(604) 또는 디스플레이 엘리먼트들(62)과 같은 컴포넌트들 간에 그러한 플랫폼의 편향을 결정하도록 구성될 수 있으며, 여기서 이를테면 플랫폼의 얇은 부분, 이를테면 도 8에서 도시된 안경-형 플랫폼 상의 코 위의 부분에서, 플랫폼의 휨이 발생했는지를 이해하는 것이 가치가 있을 수 있다. 헤드 장착 웨어러블 컴포넌트(58)는 또한, 프로세서(128) 및 하나 또는 그 초과의 IMU들(102)을 특징으로 한다. 컴포넌트들 각각은 바람직하게는, 프로세서(128)에 동작가능하게 커플링된다. 유사한 컴포넌트들을 특징으로 하는 핸드헬드 컴포넌트(606)와 로컬 프로세싱 및 데이터 모듈(70)이 예시된다. 도 8에서 도시된 바와 같이, 매우 많은 감지 및 연결 수단들로 인해, 그러한 시스템은 무겁고, 전력이 많이 들고, 크고, 비교적 비쌀 가능성이 있다. 그러나, 예시적 목적들을 위해, 매우 높은 레벨의 연결, 시스템 컴포넌트 통합, 및 포지션/배향 추적을 제공하기 위해 그러한 시스템이 활용될 수 있다. 예컨대, 그러한 구성으로 인해, 다양한 메인 모바일 컴포넌트들(58, 70, 606)은, WiFi, GPS, 또는 셀룰러 신호 삼각측량을 사용하여 글로벌 좌표계에 대한 포지션과 관련하여 로컬화될 수 있으며; 비콘들, 전자기 추적(위에서 설명됨), 레이더, 및 라이더 시스템들은 여전히 추가적인 위치 및/또는 배향 정보 및 피드백을 제공할 수 있다. 상대적 및 절대적 포지션 및 배향에 관한 추가적인 정보를 제공하기 위해, 마커들 및 카메라들이 또한 활용될 수 있다. 예컨대, 동시 로컬화 및 매핑 프로토콜들 또는 "SLAM"에서 활용될 수 있는 데이터를 캡처하여, 헤드 장착 웨어러블 컴포넌트(58)가 어디에 있는지 그리고 이 컴포넌트(58)가 다른 컴포넌트들에 대해 어떻게 배향되는지를 결정하기 위해, 헤드 장착 웨어러블 컴포넌트(58)에 커플링된 것으로 도시된 것들과 같은 다양한 카메라 컴포넌트들(124)이 활용될 수 있다. [00097] Referring to FIG. 8, a system configuration featuring a number of sensing components is illustrated. Referring to FIGS. 9a-9f , a physical multicore lead is illustrated here, which also features a control and quick release module (86) described below, a local processing and data module (70), such as a head-mounted wearable component (58) operably coupled (68) to a belt pack. The local processing and data module (70) is operably coupled (100) to a handheld component (606), here by a wireless connection, such as low power Bluetooth; the handheld component (606) may also be operably coupled (94) directly to the head-mounted wearable component (58), such as by a wireless connection, such as low power Bluetooth. In general, where IMU data is transmitted to coordinate pose detection of various components, high-frequency coupling, such as in the range of hundreds or thousands of cycles per second or more, may be desirable; for example, tens of cycles per second may be adequate for electromagnetic localization sensing, for example, with sensor (604) and transmitter (602) pairings. Also depicted is a global coordinate system (10) representing stationary objects in the real world around the user, such as a wall (8). Cloud resources (46) may also be operatively coupled (42, 40, 88, 90) to the local processing and data module (70), the head-mounted wearable component (58), resources that may be coupled to the wall (8), or other items that are fixed relative to the global coordinate system (10), respectively. Resources coupled to a wall (8) or having known positions and/or orientations with respect to the global coordinate system (10) may include a WiFi transceiver (114), an electromagnetic emitter (602) and/or receiver (604), a beacon or reflector (112) configured to emit or reflect a given type of radiation, such as an infrared LED beacon, a cellular network transceiver (110), a radar emitter or detector (108), a lidar emitter or detector (106), a GPS transceiver (118), a poster or marker having a known detectable pattern (122), and a camera (124). The head-mounted wearable component (58) features similar components as illustrated, in addition to illumination emitters (130) configured to assist the camera (124) detectors, such as infrared emitters (130) for an infrared camera (124); Additionally, the head-mounted wearable component (58) is characterized by having one or more strain gauges (116) on the head-mounted wearable component (58), the one or more strain gauges (116) being fixedly coupled to the frame or mechanical platform of the head-mounted wearable component (58) and configured to determine a deflection of such platform between components such as the electromagnetic receiver sensors (604) or the display elements (62), wherein it may be valuable to understand whether a bend in the platform has occurred, for example, in a thin portion of the platform, such as above the nose on the glasses-like platform as illustrated in FIG. 8 . The head-mounted wearable component (58) is also characterized by a processor (128) and one or more IMUs (102). Each of the components is preferably operably coupled to the processor (128). A handheld component (606) and a local processing and data module (70) featuring similar components are illustrated. As illustrated in FIG. 8, due to the numerous sensing and connectivity means, such a system would likely be heavy, power hungry, large, and relatively expensive. However, for illustrative purposes, such a system could be utilized to provide a very high level of connectivity, system component integration, and position/orientation tracking. For example, with such a configuration, the various main mobile components (58, 70, 606) could be localized with respect to their positions relative to a global coordinate system using WiFi, GPS, or cellular signal triangulation; beacons, electromagnetic tracking (as described above), radar, and lidar systems could still provide additional position and/or orientation information and feedback. Markers and cameras could also be utilized to provide additional information regarding relative and absolute position and orientation. For example, various camera components (124), such as those illustrated as coupled to the head-mounted wearable component (58), may be utilized to capture data that may be utilized in simultaneous localization and mapping protocols, or “SLAM,” to determine where the head-mounted wearable component (58) is and how it is oriented relative to other components.

[00098] 도 9a-도 9f를 참조하면, 컨트롤 및 퀵 릴리즈 모듈(86)의 다양한 양상들이 도시된다. 도 9a를 참조하면, 2개의 외부 하우징 컴포넌트들은 기계적 래칭으로 향상될 수 있는 자기 커플링 구성을 사용하여 함께 커플링된다. 연관된 시스템의 동작을 위한 버튼들(136)이 포함될 수 있다. 도 9b는 버튼들(136) 및 하부의 최상부 인쇄 회로 보드(138)가 도시되어 있는 부분 절취도를 예시한다. 도 9c를 참조하면, 버튼들(136) 및 하부의 최상부 인쇄 회로 보드(138)가 제거되어, 암형 접촉 핀 어레이(140)를 볼 수 있다. 도 9d를 참조하면, 하우징(134)의 대향하는 부분이 제거되어, 하부 인쇄 회로 보드(142)를 볼 수 있다. 도 9e에 도시된 바와 같이, 하부 인쇄 회로 보드(142)가 제거되어, 수형 접촉 핀 어레이(144)를 볼 수 있다. 도 9f의 단면도를 참조하면, 수형 핀들 또는 암형 핀들 중 적어도 하나는 이들이 각각의 핀의 종축을 따라 눌릴 수 있도록 스프링-로딩되게 구성되며; 핀들은 "포고 핀들(pogo pins)"로 불릴 수 있으며, 일반적으로 구리 또는 금과 같은 고전도성 재료를 포함한다. 어셈블리될 때, 예시된 구성은 46개의 수형 핀들을 암형 핀들과 결합(mate)하며, 전체 어셈블리는 그것을 수동으로 당겨 분리하고 핀 어레이들(140, 144)의 둘레 주위에 배향되는 북 및 남 자석들을 사용하여 발현될 수 있는 자기 인터페이스(146) 로드를 극복함으로써 둘 로(in half) 퀵-릴리즈 디커플링될 수 있다. 일 실시예에서, 46개의 포고 핀들을 압축하는 것으로부터 약 2kg 로드는 약 4kg의 폐쇄 유지력으로 반작용된다. 어레이 내의 핀들은 약 1.3mm만큼 분리될 수 있고, 핀들은 USB 3.0, HDMI 2.0, I2S 신호들, GPIO 및 MIPI 구성들을 지원하기 위한 연선들 또는 다른 조합들과 같은 다양한 타입들의 전도성 라인들, 및 일 실시예에서, 약 4amps/5 볼트까지를 위해 구성되는 고전류 아날로그 라인들 및 접지들에 동작 가능하게 커플링될 수 있다. [00098] Referring to FIGS. 9A-9F , various aspects of the control and quick release module (86) are illustrated. Referring to FIG. 9A , the two outer housing components are coupled together using a magnetic coupling configuration that may be enhanced with mechanical latching. Buttons (136) for operation of the associated system may be included. FIG. 9B illustrates a partial cutaway view showing the buttons (136) and the lower top printed circuit board (138). Referring to FIG. 9C , the buttons (136) and the lower top printed circuit board (138) are removed, revealing the female contact pin array (140). Referring to FIG. 9D , an opposing portion of the housing (134) is removed, revealing the lower printed circuit board (142). As shown in FIG. 9E , the lower printed circuit board (142) is removed, revealing the male contact pin array (144). Referring to the cross-sectional view of FIG. 9f, at least one of the male pins or the female pins is configured to be spring-loaded such that they can be pressed along the longitudinal axis of the respective pin; the pins may be referred to as "pogo pins" and typically comprise a highly conductive material, such as copper or gold. When assembled, the illustrated configuration mates the 46 male pins with the female pins, and the entire assembly can be quick-released in half by manually pulling them apart and overcoming the magnetic interface (146) load that can be developed using north and south magnets oriented around the perimeter of the pin arrays (140, 144). In one embodiment, an approximately 2 kg load from compressing the 46 pogo pins is reacted with a closing holding force of approximately 4 kg. The pins within the array can be separated by about 1.3 mm and can be operably coupled to various types of conductive lines, such as twisted pairs or other combinations to support USB 3.0, HDMI 2.0, I2S signals, GPIO and MIPI configurations, and, in one embodiment, high current analog lines and grounds configured for up to about 4 amps/5 volts.

[00099] 도 10을 참조하면, 예컨대, 도 10에 특징화된 헤드 장착 컴포넌트(58)와 같이, 비교적 슬림한 헤드 장착 컴포넌트에 이르고 그리고 다양한 컴포넌트들의 무게 및 부피를 최소화하는 것이 가능한 최소화된 컴포넌트/피처 세트를 갖는 것이 도움이 된다. 따라서, 도 8에 도시된 다양한 컴포넌트들의 다양한 치환들 및 조합들이 활용될 수 있다. [00099] Referring to FIG. 10, it would be helpful to have a minimized component/feature set that allows for a relatively slim head mounted component, such as the head mounted component (58) featured in FIG. 10, and minimizes the weight and volume of the various components. Accordingly, various permutations and combinations of the various components illustrated in FIG. 8 may be utilized.

[000100] 도 11a를 참조하면, 헤드 장착 컴포넌트(58)에 커플링되는 전자기 감지 코일 어셈블리(604)(즉, 하우징에 커플링되는 3개의 개별적인 코일들)가 도시되며; 이러한 구성은 전체 어셈블리에 부가적인 기하구조를 부가하며, 이는 바람직하지 않을 수 있다. 도 11b를 참조하면, 도 11a의 구성에서와 같이 박스 또는 단일 하우징에 코일들을 하우징하기 보다는, 개별적인 코일들이 도 11b에 도시된 바와 같이 헤드 장착 컴포넌트(58)의 다양한 구조들로 통합될 수 있다. 예컨대, x-축 코일(148)은 헤드 장착 컴포넌트(58)의 일 부분(예컨대, 프레임의 중심)에 배치될 수 있다. 유사하게, y-축 코일(150)은 헤드 장착 컴포넌트(58)의 다른 부분(예컨대, 프레임의 양쪽 최하부 측)에 배치될 수 있다. 유사하게, z-축 코일(152)은 헤드 장착 컴포넌트(58)의 또 다른 부분(예컨대, 프레임의 양쪽 최상부 측)에 배치될 수 있다. [000100] Referring to FIG. 11a, an electromagnetic sensing coil assembly (604) is illustrated (i.e., three individual coils coupled to the housing) coupled to the head mounted component (58); this configuration adds additional geometry to the overall assembly, which may be undesirable. Referring to FIG. 11b, rather than housing the coils in a box or single housing as in the configuration of FIG. 11a, the individual coils may be integrated into various structures of the head mounted component (58), as illustrated in FIG. 11b. For example, the x-axis coil (148) may be positioned in one portion of the head mounted component (58), such as in the center of the frame. Similarly, the y-axis coil (150) may be positioned in another portion of the head mounted component (58), such as on either bottom side of the frame. Similarly, the z-axis coil (152) may be placed on another portion of the head mounted component (58), e.g., on either top side of the frame.

[000101] 도 12a-도 12e는 필드 감도를 증가시키기 위해 전자기 센서에 커플링되는 페라이트 코어를 특징화하기 위한 다양한 구성들을 예시한다. 도 12a를 참조하면, 페라이트 코어는 솔리드 큐브(1202)일 수 있다. 솔리드 큐브(1202)가 필드 감도를 증가시키는 데 가장 효과적 일 수 있지만, 이는 또한 도 12b-도 12e에 도시된 나머지 구성들과 비교할 때 가장 무거울 수도 있다. 도 12b를 참조하면, 복수의 페라이트 디스크들(1204)이 전자기 센서에 커플링될 수 있다. 유사하게, 도 12c를 참조하면, 일 축 공기 코어(1206)를 갖는 솔리드 큐브가 전자기 센서에 커플링될 수 있다. 도 12c에 도시된 바와 같이, 개방 공간(즉, 공기 코어)은 일 축을 따라 솔리드 큐브에 형성될 수 있다. 이는 필요한 필드 감도를 여전히 제공하면서 큐브의 무게를 감소시킬 수 있다. 또 다른 실시예에서, 도 12d를 참조하면, 3 축 공기 코어(1208)를 갖는 솔리드 큐브가 전자기 센서에 커플링될 수 있다. 이 구성에서, 솔리드 큐브는 3개의 모든 축들을 따라 속이 비워져서 큐브의 무게를 상당히 감소시킨다. 도 12e를 참조하면, 플라스틱 하우징(1210)을 갖는 페라이트 로드(ferrite rod)가 또한 전자기 센서에 커플링될 수 있다. 도 12b-도 12e의 실시예들은, 위에서 논의된 바와 같이, 도 12a의 솔리드 코어 구성보다 무게가 더 가볍고 질량을 절감하는 데 활용될 수 있다는 것이 인식되어야 한다. [000101] FIGS. 12a-12e illustrate various configurations for characterizing a ferrite core coupled to an electromagnetic sensor to increase field sensitivity. Referring to FIG. 12a, the ferrite core may be a solid cube (1202). While the solid cube (1202) may be the most effective in increasing field sensitivity, it may also be the heaviest as compared to the remaining configurations illustrated in FIGS. 12b-12e. Referring to FIG. 12b, a plurality of ferrite disks (1204) may be coupled to the electromagnetic sensor. Similarly, referring to FIG. 12c, a solid cube having a uniaxial air core (1206) may be coupled to the electromagnetic sensor. As illustrated in FIG. 12c, an open space (i.e., air core) may be formed in the solid cube along one axis. This may reduce the weight of the cube while still providing the required field sensitivity. In another embodiment, referring to FIG. 12d, a solid cube having a three-axis air core (1208) may be coupled to the electromagnetic sensor. In this configuration, the solid cube is hollow along all three axes, significantly reducing the weight of the cube. Referring to FIG. 12e, a ferrite rod having a plastic housing (1210) may also be coupled to the electromagnetic sensor. It should be appreciated that the embodiments of FIGS. 12b-12e may be utilized to provide lighter weight and mass savings than the solid core configuration of FIG. 12a, as discussed above.

[000102] 도 13a-도 13c를 참조하면, 시분할 멀티플렉싱("TDM")이 또한 질량을 절감하는 데 활용될 수 있다. 예컨대, 도 13a를 참조하면, 3-코일 전자기 수신기 센서에 대한 종래의 로컬 데이터 프로세싱 구성이 도시되며, 여기서 아날로그 전류들은 X, Y 및 Z 코일들(1302, 1304, 1306) 각각으로부터 들어오고, 전치-증폭기(1308)로 진행하고, 대역통과 필터(1310)로, PA(1312)로, 아날로그-디지털 변환기(1314)를 통과하여, 궁극적으로는 디지털 신호 프로세서(1316)로 진행된다. 도 13b의 송신기 구성 및 도 13c의 수신기 구성을 참조하면, 시분할 멀티플렉싱은 각각의 코일 센서 체인이 자기 자신의 증폭기들 등을 요구하지 않도록 하드웨어를 공유하기 위해 활용될 수 있다. 이것은 도 13b에 도시된 TDM 스위치(1320)를 통해 달성될 수 있는데, 이는 동일한 세트의 하드웨어 컴포넌트들(증폭기들 등)을 사용하여 다수개의 송신기들 및 수신기들로부터의 그리고 다수개의 송신기들 및 수신기들로의 신호들의 프로세싱을 가능하게 한다. 하드웨어 오버헤드를 절약하기 위해 멀티플렉싱하는 것 및 센서 하우징들을 제거하는 것 이외에, 신호 대 잡음비들은 하나 초과의 세트의 전자기 센서들을 가짐으로써 증가될 수 있고, 각각의 세트는 단일의 더 큰 코일 세트에 비해 비교적 작고; 또한, 일반적으로 근접한 다수의 감지 코일들을 갖기 위해 필요한 낮은-사이드 주파수(low-side frequency) 한계들은 대역폭 요건 개선들을 가능하게 하도록 개선될 수 있다. 또한, 멀티플렉싱이 일반적으로 시간에 따라 라디오 주파수 신호들의 수신을 확산시키고, 이는 일반적으로 보다 조악한(dirtier) 신호들을 초래한다는 점에서, 멀티플렉싱과의 트레이드오프가 존재할 수 있고; 따라서, 멀티플렉싱된 시스템들에 더 큰 코일 직경이 요구될 수 있다. 예컨대, 멀티플렉싱된 시스템이 측면 치수가 9mm인 큐빅 코일 센서 박스를 요구할 수 있는 경우, 멀티플렉싱되지 않은 시스템은 유사한 성능을 위해 단지 측면 치수가 7mm인 큐빅 코일 박스만을 요구할 수 있고; 따라서, 기하구조 및 질량을 최소화하는데 있어 트레이드오프들이 존재할 수 있다. [000102] Referring to FIGS. 13A-13C , time division multiplexing (“TDM”) may also be utilized to reduce mass. For example, referring to FIG. 13A , a conventional local data processing configuration for a 3-coil electromagnetic receiver sensor is illustrated, wherein analog currents come from each of the X, Y, and Z coils (1302, 1304, 1306), go to a pre-amplifier (1308), through a bandpass filter (1310), through a PA (1312), through an analog-to-digital converter (1314), and ultimately to a digital signal processor (1316). Referring to the transmitter configuration of FIG. 13B and the receiver configuration of FIG. 13C , time division multiplexing may be utilized to share hardware so that each coil sensor chain does not require its own amplifiers, etc. This can be accomplished via the TDM switch (1320) illustrated in FIG. 13b, which allows for processing of signals from and to multiple transmitters and receivers using the same set of hardware components (amplifiers, etc.). In addition to saving hardware overhead by multiplexing and eliminating sensor housings, signal-to-noise ratios can be increased by having more than one set of electromagnetic sensors, each set being relatively small compared to a single larger coil set; furthermore, the low-side frequency limitations typically required to have multiple sensing coils in close proximity can be improved to allow for improved bandwidth requirements. Additionally, there can be a tradeoff with multiplexing in that multiplexing typically spreads out the reception of radio frequency signals over time, which typically results in dirtier signals; thus, larger coil diameters may be required in multiplexed systems. For example, while a multiplexed system may require a cubic coil sensor box with a lateral dimension of 9 mm, a non-multiplexed system may require only a cubic coil box with a lateral dimension of 7 mm for similar performance; thus, there may be trade-offs in minimizing geometry and mass.

[000103] 특정 시스템 컴포넌트, 이를테면, 헤드 장착 컴포넌트(58)가 2개 또는 그 초과의 전자기 코일 센서 세트들을 특징으로 하는 다른 실시예에서, 시스템은 시스템의 성능을 최적화하기 위해 서로 가장 가까운 센서 및 방출기 페어링을 선택적으로 활용하도록 구성될 수 있다. [000103] In other embodiments where a particular system component, such as a head mounted component (58), features two or more sets of electromagnetic coil sensors, the system can be configured to selectively utilize the sensor and emitter pairings that are closest to each other to optimize the performance of the system.

[000104] 도 14를 참조하면, 일 실시예에서, 사용자가 자신의 웨어러블 컴퓨팅 시스템에 전력을 공급(160)한 이후에, 헤드 장착 컴포넌트 어셈블리는 실제 세계 글로벌 좌표계에 대한 헤드 포즈(즉, 포지션 및 배향)를 결정하고 업데이트하기 위해, IMU와 카메라 데이터(이를테면, 더 큰 원시(raw) 프로세싱 마력이 존재할 수 있는 벨트 팩 프로세서에서, 예컨대, SLAM 분석을 위해 사용되는 카메라 데이터)의 조합을 캡처(162)할 수 있다. 사용자는 또한, 예컨대, 증강 현실 게임을 플레이하기 위해 핸드헬드 컴포넌트를 활성화(164)할 수 있고, 핸드헬드 컴포넌트는 벨트 팩 및 헤드 장착 컴포넌트 중 하나 또는 둘 모두에 동작가능하게 커플링된 전자기 송신기를 포함(166)할 수 있다. 하나 또는 그 초과의 전자기장 코일 수신기 세트들(즉, 한 세트는 3개의 상이하게-배향된 개별 코일들임)이 송신기로부터의 자속을 캡처하기 위해 헤드 장착 컴포넌트에 커플링되며, 이 자속은 헤드 장착 컴포넌트와 핸드헬드 컴포넌트 간의 포지션 또는 배향 차이(또는 "델타")를 결정하기 위해 활용(168)될 수 있다. 글로벌 좌표계에 대해 포즈를 결정하는 것을 보조하는 헤드 장착 컴포넌트와 헤드 장착 컴포넌트에 대해 핸드헬드의 상대적 위치 및 배향을 결정하는 것을 보조하는 핸드헬드의 조합은, 시스템이 글로벌 좌표계에 대해 각각의 컴포넌트가 어디에 있는지를 일반적으로 결정하게 허용하고, 따라서, 사용자의 헤드 포즈 및 핸드헬드 포즈는 핸드헬드 컴포넌트의 움직임들 및 회전들을 사용하는 증강 현실 이미지 피처들 및 상호작용의 프리젠테이션을 위해 바람직하게는, 비교적 낮은 레이턴시로 추적(170)될 수 있다. [000104] Referring to FIG. 14, in one embodiment, after the user powers on his or her wearable computing system (160), the head mounted component assembly may capture (162) a combination of IMU and camera data (e.g., camera data used for SLAM analysis, e.g., on a belt pack processor where greater raw processing horsepower may be present) to determine and update head pose (i.e., position and orientation) relative to a real-world global coordinate system. The user may also activate (164) the handheld component to play an augmented reality game, for example, wherein the handheld component may include an electromagnetic transmitter operably coupled to one or both of the belt pack and head mounted component (166). One or more sets of electromagnetic field coil receivers (i.e., a set being three differently-oriented individual coils) are coupled to the head-mounted component to capture flux from the transmitter, which flux can be utilized (168) to determine a position or orientation difference (or "delta") between the head-mounted component and the handheld component. The combination of the head-mounted component assisting in determining pose with respect to a global coordinate system and the handheld assisting in determining the relative position and orientation of the handheld with respect to the head-mounted component allows the system to generally determine where each component is with respect to the global coordinate system, and thus the user's head pose and handheld pose can be preferably tracked (170) with relatively low latency for presentation of augmented reality image features and interactions that utilize movements and rotations of the handheld component.

[000105] 도 15를 참조하면, 사용자의 헤드 포즈 및 핸드헬드 포즈가 핸드헬드 컴포넌트의 움직임들 및 회전들을 사용하는 증강 현실 이미지 피처들 및 상호작용의 프리젠테이션을 위해, 바람직하게는 비교적 낮은 레이턴시로 추적(180)될 수 있도록, 시스템이 헤드 장착 컴포넌트 및 핸드헬드 컴포넌트 둘 모두의 포즈를 결정하는 것(172 및 176, 178)을 보조하기 위해 이용가능한 더 많은 감지 디바이스들 및 구성들을 갖는다는 것을 제외하고, 실시예가 도 14의 것과 다소 유사하게 예시된다. [000105] Referring to FIG. 15, an embodiment is illustrated somewhat similarly to that of FIG. 14, except that the system has more sensing devices and configurations available to assist in determining poses of both the head mounted component and the handheld component (172 and 176, 178) such that the user's head pose and handheld pose can be tracked (180) for presentation of augmented reality image features and interactions using movements and rotations of the handheld component, preferably with relatively low latency.

[000106] 구체적으로, 사용자가 자신의 웨어러블 컴퓨팅 시스템에 전력을 공급(160)한 이후에, 헤드 장착 컴포넌트는 실세계 글로벌 좌표계에 대한 헤드 포즈를 결정하고 업데이트하기 위해 SLAM 분석을 위한 IMU와 카메라 데이터의 조합을 캡처한다. 시스템은 글로벌 좌표계의 다양한 양상들에 또는 하나 또는 그 초과의 이동가능한 컴포넌트들에 연결될 수 있는, Wi-Fi, 셀룰러, 비콘들, 레이더, 라이더, GPS, 마커들 및/또는 다른 카메라들과 같이, 환경에서 다른 로컬화 자원들의 존재를 검출하도록 추가로 구성(172)될 수 있다. [000106] Specifically, after the user powers on his or her wearable computing system (160), the head mounted component captures a combination of IMU and camera data for SLAM analysis to determine and update head pose with respect to a real-world global coordinate system. The system may be further configured (172) to detect the presence of other localization resources in the environment, such as Wi-Fi, cellular, beacons, radar, lidar, GPS, markers, and/or other cameras, which may be connected to various aspects of the global coordinate system or to one or more movable components.

[000107] 사용자는 또한, 예컨대, 증강 현실 게임을 플레이하기 위해 핸드헬드 컴포넌트를 활성화(174)할 수 있고, 핸드헬드 컴포넌트는 벨트 팩 및 헤드 장착 컴포넌트 중 하나 또는 둘 모두에 동작가능하게 커플링된 전자기 송신기를 포함(176)할 수 있다. 다른 로컬화 자원들이 또한 유사하게 활용될 수 있다. 헤드 장착 컴포넌트에 커플링된 하나 또는 그 초과의 전자기장 코일 수신기 세트들(예컨대, 한 세트는 3개의 상이하게-배향된 개별 코일들임)이 전자기 송신기로부터의 자속을 캡처하기 위해 사용될 수 있다. 이 캡처된 자속은 헤드 장착 컴포넌트와 핸드헬드 컴포넌트 간의 포지션 또는 배향 차이(또는 "델타")를 결정하기 위해 활용(178)될 수 있다. [000107] The user may also activate the handheld component (174), for example, to play an augmented reality game, wherein the handheld component may include an electromagnetic transmitter operably coupled to one or both of the belt pack and the head mounted component (176). Other localization resources may also be similarly utilized. One or more sets of electromagnetic coil receivers (e.g., a set being three differently-oriented individual coils) coupled to the head mounted component may be used to capture magnetic flux from the electromagnetic transmitter. This captured magnetic flux may be utilized (178) to determine a position or orientation difference (or “delta”) between the head mounted component and the handheld component.

[000108] 따라서, 사용자의 헤드 포즈 및 핸드헬드 포즈는 핸드헬드 컴포넌트의 움직임 또는 회전들을 사용하는 AR 시스템과의 상호작용을 위해 그리고/또는 AR 컨텐츠의 프리젠테이션을 위해 비교적 낮은 레이턴시로 추적(180)될 수 있다. [000108] Thus, the user's head pose and handheld pose can be tracked (180) with relatively low latency for interaction with an AR system using movements or rotations of the handheld component and/or for presentation of AR content.

[000109] 도 16a 및 도 16b를 참조하면, 도 8의 구성과 유사한 구성의 다양한 양상들이 도시된다. 도 16a의 구성은, 라이더(106) 타입의 깊이 센서 이외에, 도 16a의 구성이 예시 목적들을 위해 일반적 깊이 카메라 또는 깊이 센서(154)(이는, 예컨대, 스테레오 삼각측량 스타일 깊이 센서(이를테면, 패시브 스테레오 깊이 센서, 텍스처 프로젝션 스테레오 깊이 센서 또는 구조화된 광 스테레오 깊이 센서) 또는 비행 시간 스타일 깊이 센서(이를테면, 라이더 깊이 센서 또는 변조 방출 깊이 센서)일 수 있음)를 특징으로 한다는 점에서 도 8의 구성과 상이하며; 추가로, 도 16a의 구성은, 부가적인 전방(foward facing) "세계" 카메라(124)(이는, 720p 범위 해상도 센서 성능을 갖는 그레이스케일 카메라일 수 있음)뿐만 아니라 비교적 높은 해상도(high-resolution) "사진 카메라"(156)(이는, 예컨대, 2 메가픽셀 또는 이 초과의 해상도 센서 성능을 갖는 풀 컬러 카메라(full color camera)일 수 있음)를 갖는다. 도 16b는, 도 16b를 참조로 아래에서 추가로 설명되는 바와 같이, 예시 목적들을 위해 도 16a의 구성의 부분 직교도를 도시한다. [000109] Referring to FIGS. 16A and 16B , various aspects of a configuration similar to that of FIG. 8 are illustrated. The configuration of FIG. 16A differs from the configuration of FIG. 8 in that, in addition to a depth sensor of the lidar (106) type, the configuration of FIG. 16A features, for illustrative purposes, a generic depth camera or depth sensor (154) (which may be, for example, a stereo triangulation style depth sensor (such as a passive stereo depth sensor, a texture projection stereo depth sensor, or a structured light stereo depth sensor) or a time-of-flight style depth sensor (such as a lidar depth sensor or a modulated emission depth sensor)); Additionally, the configuration of FIG. 16a has an additional forward facing "world" camera (124) (which may be a grayscale camera having a 720p range resolution sensor performance) as well as a relatively high-resolution "photo camera" (156) (which may be, for example, a full color camera having a 2 megapixel or greater resolution sensor performance). FIG. 16b illustrates a partial orthogonal view of the configuration of FIG. 16a for illustrative purposes, as further described below with reference to FIG. 16b.

[000110] 다시 도 16a를 그리고 앞서 논의된 스테레오 대 비행 시간 스타일 깊이 센서들을 참조하면, 이들 깊이 센서 타입들 각각이 본원에서 개시되는 웨어러블 컴퓨팅 솔루션에 이용될 수 있지만, 이 각각은 다양한 장점들 및 단점들을 갖는다. 예컨대, 다수의 깊이 센서들은 블랙 표면들 및 반짝이는(shiny) 또는 반사성 표면들로 인한 난제들을 갖는다. 패시브 스테레오 깊이 감지는 깊이 카메라 또는 센서로 깊이를 계산하기 위해 삼각측량을 하는 비교적 단순한 방법이지만, 이는 넓은 시야("FOV")가 요구되는 경우 난제시될 수 있고, 비교적 상당한 컴퓨팅 자원을 요구할 수 있으며; 추가로, 이러한 센서 타입은 에지 검출로 인한 난제들을 가질 수 있으며, 이는 당면하는(at hand) 특정 사용 경우에 중요할 수 있다. 패시브 스테레오는 텍스처 없는 벽(textureless wall)들, 낮은 조명 상황들 및 반복되는 패턴으로 인한 난제들을 가질 수 있다. 패시브 스테레오 깊이 센서들은 Intel(RTM) 및 Aquifi(RTM)와 같은 제조사들로부터 입수가능하다. 텍스처 프로젝션을 갖는 스테레오(또한, "액티브 스테레오"로 알려짐)는 패시브 스테레오와 유사하나, 텍스처 프로젝터는 환경 상에 프로젝션 패턴을 브로드캐스팅하며, 브로드캐스팅되는 텍스처가 많으면, 깊이 계산을 위해 삼각측량하는데 있어 더 큰 정확도가 이용가능하다. 액티브 스테레오는 또한 비교적 많은 컴퓨트 자원을 요구할 수 있으며, 넓은 FOV가 요구될 때 난제들을 제시하며, 에지들 검출에 다소 차선일수 있지만, 텍스처 없는 벽들을 갖는데 효과적이라는 점에서 패시브 스테레오의 난제들 중 일부를 해결하며, 낮은 조명에서 양호하며 그리고 일반적으로, 반복되는 패턴들이 갖는 문제점들을 갖지 않는다. 액티브 스테레오 깊이 센서들은 Intel(RTM) 및 Aquifi(RTM)와 같은 제조사들로부터 입수가능하다. 구조화된 광을 갖는 스테레오, 이를테면 Primesense,Inc.(RTM)에 의해 개발되고 Kinect(RTM)이란 상표명하에 입수가능한 시스템들 뿐만 아니라, Mantis Vision,Inc.(RTM)로부터 입수가능한 시스템들은, 일반적으로, 단일 카메라/프로젝터 페어링을 활용하며, 프로젝터는 선험적으로 알려진 도트들의 패턴을 브로드캐스팅하도록 구성된다는 점에서 특화된다. 본질적으로, 시스템은 브로드캐스팅되는 패턴을 알며, 이 시스템은 결정될 변수가 깊이임을 안다. 이러한 구성들은 컴퓨트 로드에 비교적 효율적일 수 있으며, 넓은 FOV 요구 시나리오들뿐만 아니라 다른 인근 디바이스들로부터 브로드캐스팅되는 주변 광 및 패턴들을 갖는 시나리오들에서 난제시될 수 있으나, 다수의 시나리오들에서 상당히 효과적이고 효율적일 수 있다. 변조 비행 시간 타입 깊이 센서들, 이를테면 PMD Technologies(RTM),A.G. 및 SoftKinetic Inc.(RTM)로부터 입수가능한 센서들로, 방출기는 진폭 변조 광의 파, 이를테면 사인파를 전송하도록 구성될 수 있고; 일부 구성들에서 인근에 또는 심지어 오버랩되게 포지셔닝될 수 있는 카메라 컴포넌트는 카메라 컴포넌트의 픽셀들 각각 상에서 리턴 신호(returning signal)를 수신하며, 깊이 맵핑이 결정/계산될 수 있다. 이러한 구성들은 기하구조가 비교적 컴팩트하며, 정확도가 높고, 컴퓨트 로드가 낮을 수 있으나, (이를테면, 객체들의 에지들에서) 이미지 해상도, 다중-경로 에러들(이를테면, 센서가 반사성 또는 반짝이는 코너로 겨냥되고, 검출기가 결국 하나 초과의 리턴 경로를 수신하게 되어, 일부 깊이 탐지 앨리어싱(aliasing)이 있게 됨)와 관련하여 난제시될 수 있다. 앞서 언급된 라이더로 또한 지칭될 수 있는 직접 비행 시간 센서(direct time of flight sensor)들은 이를테면 LuminAR(RTM) 및 Advanced Scientific Concepts,Inc.(RTM)의 공급자들로부터 입수가능하다. 이러한 비행 시간 구성들로, 일반적으로 광의 펄스(이를테면, 피코초, 나노초 또는 펨토초 길이 광 펄스)가 이 광 핑으로 그 주위로 배향된 세계를 휩싸도록(bathe) 전송되며; 그런 다음, 카메라 센서 상의 각각의 픽셀은 리턴을 위해 그 펄스를 대기하며, 광속(speed of light)을 알면, 각각의 픽셀에서의 거리가 계산될 수 있다. 이러한 구성들은 변조 비행 시간 센서 구성들의 장점들(베이스라인 없음, 비교적 넓은 FOV, 높은 정확도, 비교적 낮은 컴퓨트 로드 등) 및 또한 몇만 헤르츠와 같은 비교적 높은 프레임레이트들의 장점들의 많은 장점들을 가질 수 있다. 이들은 또한 비교적 비싸고, 비교적 낮은 해상도를 가지며, 밝은 광에 민감하고, 다중-경로 에러들에 민감할 수 있고; 이들은 또한 비교적 크고 무거울 수 있다. [000110] Referring back to FIG. 16A and the stereo vs. time-of-flight style depth sensors discussed previously, while each of these depth sensor types can be utilized in the wearable computing solutions disclosed herein, each has various advantages and disadvantages. For example, many depth sensors have challenges with black surfaces and shiny or reflective surfaces. Passive stereo depth sensing is a relatively simple method of triangulating depth with a depth camera or sensor, but can be challenging when a wide field of view (“FOV”) is required and can require relatively significant computing resources; additionally, this sensor type can have challenges with edge detection, which can be important for certain use cases at hand. Passive stereo can have challenges with textureless walls, low-light situations, and repeating patterns. Passive stereo depth sensors are available from manufacturers such as Intel (RTM) and Aquifi (RTM). Stereo with texture projection (also known as "active stereo") is similar to passive stereo, but the texture projector broadcasts projection patterns into the environment, and the more textures being broadcast, the greater the accuracy available for triangulating the depth. Active stereo can also be relatively computationally intensive, presents challenges when large FOVs are required, and can be somewhat suboptimal at edge detection, but it addresses some of the challenges of passive stereo in that it is effective with textureless walls, performs well in low light, and generally does not have the problems that repeating patterns have. Active stereo depth sensors are available from manufacturers such as Intel (RTM) and Aquifi (RTM). Stereo systems with structured light, such as those developed by Primesense, Inc. (RTM) and available under the trade name Kinect (RTM), as well as those available from Mantis Vision, Inc. (RTM), are specialized in that they typically utilize a single camera/projector pairing, with the projector configured to broadcast a pattern of dots that is known a priori. Essentially, the system knows the pattern that is being broadcast, and the system knows that the variable to be determined is depth. Such configurations can be relatively efficient in terms of compute load, and can be challenging in scenarios with wide FOV requirements as well as scenarios with ambient light and patterns broadcast from other nearby devices, but can be quite effective and efficient in many scenarios. Modulated time-of-flight type depth sensors, such as those available from PMD Technologies (RTM), A.G. and SoftKinetic Inc. (RTM), wherein the emitter can be configured to transmit a wave of amplitude-modulated light, such as a sine wave; In some configurations, a camera component, which may be positioned adjacent or even overlapping, receives a returning signal on each of the pixels of the camera component, and depth mapping can be determined/computed. Such configurations may have relatively compact geometry, high accuracy, and low compute load, but may present challenges with respect to image resolution (e.g., at the edges of objects), multi-path errors (e.g., when the sensor is aimed at a reflective or shiny corner, and the detector ends up receiving more than one return path, resulting in some depth detection aliasing). Direct time of flight sensors, which may also be referred to as lidar as mentioned above, are available from suppliers such as LuminAR(RTM) and Advanced Scientific Concepts, Inc.(RTM). With these time-of-flight configurations, a pulse of light (e.g., a picosecond, nanosecond or femtosecond long light pulse) is typically transmitted such that it bathes the world around it in this light ping; each pixel on the camera sensor then waits for that pulse to return, and given the speed of light, the distance to each pixel can be calculated. These configurations can have many of the advantages of modulated time-of-flight sensor configurations (no baseline, relatively wide FOV, high accuracy, relatively low compute load, etc.) as well as relatively high frame rates, such as tens of thousands of hertz. They can also be relatively expensive, have relatively low resolution, are sensitive to bright light, and are susceptible to multi-path errors; and they can also be relatively large and heavy.

[000111] 도 16b를 참조하면, 부분적 평면도는 눈 추적, 관측 및/또는 이미지 캡처를 가능하게 하기 위해 눈들(12)을 향해 지향된 광 또는 방사선 소스들(16)(이를테면, 적외선) 및 시야들(28, 30)을 갖는 카메라들(14)(이를테면, 적외선 카메라들)뿐만 아니라, 사용자의 눈들(12)을 특징으로 예시 목적들을 위해 도시된다. 깊이 카메라(154) 및 그의 FOV(24), 그리고 사진 카메라(156) 및 그의 FOV(26)와 마찬가지로, 3개의 외향 세계-캡처 카메라들(124)은 그들의 FOV들(18, 20, 22)을 갖는 것으로 도시된다. 깊이 카메라(154)로부터 얻어지는 깊이 정보는 오버랩되는 FOV들 및 다른 외향 카메라들로부터의 데이터를 사용함으로써 강화될 수 있다. 예컨대, 시스템은 결국, 깊이 센서(154)로부터의 VGA 미만 이미지, 세계 카메라들(124)로부터의 720p 이미지 및 때로는, 사진 카메라(156)로부터의 2 메가픽셀 컬러 이미지와 같은 것을 갖게 될 수 있다. 이러한 구성은 공통 FOV를 공유하는 5개의 카메라를 갖는데, 이들 중 3개는 이질적인 가시 스펙트럼 이미지들을, 하나는 컬러를, 세번째 것은 비교적 낮은 해상도 깊이를 갖는다. 시스템은 그레이스케일 및 컬러 이미지들의 세그먼트화를 수행하고, 이들 이미지들을 융합하고, 이들로부터 비교적 높은 해상도 이미지를 만들고, 스테레오 대응(stereo correspondence)들을 취하고, 스테레오 깊이에 관한 가설(hypothese)들을 제공하기 위해 깊이 센서를 사용하고, 그리고 보다 정제된(refined) 깊이 맵(이는 깊이 센서로부터만 이용가능했던 것보다 훨씬 더 나을 수 있음)을 얻기 위해 스테레오 대응들을 사용하도록 구성될 수 있다. 이러한 프로세스들은 로컬 모바일 프로세싱 하드웨어 상에서 실행될 수 있거나, 또는 어쩌면 영역 내 다른 사람들(이를테면, 서로 근접해 테이블에 걸쳐 앉아 있는 2 사람)로부터의 데이터와 함께, 클라우드 컴퓨팅 자원들을 이용하여 실행될 수 있고, 결국 상당히 정제된 맵핑을 갖게 될 수 있다. 다른 실시예들에서, 상기 센서들 모두는 하나의 통합형 센서로 결합되어 이러한 기능성을 달성할 수 있다. [000111] Referring to FIG. 16b, a partial plan view is shown for illustrative purposes featuring the user's eyes (12), as well as cameras (14) (e.g., infrared cameras) having fields of view (28, 30) and light or radiation sources (16) (e.g., infrared) directed toward the eyes (12) to enable eye tracking, observation and/or image capture. The three outward-facing world-capture cameras (124) are shown having their FOVs (18, 20, 22), as well as the depth camera (154) and its FOV (24), and the photo camera (156) and its FOV (26). The depth information obtained from the depth camera (154) may be enhanced by using data from the overlapping FOVs and other outward-facing cameras. For example, the system might end up with something like a sub-VGA image from the depth sensor (154), a 720p image from the world cameras (124), and sometimes a 2 megapixel color image from the photo camera (156). Such a configuration would have five cameras sharing a common FOV, three of which have heterogeneous visible spectrum images, one in color, and the third having relatively low resolution depth. The system could be configured to segment the grayscale and color images, fuse those images, create a relatively high resolution image from them, take stereo correspondences, use the depth sensor to provide hypotheses about stereo depth, and use the stereo correspondences to obtain a more refined depth map (which could be much better than what was available from the depth sensor alone). These processes could be run on local mobile processing hardware, or could be run using cloud computing resources, perhaps in conjunction with data from other people in the area (say, two people sitting across a table from each other), resulting in a fairly refined mapping. In other embodiments, all of the sensors could be combined into a single, integrated sensor to achieve this functionality.

[000112] 본 발명의 다양한 예시적인 실시예들이 본원에서 설명된다. 비-제한적인 의미로 이들 예들에 대한 참조가 이루어진다. 그 예들은 본 발명의 더 광범위한 적용가능한 양상들을 예시하기 위해 제공된다. 본 발명의 실제 사상 및 범위를 벗어나지 않으면서, 다양한 변화들이 설명된 본 발명에 대해 이루어질 수 있고 등가물들이 대체될 수 있다. 게다가, 특정 상황, 재료, 물질의 조성, 프로세스, 프로세스 동작(들) 또는 단계(들)을 본 발명의 목적(들), 사상 또는 범위에 적응시키기 위해 많은 수정들이 이루어질 수 있다. 추가로, 당업자들에 의해 인지될 바와 같이, 본원에서 설명되고 예시된 개별적인 변형들 각각은, 본 발명들의 범위 및 사상을 벗어나지 않으면서, 다른 수개의 실시예들 중 임의의 실시예의 특징들로부터 용이하게 구별되거나 또는 그 특징들과 결합될 수 있는 개별 컴포넌트들 및 특징들을 갖는다. 그러한 모든 수정들은 본 개시내용과 연관된 청구항들의 범위 내에 있는 것으로 의도된다. [000112] Various exemplary embodiments of the present invention are described herein. Reference is made to these examples in a non-limiting sense. The examples are provided to illustrate the broader applicable aspects of the present invention. Various changes may be made and equivalents may be substituted for the invention described herein without departing from the true spirit and scope of the invention. In addition, many modifications may be made to adapt a particular situation, material, composition of matter, process, process operation(s) or step(s) to the objective(s), spirit or scope of the present invention. Additionally, as will be recognized by those skilled in the art, each of the individual variations described and illustrated herein has individual components and features that can be readily distinguished from or combined with features of any of the other several embodiments without departing from the scope and spirit of the present invention. All such modifications are intended to be within the scope of the claims associated with this disclosure.

[000113] 본 발명은 대상 디바이스들을 사용하여 수행될 수 있는 방법들을 포함한다. 방법들은 그러한 적절한 디바이스를 제공하는 동작을 포함할 수 있다. 그러한 제공은 최종 사용자에 의해 수행될 수 있다. 다시 말해서, "제공하는" 동작은 단지 대상 방법에서 필요한 디바이스를 제공하도록 최종 사용자가 획득, 액세스, 접근, 포지셔닝, 셋업, 활성화, 파워-업 또는 그렇지 않으면 동작하게 요구한다. 본원에서 언급된 방법들은 이벤트들의 언급된 순서뿐만 아니라, 논리적으로 가능한 언급된 이벤트들의 임의의 순서로 수행될 수 있다. [000113] The present invention includes methods that can be performed using target devices. The methods can include an act of providing such a suitable device. Such providing can be performed by an end user. In other words, the act of "providing" merely requires the end user to obtain, access, approach, position, set up, activate, power-up, or otherwise operate the device required by the target method. The methods mentioned herein can be performed in any order of the mentioned events, as well as in any order of the mentioned events that is logically possible.

[000114] 재료 선택 및 제조에 관한 세부사항들과 함께 본 발명의 예시적인 양상들이 위에 기재되었다. 본 발명의 다른 세부사항들에 대해 말하자면, 이들은 위에서-참조된 특허들 및 공개문헌들과 관련하여 인지될 수 있을 뿐만 아니라 일반적으로 당업자들에게 알리어지거나 당업자들에 의해 인지될 수 있다. 통상적으로 또는 논리적으로 이용되는 바와 같은 부가적인 동작들과 관련하여 본 발명의 방법-기반 양상들이 똑같이 적용될 수 있다. [000114] Exemplary aspects of the present invention have been described above, along with details regarding material selection and fabrication. As to other details of the present invention, these may be recognized in connection with the above-referenced patents and publications, as well as generally known to or by those skilled in the art. The method-based aspects of the present invention may equally be applied with respect to additional operations, as is conventionally or logically employed.

[000115] 게다가, 본 발명이 다양한 특징들을 선택적으로 통합하는 수개의 예들을 참조하여 설명되었지만, 본 발명은, 본 발명의 각각의 변형에 관해 고려될 때 설명되거나 또는 표시되는 것으로 제한되지 않는다. 본 발명의 진정한 사상 및 범위를 벗어나지 않으면서, 다양한 변화들이 설명된 본 발명에 대해 이루어질 수 있고 (본원에서 인용되든지 또는 일부 간략화를 위해 포함되지 않든지 간에) 등가물들이 대체될 수 있다. 게다가, 값들의 범위가 제공되는 경우, 그 범위의 상한과 하한 간의 모든 각각의 중간값 및 그 언급된 범위 내의 임의의 다른 언급된 또는 중간값이 본 발명 내에 포함된다는 것이 이해된다. [000115] Moreover, while the present invention has been described with reference to several examples selectively incorporating various features, the invention is not limited to what is described or shown when considering each variation of the invention. Various changes may be made to the invention described and equivalents may be substituted (whether recited herein or not for the sake of some brevity) without departing from the true spirit and scope of the invention. Furthermore, where a range of values is provided, it is understood that every intervening value between the upper and lower limits of that range, and any other stated or intervening value within that stated range, is encompassed within the invention.

[000116] 또한, 설명된 본 발명의 변형들의 임의의 선택적인 특징이 독립적으로 또는 본원에서 설명된 특징들 중 임의의 하나 또는 그 초과와 조합하여 기재되고 청구될 수 있다는 것이 고려된다. 단수형 아이템들에 대한 참조는 복수의 동일한 아이템들이 존재하는 가능성을 포함한다. 보다 상세하게는, 본원에서 그리고 그와 연관된 청구항들에서 사용되는 바와 같이, 단수형들은, 특별히 달리 언급되지 않으면 복수의 지시물들을 포함한다. 다시 말해서, 단수형들의 사용은, 본 개시내용과 연관된 위의 설명뿐만 아니라 청구항들에서 대상 아이템 중 "적어도 하나"를 허용한다. 그러한 청구항들이 임의의 선택적인 엘리먼트를 배제하도록 작성될 수 있다는 것이 추가로 주목된다. 그러므로, 이러한 진술은 청구항 엘리먼트들의 인용과 관련하여 "단독으로", "유일한" 등과 같은 그러한 배타적인 전문용어의 사용 또는 "네거티브" 제한의 사용에 대한 선행 기반의 역할을 하는 것으로 의도된다. [000116] It is also contemplated that any optional feature of the described variations of the invention may be described and claimed independently or in combination with any one or more of the features described herein. Reference to a singular item includes the possibility that there are plural of the same items. More specifically, as used herein and in the claims associated therewith, the singular includes plural referents unless specifically stated otherwise. In other words, use of the singular allows for "at least one" of the subject item in the claims as well as in the description above associated with the present disclosure. It is further noted that such claims may be drafted to exclude any optional element. Therefore, this statement is intended to serve as antecedent basis for use of such exclusive terminology as "solely," "only," etc., or use of a "negative" limitation in connection with the recitation of claim elements.

[000117] 그러한 배타적인 전문용어의 사용없이, 본 개시내용와 연관된 청구항들의 용어 "포함하는(comprising)"은, 주어진 수의 엘리먼트들이 그러한 청구항들에서 열거되는지 또는 특징의 부가가 그러한 청구항들에서 기재된 엘리먼트의 성질을 변환시키는 것으로 간주될 수 있는지에 관계없이, 임의의 부가적인 엘리먼트의 포함을 허용해야 한다. 본원에서 특별히 정의된 것을 제외하고, 본원에서 사용된 모든 기술 용어들 및 과학 용어들은 청구 유효성을 유지하면서 가능한 일반적으로 이해되는 의미로 광범위하게 주어질 것이다. [000117] Without using such exclusive terminology, the term "comprising" in the claims associated with this disclosure should allow for the inclusion of any additional elements, regardless of whether a given number of elements are recited in such claims or whether the addition of a feature can be deemed to modify the nature of an element recited in such claims. Except as specifically defined herein, all technical and scientific terms used herein are to be given as broad a commonly understood meaning as possible while still maintaining claim validity.

[000118] 본 발명의 범위는 제공된 예들 및/또는 대상 명세서로 제한되는 것이 아니라 오히려 본 개시내용과 연관된 청구항 문언의 범위에 의해서만 제한된다. [000118] The scope of the present invention is not limited to the examples and/or subject matter described herein, but rather only by the scope of the claim language associated with this disclosure.

Claims (143)

증강 현실(AR) 디스플레이 시스템으로서,
자기장을 방출하는 전자기장 방출기에 커플링된 핸드헬드 컴포넌트;
사용자에게 가상 콘텐츠를 디스플레이하는 디스플레이 시스템을 갖는 헤드 장착 컴포넌트 ― 상기 헤드 장착 컴포넌트는 상기 자기장으로부터 기인하는 전자기 센서에서의 자속과 관련된 파라미터를 측정하는 전자기 센서에 커플링되며, 알려진 좌표계에서의 상기 헤드 장착 컴포넌트의 헤드 포즈는 알려짐 ―;
상기 알려진 좌표계에서 거리를 측정하는 깊이 센서 ― 상기 깊이 센서는 제1 시야(FOV)를 갖는 깊이 카메라를 포함함 ―;
상기 제1 FOV와 적어도 부분적으로 오버랩되는 제2 FOV를 갖는 세계 캡처 카메라;
상기 제1 FOV 및 상기 제2 FOV와 적어도 부분적으로 오버랩되는 제3 FOV를 갖는 사진 카메라; 및
상기 핸드헬드 컴포넌트, 상기 헤드 장착 컴포넌트, 및 상기 깊이 센서에 통신 가능하게 커플링된 제어기 ― 상기 제어기는 상기 헤드 장착 컴포넌트로부터 상기 전자기 센서에서의 자속과 관련된 파라미터를 수신하고 상기 깊이 센서로부터 상기 거리를 수신함 ―
를 포함하며,
상기 제어기는 상기 전자기 센서에 의해 측정된 자속과 관련된 파라미터 및 상기 깊이 센서에 의해 측정된 거리에 적어도 부분적으로 기초하여 상기 핸드헬드 컴포넌트의 핸드 포즈를 결정하고,
상기 깊이 카메라, 상기 세계 캡처 카메라 및 상기 사진 카메라는 각각 제1 이미지, 제2 이미지 및 제3 이미지를 캡처하도록 구성되며,
상기 제어기는
상기 제2 이미지 및 제3 이미지를 세그먼트화하고, 그리고
상기 제2 이미지 및 제3 이미지를 세그먼트화한 후 융합된 이미지(fused image)를 생성하기 위해 상기 제2 이미지 및 제3 이미지를 융합하도록 프로그래밍되며,
상기 알려진 좌표계에서 상기 거리를 측정하는 것은:
상기 깊이 카메라로부터의 상기 제1 이미지를 분석함으로써 가설 거리(hypothetical distance)를 생성하는 것; 및
상기 가설 거리 및 상기 융합된 이미지를 분석함으로써 상기 거리를 생성하는 것
을 포함하는, AR 디스플레이 시스템.
As an augmented reality (AR) display system,
A handheld component coupled to an electromagnetic field emitter that emits a magnetic field;
A head-mounted component having a display system for displaying virtual content to a user, the head-mounted component being coupled to an electromagnetic sensor for measuring a parameter related to magnetic flux in the electromagnetic sensor resulting from a magnetic field, wherein a head pose of the head-mounted component in a known coordinate system is known;
A depth sensor for measuring a distance in the known coordinate system, wherein the depth sensor comprises a depth camera having a first field of view (FOV);
A world capture camera having a second FOV at least partially overlapping with the first FOV;
A photographic camera having a third FOV at least partially overlapping with the first FOV and the second FOV; and
A controller communicatively coupled to the handheld component, the head mounted component, and the depth sensor, wherein the controller receives parameters related to magnetic flux in the electromagnetic sensor from the head mounted component and receives the distance from the depth sensor.
Including,
The controller determines a hand pose of the handheld component based at least in part on parameters related to the magnetic flux measured by the electromagnetic sensor and the distance measured by the depth sensor,
The depth camera, the world capture camera and the photo camera are configured to capture a first image, a second image and a third image, respectively.
The above controller
Segmenting the second and third images, and
It is programmed to fuse the second image and the third image to generate a fused image after segmenting the second image and the third image,
Measuring the above distance in the above known coordinate system is:
generating a hypothetical distance by analyzing the first image from the depth camera; and
Generating said distance by analyzing said hypothesis distance and said fused image
An AR display system comprising:
제1항에 있어서,
상기 깊이 카메라, 상기 세계 캡처 카메라, 및 상기 사진 카메라는 각각 상이한 제1 해상도, 제2 해상도, 및 제3 해상도를 갖는, AR 디스플레이 시스템.
In the first paragraph,
An AR display system, wherein the depth camera, the world capture camera, and the photo camera each have different first resolutions, second resolutions, and third resolutions.
제2항에 있어서,
상기 깊이 카메라의 제1 해상도는 VGA 미만(sub-VGA)이고, 상기 세계 캡처 카메라의 제2 해상도는 720p이고, 상기 사진 카메라의 제3 해상도는 2 메가픽셀(megapixel)인, AR 디스플레이 시스템.
In the second paragraph,
An AR display system, wherein the first resolution of the depth camera is sub-VGA, the second resolution of the world capture camera is 720p, and the third resolution of the photo camera is 2 megapixel.
제1항에 있어서,
상기 깊이 카메라, 상기 세계 캡처 카메라 및 상기 사진 카메라는 하나의 통합 센서를 형성하는, AR 디스플레이 시스템.
In the first paragraph,
An AR display system, wherein the depth camera, the world capture camera and the photo camera form a single integrated sensor.
제1항에 있어서,
상기 핸드 포즈는 상기 알려진 좌표계에서의 상기 핸드헬드 컴포넌트의 위치 및 배향을 포함하는, AR 디스플레이 시스템.
In the first paragraph,
An AR display system, wherein the hand pose comprises a position and orientation of the handheld component in the known coordinate system.
제1항에 있어서,
상기 세계 캡처 카메라는 그레이스케일 카메라인, AR 디스플레이 시스템.
In the first paragraph,
The above world capture camera is an AR display system that is a grayscale camera.
제1항에 있어서,
상기 사진 카메라는 컬러 카메라인, AR 디스플레이 시스템.
In the first paragraph,
The above photo camera is a color camera, AR display system.
제1항에 있어서,
상기 융합된 이미지를 분석하여 복수의 스테레오 대응들을 생성하는 것을 더 포함하는, AR 디스플레이 시스템.
In the first paragraph,
An AR display system further comprising analyzing the fused image to generate multiple stereo correspondences.
제8항에 있어서,
상기 가설 거리 및 상기 융합된 이미지를 분석함으로써 상기 거리를 생성하는 것은 상기 가설 거리 및 상기 복수의 스테레오 대응들을 분석하는 것을 포함하는, AR 디스플레이 시스템.
In Article 8,
An AR display system, wherein generating the distance by analyzing the hypothesis distance and the fused image includes analyzing the hypothesis distance and the plurality of stereo correspondences.
증강 현실(AR) 디스플레이 시스템으로서,
자기장을 방출하는 전자기장 방출기를 포함하는 핸드헬드 컴포넌트;
사용자에게 가상 콘텐츠를 디스플레이하는 디스플레이 시스템을 갖는 헤드 장착 컴포넌트 ― 상기 헤드 장착 컴포넌트는 상기 자기장으로부터 기인하는 제1 전자기 센서에서의 제1 자속과 관련된 제1 파라미터를 측정하는 제1 전자기 센서를 포함하며, 알려진 좌표계에서의 상기 헤드 장착 컴포넌트의 헤드 포즈는 알려짐 ―;
상기 자기장으로부터 기인하는 제2 전자기 센서에서의 제2 자속과 관련된 제2 파라미터를 측정하는 제2 전자기 센서를 포함하는 신체 착용 컴포넌트;
상기 핸드헬드 컴포넌트, 상기 헤드 장착 컴포넌트 및 상기 신체 착용 컴포넌트에 통신 가능하게 커플링된 제어기 ― 상기 제어기는 상기 헤드 장착 컴포넌트 및 상기 신체 착용 컴포넌트로부터 각각의 제1 전자기 센서 및 제2 전자기 센서에서의 제1 자속 및 제2 자속과 관련된 제1 파라미터 및 제2 파라미터를 수신하고 상기 알려진 좌표계에서의 거리를 수신함 ―;
부가적인 정보를 제공하는 부가적인 로컬화 자원(additional localization resource)
을 포함하며,
상기 제어기는 상기 각각의 제1 전자기 센서 및 제2 전자기 센서에 의해 측정된 제1 자속 및 제2 자속과 관련된 제1 파라미터 및 제2 파라미터, 상기 거리, 및 상기 부가적인 로컬화 자원에 의해 제공되는 부가적인 정보에 적어도 부분적으로 기초하여 상기 알려진 좌표계에 대한 상기 핸드헬드 컴포넌트의 적어도 위치 및 배향을 결정하는, AR 디스플레이 시스템.
As an augmented reality (AR) display system,
A handheld component comprising an electromagnetic field emitter that emits a magnetic field;
A head-mounted component having a display system for displaying virtual content to a user, the head-mounted component including a first electromagnetic sensor for measuring a first parameter related to a first magnetic flux in the first electromagnetic sensor originating from the magnetic field, wherein a head pose of the head-mounted component in a known coordinate system is known;
A body-worn component comprising a second electromagnetic sensor for measuring a second parameter related to a second magnetic flux in a second electromagnetic sensor originating from said magnetic field;
A controller communicatively coupled to the handheld component, the head-mounted component and the body-worn component, wherein the controller receives first parameters and second parameters related to first magnetic flux and second magnetic flux in the first electromagnetic sensor and the second electromagnetic sensor, respectively, from the head-mounted component and the body-worn component, and receives a distance in the known coordinate system;
Additional localization resources that provide additional information.
Including,
An AR display system, wherein the controller determines at least a position and an orientation of the handheld component with respect to the known coordinate system based at least in part on first parameters and second parameters related to the first magnetic flux and the second magnetic flux measured by the first electromagnetic sensor and the second electromagnetic sensor, the distance, and additional information provided by the additional localization resource.
제10항에 있어서,
상기 부가적인 로컬화 자원은 WiFi 트랜시버를 포함하는, AR 디스플레이 시스템.
In Article 10,
The above additional localization resource is an AR display system including a WiFi transceiver.
제10항에 있어서,
상기 부가적인 로컬화 자원은 부가적인 전자기 방출기를 포함하는, AR 디스플레이 시스템.
In Article 10,
An AR display system, wherein the additional localization resource comprises an additional electromagnetic emitter.
제10항에 있어서,
상기 부가적인 로컬화 자원은 부가적인 전자기 센서를 포함하는, AR 디스플레이 시스템.
In Article 10,
An AR display system, wherein the additional localization resource comprises an additional electromagnetic sensor.
제10항에 있어서,
상기 부가적인 로컬화 자원은 셀룰러 네트워크 트랜시버를 포함하는, AR 디스플레이 시스템.
In Article 10,
The additional localization resource is an AR display system including a cellular network transceiver.
제10항에 있어서,
상기 부가적인 로컬화 자원은 RADAR 방출기를 포함하는, AR 디스플레이 시스템.
In Article 10,
The additional localization resource is an AR display system including a RADAR emitter.
제10항에 있어서,
상기 부가적인 로컬화 자원은 RADAR 검출기를 포함하는, AR 디스플레이 시스템.
In Article 10,
An AR display system, wherein the additional localization resource comprises a RADAR detector.
제10항에 있어서,
상기 부가적인 로컬화 자원은 LIDAR 방출기를 포함하는, AR 디스플레이 시스템.
In Article 10,
The additional localization resource is an AR display system including a LIDAR emitter.
제10항에 있어서,
상기 부가적인 로컬화 자원은 LIDAR 검출기를 포함하는, AR 디스플레이 시스템.
In Article 10,
The additional localization resource is an AR display system including a LIDAR detector.
제10항에 있어서,
상기 부가적인 로컬화 자원은 GPS 트랜시버를 포함하는, AR 디스플레이 시스템.
In Article 10,
The above additional localization resource is an AR display system including a GPS transceiver.
제10항에 있어서,
상기 부가적인 로컬화 자원은 알려진 검출 가능한 패턴을 갖는 포스터(poster)를 포함하는, AR 디스플레이 시스템.
In Article 10,
An AR display system, wherein the additional localization resource comprises a poster having a known detectable pattern.
제10항에 있어서,
상기 부가적인 로컬화 자원은 알려진 검출 가능한 패턴을 갖는 마커(marker)를 포함하는, AR 디스플레이 시스템.
In Article 10,
An AR display system, wherein the additional localization resource comprises a marker having a known detectable pattern.
제10항에 있어서,
상기 부가적인 로컬화 자원은 관성 측정 유닛을 포함하는, AR 디스플레이 시스템.
In Article 10,
An AR display system, wherein the additional localization resource comprises an inertial measurement unit.
제10항에 있어서,
상기 부가적인 로컬화 자원은 스트레인 게이지(strain gauge)를 포함하는, AR 디스플레이 시스템.
In Article 10,
An AR display system, wherein the additional localization resource comprises a strain gauge.
제10항에 있어서,
상기 디스플레이 시스템은 상기 알려진 좌표계에 대해 결정된 상기 핸드헬드 컴포넌트의 위치 및 배향에 적어도 부분적으로 기초하여 상기 사용자에게 가상 콘텐츠를 디스플레이하는, AR 디스플레이 시스템.
In Article 10,
An AR display system, wherein the display system displays virtual content to the user based at least in part on a position and orientation of the handheld component determined with respect to the known coordinate system.
제10항에 있어서,
상기 부가적인 로컬화 자원은 반사기를 포함하는, AR 디스플레이 시스템.
In Article 10,
An AR display system, wherein the additional localization resource comprises a reflector.
제25항에 있어서,
상기 반사기는 방사선을 반사하는, AR 디스플레이 시스템.
In Article 25,
The above reflector is an AR display system that reflects radiation.
제10항에 있어서,
상기 부가적인 로컬화 자원은 비콘을 포함하는, AR 디스플레이 시스템.
In Article 10,
The additional localization resource is an AR display system including a beacon.
제27항에 있어서,
상기 비콘은 방사선을 방출하는, AR 디스플레이 시스템.
In Article 27,
The above beacon is an AR display system that emits radiation.
제28항에 있어서,
상기 방사선은 적외선 방사선이고, 상기 비콘은 적외선 LED를 포함하는, AR 디스플레이 시스템.
In Article 28,
An AR display system wherein the above radiation is infrared radiation and the beacon includes an infrared LED.
증강 현실(AR) 디스플레이 시스템으로서,
자기장을 방출하는 전자기장 방출기를 포함하는 핸드헬드 컴포넌트;
디스플레이 시스템 및 상기 전자기장 방출기로부터 제1 위치 정보를 검출하는 헤드 장착 전자기 센서를 포함하는 헤드 장착 컴포넌트;
상기 전자기장 방출기로부터 제2 위치 정보를 검출하는 벨트팩 전자기 센서를 포함하는 벨트팩;
제3 위치 정보를 제공하는 부가적인 로컬화 자원;
상기 헤드 장착 컴포넌트, 상기 벨트팩, 및 상기 부가적인 로컬화 자원으로부터 제1 위치 정보, 제2 위치 정보, 및 제3 위치 정보를 수신하여 알려진 좌표계에 대한 위치 및 배향을 결정하는 제어기
를 포함하며,
상기 제3 위치 정보는 Wi-Fi 정보, 셀룰러 정보, RADAR 정보, LIDAR 정보, GPS 정보, 카메라 정보, 전자기 정보, 방사선 정보, 관성 정보, 및 스트레인 정보로 구성된 그룹에서 선택되고,
상기 제3 위치 정보는 상기 알려진 좌표계에 연결되는, AR 디스플레이 시스템.
As an augmented reality (AR) display system,
A handheld component comprising an electromagnetic field emitter that emits a magnetic field;
A head-mounted component comprising a display system and a head-mounted electromagnetic sensor for detecting first position information from the electromagnetic field emitter;
A belt pack comprising a belt pack electromagnetic sensor for detecting second position information from the electromagnetic field emitter;
Additional localization resources providing third-party location information;
A controller for receiving first position information, second position information, and third position information from the head-mounted component, the belt pack, and the additional localization resource to determine position and orientation with respect to a known coordinate system.
Including,
The above third location information is selected from the group consisting of Wi-Fi information, cellular information, RADAR information, LIDAR information, GPS information, camera information, electromagnetic information, radiation information, inertial information, and strain information,
An AR display system, wherein the third location information is linked to the known coordinate system.
제30항에 있어서,
상기 부가적인 로컬화 자원은 WiFi 트랜시버를 포함하는, AR 디스플레이 시스템.
In Article 30,
The above additional localization resource is an AR display system including a WiFi transceiver.
제30항에 있어서,
상기 부가적인 로컬화 자원은 부가적인 전자기 방출기를 포함하는, AR 디스플레이 시스템.
In Article 30,
An AR display system, wherein the additional localization resource comprises an additional electromagnetic emitter.
제30항에 있어서,
상기 부가적인 로컬화 자원은 부가적인 전자기 센서를 포함하는, AR 디스플레이 시스템.
In Article 30,
An AR display system, wherein the additional localization resource comprises an additional electromagnetic sensor.
제30항에 있어서,
상기 부가적인 로컬화 자원은 셀룰러 네트워크 트랜시버를 포함하는, AR 디스플레이 시스템.
In Article 30,
The additional localization resource is an AR display system including a cellular network transceiver.
제30항에 있어서,
상기 부가적인 로컬화 자원은 RADAR 방출기를 포함하는, AR 디스플레이 시스템.
In Article 30,
The additional localization resource is an AR display system including a RADAR emitter.
제30항에 있어서,
상기 부가적인 로컬화 자원은 RADAR 검출기를 포함하는, AR 디스플레이 시스템.
In Article 30,
An AR display system, wherein the additional localization resource comprises a RADAR detector.
제30항에 있어서,
상기 부가적인 로컬화 자원은 LIDAR 방출기를 포함하는, AR 디스플레이 시스템.
In Article 30,
The additional localization resource is an AR display system including a LIDAR emitter.
제30항에 있어서,
상기 부가적인 로컬화 자원은 LIDAR 검출기를 포함하는, AR 디스플레이 시스템.
In Article 30,
The additional localization resource is an AR display system including a LIDAR detector.
제30항에 있어서,
상기 부가적인 로컬화 자원은 GPS 트랜시버를 포함하는, AR 디스플레이 시스템.
In Article 30,
The above additional localization resource is an AR display system including a GPS transceiver.
제30항에 있어서,
상기 부가적인 로컬화 자원은 알려진 검출 가능한 패턴을 갖는 포스터를 포함하는, AR 디스플레이 시스템.
In Article 30,
An AR display system, wherein the additional localization resource comprises a poster having a known detectable pattern.
제30항에 있어서,
상기 부가적인 로컬화 자원은 알려진 검출 가능한 패턴을 갖는 마커를 포함하는, AR 디스플레이 시스템.
In Article 30,
An AR display system, wherein the additional localization resource comprises a marker having a known detectable pattern.
제30항에 있어서,
상기 부가적인 로컬화 자원은 관성 측정 유닛을 포함하는, AR 디스플레이 시스템.
In Article 30,
An AR display system, wherein the additional localization resource comprises an inertial measurement unit.
제30항에 있어서,
상기 부가적인 로컬화 자원은 스트레인 게이지를 포함하는, AR 디스플레이 시스템.
In Article 30,
The additional localization resource is an AR display system including a strain gauge.
제30항에 있어서,
상기 디스플레이 시스템은 상기 알려진 좌표계에 대해 결정된 위치 및 배향에 적어도 부분적으로 기초하여 상기 헤드 장착 컴포넌트를 착용한 사용자에게 가상 콘텐츠를 디스플레이하는, AR 디스플레이 시스템.
In Article 30,
An AR display system, wherein the display system displays virtual content to a user wearing the head-mounted component based at least in part on a position and orientation determined with respect to the known coordinate system.
제30항에 있어서,
상기 부가적인 로컬화 자원은 반사기를 포함하는, AR 디스플레이 시스템.
In Article 30,
An AR display system, wherein the additional localization resource comprises a reflector.
제45항에 있어서,
상기 반사기는 방사선을 반사하는, AR 디스플레이 시스템.
In Article 45,
The above reflector is an AR display system that reflects radiation.
제30항에 있어서,
상기 부가적인 로컬화 자원은 비콘을 포함하는, AR 디스플레이 시스템.
In Article 30,
The additional localization resource is an AR display system including a beacon.
제47항에 있어서,
상기 비콘은 방사선을 방출하는, AR 디스플레이 시스템.
In Article 47,
The above beacon is an AR display system that emits radiation.
제48항에 있어서,
상기 방사선은 적외선 방사선이고, 상기 비콘은 적외선 LED를 포함하는, AR 디스플레이 시스템.
In Article 48,
An AR display system wherein the above radiation is infrared radiation and the beacon includes an infrared LED.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020247034640A 2016-02-05 2017-02-06 Systems and methods for augmented reality Active KR102779068B1 (en)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US201662292185P 2016-02-05 2016-02-05
US62/292,185 2016-02-05
US201662298993P 2016-02-23 2016-02-23
US62/298,993 2016-02-23
US15/062,104 2016-03-05
US15/062,104 US20160259404A1 (en) 2015-03-05 2016-03-05 Systems and methods for augmented reality
KR1020187025638A KR102721084B1 (en) 2016-02-05 2017-02-06 Systems and methods for augmented reality
PCT/US2017/016722 WO2017136833A1 (en) 2016-02-05 2017-02-06 Systems and methods for augmented reality

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020187025638A Division KR102721084B1 (en) 2016-02-05 2017-02-06 Systems and methods for augmented reality

Publications (2)

Publication Number Publication Date
KR20240155973A KR20240155973A (en) 2024-10-29
KR102779068B1 true KR102779068B1 (en) 2025-03-07

Family

ID=59501080

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020247034640A Active KR102779068B1 (en) 2016-02-05 2017-02-06 Systems and methods for augmented reality
KR1020187025638A Active KR102721084B1 (en) 2016-02-05 2017-02-06 Systems and methods for augmented reality

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020187025638A Active KR102721084B1 (en) 2016-02-05 2017-02-06 Systems and methods for augmented reality

Country Status (8)

Country Link
EP (1) EP3411779A4 (en)
JP (2) JP2019505926A (en)
KR (2) KR102779068B1 (en)
CN (2) CN114995647B (en)
AU (1) AU2017214748B9 (en)
CA (1) CA3011377C (en)
IL (3) IL301449B2 (en)
WO (1) WO2017136833A1 (en)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2979560C (en) 2015-03-05 2023-11-07 Magic Leap, Inc. Systems and methods for augmented reality
US10180734B2 (en) 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
US10838207B2 (en) 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
JP2018536244A (en) 2015-12-04 2018-12-06 マジック リープ, インコーポレイテッドMagic Leap,Inc. Relocation system and method
KR20210025721A (en) 2016-08-02 2021-03-09 매직 립, 인코포레이티드 Fixed-distance virtual and augmented reality systems and methods
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
IL290142B2 (en) 2017-03-17 2023-10-01 Magic Leap Inc A mixed reality system with the assembly of multi-source virtual content and a method for creating virtual content using it
EP3596703B1 (en) 2017-03-17 2025-04-23 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
KR102841075B1 (en) 2017-03-17 2025-07-30 매직 립, 인코포레이티드 Mixed reality system with color virtual content warping and method of generating virtual content using same
CN107807738B (en) * 2017-12-04 2023-08-15 成都思悟革科技有限公司 A head motion capture system and method for VR display glasses
US10558260B2 (en) 2017-12-15 2020-02-11 Microsoft Technology Licensing, Llc Detecting the pose of an out-of-range controller
CN108269310B (en) * 2018-03-20 2024-08-27 应急管理部上海消防研究所 Interactive display system, method and device
JP7519742B2 (en) * 2018-07-23 2024-07-22 マジック リープ, インコーポレイテッド Method and system for resolving hemispheric ambiguity using position vectors - Patents.com
CN112470464B (en) 2018-07-23 2023-11-28 奇跃公司 Intra-field subcode timing in field sequence display
US11379948B2 (en) 2018-07-23 2022-07-05 Magic Leap, Inc. Mixed reality system with virtual content warping and method of generating virtual content using same
CN112805750B (en) * 2018-08-13 2024-09-27 奇跃公司 Cross-reality systems
US11227435B2 (en) 2018-08-13 2022-01-18 Magic Leap, Inc. Cross reality system
EP3846916B1 (en) * 2018-09-05 2023-10-25 Magic Leap, Inc. Directed emitter/sensor for electromagnetic tracking in augmented reality systems
US11666203B2 (en) * 2018-10-04 2023-06-06 Biosense Webster (Israel) Ltd. Using a camera with an ENT tool
CN113196209A (en) 2018-10-05 2021-07-30 奇跃公司 Rendering location-specific virtual content at any location
US11679014B2 (en) * 2018-10-30 2023-06-20 Boston Scientific Scimed, Inc. Devices and methods for treatment of body lumens
US11353588B2 (en) * 2018-11-01 2022-06-07 Waymo Llc Time-of-flight sensor with structured light illuminator
US11347310B2 (en) * 2019-02-21 2022-05-31 Facebook Technologies, Llc Tracking positions of portions of a device based on detection of magnetic fields by magnetic field sensors having predetermined positions
DE102020110212A1 (en) * 2019-04-16 2020-10-22 Ascension Technology Corporation Position and orientation determination with a Helmholtz device
CN110223686A (en) * 2019-05-31 2019-09-10 联想(北京)有限公司 Audio recognition method, speech recognition equipment and electronic equipment
CN114600064A (en) 2019-10-15 2022-06-07 奇跃公司 Cross-reality system with location services
CN114586071A (en) 2019-10-15 2022-06-03 奇跃公司 Cross-reality system supporting multiple device types
US11632679B2 (en) 2019-10-15 2023-04-18 Magic Leap, Inc. Cross reality system with wireless fingerprints
JP7604478B2 (en) 2019-10-31 2024-12-23 マジック リープ, インコーポレイテッド Cross reality systems with quality information about persistent coordinate frames.
CN120599183A (en) 2019-11-12 2025-09-05 奇跃公司 Cross-reality system with location services and location-based shared content
CN114762008A (en) 2019-12-09 2022-07-15 奇跃公司 Simplified virtual content programmed cross reality system
US12175696B2 (en) 2020-01-13 2024-12-24 Samsung Electronics Co., Ltd. Method and apparatus with object information estimation and virtual object generation
JP7768888B2 (en) 2020-02-13 2025-11-12 マジック リープ, インコーポレイテッド Cross-reality system with map processing using multi-resolution frame descriptors
CN119984235A (en) 2020-02-13 2025-05-13 奇跃公司 Cross-reality system with accurate shared maps
WO2021163295A1 (en) 2020-02-13 2021-08-19 Magic Leap, Inc. Cross reality system with prioritization of geolocation information for localization
EP4111425A4 (en) 2020-02-26 2024-03-13 Magic Leap, Inc. Cross reality system with fast localization
CN111652261A (en) * 2020-02-26 2020-09-11 南开大学 A Multimodal Perception Fusion System
CN113539039B (en) * 2021-09-01 2023-01-31 山东柏新医疗制品有限公司 Training device and method for drug application operation of male dilatation catheter
CN114882773A (en) * 2022-05-24 2022-08-09 华北电力大学(保定) Magnetic field learning system based on Augmented Reality
CN115407897A (en) * 2022-08-19 2022-11-29 北京集创北方科技股份有限公司 Filtering method and device, display equipment, electronic equipment and storage medium
KR20240047186A (en) * 2022-10-04 2024-04-12 삼성전자주식회사 Augmented reality apparatus and operating method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110238399A1 (en) 2008-11-19 2011-09-29 Elbit Systems Ltd. System and a method for mapping a magnetic field
US20140321702A1 (en) 2013-04-30 2014-10-30 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction
US20160026253A1 (en) 2014-03-11 2016-01-28 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2115776T3 (en) * 1992-08-14 1998-07-01 British Telecomm POSITION LOCATION SYSTEM.
CA2358682A1 (en) * 1992-08-14 1994-03-03 British Telecommunications Public Limited Company Position location system
JP2001208529A (en) 2000-01-26 2001-08-03 Mixed Reality Systems Laboratory Inc Measuring apparatus, control method thereof and memory medium
US20010056574A1 (en) 2000-06-26 2001-12-27 Richards Angus Duncan VTV system
US20070155589A1 (en) * 2002-12-04 2007-07-05 Philip Feldman Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System
US8982110B2 (en) * 2005-03-01 2015-03-17 Eyesmatch Ltd Method for image transformation, augmented reality, and teleperence
JP2007134785A (en) 2005-11-08 2007-05-31 Konica Minolta Photo Imaging Inc Head mounted video display apparatus
KR20090055803A (en) * 2007-11-29 2009-06-03 광주과학기술원 Method and apparatus for generating multiview depth map and method for generating variance in multiview image
US8926511B2 (en) * 2008-02-29 2015-01-06 Biosense Webster, Inc. Location system with virtual touch screen
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
WO2012074528A1 (en) * 2010-12-02 2012-06-07 Empire Technology Development Llc Augmented reality system
CN104011788B (en) * 2011-10-28 2016-11-16 奇跃公司 Systems and methods for augmented and virtual reality
US9141194B1 (en) * 2012-01-04 2015-09-22 Google Inc. Magnetometer-based gesture sensing with a wearable device
EP2817785B1 (en) * 2012-02-23 2019-05-15 Charles D. Huston System and method for creating an environment and for sharing a location based experience in an environment
US10228428B2 (en) * 2012-03-22 2019-03-12 Stylaero Ab Method and device for pose tracking using vector magnetometers
US20140152558A1 (en) * 2012-11-30 2014-06-05 Tom Salter Direct hologram manipulation using imu
IL313175A (en) * 2013-03-11 2024-07-01 Magic Leap Inc System and method for augmentation and virtual reality
JP6202981B2 (en) 2013-10-18 2017-09-27 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
EP2887311B1 (en) * 2013-12-20 2016-09-14 Thomson Licensing Method and apparatus for performing depth estimation
US20150358539A1 (en) * 2014-06-06 2015-12-10 Jacob Catt Mobile Virtual Reality Camera, Method, And System
EP3155560B1 (en) * 2014-06-14 2020-05-20 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
CN205007551U (en) * 2015-08-19 2016-02-03 深圳游视虚拟现实技术有限公司 Human -computer interaction system based on virtual reality technology

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110238399A1 (en) 2008-11-19 2011-09-29 Elbit Systems Ltd. System and a method for mapping a magnetic field
US20140321702A1 (en) 2013-04-30 2014-10-30 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction
US20160026253A1 (en) 2014-03-11 2016-01-28 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Also Published As

Publication number Publication date
AU2017214748B9 (en) 2021-05-27
JP7297028B2 (en) 2023-06-23
IL301449A (en) 2023-05-01
CN108700939B (en) 2022-07-05
IL301449B1 (en) 2024-02-01
CN114995647B (en) 2024-09-10
NZ744300A (en) 2024-08-30
CA3011377C (en) 2024-05-14
JP2019505926A (en) 2019-02-28
KR20240155973A (en) 2024-10-29
CN108700939A (en) 2018-10-23
KR20180110051A (en) 2018-10-08
CN114995647A (en) 2022-09-02
EP3411779A1 (en) 2018-12-12
IL293782B1 (en) 2023-04-01
AU2017214748A1 (en) 2018-08-02
WO2017136833A1 (en) 2017-08-10
IL293782A (en) 2022-08-01
CA3011377A1 (en) 2017-08-10
IL293782B2 (en) 2023-08-01
IL301449B2 (en) 2024-06-01
EP3411779A4 (en) 2019-02-20
JP2022002144A (en) 2022-01-06
KR102721084B1 (en) 2024-10-22
AU2017214748B2 (en) 2021-05-06
IL260614A (en) 2018-08-30

Similar Documents

Publication Publication Date Title
KR102779068B1 (en) Systems and methods for augmented reality
US10678324B2 (en) Systems and methods for augmented reality
US12386417B2 (en) Systems and methods for augmented reality
US11256090B2 (en) Systems and methods for augmented reality
NZ735802A (en) Traffic diversion signalling system and method
NZ735802B2 (en) Traffic diversion signalling system and method

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
A302 Request for accelerated examination
PA0104 Divisional application for international application

Comment text: Divisional Application for International Patent

Patent event code: PA01041R01D

Patent event date: 20241017

Application number text: 1020187025638

Filing date: 20180904

PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20241017

Comment text: Request for Examination of Application

PA0302 Request for accelerated examination

Patent event date: 20241017

Patent event code: PA03022R01D

Comment text: Request for Accelerated Examination

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20241206

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20250305

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20250305

End annual number: 3

Start annual number: 1

PG1601 Publication of registration