[go: up one dir, main page]

JP7537016B2 - DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM - Google Patents

DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM Download PDF

Info

Publication number
JP7537016B2
JP7537016B2 JP2023515647A JP2023515647A JP7537016B2 JP 7537016 B2 JP7537016 B2 JP 7537016B2 JP 2023515647 A JP2023515647 A JP 2023515647A JP 2023515647 A JP2023515647 A JP 2023515647A JP 7537016 B2 JP7537016 B2 JP 7537016B2
Authority
JP
Japan
Prior art keywords
user
computer
environment
physical
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023515647A
Other languages
Japanese (ja)
Other versions
JP2023542846A (en
Inventor
フィリップ ロッケル,
スティーブン, オー. ルメイ,
サード, ウィリアム エー. ソレンティーノ
ジャンカルロ ヤーキズ,
ニコラス ダブリュー. ヘンダーソン,
ゲイリー アイ. ブッチャー,
リチャード アール. デリンガー,
ジョナサン イヴ,
アラン シー. ダイ,
ジュリアン ジェイド,
ジュリアン ホーニグ,
エム. エヴァンズ ハンキー,
ワン シ ワン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2023542846A publication Critical patent/JP2023542846A/en
Priority to JP2024131169A priority Critical patent/JP2024178153A/en
Application granted granted Critical
Publication of JP7537016B2 publication Critical patent/JP7537016B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • Digital Computer Display Output (AREA)

Description

(関連出願)
本出願は、2020年9月25日出願の米国特許仮出願第63/083,816号の優先権を主張する2021年9月23日出願の米国特許出願第17/483,730号の継続出願であり、これら特許出願のそれぞれは、参照によりその全体が本明細書に組み込まれる。
(Related Applications)
This application is a continuation of U.S. Patent Application No. 17/483,730, filed September 23, 2021, which claims priority to U.S. Provisional Patent Application No. 63/083,816, filed September 25, 2020, each of which is incorporated by reference in its entirety herein.

(技術分野)
本開示は、概して、ディスプレイを介して仮想現実及び複合現実体験を提供する電子デバイスを含むがこれらに限定されない、表示生成コンポーネントと、コンピュータ生成現実(CGR)体験を提供する1つ以上の入力デバイスと、を有するコンピュータシステムに関する。
(Technical field)
The present disclosure generally relates to computer systems having a display generating component, including but not limited to electronic devices that provide virtual reality and mixed reality experiences via a display, and one or more input devices that provide computer-generated reality (CGR) experiences.

拡張現実のためのコンピュータシステムの開発は、近年顕著に進んでいる。例示的な拡張現実環境は、物理的世界を置換又は強化する少なくともいくつかの仮想要素を含む。コンピュータシステム及び他の電子コンピューティングデバイス用のカメラ、コントローラ、ジョイスティック、タッチ感知面、及びタッチスクリーンディスプレイなどの入力デバイスが、仮想/拡張現実環境と相互作用するために使用される。例示的な仮想要素は、デジタル画像、ビデオ、テキスト、アイコン、並びにボタン及びその他のグラフィックなどの仮想オブジェクトを含む。 The development of computer systems for augmented reality has progressed significantly in recent years. Exemplary augmented reality environments include at least some virtual elements that replace or augment the physical world. Input devices such as cameras, controllers, joysticks, touch-sensitive surfaces, and touch screen displays for computer systems and other electronic computing devices are used to interact with the virtual/augmented reality environment. Exemplary virtual elements include digital images, videos, text, icons, and virtual objects such as buttons and other graphics.

しかし、少なくともいくつかの仮想要素を含む環境(例えばアプリケーション、拡張現実環境、複合現実環境、及び仮想現実環境)と相互作用する方法及びインタフェースは、煩雑で、非効率で、限定されたものである。例えば、仮想オブジェクトに関連付けられたアクションを実行するのに不十分なフィードバックしか提供しないシステム、拡張現実環境において所望の結果を達成するために一連の入力を必要とするシステム、及び仮想オブジェクトの操作が複雑で、エラーを起こしやすいシステムは、ユーザに対して大きな認知負担を引き起こしし、仮想/拡張現実環境での体験を損なう。加えて、それらの方法は必要以上に時間がかかり、それによってエネルギを浪費する。この後者の考慮事項は、バッテリ動作式デバイスにおいて特に重要である。 However, methods and interfaces for interacting with environments that include at least some virtual elements (e.g., applications, augmented reality environments, mixed reality environments, and virtual reality environments) are cumbersome, inefficient, and limited. For example, systems that provide insufficient feedback to perform actions associated with virtual objects, systems that require a series of inputs to achieve a desired result in an augmented reality environment, and systems in which manipulation of virtual objects is complex and error-prone create a significant cognitive burden for users and detract from the experience of the virtual/augmented reality environment. In addition, the methods are unnecessarily time-consuming, thereby wasting energy. This latter consideration is particularly important in battery-operated devices.

したがって、コンピュータシステムとの相互作用をユーザにとってより効率的かつ直感的にするコンピュータ生成体験をユーザに提供するための改善された方法及びインタフェースを有するコンピュータシステムが必要とされている。表示生成コンポーネント及び1つ以上の入力デバイスを有するコンピュータシステムのためのユーザインタフェースに関連する上記の欠陥及び他の問題は、開示されたシステム、方法、及びユーザインタフェースによって低減又は排除される。このようなシステム、方法、及びインタフェースは、ユーザにコンピュータ生成現実体験を提供する従来のシステム、方法、及びユーザインタフェースを任意選択的に補完又は置換する。このような方法及びインタフェースは、提供された入力とその入力に対するデバイス応答との間の接続をユーザが理解することを補助することにより、ユーザからの入力の数、程度及び/又は種類を低減し、それによって、より効率的なヒューマンマシンインタフェースを生成する。 Therefore, there is a need for a computer system having improved methods and interfaces for providing a user with a computer-generated experience that makes interaction with the computer system more efficient and intuitive for the user. The above-mentioned deficiencies and other problems associated with user interfaces for computer systems having a display generating component and one or more input devices are reduced or eliminated by the disclosed systems, methods, and user interfaces. Such systems, methods, and interfaces optionally complement or replace conventional systems, methods, and user interfaces that provide a user with a computer-generated reality experience. Such methods and interfaces reduce the number, extent, and/or type of inputs from a user by helping the user understand the connection between the inputs provided and the device response to those inputs, thereby producing a more efficient human-machine interface.

いくつかの実施形態によれば、第1の表示生成コンポーネント及び1つ以上の第1の入力デバイスと通信しているコンピュータシステムにおいて方法が実行される。本方法は、第1のユーザインタフェースオブジェクトは、三次元環境の第1のビュー内の第1のポジションに第1のセットの外観特性で表示され、第1のユーザと第2のユーザとの間で少なくとも部分的に共有される三次元環境の第1のビューに第1のユーザインタフェースオブジェクトを表示することと、三次元環境の第1のビュー内の第1のポジションに第1のセットの外観特性で第1のユーザインタフェースオブジェクトを表示している間、第1のユーザによって提供された第1のユーザ入力であって、第1のユーザ入力は、第1のユーザインタフェースオブジェクトに向けられる、第1のユーザ入力を検出することと、を含む。本方法は、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したことに応じて、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していないという判定に従って、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作を実行することと、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用しているという判定に従って、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという視覚的インジケーションであって、視覚的インジケーションを表示することは、第1のユーザインタフェースオブジェクトの外観又は三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトのポジションのうちの少なくとも1つを変更することを含む、視覚的インジケーションを表示することと、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作を実行することを取りやめることと、を更に含む。 According to some embodiments, a method is performed in a computer system in communication with a first display generation component and one or more first input devices. The method includes: displaying a first user interface object in a first view of the three-dimensional environment that is at least partially shared between a first user and a second user, the first user interface object being displayed with a first set of appearance characteristics at a first position within the first view of the three-dimensional environment; and detecting a first user input provided by the first user while displaying the first user interface object with the first set of appearance characteristics at the first position within the first view of the three-dimensional environment, the first user input being directed toward the first user interface object. The method further includes, in response to detecting a first user input directed to the first user interface object, performing a first operation on the first user interface object in accordance with the first user input in accordance with a determination that a second user is not currently interacting with the first user interface object, and displaying a visual indication that the first user interface object is unavailable for interaction with the first user in accordance with a determination that a second user is currently interacting with the first user interface object, where displaying the visual indication includes changing at least one of an appearance of the first user interface object or a position of the first user interface object within the first view of the three-dimensional environment, and canceling performing the first operation on the first user interface object in accordance with the first user input.

いくつかの実施形態によれば、方法は、第1の表示生成コンポーネント及び1つ以上の第1の入力デバイスと通信しているコンピュータシステムにおいて実行され、第1のユーザが第1の物理的環境内の第1のロケーションにいる間、第1の物理的環境内の第1のロケーションに関連付けられた第1の視点に対応する、第1の物理的環境とは異なる第2の物理的環境内の第1のオブジェクトを表す第1のユーザインタフェースオブジェクトであって、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションは、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、第1のユーザインタフェースオブジェクトを含む三次元環境の第1のビューを表示することと、第1の物理的環境内の第1のユーザの移動及び第2の物理的環境内の第1のオブジェクトの移動のうちの少なくとも1つを検出することと、第1の物理的環境内の第1のユーザの移動及び第2の物理的環境内の第1のオブジェクトの移動のうちの少なくとも1つを検出したことに応じて、第2の視点に対応する三次元環境の第2のビューを表示することと、三次元環境の第2のビューに第1のユーザインタフェースオブジェクトを表示することと、を含む。第1のユーザインタフェースオブジェクトを三次元環境の第2のビューに表示することは、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションから閾値距離超であるという判定に従って、三次元環境内の第2のビュー内の第1の表示ポジションであって、第1の表示ポジションは、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションである、第1の表示ポジションに第1のユーザインタフェースオブジェクトを表示することと、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションからの閾値距離未満であるという判定に従って、三次元環境の第2のビュー内の第2の表示ポジションであって、第2の表示ポジションは、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションからオフセットされている、第2の表示ポジションに第1のユーザインタフェースオブジェクトを表示することと、を含む。 According to some embodiments, a method is executed in a computer system in communication with a first display generation component and one or more first input devices, and includes: displaying a first view of the three-dimensional environment including a first user interface object representing a first object in a second physical environment different from the first physical environment while a first user is at a first location in the first physical environment, the first user interface object corresponding to a first viewpoint associated with the first location in the first physical environment, wherein individual positions of the first user interface object in the three-dimensional environment correspond to individual locations of the first object in the second physical environment in a first manner; detecting at least one of a movement of the first user in the first physical environment and a movement of the first object in the second physical environment; displaying a second view of the three-dimensional environment corresponding to the second viewpoint in response to detecting at least one of the movement of the first user in the first physical environment and the movement of the first object in the second physical environment; and displaying the first user interface object in the second view of the three-dimensional environment. Displaying the first user interface object in the second view of the three dimensional environment includes: displaying the first user interface object at a first display position in the second view of the three dimensional environment in accordance with a determination that the individual position of the first user interface object in the three dimensional environment, which corresponds to the individual location of the first object in the second physical environment in a first manner, is more than a threshold distance from the individual position in the three dimensional environment corresponding to a second viewpoint associated with the second view of the three dimensional environment; and displaying the first user interface object at a second display position in the second view of the three dimensional environment in accordance with a determination that the individual position of the first user interface object in the three dimensional environment, which corresponds to the individual location of the first object in the second physical environment in a first manner, is less than a threshold distance from the individual position in the three dimensional environment corresponding to the second viewpoint associated with the second view of the three dimensional environment, the second display position being offset from the individual position of the first user interface object in the three dimensional environment.

いくつかの実施形態によれば、方法は、第1の表示生成コンポーネント及び1つ以上の第1の入力デバイスと通信しているコンピュータシステムにおいて実行され、第1の没入レベルで第1のコンピュータ生成体験を表示することと、第1の没入レベルで第1のコンピュータ生成体験を表示している間、第1のユーザに対応するバイオメトリックデータを受信することと、;第1のユーザに対応するバイオメトリックデータの受信に応じて、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすという判定に従って、第2の没入レベルで第1のコンピュータ生成体験であって、第2の没入レベルで表示される第1のコンピュータ生成体験は、第1の没入レベルで表示される第1のコンピュータ生成体験よりも第1のユーザの視野のより大きな部分を占有する、第2の没入レベルで第1のコンピュータ生成体験を表示することと、第1のユーザに対応するバイオメトリックデータが第1の基準を満たしていないという判定に従って、第1の没入レベルで第1のコンピュータ生成体験を表示し続けることと、を含む。 According to some embodiments, a method is executed on a computer system in communication with a first display generation component and one or more first input devices, and includes displaying a first computer-generated experience at a first immersion level; receiving biometric data corresponding to a first user while displaying the first computer-generated experience at the first immersion level; in response to receiving the biometric data corresponding to the first user, in accordance with a determination that the biometric data corresponding to the first user satisfies a first criterion, displaying the first computer-generated experience at a second immersion level, where the first computer-generated experience displayed at the second immersion level occupies a greater portion of the first user's field of view than the first computer-generated experience displayed at the first immersion level; and in accordance with a determination that the biometric data corresponding to the first user does not satisfy the first criterion, continuing to display the first computer-generated experience at the first immersion level.

いくつかの実施形態によれば、方法は、第1の表示生成コンポーネント及び1つ以上の第1の入力デバイスと通信しているコンピュータシステムにおいて実行され、物理的環境の第1の部分の第1の表現を含む物理的環境の第1のビューを表示することと、物理的環境の第1のビューを表示している間、2つ以上のタイプのコンピュータ生成感覚調整のうちの第1のタイプのコンピュータ生成感覚調整を作動させる要求に対応する第1のユーザ入力を検出することと、第1のユーザ入力を検出したことに応じて、物理的環境の第2のビューであって、物理的環境の第2のビューは、物理的環境の第1の部分の第2の表現を含み、物理的環境の第1の部分の第2の表現は、第1のタイプのコンピュータ生成感覚調整に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する、物理的環境の第2のビューを表示することと、物理的環境の第2のビューを表示している間、2つ以上のタイプのコンピュータ生成感覚調整のうちの、第1のタイプのコンピュータ生成感覚調整とは異なる第2のタイプのコンピュータ生成感覚調整を作動させる要求に対応する第2のユーザ入力を検出することと、第2のユーザ入力を検出したことに応じて、物理的環境の第3のビューであって、物理的環境の第3のビューは、物理的環境の第1の部分の第3の表現を含み、物理的環境の第1の部分の第3の表現は、第1のタイプのコンピュータ生成感覚調整に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、第2のタイプのコンピュータ生成感覚調整に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する、物理的環境の第3のビューを表示することと、を含む。 According to some embodiments, a method is executed in a computer system in communication with a first display generation component and one or more first input devices, the method comprising: displaying a first view of the physical environment including a first representation of a first portion of the physical environment; detecting a first user input while displaying the first view of the physical environment, the first user input corresponding to a request to activate a first type of computer-generated sensory adjustment of two or more types of computer-generated sensory adjustment; and in response to detecting the first user input, displaying a second view of the physical environment, the second view of the physical environment including a second representation of the first portion of the physical environment, the second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment in accordance with the first type of computer-generated sensory adjustment. and, while displaying the second view of the physical environment, detecting a second user input corresponding to a request to activate a second type of computer-generated sensory adjustment of the two or more types of computer-generated sensory adjustments that is different from the first type of computer-generated sensory adjustments; and, in response to detecting the second user input, displaying a third view of the physical environment, the third view of the physical environment including a third representation of the first portion of the physical environment, the third representation of the first portion of the physical environment having a first display characteristic adjusted for the first representation of the first portion of the physical environment in accordance with the first type of computer-generated sensory adjustments and a second display characteristic adjusted for the second representation of the physical environment in accordance with the second type of computer-generated sensory adjustments.

いくつかの実施形態によれば、方法は、第1の表示生成コンポーネント及び1つ以上の第1の入力デバイスと通信しているコンピュータシステムにおいて実行され、物理的環境の第1の部分の第1の表現を含む三次元環境の第1のビューを表示することと、物理的環境の第1の部分の第1の表現を含む三次元環境の第1のビューを表示している間、物理的環境の第1のロケーションから第2のロケーションへの第1のユーザの移動を検出することと、第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したことに応じて、かつ第2のロケーションへの移動が第1の基準であって、第1の基準が満たされるために、第1の基準は、第2のロケーションが第1のタイプのエクササイズに関連付けられたロケーションに対応するという第1の要件を含み、第1の基準を満たすという判定に従って、三次元環境の第2のビューであって、三次元環境の第2のビューが、第1のタイプのエクササイズに対応する第1の仮想コンテンツセットを含み、第1のセットの仮想コンテンツが、第2のロケーションを含む物理的環境の第2の部分の第2の表現の少なくとも一部を置換する、次元環境の第2のビューを表示することと、第2のロケーションへの移動が第1の基準とは異なる第2の基準であって第2の基準が満たされるために、第2の基準は、第2のロケーションが第2のタイプのエクササイズに関連付けられたロケーションに対応するという第2の要件を含み、第2のタイプのエクササイズは第1のタイプのエクササイズとは異なる、第2の基準を満たすという判定に従って、三次元環境の第3のビューであって、三次元環境の第3のビューは第2のタイプのエクササイズに対応する第2のセットの仮想コンテンツを含み、第2のセットの仮想コンテンツは第1のセットの仮想コンテンツとは異なり、第2のセットの仮想コンテンツは、第2のロケーションを含む物理的環境の第3の部分の第3の表現の少なくとも一部を置換する、三次元環境の第3のビューを表示することと、を含む。 According to some embodiments, a method is executed in a computer system in communication with a first display generation component and one or more first input devices, and includes: displaying a first view of a three-dimensional environment including a first representation of a first portion of a physical environment; detecting movement of a first user from a first location of the physical environment to a second location while displaying the first view of the three-dimensional environment including the first representation of the first portion of the physical environment; and in response to detecting the movement of the first user from the first location to the second location and in accordance with a determination that the movement to the second location satisfies a first criterion, the first criterion including a first requirement that the second location corresponds to a location associated with a first type of exercise, and in accordance with a determination that the first criterion is satisfied, displaying a second view of the three-dimensional environment, the second view of the three-dimensional environment including a first virtual content set corresponding to the first type of exercise. displaying a second view of the three-dimensional environment, in which the first set of virtual content replaces at least a portion of the second representation of the second portion of the physical environment including the second location; and in accordance with a determination that the movement to the second location satisfies a second criterion different from the first criterion, the second criterion including a second requirement that the second location corresponds to a location associated with a second type of exercise, the second type of exercise being different from the first type of exercise, displaying a third view of the three-dimensional environment, the third view of the three-dimensional environment including a second set of virtual content corresponding to the second type of exercise, the second set of virtual content being different from the first set of virtual content, and the second set of virtual content replacing at least a portion of the third representation of the third portion of the physical environment including the second location.

くつかの実施形態によれば、コンピュータシステムは、表示生成コンポーネント(例えば、ディスプレイ、プロジェクタ、ヘッドマウントディスプレイなど)、1つ以上の入力デバイス(例えば、1つ以上のカメラ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ)、任意選択的に1つ以上の触覚出力ジェネレータ、1つ以上のプロセッサ、及び1つ以上のプログラムを記憶するメモリを含み、又はそれらと通信しており、1つ以上のプログラムは、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、本明細書に記載の方法のうちのいずれかの動作を実行する、又は実行させる命令を含む。いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が、内部に記憶されている命令を有し、命令は、表示生成コンポーネントと、1つ以上の入力デバイス(例えば、1つ以上のカメラ、タッチ感知面、任意選択的にタッチ感知面との接触の強度を検出する1つ以上のセンサ)と、任意選択的に1つ以上の触知出力ジェネレータと、を有するコンピュータシステムによって実行されるとき、本明細書で説明される方法のいずれかの動作をデバイスに実行させ、又は動作の実行を行わせる。いくつかの実施形態によれば、表示生成コンポーネントと、1つ以上の入力デバイス(例えば、1つ以上のカメラ、タッチ感知面、任意選択的にタッチ感知面との接触の強度を検出する1つ以上のセンサ)と、任意選択的に1つ以上の触知出力ジェネレータと、メモリと、メモリに記憶されている1つ以上のプログラムを実行する1つ以上のプロセッサと、を有するコンピュータシステム上のグラフィカルユーザインタフェースが、本明細書で説明される方法のいずれかにおいて表示される要素のうちの1つ以上を含み、これらの要素は、本明細書で説明される方法のいずれかで説明されるように、入力に応じて更新される。いくつかの実施形態によれば、コンピュータシステムが、表示生成コンポーネントと、1つ以上の入力デバイス(例えば、1つ以上のカメラ、タッチ感知面、任意選択的にタッチ感知面との接触の強度を検出する1つ以上のセンサ)と、任意選択的に1つ以上の触知出力ジェネレータと、本明細書で説明される方法のいずれかの動作を実行する、又は実行させる手段と、を含む。いくつかの実施形態によれば、表示生成コンポーネントと、1つ以上の入力デバイス(例えば、1つ以上のカメラ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ)と、任意選択的に1つ以上の触知出力ジェネレータと、を有するコンピュータシステムで使用するための情報処理装置が、本明細書で説明される方法のいずれかの動作を実行する、又は実行させる手段を含む。 According to some embodiments, a computer system includes or is in communication with a display generating component (e.g., a display, projector, head mounted display, etc.), one or more input devices (e.g., one or more cameras, a touch-sensitive surface, optionally one or more sensors that detect the intensity of contact with the touch-sensitive surface), optionally one or more haptic output generators, one or more processors, and a memory that stores one or more programs, the one or more programs configured to be executed by the one or more processors, the one or more programs including instructions that perform or cause to be performed any of the operations of the methods described herein. According to some embodiments, a non-transitory computer-readable storage medium has instructions stored therein that, when executed by a computer system having a display generating component, one or more input devices (e.g., one or more cameras, a touch-sensitive surface, optionally one or more sensors that detect the intensity of contact with the touch-sensitive surface), and optionally one or more tactile output generators, cause the device to perform or cause to be performed any of the operations of the methods described herein. According to some embodiments, a graphical user interface on a computer system having a display generation component, one or more input devices (e.g., one or more cameras, a touch-sensitive surface, optionally one or more sensors that detect the intensity of contact with the touch-sensitive surface), optionally one or more tactile output generators, a memory, and one or more processors executing one or more programs stored in the memory includes one or more of the elements displayed in any of the methods described herein, which elements are updated in response to input as described in any of the methods described herein. According to some embodiments, a computer system includes a display generation component, one or more input devices (e.g., one or more cameras, a touch-sensitive surface, optionally one or more sensors that detect the intensity of contact with the touch-sensitive surface), optionally one or more tactile output generators, and means for performing or causing to be performed the operations of any of the methods described herein. According to some embodiments, an information processing apparatus for use in a computer system having a display generation component, one or more input devices (e.g., one or more cameras, a touch-sensitive surface, and optionally one or more sensors that detect the intensity of contact with the touch-sensitive surface), and optionally one or more tactile output generators, includes means for performing or causing to be performed any of the operations of the methods described herein.

したがって、表示生成コンポーネントを有するコンピュータシステムには、三次元環境と相互作用し、三次元環境と相互作用するときにコンピュータシステムのユーザの使用を簡易化することによって、そのようなコンピュータシステムの有効性、効率、並びにユーザの安全性及び満足度を高める改善された方法及びインタフェースが提供される。そのような方法及びインタフェースは、三次元環境と相互作用し、三次元環境と相互作用するときにコンピュータシステムのユーザの使用を容易にするための従来の方法を補完又は置換することができる。 Thus, computer systems having display generation components are provided with improved methods and interfaces for interacting with three-dimensional environments and facilitating a user's use of the computer systems when interacting with the three-dimensional environments, thereby increasing the effectiveness, efficiency, and safety and satisfaction of such computer systems. Such methods and interfaces may complement or replace conventional methods for interacting with three-dimensional environments and facilitating a user's use of the computer systems when interacting with the three-dimensional environments.

前述の様々な実施形態は、本明細書に記載の任意の他の実施形態と組み合わせることができることに留意されたい。本明細書で説明する機能及び利点は、包括的なものではなく、特に、図面、明細書及び特許請求の範囲を鑑みると、多くの追加の機能及び利点が当業者には明らかになるであろう。更に、本明細書において使用される文言は、専ら読みやすさ及び説明の目的で選択されたものであり、本発明の主題を画定又は制限するために選択されたものではないことに留意されたい。 It should be noted that the various embodiments described above can be combined with any other embodiment described herein. The features and advantages described herein are not exhaustive, and many additional features and advantages will be apparent to those skilled in the art, especially in view of the drawings, specification, and claims. Furthermore, it should be noted that the language used herein has been selected solely for ease of reading and explanation, and not to define or limit the subject matter of the present invention.

説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。 For a better understanding of the various embodiments described, reference should be made to the following Detailed Description in conjunction with the following drawings, in which like reference numerals refer to corresponding parts throughout:

いくつかの実施形態による、CGR体験を提供するためのコンピュータシステムの動作環境を示すブロック図である。FIG. 1 is a block diagram illustrating a computer system operating environment for providing a CGR experience, according to some embodiments.

いくつかの実施形態による、ユーザのCGR体験を管理及び調整するように構成されたコンピュータシステムのコントローラを示すブロック図である。FIG. 2 is a block diagram illustrating a controller of a computer system configured to manage and coordinate a user's CGR experience, according to some embodiments.

いくつかの実施形態による、CGR体験の視覚的コンポーネントをユーザに提供するように構成されたコンピュータシステムの表示生成コンポーネントを示すブロック図である。FIG. 2 is a block diagram illustrating display generation components of a computer system configured to provide a visual component of a CGR experience to a user, according to some embodiments.

いくつかの実施形態による、ユーザのジェスチャ入力をキャプチャするように構成されたコンピュータシステムのハンドトラッキングユニットを示すブロック図である。FIG. 1 is a block diagram illustrating a hand tracking unit of a computer system configured to capture a user's gesture input, according to some embodiments.

いくつかの実施形態による、ユーザの視線入力をキャプチャするように構成されたコンピュータシステムのアイトラッキングユニットを示すブロック図である。FIG. 1 is a block diagram illustrating an eye-tracking unit of a computer system configured to capture a user's gaze input, according to some embodiments.

いくつかの実施形態による、グリント支援視線追跡パイプラインを示すフローチャートである。1 is a flowchart illustrating a glint-assisted gaze tracking pipeline, according to some embodiments.

いくつかの実施形態による、2人以上のユーザ間で共有されるコンピュータ生成三次元環境内のユーザインタフェースオブジェクトとの相互作用を示すブロック図である。FIG. 1 is a block diagram illustrating interaction with user interface objects in a computer-generated three-dimensional environment shared among two or more users, according to some embodiments. いくつかの実施形態による、2人以上のユーザ間で共有されるコンピュータ生成三次元環境内のユーザインタフェースオブジェクトとの相互作用を示すブロック図である。FIG. 1 is a block diagram illustrating interaction with user interface objects in a computer-generated three-dimensional environment shared among two or more users, according to some embodiments. いくつかの実施形態による、2人以上のユーザ間で共有されるコンピュータ生成三次元環境内のユーザインタフェースオブジェクトとの相互作用を示すブロック図である。FIG. 1 is a block diagram illustrating interaction with user interface objects in a computer-generated three-dimensional environment shared among two or more users, according to some embodiments.

三次元環境の現在表示されているビューの視点に対して物理的オブジェクトの表現を様々な方式で表示する方法を示すブロック図であり、いくつかの実施形態により、視点は第1の物理的環境内のユーザの移動に従って移動し、物理的オブジェクトの表現は、第1の物理的環境とは異なる第2の物理的環境内の物理的オブジェクトの移動に従って移動し、物理的オブジェクトの表現と視点との間の空間関係が予め設定された基準を満たすことに応じて、表現を表示する方式の変更がトリガされる。FIG. 1 is a block diagram illustrating methods of displaying representations of physical objects in various manners relative to a viewpoint of a currently displayed view of a three-dimensional environment, where in some embodiments the viewpoint moves according to a user's movements in a first physical environment and the representations of the physical objects move according to movements of the physical objects in a second physical environment different from the first physical environment, and where a change in the manner in which the representations are displayed is triggered in response to the spatial relationship between the representations of the physical objects and the viewpoint satisfying a preset criterion. 三次元環境の現在表示されているビューの視点に対して物理的オブジェクトの表現を様々な方式で表示する方法を示すブロック図であり、いくつかの実施形態により、視点は第1の物理的環境内のユーザの移動に従って移動し、物理的オブジェクトの表現は、第1の物理的環境とは異なる第2の物理的環境内の物理的オブジェクトの移動に従って移動し、物理的オブジェクトの表現と視点との間の空間関係が予め設定された基準を満たすことに応じて、表現を表示する方式の変更がトリガされる。FIG. 1 is a block diagram illustrating methods of displaying representations of physical objects in various manners relative to a viewpoint of a currently displayed view of a three-dimensional environment, where in some embodiments the viewpoint moves according to a user's movements in a first physical environment and the representations of the physical objects move according to movements of the physical objects in a second physical environment different from the first physical environment, and where a change in the manner in which the representations are displayed is triggered in response to the spatial relationship between the representations of the physical objects and the viewpoint satisfying a preset criterion. 三次元環境の現在表示されているビューの視点に対して物理的オブジェクトの表現を様々な方式で表示する方法を示すブロック図であり、いくつかの実施形態により、視点は第1の物理的環境内のユーザの移動に従って移動し、物理的オブジェクトの表現は、第1の物理的環境とは異なる第2の物理的環境内の物理的オブジェクトの移動に従って移動し、物理的オブジェクトの表現と視点との間の空間関係が予め設定された基準を満たすことに応じて、表現を表示する方式の変更がトリガされる。FIG. 1 is a block diagram illustrating methods of displaying representations of physical objects in various manners relative to a viewpoint of a currently displayed view of a three-dimensional environment, where in some embodiments the viewpoint moves according to a user's movement in a first physical environment and the representations of the physical objects move according to movement of the physical objects in a second physical environment different from the first physical environment, and where a change in the manner in which the representations are displayed is triggered in response to the spatial relationship between the representations of the physical objects and the viewpoint satisfying a preset criterion.

いくつかの実施形態による、コンピュータシステムによって受信されるユーザのバイオメトリックデータの変化に従って、コンピュータ生成体験の環境を表示する没入レベルの変更を示すブロック図である。FIG. 1 is a block diagram illustrating changes in the immersion level displaying an environment of a computer-generated experience according to changes in a user's biometric data received by a computer system, according to some embodiments. いくつかの実施形態による、コンピュータシステムによって受信されるユーザのバイオメトリックデータの変化に従って、コンピュータ生成体験の環境を表示する没入レベルの変更を示すブロック図である。FIG. 1 is a block diagram illustrating changes in the immersion level displaying an environment of a computer-generated experience according to changes in a user's biometric data received by a computer system, according to some embodiments. いくつかの実施形態による、コンピュータシステムによって受信されるユーザのバイオメトリックデータの変化に従って、コンピュータ生成体験の環境を表示する没入レベルの変更を示すブロック図である。FIG. 1 is a block diagram illustrating changes in the immersion level displaying an environment of a computer-generated experience according to changes in a user's biometric data received by a computer system, according to some embodiments. いくつかの実施形態による、コンピュータシステムによって受信されるユーザのバイオメトリックデータの変化に従って、コンピュータ生成体験の環境を表示する没入レベルの変更を示すブロック図である。FIG. 1 is a block diagram illustrating changes in the immersion level displaying an environment of a computer-generated experience according to changes in a user's biometric data received by a computer system, according to some embodiments.

いくつかの実施形態による、物理的環境の表現を含む環境のビューを表示するときにコンピュータシステムによって提供される複数のタイプの感覚調整の効果を集約することを示すブロック図である。FIG. 1 is a block diagram illustrating the aggregation of effects of multiple types of sensory adjustments provided by a computer system when displaying a view of an environment that includes a representation of a physical environment, according to some embodiments. いくつかの実施形態による、物理的環境の表現を含む環境のビューを表示するときにコンピュータシステムによって提供される複数のタイプの感覚調整の効果を集約することを示すブロック図である。FIG. 1 is a block diagram illustrating the aggregation of effects of multiple types of sensory adjustments provided by a computer system when displaying a view of an environment that includes a representation of a physical environment, according to some embodiments. いくつかの実施形態による、物理的環境の表現を含む環境のビューを表示するときにコンピュータシステムによって提供される複数のタイプの感覚調整の効果を集約することを示すブロック図である。FIG. 1 is a block diagram illustrating the aggregation of effects of multiple types of sensory adjustments provided by a computer system when displaying a view of an environment that includes a representation of a physical environment, according to some embodiments.

いくつかの実施形態による、三次元環境のビュー内の物理的環境の部分が個別のタイプのエクササイズに対応するという判定に従って、三次元環境のビュー内に個別のタイプのエクササイズに対応する仮想コンテンツを選択的に表示することを示すブロック図である。A block diagram illustrating selectively displaying virtual content corresponding to a particular type of exercise within a view of a three-dimensional environment in accordance with a determination that a portion of the physical environment within the view of the three-dimensional environment corresponds to a particular type of exercise, according to some embodiments. いくつかの実施形態による、三次元環境のビュー内の物理的環境の部分が個別のタイプのエクササイズに対応するという判定に従って、三次元環境のビュー内に個別のタイプのエクササイズに対応する仮想コンテンツを選択的に表示することを示すブロック図である。A block diagram illustrating selectively displaying virtual content corresponding to a particular type of exercise within a view of a three-dimensional environment in accordance with a determination that a portion of the physical environment within the view of the three-dimensional environment corresponds to a particular type of exercise, according to some embodiments. いくつかの実施形態による、三次元環境のビュー内の物理的環境の部分が個別のタイプのエクササイズに対応するという判定に従って、三次元環境のビュー内に個別のタイプのエクササイズに対応する仮想コンテンツを選択的に表示することを示すブロック図である。A block diagram illustrating selectively displaying virtual content corresponding to a particular type of exercise within a view of a three-dimensional environment in accordance with a determination that a portion of the physical environment within the view of the three-dimensional environment corresponds to a particular type of exercise, according to some embodiments.

いくつかの実施形態による、2人以上のユーザ間で共有されるコンピュータ生成三次元環境内のユーザインタフェースオブジェクトとの相互作用をサポートする方法のフローチャートである。1 is a flowchart of a method for supporting interaction with user interface objects in a computer-generated three-dimensional environment shared among two or more users, according to some embodiments.

三次元環境の現在表示されているビューの視点に対して物理的オブジェクトの表現を様々な方式で表示する方法のフローチャートであり、いくつかの実施形態により、視点は第1の物理的環境内のユーザの移動に従って移動し、物理的オブジェクトの表現は、第1の物理的環境とは異なる第2の物理的環境内の物理的オブジェクトの移動に従って移動し、物理的オブジェクトの表現と視点との間の空間関係が予め設定された基準を満たすことに応じて、表現を表示する方式の変更がトリガされる。1 is a flowchart of a method for displaying representations of physical objects in various manners relative to a viewpoint of a currently displayed view of a three-dimensional environment, where in some embodiments the viewpoint moves according to a user's movements in a first physical environment and the representations of the physical objects move according to movements of the physical objects in a second physical environment different from the first physical environment, and where a change in the manner in which the representations are displayed is triggered in response to a spatial relationship between the representations of the physical objects and the viewpoint satisfying a preset criterion. 三次元環境の現在表示されているビューの視点に対して物理的オブジェクトの表現を様々な方式で表示する方法のフローチャートであり、いくつかの実施形態により、視点は第1の物理的環境内のユーザの移動に従って移動し、物理的オブジェクトの表現は、第1の物理的環境とは異なる第2の物理的環境内の物理的オブジェクトの移動に従って移動し、物理的オブジェクトの表現と視点との間の空間関係が予め設定された基準を満たすことに応じて、表現を表示する方式の変更がトリガされる。1 is a flowchart of a method for displaying representations of physical objects in various manners relative to a viewpoint of a currently displayed view of a three-dimensional environment, where in some embodiments the viewpoint moves according to a user's movements in a first physical environment and the representations of the physical objects move according to movements of the physical objects in a second physical environment different from the first physical environment, and where a change in the manner in which the representations are displayed is triggered in response to a spatial relationship between the representations of the physical objects and the viewpoint satisfying a preset criterion.

いくつかの実施形態による、コンピュータシステムによって受信されるユーザのバイオメトリックデータの変化に従って、コンピュータ生成体験の環境を表示する没入レベルを変更する方法のフローチャートである。1 is a flowchart of a method for altering an immersion level for displaying an environment of a computer-generated experience according to changes in biometric data of a user received by a computer system, according to some embodiments.

いくつかの実施形態による、物理的環境の表現を含む環境のビューを表示するときにコンピュータシステムによって提供される複数のタイプの感覚調整の効果を集約する方法のフローチャートである。1 is a flowchart of a method for aggregating the effects of multiple types of sensory modulation provided by a computer system when displaying a view of an environment that includes a representation of a physical environment, according to some embodiments.

いくつかの実施形態による、三次元環境のビュー内の物理的環境の部分が個別のタイプのエクササイズに対応するという判定に従って、三次元環境のビュー内に個別のタイプのエクササイズに対応する仮想コンテンツを選択的に表示する方法のフローチャートである。1 is a flowchart of a method for selectively displaying virtual content corresponding to a particular type of exercise within a view of a three-dimensional environment in accordance with some embodiments, pursuant to a determination that a portion of a physical environment within the view of the three-dimensional environment corresponds to the particular type of exercise.

本開示は、いくつかの実施形態による、コンピュータ生成現実(CGR)体験をユーザに提供するユーザインタフェースに関する。 The present disclosure relates to a user interface that provides a computer-generated reality (CGR) experience to a user in some embodiments.

本明細書に記載するシステム、方法、及びGUIは、複数の方法で仮想/拡張現実環境とのユーザインタフェース相互作用を改善する。 The systems, methods, and GUIs described herein improve user interface interaction with virtual/augmented reality environments in multiple ways.

いくつかの実施形態では、コンピュータシステムは、複数のユーザが、三次元環境において表示される第1のユーザインタフェースオブジェクトにアクセスする権利を有することを許可するが、別のユーザが第1のユーザインタフェースオブジェクトと相互作用している間、ユーザが第1のユーザインタフェースオブジェクトにアクセスすることを防止する。第1のユーザによって使用される第1の表示生成コンポーネントを介して第1のユーザインタフェースオブジェクトを含む三次元環境のビューを表示するとき、コンピュータシステムは、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出する。第1のユーザ入力を検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトがその時点で第1のユーザとの相互作用に利用可能であるか否かに応じて、第1のユーザインタフェースオブジェクトに対して第1のユーザ入力に対応する第1の動作を実行するか、又は第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことの視覚的インジケーションを表示し、第1の動作の実行を取りやめる。コンピュータシステムは、視覚的インジケーションを提供し、別のユーザがその時点で第1のユーザインタフェースオブジェクトを制御する(例えば、別のユーザが、第1のユーザインタフェースオブジェクトと相互作用している、第1のユーザの同時相互作用を除外するように第1のユーザインタフェースオブジェクトと相互作用している、及び/又は第1のユーザが実行しようとしているタイプのアクションについて第1のユーザインタフェースオブジェクトをロックしているなど)という判定に従って、第1の動作の実行を取りやめる。いくつかの実施形態では、視覚的インジケーションを表示することは、第1のユーザに対して示される三次元環境のビュー内の第1のユーザインタフェースオブジェクトを移動させて、第1のユーザインタフェースオブジェクトと第1のユーザの手の接近表現との間の予め設定された距離を維持することを含む。いくつかの実施形態では、視覚的インジケーションを表示することは、第1のユーザに対して示される三次元環境のビュー内の第1のユーザインタフェースオブジェクトの視覚的外観を変更することを含む。いくつかの実施形態では、第1のユーザインタフェースオブジェクトが制御ユーザによって(例えば、スロージェスチャ、トスジェスチャなどによって)第1のユーザに解放されると、コンピュータシステムは、第1のユーザインタフェースオブジェクトが、第1のユーザに対して示される三次元環境の現在表示されているビューの視点に対して予め設定された向きで表示されるように、第1のユーザインタフェースオブジェクトを回転させる。いくつかの実施形態では、コンピュータシステムは、第1のユーザの一部の表現(例えば、第1のユーザの手の表現、ユーザの顔の仮想ポジションの腕の届く範囲内など)のポジション又はその近くに第1のユーザインタフェースオブジェクトの表現を表示することによって、第1のユーザインタフェースオブジェクトへのアクセスを制御する。第1のユーザが第1のユーザインタフェースオブジェクトと相互作用しようとしたことに応じて、第1のユーザによって使用される表示生成コンポーネントを介して表示される三次元環境のビューに、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことを示す視覚的インジケーションを表示することは、相互作用が試みられたときに直感的かつタイムリーなフィードバックを提供し、三次元環境のビュー内の不要な視覚的混乱を低減する。また、第1のユーザと環境を共有している他のユーザに対して同じ視覚的インジケーションを表示する必要がなく、ユーザの混乱が低減され、マン-マシンインタフェースの効率が改善される。 In some embodiments, the computer system allows multiple users to have the right to access a first user interface object displayed in a three-dimensional environment, but prevents a user from accessing the first user interface object while another user is interacting with the first user interface object. When displaying a view of the three-dimensional environment including the first user interface object via a first display generation component used by the first user, the computer system detects a first user input directed at the first user interface object. In response to detecting the first user input, the computer system performs a first action on the first user interface object corresponding to the first user input, or displays a visual indication that the first user interface object is not available for interaction with the first user and cancels the execution of the first action, depending on whether the first user interface object is currently available for interaction with the first user. The computer system provides a visual indication and aborts execution of the first action pursuant to a determination that another user currently controls the first user interface object (e.g., another user is interacting with the first user interface object, interacting with the first user interface object in a manner that precludes simultaneous interaction of the first user, and/or locks the first user interface object for the type of action the first user is attempting to perform, etc.). In some embodiments, displaying the visual indication includes moving the first user interface object within the view of the three-dimensional environment shown to the first user to maintain a preset distance between the first user interface object and a close representation of the first user's hand. In some embodiments, displaying the visual indication includes modifying a visual appearance of the first user interface object within the view of the three-dimensional environment shown to the first user. In some embodiments, when the first user interface object is released by the controlling user to the first user (e.g., by a throw gesture, a toss gesture, etc.), the computer system rotates the first user interface object such that the first user interface object is displayed at a preset orientation relative to a viewpoint of a currently displayed view of the three-dimensional environment shown to the first user. In some embodiments, the computer system controls access to the first user interface object by displaying a representation of the first user interface object at or near a position of a representation of a portion of the first user (e.g., a representation of the first user's hand, within arm's reach of a virtual position of the user's face, etc.). Displaying a visual indication in a view of the three-dimensional environment displayed via a display generation component used by the first user in response to the first user attempting to interact with the first user interface object that indicates that the first user interface object is not available for interaction with the first user provides intuitive and timely feedback when an interaction is attempted and reduces unnecessary visual clutter in the view of the three-dimensional environment. Additionally, there is no need to display the same visual indication to other users sharing the environment with the first user, reducing user confusion and improving the efficiency of the man-machine interface.

いくつかの実施形態では、コンピュータシステムは、第1のユーザ(及び三次元環境を見るために第1のユーザによって使用される第1の表示生成コンポーネント)の物理的環境とは異なる物理的環境内に位置する物理的オブジェクト(例えば、第2のユーザ、動物、移動するドローンなど)の表現を含む三次元環境のビューを表示する。コンピュータシステムは、任意選択的に、三次元環境の現在表示されているビューに対応する視点を、物理的環境内の第1のユーザ(及び/又は第1の表示生成コンポーネント)の移動に従って移動させる。コンピュータシステムは、物理的環境内の物理的オブジェクトのロケーション及び移動経路に基づいて、三次元環境内の物理的オブジェクトの表現のポジション及び移動経路を判定する。コンピュータシステムは、三次元環境内のポジションと個別の物理的環境(例えば、第1のユーザ及び第1の表示生成コンポーネントの物理的環境、物理的オブジェクトの物理的環境など)内のロケーションとの間の第1のタイプの対応関係(例えば、マッピング関係及び変換関係、任意選択的に、視点、物理的オブジェクト、及び第1のユーザなどについての様々なマッピング関係及び変換関係)を利用する。(例えば、第1のユーザの移動、及び/又は物理的オブジェクトの移動などに起因する)状況によっては、物理的オブジェクトの表現のポジションは、ポジション(単数又は複数)が、三次元環境内のポジションと物理的環境内のロケーションとの間の第1のタイプの対応関係を使用して判定される場合、第1の表示生成コンポーネントを介して示されるポジションの閾値距離(例えば、腕の長さ、3フィート、ユーザ指定距離など)内にあるであろう。このような条件下で、コンピュータシステムは、第1のタイプの対応関係に基づいて判定されたポジションからオフセットされた調整されたポジションに物理的オブジェクトの表現を表示する。いくつかの実施形態では、調整されたポジションは、第1のタイプの対応関係とは異なる第2のタイプの対応関係に基づいて判定され、調整されたポジションが、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビューの視点のポジションから閾値距離を超えたままであることを確実にする。コンピュータシステムは、第1のタイプの対応関係に基づいて計算された未調整ポジションが、第1の表示生成コンポーネントを介して示された三次元環境の現在表示されているビューの視点のポジションから閾値距離を超えて離れるまで、物理的オブジェクトの表現の調整ポジションを判定するために第2のタイプの対応関係を使用し続ける。物理的オブジェクトの表現のポジションと、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビューの視点のポジションとの間の相対距離を監視することによって、コンピュータは、物理的オブジェクトの表現の表示ポジションを適時に調整することができ、その結果、視点と物理的オブジェクトの表現との間の視覚的衝突を回避することができる。このことは、ユーザの視覚体験を改善し、ユーザが三次元環境と相互作用するときのユーザの混乱及び誤りを低減する。 In some embodiments, a computer system displays a view of a three-dimensional environment including a representation of a physical object (e.g., a second user, an animal, a moving drone, etc.) located in a physical environment different from the physical environment of a first user (and a first display generating component used by the first user to view the three-dimensional environment). The computer system optionally moves a viewpoint corresponding to a currently displayed view of the three-dimensional environment according to the movement of the first user (and/or the first display generating component) in the physical environment. The computer system determines a position and a movement path of a representation of the physical object in the three-dimensional environment based on the location and movement path of the physical object in the physical environment. The computer system utilizes a first type of correspondence relationship (e.g., a mapping relationship and a transformation relationship, optionally various mapping relationships and transformation relationships for the viewpoint, the physical object, the first user, etc.) between the positions in the three-dimensional environment and the locations in the respective physical environments (e.g., the physical environment of the first user and the first display generating component, the physical environment of the physical object, etc.). In some circumstances (e.g., due to movement of the first user and/or movement of the physical object, etc.), a position of the representation of the physical object, when the position(s) is determined using a first type of correspondence between a position in the three dimensional environment and a location in the physical environment, would be within a threshold distance (e.g., an arm's length, three feet, a user-specified distance, etc.) of the position shown via the first display generating component. Under such conditions, the computer system displays the representation of the physical object at an adjusted position that is offset from the position determined based on the first type of correspondence. In some embodiments, the adjusted position is determined based on a second type of correspondence that is different from the first type of correspondence to ensure that the adjusted position remains more than a threshold distance from the position of the viewpoint of the currently displayed view of the three dimensional environment shown via the first display generating component. The computer system continues to use the second type of correspondence to determine the adjusted position of the representation of the physical object until the unadjusted position calculated based on the first type of correspondence is more than a threshold distance away from the position of the viewpoint of the currently displayed view of the three dimensional environment shown via the first display generating component. By monitoring the relative distance between the position of the representation of the physical object and the position of the viewpoint of the currently displayed view of the three-dimensional environment shown via the first display generating component, the computer can timely adjust the display position of the representation of the physical object, thereby avoiding visual collisions between the viewpoint and the representation of the physical object. This improves the user's visual experience and reduces user confusion and errors when the user interacts with the three-dimensional environment.

いくつかの実施形態では、コンピュータシステムは、ユーザに対応するバイオメトリックデータに従って、コンピュータ生成体験(例えば、視覚体験、視聴覚体験、仮想現実体験、拡張現実体験など)がユーザに提示される没入レベルを変更する。例えば、ユーザが、例えば、積極的に、又はコンピュータ生成コンテンツの影響下で、彼/彼女の身体的及び感情的な状態を調整しているとき、コンピュータ生成体験が開始された後、コンピュータシステムは、ユーザに対応するバイオメトリックデータ(例えば、心拍数、血圧、呼吸数など)の変化を検出し得る。様々な没入レベルに関連付けられた予め設定された基準のそれぞれのセットに対するバイオメトリックデータの変化に従って、コンピュータシステムは、物理的環境の表現の視覚的プロミネンスに対して仮想コンテンツの(例えば、空間範囲、視覚的奥行き、彩度、視覚的コントラストなどを含む)視覚的プロミネンスを変更することによって(例えば、仮想コンテンツの複雑さ、空間範囲、及び/又は視覚的特性を増強すること、及び/又は物理的環境の表現の視覚的明瞭さ、ぼかし半径、不透明度、彩度などを低減することなどによって)コンピュータ生成体験をユーザに提供する没入レベルを増加又は低減させる。ユーザに対応するバイオメトリックデータの変化に基づいて、コンピュータ生成体験をユーザに提供する没入レベルを調整することは、コンピュータシステムが、コンピュータ生成体験に対するユーザの知覚状態により良く対応する、低い没入レベルの体験と高い没入レベルの体験との間のより滑らかな遷移を提供するのに役立ち、それによって、ユーザの混乱を低減し、コンピュータ生成体験の有効性を改善する。 In some embodiments, the computer system modifies the immersion level at which a computer-generated experience (e.g., visual experience, audiovisual experience, virtual reality experience, augmented reality experience, etc.) is presented to the user according to biometric data corresponding to the user. For example, after the computer-generated experience is initiated, the computer system may detect changes in the biometric data (e.g., heart rate, blood pressure, respiratory rate, etc.) corresponding to the user when the user, for example, actively or under the influence of the computer-generated content, adjusts his/her physical and emotional state. According to the changes in the biometric data with respect to respective sets of pre-defined criteria associated with various immersion levels, the computer system increases or decreases the immersion level at which the computer-generated experience is presented to the user by modifying the visual prominence (including, for example, spatial extent, visual depth, saturation, visual contrast, etc.) of the virtual content relative to the visual prominence of the representation of the physical environment (e.g., by enhancing the complexity, spatial extent, and/or visual characteristics of the virtual content and/or reducing the visual clarity, blur radius, opacity, saturation, etc. of the representation of the physical environment). Adjusting the level of immersion at which a computer-generated experience is provided to a user based on changes in biometric data corresponding to the user helps the computer system provide smoother transitions between low and high immersion level experiences that better correspond to the user's perceptual state with respect to the computer-generated experience, thereby reducing user confusion and improving the effectiveness of the computer-generated experience.

いくつかの実施形態では、コンピュータシステムは、特別な器具又はコンピュータシステムの支援なしでは容易に知覚され得ない物理的環境の様々な側面を知覚するユーザの能力を強化する複数のタイプの感覚調整機能を提供する。ユーザが一度に物理的環境の一部を見るときに単一タイプの感覚調整機能を使用することのみを可能にする代わりに、コンピュータシステムは、コンピュータシステムによって提供される物理的環境のビュー内で以前に隠されていた物理的環境の部分に存在する特徴及び特性が明らかにされ得るように、物理的環境の一部の表現に及ぼす2つ以上のタイプの感覚増強機能の効果を集約する。複数のタイプの感覚調整機能の効果が物理的環境の同じ部分の表現に集約され、物理的環境の部分の表現を含む三次元環境のビューに提示されることを可能にすることにより、ユーザが物理的環境をより良く知覚し理解することができ、物理的環境のコンピュータ生成ビューの有用性を向上させる。 In some embodiments, the computer system provides multiple types of sensory modulation features that enhance the user's ability to perceive various aspects of the physical environment that may not be readily perceived without the assistance of special equipment or the computer system. Instead of only allowing the user to use a single type of sensory modulation feature when viewing a portion of the physical environment at a time, the computer system aggregates the effects of two or more types of sensory enhancement features on a representation of a portion of the physical environment such that features and characteristics present in a portion of the physical environment that were previously hidden within the view of the physical environment provided by the computer system may be revealed. By allowing the effects of multiple types of sensory modulation features to be aggregated on a representation of the same portion of the physical environment and presented in a view of the three-dimensional environment that includes the representation of the portion of the physical environment, the user is able to better perceive and understand the physical environment, improving the usefulness of the computer-generated view of the physical environment.

いくつかの実施形態では、コンピュータシステムは、三次元環境のビューに表された物理的ロケーションが個別のタイプのエクササイズに関連付けられているという判定に従って、個別のタイプのエクササイズに対応する仮想コンテンツ(例えば、仮想風景、エクササイズ器具の視覚的及び機能的強化、ユーザインタフェース、健康及びスコアボードなど)を表示する。例えば、ユーザ及び表示生成コンポーネントが現実世界のロケーションを移動していくにつれて、三次元環境のビューに示される仮想コンテンツは、ユーザ及び表示生成コンポーネントの現在ロケーションに関連付けられたエクササイズのタイプに対応するように調整される。いくつかの実施形態では、ロケーションが複数のタイプのエクササイズに関連付けられている場合、コンピュータシステムは、他のコンテキスト情報(例えば、ユーザの移動、そのロケーションにおけるオブジェクトとのユーザの関与など)に基づいて、そのロケーションに関連付けられている複数のタイプのエクササイズからあるタイプのエクササイズを選択し、選択されたタイプのエクササイズに対応する視覚的コンテンツを表示する。ユーザ及び表示生成コンポーネントのロケーションに関連付けられた個別のタイプのエクササイズに基づいて仮想コンテンツを自動的に選択及び/又は変更することは、所望の結果を達成するためのユーザからの入力の数、範囲、及び/又は性質を絞る(例えば、エクササイズのタイプに適した仮想コンテンツを選択する、エクササイズの特定のモードを開始するなど)ことによって、より効率的なヒューマンマシンインタフェースを生成する。 In some embodiments, the computer system displays virtual content (e.g., virtual scenery, visual and functional enhancements to exercise equipment, user interfaces, health and scoreboards, etc.) corresponding to the individual type of exercise pursuant to a determination that the physical location represented in the view of the three-dimensional environment is associated with the individual type of exercise. For example, as the user and the display generating component move through the real-world location, the virtual content shown in the view of the three-dimensional environment is adjusted to correspond to the type of exercise associated with the current location of the user and the display generating component. In some embodiments, if the location is associated with multiple types of exercise, the computer system selects a type of exercise from the multiple types of exercise associated with the location based on other contextual information (e.g., the user's movement, the user's engagement with objects at the location, etc.) and displays visual content corresponding to the selected type of exercise. Automatically selecting and/or modifying virtual content based on the individual type of exercise associated with the user and the location of the display generating component creates a more efficient human-machine interface by narrowing the number, range, and/or nature of inputs from the user to achieve a desired result (e.g., selecting virtual content appropriate for a type of exercise, initiating a particular mode of exercise, etc.).

図1~図6は、CGR体験をユーザに提供するための例示的なコンピュータシステムを説明する。図7A~図7Cは、いくつかの実施形態による、2人以上のユーザ間で共有されるコンピュータ生成三次元環境内のユーザインタフェースオブジェクトとの相互作用を示すブロック図である。図7D~図7Fは、三次元環境の現在表示されているビューの視点に対して物理的オブジェクトの表現を様々な方式で表示する方法を示すブロック図であり、いくつかの実施形態により、視点は第1の物理的環境内のユーザの移動に従って移動し、物理的オブジェクトの表現は、第1の物理的環境とは異なる第2の物理的環境内の物理的オブジェクトの移動に従って移動し、物理的オブジェクトの表現と視点との間の空間関係が予め設定された基準を満たすことに応じて、表現を表示する方式の変更がトリガされる。図7G~図7Jは、いくつかの実施形態による、コンピュータシステムによって受信されるユーザのバイオメトリックデータの変化に従って、コンピュータ生成体験の環境を表示する没入レベルの変更を示すブロック図である。図7K~7Mは、いくつかの実施形態による、物理的環境の表現を含む環境のビューを表示するときにコンピュータシステムによって提供される複数のタイプの感覚調整の効果を集約することを示すブロック図である。図7N~7Pは、いくつかの実施形態による、三次元環境のビュー内の物理的環境の部分が個別のタイプのエクササイズに対応するという判定に従って、三次元環境のビュー内に個別のタイプのエクササイズに対応する仮想コンテンツを選択的に表示することを示すブロック図である。図7A~図7Pのユーザインタフェースは、図8~図12のプロセスをそれぞれ例示するために使用される。 1-6 illustrate an exemplary computer system for providing a CGR experience to a user. FIGS. 7A-7C are block diagrams illustrating interactions with user interface objects in a computer-generated three-dimensional environment shared between two or more users, according to some embodiments. FIGS. 7D-7F are block diagrams illustrating a method of displaying representations of physical objects in various manners relative to a viewpoint of a currently displayed view of the three-dimensional environment, where, according to some embodiments, the viewpoint moves according to a user's movement in a first physical environment, the representations of the physical objects move according to a movement of the physical objects in a second physical environment different from the first physical environment, and a change in the manner of displaying the representations is triggered in response to a spatial relationship between the representations of the physical objects and the viewpoint meeting a pre-set criterion. FIGS. 7G-7J are block diagrams illustrating a change in the immersion level of displaying an environment of a computer-generated experience according to a change in biometric data of a user received by the computer system, according to some embodiments. FIGS. 7K-7M are block diagrams illustrating aggregating the effects of multiple types of sensory modulation provided by a computer system when displaying a view of an environment including a representation of a physical environment, according to some embodiments. 7N-7P are block diagrams illustrating selectively displaying virtual content corresponding to a particular type of exercise within a view of a three-dimensional environment pursuant to a determination that a portion of a physical environment within the view of the three-dimensional environment corresponds to a particular type of exercise, according to some embodiments. The user interfaces of FIGS. 7A-7P are used to illustrate the processes of FIGS. 8-12, respectively.

いくつかの実施形態では、図1に示されるように、CGR体験は、コンピュータシステム101を含む動作環境100を介してユーザに提供される。コンピュータシステム101は、コントローラ110(例えば、ポータブル電子デバイス又はリモートサーバのプロセッサ)と、表示生成コンポーネント120(例えば、ヘッドマウントデバイス(HMD)、ディスプレイ、プロジェクタ、タッチスクリーンなど)と、1つ以上の入力デバイス125(例えば、アイトラッキングデバイス130、ハンドトラッキングデバイス140、他の入力デバイス150)と、1つ以上の出力デバイス155(例えば、スピーカ160、触知出力ジェネレータ170、及び他の出力デバイス180)と、1つ以上のセンサ190(例えば、画像センサ、光センサ、深度センサ、触覚センサ、向きセンサ、近接センサ、温度センサ、ロケーションセンサ、運動センサ、速度センサなど)と、任意選択的に1つ以上の周辺デバイス195(例えば、家電製品、ウェアラブルデバイスなど)と、を含む。いくつかの実施形態では、入力デバイス125、出力デバイス155、センサ190、及び周辺デバイス195のうちの1つ以上は、(例えば、ヘッドマウントデバイス又はハンドヘルドデバイス内で)表示生成コンポーネント120と統合される。 In some embodiments, as shown in FIG. 1, the CGR experience is provided to a user through an operating environment 100 including a computer system 101. The computer system 101 includes a controller 110 (e.g., a processor of a portable electronic device or a remote server), a display generation component 120 (e.g., a head-mounted device (HMD), a display, a projector, a touch screen, etc.), one or more input devices 125 (e.g., an eye tracking device 130, a hand tracking device 140, other input devices 150), one or more output devices 155 (e.g., a speaker 160, a tactile output generator 170, and other output devices 180), one or more sensors 190 (e.g., an image sensor, a light sensor, a depth sensor, a tactile sensor, an orientation sensor, a proximity sensor, a temperature sensor, a location sensor, a motion sensor, a speed sensor, etc.), and optionally one or more peripheral devices 195 (e.g., a home appliance, a wearable device, etc.). In some embodiments, one or more of the input device 125, the output device 155, the sensor 190, and the peripheral device 195 are integrated with the display generation component 120 (e.g., in a head-mounted or handheld device).

CGR体験を説明するとき、ユーザが感知する、及び/又は(例えば、CGR体験を生成するコンピュータシステムに、CGR体験を生成するコンピュータシステム101に提供される様々な入力に対応するオーディオ、視覚、及び/又は触覚フィードバックを生成させる、コンピュータシステム101によって検出された入力を用いて)ユーザが相互作用することができる、いくつかの関連するが、別個の環境に個別的に言及するために様々な用語が使用される。以下は、これらの用語のサブセットである。 When describing a CGR experience, various terms are used to individually refer to several related, but distinct, environments that a user senses and/or with which the user can interact (e.g., using inputs detected by computer system 101 that cause the computer system generating the CGR experience to generate audio, visual, and/or haptic feedback corresponding to various inputs provided to computer system 101 generating the CGR experience). The following is a subset of these terms:

物理的環境:物理的環境とは、人々が電子システムの助けなしに、感知及び/又は相互作用することができる物理的世界を指す。物理的な公園などの物理的環境には、物理的な木々、物理的な建物、及び物理的な人々などの物理的物品が挙げられる。人々は、視覚、触覚、聴覚、味覚、及び嗅覚などを介して、物理的環境を直接感知し、及び/又はそれと相互作用することができる。 Physical environment: The physical environment refers to the physical world that people can sense and/or interact with without the aid of electronic systems. A physical environment, such as a physical park, includes physical objects such as physical trees, physical buildings, and physical people. People can sense and/or interact with the physical environment directly through their senses, such as through sight, touch, hearing, taste, and smell.

コンピュータ生成現実:対照的に、コンピュータ生成現実(CGR)環境とは、人々が電子システムを介して感知及び/又は相互作用する、全体的又は部分的にシミュレートされた環境を指す。CGRでは、人の身体運動のサブセット又はその表現が追跡され、それに応じて、CGR環境内でシミュレートされた1つ以上の仮想オブジェクトの1つ以上の特性が、少なくとも1つの物理学の法則でふるまうように調節される。例えば、CGRシステムは、人の頭部の回転を検出し、それに応じて、そのようなビュー及び音が物理的環境においてどのように変化するかと同様の方法で、人に提示されるグラフィックコンテンツ及び音場を調節することができる。状況によっては(例えば、アクセス性の理由から)、CGR環境における仮想オブジェクト(単数又は複数)の特性(単数又は複数)に対する調節は、身体運動の表現(例えば、音声コマンド)に応じて行われてもよい。人は、視覚、聴覚、触覚、味覚及び嗅覚を含むこれらの感覚のうちのいずれか1つを使用して、CGRオブジェクトを感知し、かつ/又はCGRオブジェクトと相互作用してもよい。例えば、人は、3D空間において点音源の知覚を提供する、3D又は空間的広がりを有するオーディオ環境を作り出す音声オブジェクトを感知し、かつ/又はそれと相互作用することができる。別の例では、オーディオオブジェクトによって、コンピュータ生成オーディオを含めて、又は含めずに、物理的環境から周囲音を選択的に組み込むオーディオ透過性が可能になり得る。いくつかのCGR環境では、人は、オーディオオブジェクトのみを感知し、かつ/又はそれと相互作用してもよい。 Computer-Generated Reality: In contrast, a computer-generated reality (CGR) environment refers to a wholly or partially simulated environment that people sense and/or interact with via electronic systems. In CGR, a subset of a person's body movements or representations thereof are tracked, and one or more properties of one or more virtual objects simulated within the CGR environment are adjusted accordingly to behave with at least one law of physics. For example, a CGR system may detect the rotation of a person's head and adjust the graphical content and sound field presented to the person accordingly, in a manner similar to how such views and sounds change in a physical environment. In some circumstances (e.g., for accessibility reasons), adjustments to the property(s) of the virtual object(s) in the CGR environment may be made in response to representations of body movements (e.g., voice commands). A person may sense and/or interact with a CGR object using any one of these senses, including vision, hearing, touch, taste, and smell. For example, a person may sense and/or interact with audio objects that create an audio environment with 3D or spatial breadth, providing the perception of a point sound source in 3D space. In another example, audio objects may enable audio transparency that selectively incorporates ambient sounds from the physical environment, with or without computer-generated audio. In some CGR environments, a person may sense and/or interact with only audio objects.

CGRの例としては、仮想現実及び複合現実が挙げられる。 Examples of CGR include virtual reality and mixed reality.

仮想現実:仮想現実(VR)環境とは、1つ以上の感覚について、コンピュータ生成感覚入力に全面的に基づくように設計されたシミュレーション環境を指す。VR環境は、人が感知かつ/又は相互作用することができる複数の仮想オブジェクトを含む。例えば、木、建物、及び人々を表すアバターのコンピュータ生成画像は、仮想オブジェクトの例である。人は、コンピュータ生成環境内に人が存在することのシミュレーションを通じて、かつ/又はコンピュータ生成環境内での人の身体運動のサブセットのシミュレーションを通じて、VR環境における仮想オブジェクトを感知し、かつ/又はそれと相互作用することができる。 Virtual reality: A virtual reality (VR) environment refers to a simulated environment designed to be based entirely on computer-generated sensory input for one or more senses. A VR environment includes a number of virtual objects that a person can sense and/or interact with. For example, computer-generated images of trees, buildings, and avatars representing people are examples of virtual objects. A person can sense and/or interact with the virtual objects in the VR environment through a simulation of the person's presence in the computer-generated environment and/or through a simulation of a subset of the person's physical movements in the computer-generated environment.

複合現実:複合現実(MR)環境とは、コンピュータ生成感覚入力に全面的に基づくように設計されたVR環境とは対照的に、コンピュータ生成感覚入力(例えば、仮想オブジェクト)を含むことに加えて、物理的環境からの感覚入力又はその表現を組み込むように設計されたシミュレーション環境を指す。仮想の連続体上では、複合現実環境は、一方の端部における完全な物理的環境と、他方の端部における仮想現実環境との間であるがこれらを含まない、任意の場所である。いくつかのMR環境では、コンピュータ生成感覚入力は、物理的環境からの感覚入力の変更に応答し得る。また、MR環境を提示するためのいくつかの電子システムは、仮想オブジェクトが現実のオブジェクト(即ち、物理的環境からの物理的物品又はその表現)と相互作用することを可能にするために、物理的環境に対するロケーション及び/又は向きを追跡してもよい。例えば、システムは、仮想の木が物理的な地面に対して静止して見えるように、動きを考慮することができる。 Mixed reality: A mixed reality (MR) environment refers to a simulation environment designed to incorporate sensory input from the physical environment or representations thereof in addition to including computer-generated sensory input (e.g., virtual objects) as opposed to a VR environment, which is designed to be based entirely on computer-generated sensory input. On the virtual continuum, a mixed reality environment is anywhere between but not including a complete physical environment at one end and a virtual reality environment at the other end. In some MR environments, the computer-generated sensory input may respond to changes in sensory input from the physical environment. Some electronic systems for presenting MR environments may also track location and/or orientation relative to the physical environment to allow virtual objects to interact with real objects (i.e., physical items or representations thereof from the physical environment). For example, the system may account for movement so that a virtual tree appears stationary relative to the physical ground.

複合現実の例としては、拡張現実及び拡張仮想が挙げられる。 Examples of mixed reality include augmented reality and augmented virtuality.

拡張現実:拡張現実(AR)環境とは、1つ以上の仮想オブジェクトが物理的環境上又はその表現上に重ねられたシミュレーション環境を指す。例えば、AR環境を提示するための電子システムは、人が物理的環境を直接見ることができる透明又は半透明のディスプレイを有してもよい。システムは、透明又は半透明のディスプレイに仮想オブジェクトを提示するように構成されていてもよく、それによって、人はシステムを使用して、物理的環境の上に重ね合わされた仮想オブジェクトを知覚する。あるいは、システムは、不透明ディスプレイと、物理的環境の表現である、物理的環境の画像又は動画をキャプチャする1つ以上の撮像センサとを有してもよい。システムは、画像又は動画を仮想オブジェクトと合成し、その合成物を不透明ディスプレイ上に提示する。人はこのシステムを使用して、物理的環境を、物理的環境の画像又は動画によって間接的に見て、物理的環境に重ね合わされた仮想オブジェクトを知覚する。本明細書で使用するとき、不透明ディスプレイ上に示される物理的環境の動画は、「パススルービデオ」と呼ばれ、システムが、1つ以上の画像センサ(単数又は複数)を使用して、物理的環境の画像をキャプチャし、不透明ディスプレイ上にAR環境を提示する際にそれらの画像を使用することを意味する。更に代替的に、システムが仮想オブジェクトを、例えば、ホログラムとして物理的環境の中に、又は物理的表面に投影するプロジェクションシステムを有してもよく、それによって、人はシステムを使用して、物理的環境に重ね合わされた仮想オブジェクトを知覚する。拡張現実環境はまた、物理的環境の表現がコンピュータ生成感覚情報によって変換されるシミュレーション環境を指す。例えば、パススルービデオを提供する際に、システムは、1つ以上のセンサ画像を、イメージセンサがキャプチャした透視図とは別の選択された透視図(例えば、視点)を面付けするように変形してもよい。別の例として、物理的環境の表現を、その一部分をグラフィカルに変更(例えば、拡大)することによって変形してもよく、それにより、変更された部分を、元のキャプチャ画像を表すが非写実的な、改変版にすることもできる。更なる例として、物理的環境の表現は、その一部分をグラフィカルに除去又は不明瞭化することによって変形されてもよい。 Augmented reality: An augmented reality (AR) environment refers to a simulated environment in which one or more virtual objects are superimposed on a physical environment or a representation thereof. For example, an electronic system for presenting an AR environment may have a transparent or semi-transparent display through which a person can directly view the physical environment. The system may be configured to present virtual objects on the transparent or semi-transparent display, whereby a person using the system perceives the virtual objects superimposed on the physical environment. Alternatively, the system may have an opaque display and one or more imaging sensors that capture images or videos of the physical environment, which are representations of the physical environment. The system composites the images or videos with the virtual objects and presents the composite on the opaque display. The person uses the system to indirectly view the physical environment through the images or videos of the physical environment and perceive the virtual objects superimposed on the physical environment. As used herein, the video of the physical environment shown on the opaque display is referred to as "pass-through video," meaning that the system uses one or more image sensors to capture images of the physical environment and uses those images in presenting the AR environment on the opaque display. Alternatively, the system may have a projection system that projects virtual objects, e.g., as holograms, into the physical environment or onto a physical surface, such that a person using the system perceives the virtual objects superimposed on the physical environment. An augmented reality environment also refers to a simulated environment in which a representation of the physical environment is transformed by computer-generated sensory information. For example, in providing pass-through video, the system may distort one or more sensor images to impose a selected perspective (e.g., viewpoint) other than the perspective captured by the image sensor. As another example, the representation of the physical environment may be distorted by graphically altering (e.g., enlarging) a portion thereof, such that the altered portion is a modified version that represents the original captured image but is non-photorealistic. As a further example, the representation of the physical environment may be distorted by graphically removing or obscuring a portion thereof.

拡張仮想:拡張仮想(AV)環境とは、仮想環境又はコンピュータ生成環境が物理的環境から1つ以上の感覚入力を組み込んだシミュレーション環境を指す。感覚入力は、物理的環境の1つ以上の特性の表現であり得る。例えば、AVの公園には仮想の木及び仮想の建物があり得るが、顔がある人々は、物理的な人々が撮られた画像から写実的に再現される。別の例として、仮想オブジェクトは、1つ以上の撮像センサによって撮像された物理的物品の形状又は色を採用してもよい。更なる例として、仮想オブジェクトは、物理的環境における太陽のポジションと一致する影を採用することができる。 Augmented Virtual: An augmented virtual (AV) environment refers to a simulated environment in which a virtual or computer-generated environment incorporates one or more sensory inputs from a physical environment. The sensory inputs may be representations of one or more characteristics of the physical environment. For example, an AV park may have virtual trees and virtual buildings, while people with faces are realistically recreated from images taken of physical people. As another example, virtual objects may adopt the shape or color of physical items imaged by one or more imaging sensors. As a further example, virtual objects may adopt shadows that match the position of the sun in the physical environment.

ハードウェア:人が様々なCGR環境を感知し、及び/又はそれと相互作用することを可能にする、多くの異なるタイプの電子システムが存在する。例としては、ヘッドマウントシステム、プロジェクションベースシステム、ヘッドアップディスプレイ(heads-up displays、HUD)、統合表示機能を有する車両ウィンドシールド、統合表示機能を有する窓、(例えば、コンタクトレンズと同様に)人の目の上に配置されるように設計されたレンズとして形成されたディスプレイ、ヘッドホン/イヤフォン、スピーカアレイ、入力システム(例えば、触覚フィードバックを有する又は有さない、装着型コントローラ又はハンドヘルドコントローラ)、スマートフォン、タブレット、及びデスクトップ/ラップトップコンピュータ、が挙げられる。ヘッドマウントシステムは、1つ以上のスピーカ(単数又は複数)及び一体型不透明ディスプレイを有してもよい。あるいは、ヘッドマウントシステムは、外部の不透明ディスプレイ(例えば、スマートフォン)を受容するように構成されていてもよい。ヘッドマウントシステムは、物理的環境の画像若しくは動画をキャプチャするための1つ以上の撮像センサ、及び/又は物理的環境のオーディオをキャプチャするための1つ以上のマイクロフォンを組み込んでいてもよい。ヘッドマウントシステムは、不透明ディスプレイではなく、透明又は半透明のディスプレイを有してもよい。透明又は半透明のディスプレイは、画像を表す光が人の目に向けられる媒体を有してもよい。ディスプレイは、デジタル光投影、OLED、LED、uLED、液晶オンシリコン、レーザスキャン光源、又はこれらの技術の任意の組み合わせを利用することができる。媒体は、光導波路、ホログラム媒体、光結合器、光反射器、又はこれらの任意の組み合わせであってもよい。一実施形態では、透明又は半透明のディスプレイは、選択的に不透明になるように構成されていてもよい。プロジェクションベースシステムは、グラフィカル画像を人の網膜上に投影する網膜投影技術を採用することができる。プロジェクションシステムはまた、仮想オブジェクトを、例えば、ホログラムとして、又は物理的表面として物理的環境に投影するように構成されてもよい。いくつかの実施形態では、コントローラ110は、ユーザのCGR体験を管理及び調整するように構成される。いくつかの実施形態では、コントローラ110は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。コントローラ110については、図2を参照して以下により詳細に記載する。いくつかの実施形態では、コントローラ110は、シーン105(例えば、物理的設定/環境)に対してローカル又はリモートであるコンピューティングデバイスである。例えば、コントローラ110は、シーン105内に位置するローカルサーバである。別の例では、コントローラ110は、シーン105の外側に位置するリモートサーバ(例えば、クラウドサーバ、中央サーバなど)である。いくつかの実施形態では、コントローラ110は、1つ以上の有線又は無線通信チャネル144(例えば、BLUETOOTH、IEEE802.11x、IEEE802.16x、IEEE802.3xなど)を介して、表示生成コンポーネント120(例えば、HMD、ディスプレイ、プロジェクタ、タッチスクリーンなど)と通信可能に結合される。別の例では、コントローラ110は、表示生成コンポーネント120(例えば、HMD、又はディスプレイ及び1つ以上のプロセッサなどを含むポータブル電子デバイス)、入力デバイス125のうちの1つ以上、出力デバイス155のうちの1つ以上、センサ190のうちの1つ以上、及び/又は周辺デバイス195のうちの1つ以上の筐体(例えば、物理的ハウジング)内に含まれる、又は上記のうちの1つ以上と同じ物理的筐体又は支持構造を共有する。 Hardware: There are many different types of electronic systems that allow a person to sense and/or interact with various CGR environments. Examples include head-mounted systems, projection-based systems, heads-up displays (HUDs), vehicle windshields with integrated display capabilities, windows with integrated display capabilities, displays formed as lenses designed to be placed over a person's eyes (e.g., similar to contact lenses), headphones/earphones, speaker arrays, input systems (e.g., wearable or handheld controllers with or without haptic feedback), smartphones, tablets, and desktop/laptop computers. A head-mounted system may have one or more speaker(s) and an integrated opaque display. Alternatively, the head-mounted system may be configured to accept an external opaque display (e.g., a smartphone). The head-mounted system may incorporate one or more imaging sensors for capturing images or video of the physical environment and/or one or more microphones for capturing audio of the physical environment. The head-mounted system may have a transparent or translucent display rather than an opaque display. A transparent or semi-transparent display may have a medium through which light representing an image is directed to a person's eye. The display may utilize digital light projection, OLED, LED, uLED, liquid crystal on silicon, laser scanning light source, or any combination of these technologies. The medium may be a light guide, a holographic medium, an optical combiner, an optical reflector, or any combination of these. In an embodiment, a transparent or semi-transparent display may be configured to be selectively opaque. A projection-based system may employ retinal projection technology that projects a graphical image onto a person's retina. A projection system may also be configured to project virtual objects, e.g., as holograms or as physical surfaces, into the physical environment. In some embodiments, the controller 110 is configured to manage and regulate the user's CGR experience. In some embodiments, the controller 110 includes a suitable combination of software, firmware, and/or hardware. The controller 110 is described in more detail below with reference to FIG. 2. In some embodiments, the controller 110 is a computing device that is local or remote to the scene 105 (e.g., the physical setting/environment). For example, the controller 110 is a local server located within the scene 105. In another example, the controller 110 is a remote server (e.g., a cloud server, a central server, etc.) located outside the scene 105. In some embodiments, the controller 110 is communicatively coupled to a display generation component 120 (e.g., an HMD, a display, a projector, a touch screen, etc.) via one or more wired or wireless communication channels 144 (e.g., BLUETOOTH, IEEE 802.11x, IEEE 802.16x, IEEE 802.3x, etc.). In another example, the controller 110 is contained within or shares the same physical housing or support structure as one or more of the display generation component 120 (e.g., an HMD or a portable electronic device including a display and one or more processors), one or more of the input devices 125, one or more of the output devices 155, one or more of the sensors 190, and/or one or more of the peripheral devices 195.

いくつかの実施形態では、表示生成コンポーネント120は、CGR体験(例えば、CGR体験の少なくとも視覚的コンポーネント)をユーザに提供するように構成される。いくつかの実施形態では、表示生成コンポーネント120は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。表示生成コンポーネント120について、図3を参照して以下により詳細に説明する。いくつかの実施形態では、コントローラ110の機能は、表示生成コンポーネント120によって提供される、及び/又は表示生成コンポーネント120と組み合わされる。 In some embodiments, the display generation component 120 is configured to provide a CGR experience (e.g., at least a visual component of a CGR experience) to a user. In some embodiments, the display generation component 120 includes a suitable combination of software, firmware, and/or hardware. The display generation component 120 is described in more detail below with reference to FIG. 3. In some embodiments, the functionality of the controller 110 is provided by and/or combined with the display generation component 120.

いくつかの実施形態によれば、表示生成コンポーネント120は、ユーザがシーン105内に仮想的及び/又は物理的に存在している間に、CGR体験をユーザに提供する。 According to some embodiments, the display generation component 120 provides a CGR experience to the user while the user is virtually and/or physically present in the scene 105.

いくつかの実施形態では、表示生成コンポーネントは、ユーザの身体の一部(例えば、自身の頭部や自身の手など)に装着される。したがって、表示生成コンポーネント120は、CGRコンテンツを表示するために提供された1つ以上のCGRディスプレイを含む。例えば、様々な実施形態では、表示生成コンポーネント120は、ユーザの視野を包囲する。いくつかの実施形態では、表示生成コンポーネント120は、CGRコンテンツを提示するように構成されたハンドヘルドデバイス(スマートフォン又はタブレットなど)であり、ユーザは、ユーザの視野に向けられるディスプレイ及びシーン105に向けられるカメラを備えたデバイスを保持する。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの頭部に装着された筐体内に配置される。いくつかの実施形態では、ハンドヘルドデバイスは、任意選択的に、ユーザの前の支持体(例えば、三脚)上に配置される。いくつかの実施形態では、表示生成コンポーネント120は、ユーザが表示生成コンポーネント120を着用又は保持しない状態でCGRコンテンツを提示するように構成されたCGRチャンバ、筐体、又は部屋である。CGRコンテンツ(例えば、ハンドヘルドデバイス又は三脚上のデバイス)を表示するための1つのタイプのハードウェアを参照して説明される多くのユーザインタフェースは、CGRコンテンツ(例えば、HMD又は他のウェアラブルコンピューティングデバイス)を表示するための別のタイプのハードウェア上に実施され得る。例えば、ハンドヘルド又は三脚搭載デバイスの前の空間内で起こる相互作用に基づいてトリガされるCGRコンテンツとの相互作用を示すユーザインタフェースは、相互作用がHMDの前の空間で発生し、CGRコンテンツの応答がHMDを介して表示されるHMDと同様に実施され得る。同様に、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するハンドヘルド又は三脚搭載デバイスの移動に基づいてトリガされたCGRコンテンツとの相互作用を示すユーザインタフェースは、物理的環境(例えば、シーン105又はユーザの身体の一部(例えば、ユーザの目(単数又は複数)、頭部、又は手))に対するHMDの移動によって引き起こされるHMDと同様に実施され得る。 In some embodiments, the display generation component is worn on a part of the user's body (e.g., on one's head, on one's hand, etc.). Thus, the display generation component 120 includes one or more CGR displays provided for displaying CGR content. For example, in various embodiments, the display generation component 120 surrounds the user's field of view. In some embodiments, the display generation component 120 is a handheld device (such as a smartphone or tablet) configured to present CGR content, where the user holds a device with a display directed to the user's field of view and a camera directed to the scene 105. In some embodiments, the handheld device is optionally disposed in a housing worn on the user's head. In some embodiments, the handheld device is optionally disposed on a support (e.g., a tripod) in front of the user. In some embodiments, the display generation component 120 is a CGR chamber, housing, or room configured to present CGR content without the user wearing or holding the display generation component 120. Many user interfaces described with reference to one type of hardware for displaying CGR content (e.g., a handheld device or a device on a tripod) may be implemented on another type of hardware for displaying CGR content (e.g., an HMD or other wearable computing device). For example, a user interface showing an interaction with CGR content triggered based on an interaction occurring in the space in front of a handheld or tripod-mounted device may be implemented similarly to an HMD in which the interaction occurs in the space in front of the HMD and the response of the CGR content is displayed via the HMD. Similarly, a user interface showing an interaction with CGR content triggered based on movement of a handheld or tripod-mounted device relative to the physical environment (e.g., the scene 105 or a part of the user's body (e.g., the user's eye(s), head, or hand)) may be implemented similarly to an HMD in which the interaction occurs in the space in front of the HMD and the response of the CGR content is displayed via the HMD.

動作環境100の関連する特徴が図1に示されているが、当業者は、本明細書に開示される例示的な実施形態のより適切な態様を曖昧にしないように、簡潔化のための様々な他の特徴が示されていないことを、本開示から理解されよう。 While relevant features of operating environment 100 are shown in FIG. 1, those skilled in the art will appreciate from this disclosure that various other features have not been shown for the sake of brevity so as not to obscure more pertinent aspects of the exemplary embodiments disclosed herein.

図2は、いくつかの実施形態による、コントローラ110の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。そのため、非限定的な例として、いくつかの実施形態では、コントローラ110は、1つ以上の処理ユニット202(例えば、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、グラフィック処理ユニット(GPU)、中央処理ユニット(CPU)、処理コアなど)、1つ以上の入出力(I/O)デバイス206、1つ以上の通信インタフェース208(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、グローバル移動通信システム(GSM)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、グローバル測位システム(GPS)、赤外線(IR)、BLUETOOTH、ZIGBEE、又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース210、メモリ220、並びにこれら及び様々な他のコンポーネントを相互接続するための1つ以上の通信バス204を含む。 FIG. 2 is a block diagram of an example of a controller 110 according to some embodiments. While certain features are shown, those skilled in the art will appreciate from this disclosure that for the sake of brevity, various other features are not shown so as to not obscure more pertinent aspects of the embodiments disclosed herein. Thus, by way of non-limiting example, in some embodiments, the controller 110 may include one or more processing units 202 (e.g., a microprocessor, an application specific integrated circuit (ASIC), a field programmable gate array (FPGA), a graphics processing unit (GPU), a central processing unit (CPU), a processing core, etc.), one or more input/output (I/O) devices 206, one or more communication interfaces 208 (e.g., a universal serial bus (USB), FIREWIRE, THUNDERBOLT, IEEE 802.3x, IEEE 802.1 ... 802.16x, Global System for Mobile Communications (GSM), Code Division Multiple Access (CDMA), Time Division Multiple Access (TDMA), Global Positioning System (GPS), Infrared (IR), BLUETOOTH, ZIGBEE, or similar type interface), one or more programming (e.g., I/O) interfaces 210, memory 220, and one or more communication buses 204 for interconnecting these and various other components.

いくつかの実施形態では、1つ以上の通信バス204は、システムコンポーネントを相互接続し、システムコンポーネント間の通信を制御する回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス206は、キーボード、マウス、タッチパッド、ジョイスティック、1つ以上のマイクロフォン、1つ以上のスピーカ、1つ以上の画像センサ、1つ以上のディスプレイなどのうちの少なくとも1つを含む。 In some embodiments, one or more communication buses 204 include circuitry for interconnecting and controlling communications between system components. In some embodiments, one or more I/O devices 206 include at least one of a keyboard, a mouse, a touchpad, a joystick, one or more microphones, one or more speakers, one or more image sensors, one or more displays, etc.

メモリ220は、ダイナミックランダムアクセスメモリ(dynamic random-access memory、DRAM)、スタティックランダムアクセスメモリ(static random-access memory、SRAM)、ダブルデータレートランダムアクセスメモリ(double-data-rate random-access memory、DDRRAM)、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ220は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性記憶デバイスなどの不揮発性メモリを含む。メモリ220は、1つ以上の処理ユニット202からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ220は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ220、又はメモリ220の非一時的コンピュータ可読記憶媒体は、任意選択的なオペレーティングシステム230及びCGR体験モジュール240を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。 Memory 220 includes high-speed random-access memory, such as dynamic random-access memory (DRAM), static random-access memory (SRAM), double-data-rate random-access memory (DDRRAM), or other random-access solid-state memory devices. In some embodiments, memory 220 includes non-volatile memory, such as one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or other non-volatile storage devices. Memory 220 optionally includes one or more storage devices located remotely from one or more processing units 202. Memory 220 includes a non-transitory computer-readable storage medium. In some embodiments, memory 220, or the non-transitory computer-readable storage medium of memory 220, stores the following programs, modules, and data structures, or a subset thereof, including optional operating system 230 and CGR experience module 240:

オペレーティングシステム230は、様々な基本システムサービスを処理するための命令、及びハードウェア依存タスクを実行するための命令を含む。いくつかの実施形態では、CGR体験モジュール240は、1人以上のユーザに対する1つ以上のCGR体験(例えば、1人以上のユーザに対する単一のCGR体験、又は1人以上のユーザのそれぞれのグループに対する複数のCGR体験)を管理及び調整するように構成されている。その目的で、様々な実施形態では、CGR体験モジュール240は、データ取得ユニット242、トラッキングユニット244、調整ユニット246、及びデータ送信ユニット248を含む。 The operating system 230 includes instructions for handling various basic system services and for performing hardware-dependent tasks. In some embodiments, the CGR experience module 240 is configured to manage and coordinate one or more CGR experiences for one or more users (e.g., a single CGR experience for one or more users, or multiple CGR experiences for respective groups of one or more users). To that end, in various embodiments, the CGR experience module 240 includes a data acquisition unit 242, a tracking unit 244, an adjustment unit 246, and a data transmission unit 248.

いくつかの実施形態では、データ取得ユニット242は、図1の少なくとも表示生成コンポーネント120、及び任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上からデータ(例えば、提示データ、相互作用データ、センサデータ、ロケーションデータなど)を取得するように構成される。その目的で、様々な実施形態では、データ取得ユニット242は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。 In some embodiments, the data acquisition unit 242 is configured to acquire data (e.g., presentation data, interaction data, sensor data, location data, etc.) from at least the display generation component 120 of FIG. 1, and optionally one or more of the input devices 125, the output devices 155, the sensors 190, and/or the peripheral devices 195. To that end, in various embodiments, the data acquisition unit 242 includes instructions and/or logic therefor, as well as heuristics and metadata therefor.

いくつかの実施形態では、トラッキングユニット244は、シーン105をマッピングし、図1のシーン105に対する少なくとも表示生成コンポーネント120し、任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上のポジション/ロケーションを追跡するように構成される。その目的で、様々な実施形態において、トラッキングユニット244は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。いくつかの実施形態では、トラッキングユニット244は、ハンドトラッキングユニット243及び/又はアイトラッキングユニット245を含む。いくつかの実施形態では、ハンドトラッキングユニット243は、図1のシーン105に対する、表示生成コンポーネント120に対する、及び/又はユーザの手に対して定義された座標系に対する、ユーザの手の1つ以上の部分のポジション/ロケーション、及び/又はユーザの手の1つ以上の部分の運動を追跡するように構成される。ハンドトラッキングユニット243について、図4に関して以下でより詳細に説明する。いくつかの実施形態では、アイトラッキングユニット245は、シーン105に対する(例えば、物理的環境及び/又はユーザ(例えば、ユーザの手)に対する)、又は表示生成コンポーネント120を介して表示されるCGRコンテンツに対する、ユーザの視線(又は、より広範にはユーザの目、顔、又は頭部)のポジション及び移動を追跡するように構成される。アイトラッキングユニット245について、図5に関して以下でより詳細に説明する。 In some embodiments, the tracking unit 244 is configured to map the scene 105 and at least the display generation component 120 relative to the scene 105 of FIG. 1, and optionally track the position/location of one or more of the input device 125, the output device 155, the sensor 190, and/or the peripheral device 195. To that end, in various embodiments, the tracking unit 244 includes instructions and/or logic therefor, as well as heuristics and metadata therefor. In some embodiments, the tracking unit 244 includes a hand tracking unit 243 and/or an eye tracking unit 245. In some embodiments, the hand tracking unit 243 is configured to track the position/location of one or more parts of the user's hand and/or the movement of one or more parts of the user's hand relative to the scene 105 of FIG. 1, relative to the display generation component 120, and/or relative to a coordinate system defined relative to the user's hand. The hand tracking unit 243 is described in more detail below with respect to FIG. 4. In some embodiments, eye tracking unit 245 is configured to track the position and movement of a user's gaze (or, more broadly, the user's eyes, face, or head) relative to scene 105 (e.g., relative to the physical environment and/or the user (e.g., the user's hands)) or relative to CGR content displayed via display generation component 120. Eye tracking unit 245 is described in more detail below with respect to FIG. 5.

いくつかの実施形態では、調整ユニット246は、表示生成コンポーネント120によって、及び任意選択的に、出力デバイス155及び/又は周辺デバイス195のうちの1つ以上によって、ユーザに提示されるCGR体験を管理及び調整するように構成される。その目的で、様々な実施形態において、調整ユニット246は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。 In some embodiments, the adjustment unit 246 is configured to manage and adjust the CGR experience presented to the user by the display generation component 120, and optionally by one or more of the output devices 155 and/or the peripheral devices 195. To that end, in various embodiments, the adjustment unit 246 includes instructions and/or logic therefor, as well as heuristics and metadata therefor.

いくつかの実施形態では、データ送信ユニット248は、データ(例えば、提示データ、ロケーションデータなど)を少なくとも表示生成コンポーネント120、及び任意選択的に、入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上に送信するように構成される。その目的で、様々な実施形態では、データ送信ユニット248は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。 In some embodiments, the data transmission unit 248 is configured to transmit data (e.g., presentation data, location data, etc.) to at least the display generation component 120, and optionally to one or more of the input device 125, the output device 155, the sensor 190, and/or the peripheral device 195. To that end, in various embodiments, the data transmission unit 248 includes instructions and/or logic therefor, as well as heuristics and metadata therefor.

データ取得ユニット242、トラッキングユニット244(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248が、単一のデバイス(例えば、コントローラ110)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット242、トラッキングユニット244(例えば、アイトラッキングユニット243及びハンドトラッキングユニット244を含む)、調整ユニット246、及びデータ送信ユニット248の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。 Although the data acquisition unit 242, the tracking unit 244 (e.g., including the eye tracking unit 243 and the hand tracking unit 244), the adjustment unit 246, and the data transmission unit 248 are shown as being present on a single device (e.g., the controller 110), it should be understood that in other embodiments, any combination of the data acquisition unit 242, the tracking unit 244 (e.g., including the eye tracking unit 243 and the hand tracking unit 244), the adjustment unit 246, and the data transmission unit 248 may be located within separate computing devices.

更に、図2は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実施形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、図2に別々に示すいくつかの機能モジュールは、単一のモジュール内に実装することができ、単一の機能ブロックの様々な機能は、様々な実施形態において1つ以上の機能ブロックによって実装することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。 Furthermore, FIG. 2 is intended more to illustrate the functionality of various features that may be present in a particular embodiment, as opposed to a structural overview of the embodiments described herein. As will be recognized by one of ordinary skill in the art, items shown separately may be combined and some items may be separated. For example, some functional modules shown separately in FIG. 2 may be implemented within a single module, and various functions of a single functional block may be implemented by one or more functional blocks in various embodiments. The actual number of modules, as well as the division of specific functions and how functions are allocated among them, will vary by implementation and, in some embodiments, will depend in part on the particular combination of hardware, software, and/or firmware selected for a particular implementation.

図3は、いくつかの実施形態による、表示生成コンポーネント120の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実施形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。その目的で、非限定的な例として、いくつかの実施形態では、HMD120には、1つ以上の処理ユニット302(例えば、マイクロプロセッサ、ASIC、FPGA、GPU、CPU、処理コアなど)、1つ以上の入出力(I/O)デバイス及びセンサ306、1つ以上の通信インタフェース308(例えば、USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、赤外線、BLUETOOTH、ZIGBEE、及び/又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース310、1つ以上のCGRディスプレイ312、1つ以上の任意の内向き及び/又は外向き画像センサ314、メモリ320、並びにこれら及び様々な他のコンポーネントを相互接続するための1つ以上の通信バス304、が含まれる。 3 is a block diagram of an example of a display generation component 120 according to some embodiments. While certain features are shown, those skilled in the art will appreciate from this disclosure that various other features are not shown for the sake of brevity so as not to obscure more pertinent aspects of the embodiments disclosed herein. To that end, by way of non-limiting example, in some embodiments, the HMD 120 includes one or more processing units 302 (e.g., microprocessors, ASICs, FPGAs, GPUs, CPUs, processing cores, etc.), one or more input/output (I/O) devices and sensors 306, one or more communication interfaces 308 (e.g., USB, FIREWIRE, THUNDERBOLT, IEEE 802.3x, IEEE 802.11x, IEEE 802.16x, GSM, CDMA, TDMA, GPS, infrared, BLUETOOTH, ZIGBEE, and/or similar types of interfaces), one or more programming (e.g., I/O) interfaces 310, one or more CGR displays 312, one or more optional inward-facing and/or outward-facing image sensors 314, memory 320, and one or more communication buses 304 for interconnecting these and various other components.

いくつかの実施形態では、1つ以上の通信バス304は、システムコンポーネントを相互接続し、システムコンポーネント間の通信を制御する、回路を含む。いくつかの実施形態では、1つ以上のI/Oデバイス及びセンサ306は、慣性測定装置(IMU)、加速度計、ジャイロスコープ、温度計、1つ以上の生理的センサ(例えば、血圧モニタ、心拍数モニタ、血液酸素センサ、血糖センサなど)、1つ以上のマイクロフォン、1つ以上のスピーカ、触覚エンジン、1つ以上の深度センサ(例えば、構造化光、飛行時間など)などのうちの少なくとも1つを含む。 In some embodiments, the one or more communication buses 304 include circuitry that interconnects and controls communication between the system components. In some embodiments, the one or more I/O devices and sensors 306 include at least one of an inertial measurement unit (IMU), an accelerometer, a gyroscope, a thermometer, one or more physiological sensors (e.g., a blood pressure monitor, a heart rate monitor, a blood oxygen sensor, a blood glucose sensor, etc.), one or more microphones, one or more speakers, a haptic engine, one or more depth sensors (e.g., structured light, time of flight, etc.), etc.

いくつかの実施形態では、1つ以上のCGRディスプレイ312は、ユーザにCGR体験を提供するように構成される。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、ホログラフィック、デジタル光処理(DLP)、液晶ディスプレイ(LCD)、液晶オンシリコン(LCoS)、有機発光電界効果トランジスタ(OLET)、有機発光ダイオード(OLED)、表面伝導型電子放射素子ディスプレイ(SED)、電界放射ディスプレイ(FED)、量子ドット発光ダイオード(QD-LED)、MEMS、及び/又は同様のディスプレイタイプに相当する。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、回折、反射、偏光、ホログラフィックなどの、導波管ディスプレイに相当する。例えば、HMD120は、単一のCGRディスプレイを含む。別の実施例では、HMD120は、ユーザの各目用のCGRディスプレイを含む。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、MR又はVRコンテンツを提示することができる。いくつかの実施形態では、1つ以上のCGRディスプレイ312は、MR又はVRコンテンツを提示することができる。 In some embodiments, the one or more CGR displays 312 are configured to provide a CGR experience to the user. In some embodiments, the one or more CGR displays 312 correspond to holographic, digital light processing (DLP), liquid crystal display (LCD), liquid crystal on silicon (LCoS), organic light emitting field effect transistor (OLET), organic light emitting diode (OLED), surface conduction electron emitter display (SED), field emission display (FED), quantum dot light emitting diode (QD-LED), MEMS, and/or similar display types. In some embodiments, the one or more CGR displays 312 correspond to a waveguide display, such as diffractive, reflective, polarized, holographic, etc. For example, the HMD 120 includes a single CGR display. In another example, the HMD 120 includes a CGR display for each eye of the user. In some embodiments, the one or more CGR displays 312 can present MR or VR content. In some embodiments, the one or more CGR displays 312 can present MR or VR content.

いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの目を含むユーザの顔の少なくとも一部に対応する画像データを取得するように構成される(及び、アイトラッキングカメラと称する場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、ユーザの手(単数又は複数)及び任意選択的にユーザの腕(単数又は複数)の少なくとも一部に対応する画像データを取得するように構成される(及び、ハンドトラッキングカメラと称される場合がある)。いくつかの実施形態では、1つ以上の画像センサ314は、HMD120が存在しない場合に、ユーザが視認するシーンに対応する画像データを取得するように前方を向くように構成される(及び、シーンカメラと称される場合がある)。1つ以上の任意選択的な画像センサ314は、(例えば、相補型金属酸化膜半導体(CMOS)画像センサ若しくは電荷結合デバイス(CCD)画像センサを備えた)1つ以上のRGBカメラ、1つ以上の赤外線(IR)カメラ、1つ以上のイベントベースのカメラ、及び/又は同様のもの、を含むことができる。 In some embodiments, the one or more image sensors 314 are configured to capture image data corresponding to at least a portion of the user's face, including the user's eyes (and may be referred to as eye tracking cameras). In some embodiments, the one or more image sensors 314 are configured to capture image data corresponding to at least a portion of the user's hand(s) and optionally the user's arm(s) (and may be referred to as hand tracking cameras). In some embodiments, the one or more image sensors 314 are configured to face forward to capture image data corresponding to a scene viewed by the user when the HMD 120 is not present (and may be referred to as a scene camera). The one or more optional image sensors 314 may include one or more RGB cameras (e.g., with a complementary metal oxide semiconductor (CMOS) image sensor or a charge-coupled device (CCD) image sensor), one or more infrared (IR) cameras, one or more event-based cameras, and/or the like.

メモリ320は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの、高速ランダムアクセスメモリを含む。いくつかの実施形態では、メモリ320は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ320は、1つ以上の処理ユニット302から遠隔に位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ320は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実施形態では、メモリ320、又はメモリ320の非一時的コンピュータ可読記憶媒体は、任意選択のオペレーティングシステム330及びCGR提示モジュール340を含む、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶する。 Memory 320 includes high-speed random access memory, such as DRAM, SRAM, DDR RAM, or other random access solid-state memory devices. In some embodiments, memory 320 includes non-volatile memory, such as one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or other non-volatile solid-state storage devices. Memory 320 optionally includes one or more storage devices located remotely from one or more processing units 302. Memory 320 includes a non-transitory computer-readable storage medium. In some embodiments, memory 320, or the non-transitory computer-readable storage medium of memory 320, stores the following programs, modules, and data structures, or a subset thereof, including an optional operating system 330 and a CGR presentation module 340:

オペレーティングシステム330は、様々な基本システムサービスを処理する命令、及びハードウェア依存タスクを実行する命令を含む。いくつかの実施形態では、CGR提示モジュール340は、1つ以上のCGRディスプレイ312を介してCGRコンテンツをユーザに提示するように構成される。その目的で、様々な実施形態では、CGR提示モジュール340は、データ取得ユニット342、CGR提示ユニット344、CGRマップ生成ユニット346、及びデータ送信ユニット348を含む。 The operating system 330 includes instructions for handling various basic system services and for performing hardware-dependent tasks. In some embodiments, the CGR presentation module 340 is configured to present CGR content to a user via one or more CGR displays 312. To that end, in various embodiments, the CGR presentation module 340 includes a data acquisition unit 342, a CGR presentation unit 344, a CGR map generation unit 346, and a data transmission unit 348.

いくつかの実施形態では、データ取得ユニット342は、少なくとも図1のコントローラ110からデータ(例えば、提示データ、相互作用データ、センサデータ、ロケーションデータなど)を取得するように構成される。その目的で、様々な実施形態では、データ取得ユニット342は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。 In some embodiments, the data acquisition unit 342 is configured to acquire data (e.g., presentation data, interaction data, sensor data, location data, etc.) from at least the controller 110 of FIG. 1. To that end, in various embodiments, the data acquisition unit 342 includes instructions and/or logic therefor, as well as heuristics and metadata therefor.

いくつかの実施形態では、CGR提示ユニット344は、1つ以上のCGRディスプレイ312を介してCGRコンテンツを提示するように構成される。その目的で、様々な実施形態では、CGR提示ユニット344は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。 In some embodiments, the CGR presentation unit 344 is configured to present the CGR content via one or more CGR displays 312. To that end, in various embodiments, the CGR presentation unit 344 includes instructions and/or logic therefor, as well as heuristics and metadata therefor.

いくつかの実施形態では、CGRマップ生成ユニット346は、メディアコンテンツデータに基づいて、CGRマップ(例えば、複合現実シーンの3Dマップ又はコンピュータ生成オブジェクトを配置することができる物理的環境のマップ)を生成するように構成される。その目的で、様々な実施形態では、CGRマップ生成ユニット346は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。 In some embodiments, the CGR map generation unit 346 is configured to generate a CGR map (e.g., a 3D map of a mixed reality scene or a map of a physical environment in which computer-generated objects can be placed) based on the media content data. To that end, in various embodiments, the CGR map generation unit 346 includes instructions and/or logic therefor, as well as heuristics and metadata therefor.

いくつかの実施形態では、データ送信ユニット348は、少なくともコントローラ110、及び任意選択的に入力デバイス125、出力デバイス155、センサ190、及び/又は周辺デバイス195のうちの1つ以上にデータ(例えば、提示データ、ロケーションデータなど)を伝送するように構成される。その目的で、様々な実施形態では、データ送信ユニット348は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。 In some embodiments, the data transmission unit 348 is configured to transmit data (e.g., presentation data, location data, etc.) to at least the controller 110, and optionally to one or more of the input device 125, the output device 155, the sensor 190, and/or the peripheral device 195. To that end, in various embodiments, the data transmission unit 348 includes instructions and/or logic therefor, as well as heuristics and metadata therefor.

データ取得ユニット342は、CGR提示ユニット344、CGRマップ生成ユニット346、及びデータ送信ユニット348は、単一のデバイス(例えば、図1の表示生成コンポーネント120)上に存在するものとして示されているが、他の実施形態では、データ取得ユニット342、CGR提示ユニット344、CGRマップ生成ユニット346、及びデータ送信ユニット348の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。 Although the data acquisition unit 342, the CGR presentation unit 344, the CGR map generation unit 346, and the data transmission unit 348 are shown as residing on a single device (e.g., the display generation component 120 of FIG. 1), it should be understood that in other embodiments, any combination of the data acquisition unit 342, the CGR presentation unit 344, the CGR map generation unit 346, and the data transmission unit 348 may be located in separate computing devices.

更に、図3は、本明細書に記載される実施形態の構造概略とは対照的に、特定の実装形態に存在し得る様々な特徴の機能を説明することをより意図している。当業者によって認識されるように、別々に示された事項を組み合わせることができ、また、一部の事項は分離することができる。例えば、図3に別々に示すいくつかの機能モジュールは、単一のモジュール内に実現することができ、単一の機能ブロックの様々な機能は、様々な実施形態では1つ以上の機能ブロックによって実行することができる。モジュールの実際の数、並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実施形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア、及び/又はファームウェアの特定の組み合わせに部分的に依存する。 Furthermore, FIG. 3 is intended more to illustrate the functionality of various features that may be present in a particular implementation, as opposed to a structural overview of the embodiments described herein. As will be recognized by one of ordinary skill in the art, items shown separately may be combined and some items may be separated. For example, some functional modules shown separately in FIG. 3 may be implemented within a single module, and various functions of a single functional block may be performed by one or more functional blocks in various embodiments. The actual number of modules, as well as the division of specific functions and how functions are allocated among them, will vary by implementation, and in some embodiments will depend in part on the particular combination of hardware, software, and/or firmware selected for a particular implementation.

図4は、ハンドトラッキングデバイス140の例示的な実施形態の概略図である。いくつかの実施形態では、ハンドトラッキングデバイス140(図1)は、ハンドトラッキングユニット243(図2)によって制御されて、ユーザの手の1つ以上の部分のポジション/ロケーション、及び/又は図1のシーン105に対する(例えば、ユーザを取り囲む物理的環境の部分に対する、表示生成コンポーネント120に対する、又はユーザの部分(例えば、ユーザの顔、目、若しくは頭部)に対する、及び/又はユーザの手に対して定義された座標系に対するユーザの手の1つ以上の部分の運動を追跡する。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成コンポーネント120の一部である(例えば、ヘッドマウントデバイスに埋め込まれる、又はヘッドマウントデバイスに取り付けられる)。いくつかの実施形態では、ハンドトラッキングデバイス140は、表示生成コンポーネント120とは別個である(例えば、別個のハウジング内に位置する、又は別個の物理的支持構造に取り付けられる)。 4 is a schematic diagram of an exemplary embodiment of a hand tracking device 140. In some embodiments, the hand tracking device 140 (FIG. 1) is controlled by the hand tracking unit 243 (FIG. 2) to track the position/location of one or more parts of the user's hand and/or the movement of one or more parts of the user's hand relative to the scene 105 of FIG. 1 (e.g., relative to parts of the physical environment surrounding the user, relative to the display generation component 120, or relative to parts of the user (e.g., the user's face, eyes, or head), and/or relative to a coordinate system defined relative to the user's hand. In some embodiments, the hand tracking device 140 is part of the display generation component 120 (e.g., embedded in or attached to a head-mounted device). In some embodiments, the hand tracking device 140 is separate from the display generation component 120 (e.g., located in a separate housing or attached to a separate physical support structure).

いくつかの実施形態では、ハンドトラッキングデバイス140は、人間のユーザの少なくとも手406を含む三次元シーン情報をキャプチャする画像センサ404(例えば、1つ以上のIRカメラ、3Dカメラ、深度カメラ、及び/又はカラーカメラなど)を含む。画像センサ404は、指及びそれらのそれぞれのポジションを区別するのを可能にするのに十分な解像度で手画像をキャプチャする。画像センサ404は、典型的には、ユーザの身体の他の部分の画像、又は身体の全ての画像をキャプチャし、ズーム機能又は高倍率を有する専用センサのいずれかを有して、所望の解像度で手の画像をキャプチャすることができる。いくつかの実施形態では、画像センサ404はまた、手406の2Dカラービデオ画像及びシーンの他の要素をキャプチャする。いくつかの実施形態では、画像センサ404は、シーン105の物理的環境をキャプチャする他の画像センサと併せて使用される、又はシーン105の物理的環境をキャプチャする画像センサとして機能する。いくつかの実施形態では、画像センサ404は、画像センサ又はその一部の視野が使用されて、画像センサによってキャプチャされた手の移動がコントローラ110への入力として処理される相互作用空間を定義するように、ユーザ又はユーザの環境に対して位置決めされる。 In some embodiments, the hand tracking device 140 includes an image sensor 404 (e.g., one or more IR cameras, 3D cameras, depth cameras, and/or color cameras, etc.) that captures three-dimensional scene information including at least the hand 406 of a human user. The image sensor 404 captures hand images with sufficient resolution to allow for differentiation of the fingers and their respective positions. The image sensor 404 typically captures images of other parts of the user's body, or images of the entire body, and can have either zoom capabilities or dedicated sensors with high magnification to capture images of the hand at a desired resolution. In some embodiments, the image sensor 404 also captures 2D color video images of the hand 406 and other elements of the scene. In some embodiments, the image sensor 404 is used in conjunction with other image sensors that capture the physical environment of the scene 105, or functions as an image sensor that captures the physical environment of the scene 105. In some embodiments, the image sensor 404 is positioned relative to the user or the user's environment such that the field of view of the image sensor, or a portion thereof, is used to define an interaction space in which hand movements captured by the image sensor are processed as inputs to the controller 110.

いくつかの実施形態では、画像センサ404は、3Dマップデータ(及び場合によってはカラー画像データ)を含むフレームのシーケンスをコントローラ110に出力し、これにより、マップデータから高レベル情報を抽出する。この高レベル情報は、典型的には、アプリケーションプログラムインタフェース(API)を介して、コントローラ上で実行されるアプリケーションに提供され、それに応じて表示生成コンポーネント120を駆動する。例えば、ユーザは、手408を移動させ、手の姿勢を変更することによって、コントローラ110上で動作するソフトウェアと相互作用することができる。 In some embodiments, the image sensor 404 outputs a sequence of frames containing 3D map data (and possibly color image data) to the controller 110, which extracts high-level information from the map data. This high-level information is provided, typically via an application program interface (API), to an application running on the controller, which drives the display generation component 120 accordingly. For example, a user can interact with the software running on the controller 110 by moving the hand 408 and changing the hand posture.

いくつかの実施形態では、画像センサ404は、手406を含むシーン上にスポットパターンを投射し、投射されたパターンの画像をキャプチャする。いくつかの実施形態では、コントローラ110は、パターンのスポットの横方向シフトに基づいて、三角測量によって(ユーザの手の表面上の点を含む)シーン内の点の3D座標を計算する。このアプローチは、ユーザが任意の種類のビーコン、センサ、又は他のマーカを保持又は着用する必要がないという点で有利である。これは、画像センサ404からの特定の距離で、所定の基準面に対するシーン内の点の深度座標を与える。本開示では、画像センサ404は、シーン内の点の深度座標が画像センサによって測定されたz成分に対応するように、直交する一連のx、y、z軸を定義すると想定される。あるいは、ハンドトラッキングデバイス440は、単一又は複数のカメラ又は他のタイプのセンサに基づいて、立体撮像又は飛行時間測定などの他の3Dマッピング方法を使用することができる。 In some embodiments, the image sensor 404 projects a spot pattern onto a scene including the hand 406 and captures an image of the projected pattern. In some embodiments, the controller 110 calculates the 3D coordinates of points in the scene (including points on the surface of the user's hand) by triangulation based on the lateral shift of the spots of the pattern. This approach is advantageous in that it does not require the user to hold or wear any kind of beacon, sensor, or other marker. It gives the depth coordinate of a point in the scene relative to a predefined reference plane at a specific distance from the image sensor 404. In this disclosure, it is assumed that the image sensor 404 defines a set of orthogonal x, y, z axes such that the depth coordinate of a point in the scene corresponds to the z component measured by the image sensor. Alternatively, the hand tracking device 440 can use other 3D mapping methods, such as stereoscopic imaging or time-of-flight measurements, based on single or multiple cameras or other types of sensors.

いくつかの実施形態では、ハンドトラッキングデバイス140は、ユーザが手(例えば、手全体又は1本以上の指)を移動させている間、ユーザの手を含む深度マップの時間シーケンスをキャプチャし処理する。画像センサ404及び/又はコントローラ110内のプロセッサ上で動作するソフトウェアは、3Dマップデータを処理して、これらの深度マップ内の手のパッチ記述子を抽出する。ソフトウェアは、各フレームにおける手の姿勢を推定するために、以前の学習プロセスに基づいて、これらの記述子をデータベース408に記憶されたパッチ記述子と照合する。姿勢は、典型的には、ユーザの手関節及び指先の3Dロケーションを含む。 In some embodiments, the hand tracking device 140 captures and processes a time sequence of depth maps including the user's hand while the user moves the hand (e.g., the entire hand or one or more fingers). Software running on the image sensor 404 and/or a processor in the controller 110 processes the 3D map data to extract patch descriptors of the hand in these depth maps. The software matches these descriptors to patch descriptors stored in the database 408, based on a previous learning process, to estimate the pose of the hand in each frame. The pose typically includes the 3D locations of the user's wrist joints and fingertips.

ソフトウェアはまた、ジェスチャを識別するために、シーケンス内の複数のフレームにわたって手及び/又は指の軌道を解析することができる。本明細書に記載される姿勢推定機能は、運動追跡機能とインターリーブされてもよく、それにより、パッチベースの姿勢推定が2つ(又はそれ以上)のフレーム毎に1回のみ実行される一方、追跡は残りのフレームにわたって発生する姿勢の変化を発見するために使用される。姿勢、運動、及びジェスチャ情報は、上述のAPIを介して、コントローラ110上で実行されるアプリケーションプログラムに提供される。このプログラムは、例えば、姿勢及び/又はジェスチャ情報に応じて、表示生成コンポーネント120上に提示された画像を移動させ修正する、又は他の機能を実行することができる。 The software can also analyze hand and/or finger trajectories across multiple frames in a sequence to identify gestures. The pose estimation functionality described herein may be interleaved with the motion tracking functionality, whereby patch-based pose estimation is performed only once every two (or more) frames, while tracking is used to discover pose changes that occur across the remaining frames. The pose, motion, and gesture information is provided to an application program running on the controller 110 via the API described above. The program can, for example, move and modify an image presented on the display generation component 120 or perform other functions in response to the pose and/or gesture information.

いくつかの実施形態では、ソフトウェアは、例えばネットワーク上で、コントローラ110に電子形態でダウンロードされてもよい、又はその代わりに、光学、磁気、若しくは電子メモリ媒体などの、実体的非一時的媒体に提供されてもよい。いくつかの実施形態では、データベース408は、同様に、コントローラ110に関連付けられたメモリに記憶される。代替的又は追加的に、コンピュータの記載された機能の一部又は全ては、カスタム又は半カスタム集積回路又はプログラム可能なデジタル信号プロセッサ(DSP)などの専用のハードウェアに実装されてもよい。コントローラ110は、例として、画像センサ440からの別個のユニットとして図4に示されているが、コントローラの処理機能の一部又は全部は、好適なマイクロプロセッサ及びソフトウェアによって、又はハンドトラッキングデバイス402のハウジング内の専用回路によって、又は他の方法で画像センサ404に関連付けることができる。いくつかの実施形態では、これらの処理機能のうちの少なくともいくつかは、(例えば、テレビセット、ハンドヘルドデバイス、又はヘッドマウントデバイスにおいて)表示生成コンポーネント120と統合された好適なプロセッサによって、又はゲームコンソール又はメディアプレーヤなどの任意の他の適切なコンピュータ化されたデバイスを用いて実行されてもよい。画像センサ404の感知機能は、同様に、センサ出力によって制御されるコンピュータ又は他のコンピュータ化された装置に統合することができる。 In some embodiments, the software may be downloaded in electronic form to the controller 110, for example over a network, or may alternatively be provided on a tangible non-transitory medium, such as an optical, magnetic, or electronic memory medium. In some embodiments, the database 408 is similarly stored in a memory associated with the controller 110. Alternatively or additionally, some or all of the described functions of the computer may be implemented in dedicated hardware, such as a custom or semi-custom integrated circuit or a programmable digital signal processor (DSP). Although the controller 110 is shown in FIG. 4 as a separate unit from the image sensor 440, by way of example, some or all of the processing functions of the controller may be associated with the image sensor 404 by a suitable microprocessor and software, or by a dedicated circuit within the housing of the hand tracking device 402, or in other ways. In some embodiments, at least some of these processing functions may be performed by a suitable processor integrated with the display generation component 120 (e.g., in a television set, handheld device, or head-mounted device), or with any other suitable computerized device, such as a game console or media player. The sensing function of the image sensor 404 may likewise be integrated into a computer or other computerized device that is controlled by the sensor output.

図4は、いくつかの実施形態による、画像センサ404によってキャプチャされた深度マップ410の概略図を更に含む。深度マップは、上述したように、それぞれの深度値を有するピクセルのマトリックスを含む。手406に対応するピクセル412は、このマップで背景及び手首からセグメント化されている。深度マップ410内の各ピクセルの輝度は、深度値、即ち、画像センサ404からの測定されたz距離に反比例し、深度が上昇するにつれて階調が濃くなる。コントローラ110は、人間の手の特徴を有する画像の成分(即ち、隣接ピクセル群)を識別及びセグメント化するために、これらの深度値を処理する。これらの特性は、例えば、深度マップのシーケンスの全体サイズ、形状、フレームからフレームへの運動を含むことができる。 4 further includes a schematic diagram of a depth map 410 captured by the image sensor 404, according to some embodiments. The depth map includes a matrix of pixels having respective depth values, as described above. A pixel 412 corresponding to the hand 406 is segmented from the background and the wrist in this map. The intensity of each pixel in the depth map 410 is inversely proportional to the depth value, i.e., the measured z-distance from the image sensor 404, with increasing gray levels as depth increases. The controller 110 processes these depth values to identify and segment components of the image (i.e., groups of adjacent pixels) that have characteristics of a human hand. These characteristics may include, for example, the overall size, shape, and frame-to-frame motion of the sequence of depth maps.

図4はまた、いくつかの実施形態による、コントローラ110が手406の深度マップ410から最終的に抽出する手骨格414を概略的に示す。図4では、骨格414は、元の深度マップからセグメント化された手の背景416に重畳される。いくつかの実施形態では、手(例えば、指関節、指先、掌の中心、手首に接続する手の終端など)、及び任意選択的に手に接続された手首又は腕上の主要な特徴点が、手の骨格414上で識別され配置される。いくつかの実施形態では、複数の画像フレーム上にわたるこれらの主要な特徴点のロケーション及び移動がコントローラ110によって使用されて、いくつかの実施形態により、手によって実行される手ジェスチャ又は手の現在の状態を判定する。 4 also shows a schematic of the hand skeleton 414 that the controller 110 ultimately extracts from the depth map 410 of the hand 406, according to some embodiments. In FIG. 4, the skeleton 414 is superimposed on the hand background 416 that was segmented from the original depth map. In some embodiments, key feature points on the hand (e.g., knuckles, fingertips, palm center, end of hand connecting to wrist, etc.) and optionally the wrist or arm connected to the hand are identified and positioned on the hand skeleton 414. In some embodiments, the location and movement of these key feature points over multiple image frames are used by the controller 110 to determine the hand gesture being performed by the hand or the current state of the hand, according to some embodiments.

図5は、アイトラッキングデバイス130(図1)の例示的な実施形態を示す。いくつかの実施形態では、アイトラッキングデバイス130は、アイトラッキングユニット245(図2)によって制御されて、シーン105に対する、又は表示生成コンポーネント120を介して表示されるCGRコンテンツに対するユーザの視線のポジション及び移動を追跡する。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成コンポーネント120と統合される。例えば、いくつかの実施形態では、表示生成コンポーネント120がヘッドセット、ヘルメット、ゴーグル、又は眼鏡などのヘッドマウントデバイス、又はウェアラブルフレームに配置されたハンドヘルドデバイスである場合、ヘッドマウントデバイスは、ユーザによる視聴のためのCGRコンテンツを生成するコンポーネント及びCGRコンテンツに対するユーザの視線を追跡するためのコンポーネントの両方を含む。いくつかの実施形態では、アイトラッキングデバイス130は、表示生成コンポーネント120とは別個である。例えば、表示生成コンポーネントがハンドヘルドデバイス又はCGRチャンバである場合、アイトラッキングデバイス130は、任意選択的に、ハンドヘルドデバイス又はCGRチャンバとは別個のデバイスである。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイス又はヘッドマウントデバイスの一部である。いくつかの実施形態では、ヘッドマウントアイトラッキングデバイス130は、任意選択的に、頭部に装着されている表示生成コンポーネント又は頭部に装着されていない表示生成コンポーネントと共に使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、ヘッドマウント表示生成コンポーネントと組み合わせて使用される。いくつかの実施形態では、アイトラッキングデバイス130は、ヘッドマウントデバイスではなく、任意選択的に、非ヘッドマウント表示生成コンポーネントの一部である。 5 shows an exemplary embodiment of the eye tracking device 130 (FIG. 1). In some embodiments, the eye tracking device 130 is controlled by the eye tracking unit 245 (FIG. 2) to track the position and movement of the user's gaze relative to the scene 105 or relative to the CGR content displayed via the display generation component 120. In some embodiments, the eye tracking device 130 is integrated with the display generation component 120. For example, in some embodiments, if the display generation component 120 is a head-mounted device such as a headset, helmet, goggles, or glasses, or a handheld device disposed in a wearable frame, the head-mounted device includes both a component for generating CGR content for viewing by the user and a component for tracking the user's gaze relative to the CGR content. In some embodiments, the eye tracking device 130 is separate from the display generation component 120. For example, if the display generation component is a handheld device or a CGR chamber, the eye tracking device 130 is optionally a device separate from the handheld device or the CGR chamber. In some embodiments, the eye tracking device 130 is a head-mounted device or part of a head-mounted device. In some embodiments, the head-mounted eye tracking device 130 is optionally used in conjunction with a head-mounted display generation component or a non-head-mounted display generation component. In some embodiments, the eye tracking device 130 is not a head-mounted device and is optionally used in conjunction with a head-mounted display generation component. In some embodiments, the eye tracking device 130 is not a head-mounted device and is optionally part of a non-head-mounted display generation component.

いくつかの実施形態では、表示生成コンポーネント120は、ユーザの目の前に左及び右の画像を含むフレームを表示して、3D仮想ビューをユーザに提供するディスプレイ機構(例えば、左右の目近傍ディスプレイパネル)を使用する。例えば、ヘッドマウント表示生成コンポーネントは、ディスプレイとユーザの目との間に位置する左右の光学レンズ(本明細書では接眼レンズと称される)を含んでもよい。いくつかの実施形態では、表示生成コンポーネントは、表示のためにユーザの環境のビデオをキャプチャする1つ以上の外部ビデオカメラを含んでもよい、又はそれに結合されてもよい。いくつかの実施形態では、ヘッドマウント表示生成コンポーネントは、ユーザが物理的環境を直接視認し、透明又は半透明ディスプレイ上に仮想オブジェクトを表示することができる透明又は半透明のディスプレイを有してもよい。いくつかの実施形態では、表示生成コンポーネントは、仮想オブジェクトを物理的環境に投影する。仮想オブジェクトは、例えば、物理的表面上に、又はホログラフとして投影され、それによって、個人は、システムを使用して、物理的環境の上に重ねられた仮想オブジェクトを観察することができる。そのような場合、左右の目のための別個のディスプレイパネル及び画像フレームが必要とされない場合がある。 In some embodiments, the display generation component 120 uses a display mechanism (e.g., left and right near-eye display panels) that displays frames including left and right images in front of the user's eyes to provide the user with a 3D virtual view. For example, the head-mounted display generation component may include left and right optical lenses (referred to herein as eyepieces) located between the display and the user's eyes. In some embodiments, the display generation component may include or be coupled to one or more external video cameras that capture video of the user's environment for display. In some embodiments, the head-mounted display generation component may have a transparent or semi-transparent display that allows the user to view the physical environment directly and display virtual objects on the transparent or semi-transparent display. In some embodiments, the display generation component projects virtual objects into the physical environment. The virtual objects are projected, for example, onto a physical surface or as a hologram, whereby an individual using the system can observe the virtual objects superimposed on the physical environment. In such cases, separate display panels and image frames for the left and right eyes may not be required.

図5に示すように、いくつかの実施形態では、視線トラッキングデバイス130は、少なくとも1つのアイトラッキングカメラ(例えば、赤外線(IR)又は近IR(NIR)カメラ)、並びに光(例えば、IR又はNIR光)をユーザの目に向けて発する照明源(例えば、LEDのアレイ若しくはリングなどのIR又はNIR光源)を含む。アイトラッキングカメラは、ユーザの目に向けられて、光源からの反射IR又はNIR光を目から直接受信してもよく、又は代替的に、ユーザの目と、可視光が通過することを可能にしながら目からアイトラッキングカメラにIR又はNIR光を反射させるディスプレイパネルとの間に配置される「ホット」ミラーに向けられてもよい。視線トラッキングデバイス130は、任意選択的に、ユーザの目の画像を(例えば、1秒当たり60~120フレーム(fps)でキャプチャされるビデオストリームとして)キャプチャし、画像を解析して、視線追跡情報を生成し、視線追跡情報をコントローラ110に通信する。いくつかの実施形態では、ユーザの両目は、それぞれのアイトラッキングカメラ及び照明源によって別々に追跡される。いくつかの実施形態では、ユーザの片目のみが、個別のアイトラッキングカメラ及び照明源によって追跡される。 As shown in FIG. 5, in some embodiments, the eye tracking device 130 includes at least one eye tracking camera (e.g., an infrared (IR) or near-IR (NIR) camera) and an illumination source (e.g., an IR or NIR light source such as an array or ring of LEDs) that emits light (e.g., IR or NIR light) toward the user's eye. The eye tracking camera may be aimed at the user's eye to receive reflected IR or NIR light from the light source directly from the eye, or alternatively, may be aimed at a "hot" mirror disposed between the user's eye and a display panel that reflects the IR or NIR light from the eye to the eye tracking camera while allowing visible light to pass through. The eye tracking device 130 optionally captures images of the user's eye (e.g., as a video stream captured at 60-120 frames per second (fps)), analyzes the images to generate eye tracking information, and communicates the eye tracking information to the controller 110. In some embodiments, the user's eyes are tracked separately by respective eye tracking cameras and illumination sources. In some embodiments, only one eye of the user is tracked by a separate eye tracking camera and lighting source.

いくつかの実施形態では、アイトラッキングデバイス130は、デバイス固有の較正プロセスを使用して較正されて、特定の動作環境100用のアイトラッキングデバイスのパラメータ、例えば、LED、カメラ、ホットミラー(存在する場合)、接眼レンズ、及びディスプレイスクリーンの3D幾何学的関係及びパラメータを判定する。デバイス固有の較正プロセスは、AR/VR機器のエンドユーザへの配送前に、工場又は別の施設で実行されてもよい。デバイス固有の較正プロセスは、自動較正プロセスであってもよく、又は手動較正プロセスであってもよい。ユーザ固有の較正プロセスは、特定のユーザの目パラメータ、例えば、瞳孔ロケーション、中心視覚ロケーション、光軸、視軸、目間隔などの推定を含んでもよい。いくつかの実施形態によれば、いったんアイトラッキングデバイス130についてデバイス固有及びユーザ固有のパラメータが判定されると、アイトラッキングカメラによってキャプチャされた画像は、グリント支援方法を使用して処理され、ディスプレイに対するユーザの現在の視覚軸及び視点を判定することができる。 In some embodiments, the eye tracking device 130 is calibrated using a device-specific calibration process to determine the eye tracking device parameters for the particular operating environment 100, e.g., 3D geometric relationships and parameters of the LEDs, camera, hot mirror (if present), eyepiece, and display screen. The device-specific calibration process may be performed at a factory or another facility prior to delivery of the AR/VR equipment to an end user. The device-specific calibration process may be an automatic calibration process or a manual calibration process. The user-specific calibration process may include estimation of the particular user's eye parameters, e.g., pupil location, central vision location, optical axis, visual axis, eye spacing, etc. According to some embodiments, once the device-specific and user-specific parameters have been determined for the eye tracking device 130, images captured by the eye tracking camera may be processed using glint-assisted methods to determine the user's current visual axis and viewpoint relative to the display.

図5に示すように、アイトラッキングデバイス130(例えば、130A又は130B)は、接眼レンズ(単数又は複数)520と、アイトラッキングが行われるユーザの顔の側に配置された少なくとも1つのアイトラッキングカメラ540(例えば、赤外線(IR)又は近IR(NIR)カメラ)と光(例えば、IR又はNIR光)をユーザの目(単数又は複数)592に向かって発する照明源530(例えば、NIR発光ダイオード(LED)のアレイ若しくはリングなどのIR又はNIR光源)とを含む視線追跡システムと、を含む。アイトラッキングカメラ540は、ユーザの目(単数又は複数)592とディスプレイ510(例えば、ヘッドマウントディスプレイの左若しくは右側のディスプレイパネル、又はハンドヘルドデバイスのディスプレイ、プロジェクタなど)との間に位置し、(例えば、図5の上部に示されるように)可視光を透過させながら、目(単数又は複数)592からのIR又はNIR光を反射するミラー550に向けられてもよく、あるいは、(例えば、図5の下部に示されるように)反射されたユーザの目(単数又は複数)592からのIR又はNIR光を受け取るように目(単数又は複数)592に向けられてもよい。 As shown in FIG. 5, eye tracking device 130 (e.g., 130A or 130B) includes an eyepiece(s) 520 and an eye tracking system including at least one eye tracking camera 540 (e.g., an infrared (IR) or near-IR (NIR) camera) positioned on the side of the user's face where eye tracking occurs and an illumination source 530 (e.g., an IR or NIR light source such as an array or ring of NIR light emitting diodes (LEDs)) that emits light (e.g., IR or NIR light) toward the user's eye(s) 592. The eye tracking camera 540 may be located between the user's eye(s) 592 and the display 510 (e.g., the left or right display panel of a head-mounted display, or the display of a handheld device, projector, etc.) and may be directed at a mirror 550 that reflects IR or NIR light from the eye(s) 592 while transmitting visible light (e.g., as shown in the upper part of FIG. 5), or may be directed at the eye(s) 592 to receive reflected IR or NIR light from the user's eye(s) 592 (e.g., as shown in the lower part of FIG. 5).

いくつかの実施形態では、コントローラ110は、AR又はVRフレーム562(例えば、左及び右のディスプレイパネルの左及び右のフレーム)をレンダリングし、フレーム562をディスプレイ510に提供する。コントローラ110は、様々な目的のために、例えば、表示のためにフレーム562を処理する際に、アイトラッキングカメラ540からの視線追跡入力542を使用する。コントローラ110は、任意選択的に、グリント支援方法又は他の適切な方法を使用して、アイトラッキングカメラ540から得られた視線追跡入力542に基づいて、ディスプレイ510上のユーザの視点を推定する。視線追跡入力542から推定された視点は、任意選択的に、ユーザが現在見ている方向を判定するために使用される。 In some embodiments, the controller 110 renders AR or VR frames 562 (e.g., left and right frames for left and right display panels) and provides the frames 562 to the display 510. The controller 110 uses eye-tracking input 542 from the eye-tracking camera 540 for various purposes, e.g., in processing the frames 562 for display. The controller 110 optionally estimates the user's viewpoint on the display 510 based on the eye-tracking input 542 obtained from the eye-tracking camera 540 using a glint-assisted method or other suitable method. The viewpoint estimated from the eye-tracking input 542 is optionally used to determine the direction in which the user is currently looking.

以下、ユーザの現在の視線方向のいくつかの可能な使用事例について説明するが、これは限定することを意図するものではない。例示的な使用例として、コントローラ110は、判定されたユーザの視線方向に基づいて、仮想コンテンツを異なってレンダリングすることができる。例えば、コントローラ110は、周辺領域においてよりもユーザの現在の視線方向から判定された中心視覚領域において、より高い解像度で仮想コンテンツを生成してもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内の仮想コンテンツを位置決め又は移動させてもよい。別の例として、コントローラは、ユーザの現在の視線方向に少なくとも部分的に基づいて、ビュー内に特定の仮想コンテンツを表示してもよい。ARアプリケーションにおける別の例示的な使用事例として、コントローラ110は、CGR体験の物理的環境をキャプチャして、判定された方向に焦点を合わせるように外部カメラを方向付けることができる。次いで、外部カメラの自動焦点機構は、ユーザが現在ディスプレイ510上で見ている環境内のオブジェクト又は表面に焦点を合わせることができる。別の例示的な使用事例として、接眼レンズ520は集束可能なレンズであってもよく、視線追跡情報がコントローラによって使用されて、ユーザが現在見ている仮想オブジェクトが、ユーザの目592の収束に一致するために適切な両目連動を有するように接眼レンズ520の焦点を調整する。コントローラ110は、視線追跡情報を活用して、ユーザが見ている近接オブジェクトが正しい距離で現れるように接眼レンズ520を方向付けて焦点を調整することができる。 Below, some possible use cases of the user's current gaze direction are described, which are not intended to be limiting. As an exemplary use case, the controller 110 can render virtual content differently based on the determined user's gaze direction. For example, the controller 110 may generate virtual content with higher resolution in a central visual area determined from the user's current gaze direction than in a peripheral area. As another example, the controller may position or move virtual content in a view based at least in part on the user's current gaze direction. As another example, the controller may display certain virtual content in a view based at least in part on the user's current gaze direction. As another exemplary use case in an AR application, the controller 110 can orient an external camera to capture the physical environment of the CGR experience and focus in the determined direction. The external camera's autofocus mechanism can then focus on objects or surfaces in the environment that the user is currently viewing on the display 510. As another exemplary use case, the eyepiece 520 may be a focusable lens, and the eye tracking information is used by the controller to adjust the focus of the eyepiece 520 so that the virtual object the user is currently looking at has the proper binocular coordination to match the convergence of the user's eyes 592. The controller 110 can leverage the eye tracking information to orient and focus the eyepiece 520 so that a nearby object the user is looking at appears at the correct distance.

いくつかの実施形態では、アイトラッキングデバイスは、ウェアラブルハウジングに取り付けられた、ディスプレイ(例えば、ディスプレイ510)、2つの接眼レンズ(例えば、接眼レンズ(単数又は複数)520)、アイトラッキングカメラ(例えば、アイトラッキングカメラ(単数又は複数)540)、及び光源(例えば、光源530(例えば、IR LED又はNIR LED))を含むヘッドマウントデバイスの一部である。光源は、ユーザの目(単数又は複数)592に向かって光(例えば、IR又はNIR光)を発する。いくつかの実施形態では、光源は、図5に示されるように、各レンズの周りにリング又は円状に配置されてもよい。いくつかの実施形態では、8つの光源530(例えば、LED)が、一例として各レンズ520の周りに配置される。しかしながら、より多くの又はより少ない光源530が使用されてもよく、光源530の他の配置及びロケーションが用いられてもよい。 In some embodiments, the eye tracking device is part of a head-mounted device that includes a display (e.g., display 510), two eyepieces (e.g., eyepiece(s) 520), an eye tracking camera (e.g., eye tracking camera(s) 540), and a light source (e.g., light source 530 (e.g., IR LED or NIR LED)) attached to the wearable housing. The light source emits light (e.g., IR or NIR light) toward the user's eye(s) 592. In some embodiments, the light sources may be arranged in a ring or circle around each lens, as shown in FIG. 5. In some embodiments, eight light sources 530 (e.g., LEDs) are arranged around each lens 520 as an example. However, more or fewer light sources 530 may be used, and other arrangements and locations of the light sources 530 may be used.

いくつかの実施形態では、ディスプレイ510は、可視光範囲内の光を発し、IR又はNIR範囲内の光を発さないため、視線追跡システムにノイズを導入しない。アイトラッキングカメラ(単数又は複数)540のロケーション及び角度は、例として与えられ、限定することを意図するものではないことに留意されたい。いくつかの実施形態では、単一のアイトラッキングカメラ540がユーザの顔の各側に位置する。いくつかの実施形態では、2つ以上のNIRカメラ540をユーザの顔の各側に使用することができる。いくつかの実施形態では、より広い視野(FOV)を有するカメラ540と狭いFOVを有するカメラ540が、ユーザの顔の各側に使用されてもよい。いくつかの実施形態では、1つの波長(例えば、850nm)で動作するカメラ540と異なる波長(例えば、940nm)で動作するカメラ540とが、ユーザの顔の各側に使用されてもよい。 In some embodiments, the display 510 emits light in the visible light range and not in the IR or NIR ranges, so it does not introduce noise into the eye tracking system. Note that the locations and angles of the eye tracking camera(s) 540 are given by way of example and are not intended to be limiting. In some embodiments, a single eye tracking camera 540 is located on each side of the user's face. In some embodiments, two or more NIR cameras 540 may be used on each side of the user's face. In some embodiments, a camera 540 with a wider field of view (FOV) and a camera 540 with a narrower FOV may be used on each side of the user's face. In some embodiments, a camera 540 operating at one wavelength (e.g., 850 nm) and a camera 540 operating at a different wavelength (e.g., 940 nm) may be used on each side of the user's face.

図5に示すような視線追跡システムの実施形態は、例えば、コンピュータ生成現実(例えば、仮想現実、及び/又は複合現実を含む)アプリケーションに使用されて、コンピュータ生成現実(例えば、仮想現実、拡張現実、及び/又は拡張仮想を含む)の体験をユーザに提供することができる。 Embodiments of an eye tracking system such as that shown in FIG. 5 may be used, for example, in computer-generated reality (e.g., including virtual reality and/or mixed reality) applications to provide a user with a computer-generated reality (e.g., including virtual reality, augmented reality, and/or augmented virtual) experience.

図6は、いくつかの実施形態による、グリント支援視線追跡パイプラインを示す。いくつかの実施形態では、視線追跡パイプラインは、グリント支援視線追跡システム(例えば、図1及び図5に示されるようなアイトラッキングデバイス130)によって実現される。グリント支援視線追跡システムは、追跡状態を維持することができる。最初、追跡状態はオフ又は「いいえ」である。追跡状態にあるとき、グリント支援視線追跡システムは、現フレームを解析する際に前のフレームからの先行情報を使用して、現フレーム内の瞳孔輪郭及びグリントを追跡する。追跡状態にない場合、グリント支援視線追跡システムは、現フレーム内の瞳孔及びグリントを検出しようとし、それに成功した場合、追跡状態を「はい」に初期化し、追跡状態で次のフレームに続く。 Figure 6 illustrates a glint-assisted eye tracking pipeline, according to some embodiments. In some embodiments, the eye tracking pipeline is realized by a glint-assisted eye tracking system (e.g., eye tracking device 130 as shown in Figures 1 and 5). The glint-assisted eye tracking system can maintain a tracking state. Initially, the tracking state is off or "no". When in the tracking state, the glint-assisted eye tracking system tracks the pupil contour and glint in the current frame using prior information from the previous frame when analyzing the current frame. When not in the tracking state, the glint-assisted eye tracking system attempts to detect the pupil and glint in the current frame, and if successful, initializes the tracking state to "yes" and continues to the next frame in the tracking state.

図6に示すように、視線追跡カメラは、ユーザの左目及び右目の左右の画像をキャプチャすることができる。次いで、キャプチャされた画像は、610で開始される処理のために視線追跡パイプラインに入力される。要素600に戻る矢印によって示されるように、視線追跡システムは、例えば、毎秒60~120フレームの速度で、ユーザの目の画像をキャプチャし続けることができる。いくつかの実施形態では、キャプチャされた画像の各セットが、処理のためにパイプラインに入力されてもよい。しかしながら、いくつかの実施形態、又はいくつかの条件下では、全てのキャプチャされたフレームがパイプラインによって処理されるわけではない。 As shown in FIG. 6, an eye tracking camera can capture left and right images of a user's left and right eyes. The captured images are then input into an eye tracking pipeline for processing beginning at 610. As indicated by the arrow returning to element 600, the eye tracking system can continue to capture images of the user's eyes at a rate of, for example, 60-120 frames per second. In some embodiments, each set of captured images may be input into the pipeline for processing. However, in some embodiments, or under some conditions, not all captured frames are processed by the pipeline.

610で、現在のキャプチャされた画像について、追跡状態がはいである場合、この方法は要素640に進む。610で、追跡状態がいいえである場合、620に示されるように、画像が解析されて、画像内のユーザの瞳孔及びグリントを検出する。630で、瞳孔とグリントが正常に検出される場合、方法は要素640に進む。正常に検出されない場合、方法は要素610に戻り、ユーザの目の次の画像を処理する。 At 610, if the tracking status is yes for the current captured image, the method proceeds to element 640. At 610, if the tracking status is no, the image is analyzed to detect the user's pupil and glint in the image, as shown at 620. At 630, if the pupil and glint are successfully detected, the method proceeds to element 640. If not, the method returns to element 610 to process the next image of the user's eye.

640で、要素410から進む場合、前のフレームからの先行情報に部分的に基づいて、現フレームが解析されて、瞳孔及びグリントを追跡する。640で、要素630から進む場合、現フレーム内の検出された瞳孔及びグリントに基づいて、追跡状態が初期化される。要素640での処理の結果は、追跡又は検出の結果が信頼できることを確認するためにチェックされる。例えば、結果は、瞳孔及び視線推定を実行するための十分な数のグリントが現フレームで正常に追跡又は検出されるかどうかを判定するためにチェックすることができる。650で、結果が信頼できない場合、追跡状態はいいえに設定され、方法は要素610に戻り、ユーザの目の次の画像を処理する。650で、結果が信頼できる場合、方法は要素670に進む。670で、追跡状態ははいに設定され(まだはいではない場合)、瞳孔及びグリント情報が要素680に渡されて、ユーザの視点を推定する。 At 640, proceeding from element 410, the current frame is analyzed to track pupils and glints, based in part on prior information from the previous frame. At 640, proceeding from element 630, a tracking state is initialized based on the detected pupils and glints in the current frame. The results of the processing at element 640 are checked to ensure that the tracking or detection results are reliable. For example, the results can be checked to determine whether a sufficient number of glints are successfully tracked or detected in the current frame to perform pupil and gaze estimation. At 650, if the results are not reliable, the tracking state is set to no and the method returns to element 610 to process the next image of the user's eyes. At 650, if the results are reliable, the method proceeds to element 670. At 670, the tracking state is set to yes (if not already yes) and the pupil and glint information is passed to element 680 to estimate the user's gaze point.

図6は、特定の実施で使用され得るアイトラッキング技術の一例として機能することを意図している。当業者によって認識されるように、現在存在するか、又は将来開発される他のアイトラッキング技術は、様々な実施形態によるCGR体験をユーザに提供するためにコンピュータシステム101において、本明細書に記載されるグリント支援アイトラッキング技術の代わりに、又はそれと組み合わせて使用することができる。 FIG. 6 is intended to serve as an example of an eye-tracking technique that may be used in a particular implementation. As will be recognized by those skilled in the art, other eye-tracking techniques, either currently existing or developed in the future, may be used in place of or in combination with the glint-assisted eye-tracking technique described herein in computer system 101 to provide a user with a CGR experience according to various embodiments.

本開示では、コンピュータシステムとの相互作用に関して、様々な入力方法が説明される。一例が1つの入力デバイス又は入力方法を使用して提供され、別の例が別の入力デバイス又は入力方法を使用して提供される場合、各例は、別の例に関して記載された入力デバイス又は入力方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。同様に、様々な出力方法が、コンピュータシステムとの相互作用に関して説明される。一例が1つの出力デバイス又は出力方法を使用して提供され、別の例が別の出力デバイス又は出力方法を使用して提供される場合、各例は、別の例に関して記載された出力デバイス又は出力方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。同様に、様々な方法が、コンピュータシステムを介した仮想環境又は複合現実環境との相互作用に関して説明される。一例が仮想環境との相互作用を使用して提供され、別の例が複合現実環境を使用して提供される場合、各例は、別の例に関して説明された方法と互換性があり得、任意選択的にそれらを利用することを理解されたい。したがって、本開示は、各例示的な実施形態の説明における実施形態の全ての特徴を網羅的に列挙することなく、複数の例の特徴の組み合わせである実施形態を開示する。
ユーザインタフェース及び関連するプロセス
In the present disclosure, various input methods are described with respect to interaction with a computer system. If one example is provided using one input device or input method and another example is provided using another input device or input method, it should be understood that each example may be compatible with and optionally utilize the input device or input method described with respect to the other example. Similarly, various output methods are described with respect to interaction with a computer system. If one example is provided using one output device or output method and another example is provided using another output device or output method, it should be understood that each example may be compatible with and optionally utilize the output device or output method described with respect to the other example. Similarly, various methods are described with respect to interaction with a virtual environment or a mixed reality environment via a computer system. If one example is provided using interaction with a virtual environment and another example is provided using a mixed reality environment, it should be understood that each example may be compatible with and optionally utilize the method described with respect to the other example. Thus, the present disclosure discloses embodiments that are combinations of features of multiple examples without exhaustively listing all features of the embodiments in the description of each exemplary embodiment.
User Interface and Related Processes

ここで、ユーザインタフェース(「UI」)の実施形態、及び、表示生成コンポーネント、1つ以上の入力デバイス、及び(任意選択的に)1つ又は複数のカメラを備えた、ポータブル多機能デバイス又はヘッドマウントデバイスなどのコンピュータシステムにおいて実行され得る関連プロセスに注目する。 Attention is now directed to embodiments of user interfaces ("UIs") and associated processes that may be executed in a computer system, such as a portable multifunction device or a head-mounted device, with a display generation component, one or more input devices, and (optionally) one or more cameras.

図7A~図7Pは、表示生成コンポーネント(例えば、表示生成コンポーネント7100、表示生成コンポーネント7200、表示生成コンポーネント120など)を介して表示される三次元環境と、三次元環境に向けられたユーザ入力及び/又は他のコンピュータシステム及び/又はセンサから受信された入力によって引き起こされる三次元環境において発生する相互作用とを示す。いくつかの実施形態では、入力は、三次元環境内の仮想オブジェクトのポジションで検出されたユーザの視線によって、仮想オブジェクトのポジションに対応する、物理的環境内のロケーションで実行される手のジェスチャによって、仮想オブジェクトが入力フォーカスを有する間に仮想オブジェクトのポジションとは無関係な物理的環境内のロケーションで実行される手のジェスチャ(例えば、同時に及び/又は以前に検出された視線入力によって選択される、同時に又は以前に検出されたポインタ入力によって選択される、同時に及び/又は以前に検出されたジェスチャ入力によって選択されるなど)によって、仮想オブジェクトのポジションにフォーカスセレクタオブジェクト(例えば、ポインタオブジェクト、セレクタオブジェクトなど)を配置した入力デバイスなどによって、三次元内の仮想オブジェクトに向けられる。いくつかの実施形態では、入力は、ユーザの手の移動(例えば、手全体の移動、個別の姿勢での手全体の移動、手の一部の手の別の部分に対する移動、2つの手の間の相対的な移動など)及び/又は物理的オブジェクトに対する操作(例えば、タッチする、スワイプする、タップする、開く、向かって移動する、相対的に移動するなど)によって、物理的オブジェクト又は物理的オブジェクトに対応する仮想オブジェクトの表現に向けられる。いくつかの実施形態では、コンピュータシステムは、センサ(例えば、画像センサ、温度センサ、バイオメトリックセンサ、運動センサ、近接センサなど)からの入力及びコンテキスト条件(例えば、ロケーション、時間、環境内の異なるの存在など)に従って、三次元環境の表示を変更する(例えば、追加の仮想コンテンツを表示する、又は既存の仮想コンテンツの表示を停止する、視覚的コンテンツを表示する異なる没入レベル間で遷移するなど)。いくつかの実施形態では、コンピュータシステムは、(例えば、共有コンピュータ生成体験、共有仮想環境、通信セッションの共有仮想又は拡張現実環境などにおいて)コンピュータ生成環境をコンピュータシステムのユーザと共有している他のユーザによって使用される他のコンピュータからの入力に従って、三次元環境の表示を変更する(例えば、追加の仮想コンテンツを表示する、又は既存の仮想コンテンツの表示を停止する、視覚的コンテンツを表示する様々な没入レベル間で遷移するなど)。 7A-7P illustrate a three-dimensional environment displayed via a display generating component (e.g., display generating component 7100, display generating component 7200, display generating component 120, etc.) and interactions occurring in the three-dimensional environment caused by user input directed to the three-dimensional environment and/or input received from other computer systems and/or sensors. In some embodiments, the input is directed to a virtual object in three dimensions by a user's gaze detected at the position of the virtual object in the three-dimensional environment, by a hand gesture performed at a location in the physical environment corresponding to the position of the virtual object, by a hand gesture performed at a location in the physical environment unrelated to the position of the virtual object while the virtual object has input focus (e.g., selected by a simultaneously and/or previously detected gaze input, selected by a simultaneously or previously detected pointer input, selected by a simultaneously and/or previously detected gesture input, etc.), by an input device that has placed a focus selector object (e.g., a pointer object, a selector object, etc.) at the position of the virtual object, etc. In some embodiments, input is directed to a physical object or a representation of a virtual object corresponding to a physical object by a user's hand movements (e.g., moving the entire hand, moving the entire hand in an individual pose, moving one part of the hand relative to another part of the hand, relative movement between two hands, etc.) and/or manipulations on the physical object (e.g., touching, swiping, tapping, opening, moving towards, moving relatively, etc.). In some embodiments, the computer system alters the display of the three-dimensional environment (e.g., displaying additional virtual content or ceasing to display existing virtual content, transitioning between different immersion levels displaying visual content, etc.) according to input from sensors (e.g., image sensors, temperature sensors, biometric sensors, motion sensors, proximity sensors, etc.) and contextual conditions (e.g., location, time, presence of different objects in the environment, etc.). In some embodiments, the computer system modifies the display of the three-dimensional environment (e.g., displaying additional virtual content or ceasing to display existing virtual content, transitioning between different immersion levels displaying visual content, etc.) according to input from other computers used by other users sharing the computer-generated environment with the user of the computer system (e.g., in a shared computer-generated experience, a shared virtual environment, a shared virtual or augmented reality environment of a communication session, etc.).

いくつかの実施形態では、表示生成コンポーネントを介して表示される三次元環境は、物理的環境の表現なしに三次元環境内の様々な仮想ポジションに仮想オブジェクト及びコンテンツを含む仮想三次元環境である。いくつかの実施形態では、三次元環境は、物理的環境の1つ以上の物理的側面(例えば、壁、床、表面、重力の方向、時刻などのポジション及び向き)によって制約される三次元環境内の様々な仮想ポジションに仮想オブジェクトを表示する複合現実環境である。いくつかの実施形態では、三次元環境は、物理的環境の表現を含む拡張現実環境である。物理的環境の表現は、物理的環境内の異なる物理的オブジェクトと表面との間の空間関係が、三次元環境内の物理的オブジェクトと表面との表現間の空間関係によって反映されるように、三次元環境内の異なるポジションにある物理的オブジェクト及び表面のそれぞれの表現を含む。仮想オブジェクトが、三次元環境内の物理的オブジェクト及び表面の表現のポジションに対して配置されるとき、仮想オブジェクトは、物理的環境内の物理的オブジェクト及び表面との対応する空間関係を有するように見える。いくつかの実施形態では、コンピュータシステムは、ユーザ入力及び/又はコンテキスト条件に基づいて、異なるタイプの環境を表示することの間で遷移する(例えば、異なる没入レベルでコンピュータ生成環境又は体験を提示すること、仮想コンテンツからの、及び物理的環境の表現からの音声/視覚感覚入力の相対的プロミネンスを調整することなどの間で遷移する)。 In some embodiments, the three-dimensional environment displayed via the display generation component is a virtual three-dimensional environment that includes virtual objects and content at various virtual positions within the three-dimensional environment without a representation of the physical environment. In some embodiments, the three-dimensional environment is a mixed reality environment that displays virtual objects at various virtual positions within the three-dimensional environment that are constrained by one or more physical aspects of the physical environment (e.g., positions and orientations of walls, floors, surfaces, direction of gravity, time of day, etc.). In some embodiments, the three-dimensional environment is an augmented reality environment that includes a representation of the physical environment. The representation of the physical environment includes respective representations of physical objects and surfaces at different positions within the three-dimensional environment such that spatial relationships between different physical objects and surfaces in the physical environment are reflected by spatial relationships between the representations of the physical objects and surfaces in the three-dimensional environment. When the virtual objects are positioned relative to the positions of the representations of the physical objects and surfaces in the three-dimensional environment, the virtual objects appear to have corresponding spatial relationships with the physical objects and surfaces in the physical environment. In some embodiments, the computer system transitions between displaying different types of environments based on user input and/or contextual conditions (e.g., transitioning between presenting computer-generated environments or experiences with different levels of immersion, adjusting the relative prominence of audio/visual sensory inputs from the virtual content and from the representation of the physical environment, etc.).

いくつかの実施形態では、表示生成コンポーネントは、物理的環境の表現が表示されるパススルー部分を含む。いくつかの実施形態では、パススルー部分は、ユーザの視野を取り囲み、ユーザの視野内の物理的環境の少なくとも一部を明らかにする表示生成コンポーネントの透明又は半透明(例えば、シースルー)部分である。例えば、パススルー部分は、半透明(例えば、50%、40%、30%、20%、15%、10%、又は5%未満の不透明度)又は透明であるヘッドマウントディスプレイの一部であり、それにより、ユーザは、ヘッドマウントディスプレイを除去することなく、又はヘッドアップディスプレイから離れたりすることなく、パススルー部分を通じてユーザを取り囲む現実世界を視認することができる。いくつかの実施形態では、パススルー部分は、仮想又は複合現実環境を表示するとき、半透明又は透明から完全に不透明に徐々に遷移する。いくつかの実施形態では、表示生成コンポーネントのパススルー部分は、1つ以上のカメラ(例えば、モバイルデバイスの若しくはヘッドマウントディスプレイに関連付けられた後面カメラ(単数又は複数)、又は画像データを電子デバイスに供給する他のカメラ)によってキャプチャされた物理的環境の少なくとも一部の画像又はビデオのライブフィードを表示する。いくつかの実施形態では、1つ以上のカメラは、直接ユーザの目の前に(例えば、表示生成コンポーネントの後ろに)ある物理的環境の一部に向けられる。いくつかの実施形態では、1つ以上のカメラは、直接ユーザの目の前にない(例えば、異なる物理的環境にある、又はユーザの側方又は後方にある)物理的環境の一部に向けられる。 In some embodiments, the display generation component includes a pass-through portion in which a representation of the physical environment is displayed. In some embodiments, the pass-through portion is a transparent or semi-transparent (e.g., see-through) portion of the display generation component that surrounds the user's field of view and reveals at least a portion of the physical environment in the user's field of view. For example, the pass-through portion is a portion of a head-mounted display that is semi-transparent (e.g., less than 50%, 40%, 30%, 20%, 15%, 10%, or 5% opacity) or transparent, allowing the user to view the real world surrounding the user through the pass-through portion without removing the head-mounted display or moving away from the head-up display. In some embodiments, the pass-through portion gradually transitions from semi-transparent or transparent to fully opaque when displaying a virtual or mixed reality environment. In some embodiments, the pass-through portion of the display generation component displays a live feed of images or video of at least a portion of the physical environment captured by one or more cameras (e.g., rear-facing camera(s) of a mobile device or associated with the head-mounted display, or other cameras that provide image data to an electronic device). In some embodiments, the one or more cameras are aimed at a portion of the physical environment that is directly in front of the user (e.g., behind the display generation component). In some embodiments, the one or more cameras are aimed at a portion of the physical environment that is not directly in front of the user (e.g., in a different physical environment, or to the side or behind the user).

いくつかの実施形態では、物理的環境(例えば、仮想現実環境、複合現実環境、拡張現実環境など)内の1つ以上の物理的オブジェクトのロケーションに対応するポジションに仮想オブジェクトを表示するとき、仮想オブジェクトのうちの少なくともいくつかは、カメラのライブビューの一部(例えば、ライブビュー内にキャプチャされた物理的環境の一部)の代わりに表示される(例えば、その表示を置換する)。いくつかの実施形態では、仮想オブジェクト及びコンテンツのうちの少なくともいくつかは、物理的環境内の物理的表面又は空き空間上に投影され、表示生成コンポーネントのパススルー部分を通じて可視である(例えば、物理的環境のカメラビューの一部として、又は表示生成コンポーネントの透明若しくは半透明の部分を通じて可視であるなど)。いくつかの実施形態では、仮想オブジェクト及びコンテンツのうちの少なくともいくつかは、ディスプレイの一部分に重なるように表示され、表示生成コンポーネントの透明又は半透明部分を介して可視である物理的環境の少なくとも一部分のビューを遮断する。 In some embodiments, when displaying virtual objects in positions corresponding to the location of one or more physical objects in a physical environment (e.g., a virtual reality environment, a mixed reality environment, an augmented reality environment, etc.), at least some of the virtual objects are displayed in place of (e.g., replace) a portion of the camera's live view (e.g., a portion of the physical environment captured in the live view). In some embodiments, at least some of the virtual objects and content are projected onto physical surfaces or open space in the physical environment and are visible through a pass-through portion of the display generation component (e.g., as part of the camera view of the physical environment or visible through a transparent or semi-transparent portion of the display generation component). In some embodiments, at least some of the virtual objects and content are displayed over a portion of the display and block a view of at least a portion of the physical environment that is visible through a transparent or semi-transparent portion of the display generation component.

いくつかの実施形態では、表示生成コンポーネントは、三次元環境の現在表示されているビューの視点の仮想ポジションを三次元環境に対して変更するユーザ入力又は移動に従って、三次元環境の異なるビューを表示する。いくつかの実施形態では、三次元環境が仮想環境であるとき、視点は、物理的環境内のユーザの頭部、胴体、及び/又は表示生成コンポーネントの移動を必要とすることなく、ナビゲーション又は移動要求(例えば、空中の手のジェスチャ、手の1つの部分の手の別の部分に対する移動によって行われるジェスチャなど)に従って移動する。いくつかの実施形態では、(例えば、ユーザが表示生成コンポーネントを保持すること、又はHMDを装着することなどによる)物理的環境に対するユーザの頭部及び/若しくは胴体の移動、並びに/又はコンピュータシステムの表示生成コンポーネント若しくは他のロケーション感知要素の移動などは、三次元環境に対する視点の対応する移動(例えば、対応する移動方向、移動距離、移動速度、及び/又は向きの変化などを伴う)を引き起こし、三次元環境の現在表示されているビュー内の対応する変化をもたらす。いくつかの実施形態では、仮想オブジェクトが視点に対して予め設定された空間関係を有するとき、三次元環境に対する視点の移動は、視野内の仮想オブジェクトのポジションが維持されている間(例えば、仮想オブジェクトは、頭部が係止されていると言われる)、三次元環境に対する仮想オブジェクトの移動を引き起こす。いくつかの実施形態では、仮想オブジェクトは、ユーザに対して身体が係止され、ユーザが物理的環境内で全体として移動する(例えば、コンピュータシステムの表示生成コンポーネント及び/又は他のロケーション感知コンポーネントを携行又は装着する)とき、三次元環境に対して移動するが、ユーザの頭部の移動に応じて三次元環境内で移動しない(例えば、コンピュータシステムの表示生成コンポーネント及び/又は他のロケーション感知コンポーネントは、物理的環境内のユーザの固定ロケーションの周りを回転する)。 In some embodiments, the display generating component displays different views of the three-dimensional environment according to user input or movement that changes the virtual position of the viewpoint of the currently displayed view of the three-dimensional environment relative to the three-dimensional environment. In some embodiments, when the three-dimensional environment is a virtual environment, the viewpoint moves according to a navigation or movement request (e.g., a hand gesture in the air, a gesture made by moving one part of a hand relative to another part of a hand, etc.) without requiring movement of the user's head, torso, and/or the display generating component in the physical environment. In some embodiments, movement of the user's head and/or torso relative to the physical environment (e.g., by the user holding the display generating component or wearing an HMD, etc.) and/or movement of the display generating component or other location sensing element of the computer system, etc., causes a corresponding movement of the viewpoint relative to the three-dimensional environment (e.g., with a corresponding change in direction of movement, distance of movement, speed of movement, and/or orientation, etc.), resulting in a corresponding change in the currently displayed view of the three-dimensional environment. In some embodiments, when a virtual object has a pre-established spatial relationship to the viewpoint, movement of the viewpoint relative to the three-dimensional environment causes the virtual object to move relative to the three-dimensional environment while the position of the virtual object in the field of view is maintained (e.g., the virtual object is said to be head-gated). In some embodiments, the virtual object is body-gated to the user and moves relative to the three-dimensional environment when the user moves as a whole in the physical environment (e.g., carrying or wearing the display generating component and/or other location sensing component of the computer system), but does not move within the three-dimensional environment in response to movement of the user's head (e.g., the display generating component and/or other location sensing component of the computer system rotates around the user's fixed location in the physical environment).

いくつかの実施形態では、図7A~7Pに示される三次元環境のビューは、ユーザの手(単数又は複数)、腕(単数又は複数)、及び/又は手首(単数又は複数)の表現(単数又は複数)を含む。いくつかの実施形態では、表現(単数又は複数)は、表示生成コンポーネントを介して提供される物理的環境の表現の一部である。いくつかの実施形態では、表現は、物理的環境の表現の一部ではなく、(例えば、ユーザの手(単数又は複数)、腕(単数又は複数)、及び手首(単数又は複数)に向けられる1つ以上のカメラによって)、三次元環境のビューとは無関係に、三次元環境内に表示される。いくつかの実施形態では、表現(単数又は複数)は、コンピュータシステム(単数又は複数)の1つ以上のカメラによってキャプチャされたカメラ画像、又は様々なセンサによってキャプチャされた情報に基づく腕(単数又は複数)、手首(単数又は複数)、及び/又は手(単数又は複数)の様式化されたバージョンを含む。いくつかの実施形態では、表現(単数又は複数)は、物理的環境の表現の一部の表示を置換する、その一部に重なる、又はその一部のビューを遮断する。いくつかの実施形態では、表示生成コンポーネントが物理的環境のビューを提供せず、完全な仮想環境(例えば、カメラビュー又は透明パススルー部分がない)を提供するとき、ユーザの一方又は両方の腕、手首、及び/又は手のリアルタイム視覚的表現(例えば、様式化表現又はセグメント化されたカメラ画像)は、依然として仮想環境内に表示され得る。 In some embodiments, the view of the three-dimensional environment shown in FIGS. 7A-7P includes a representation(s) of the user's hand(s), arm(s), and/or wrist(s). In some embodiments, the representation(s) is part of the representation of the physical environment provided via the display generation component. In some embodiments, the representation is not part of the representation of the physical environment and is displayed within the three-dimensional environment independent of the view of the three-dimensional environment (e.g., by one or more cameras pointed at the user's hand(s), arm(s), and wrist(s)). In some embodiments, the representation(s) includes a stylized version of the arm(s), wrist(s), and/or hand(s) based on camera images captured by one or more cameras of the computer system(s) or information captured by various sensors. In some embodiments, the representation(s) replaces the display of, overlaps with, or blocks the view of, a portion of the representation of the physical environment. In some embodiments, when the display generation component does not provide a view of the physical environment, but rather provides an entirely virtual environment (e.g., no camera view or transparent pass-through portions), a real-time visual representation (e.g., a stylized representation or segmented camera image) of one or both of the user's arms, wrists, and/or hands may still be displayed within the virtual environment.

図7A~図7Cは、いくつかの実施形態による、2人以上のユーザ間で共有されるコンピュータ生成三次元環境内のユーザインタフェースオブジェクトとの相互作用を示すブロック図である。 7A-7C are block diagrams illustrating interaction with user interface objects in a computer-generated three-dimensional environment shared between two or more users, according to some embodiments.

いくつかの実施形態では、コンピュータシステムは、複数のユーザ(例えば、第1のユーザ7102、第2のユーザ7002、別のユーザなど)が、三次元環境(例えば、三次元環境7015、別の仮想環境又は拡張現実環境など)に表示される第1のユーザインタフェースオブジェクト(例えば、第1のユーザインタフェースオブジェクト7016、別のユーザインタフェースオブジェクト、コントロールパネル、仮想メニュー、メディアオブジェクトなど)にアクセスする権利を有することを許可するが、別のユーザ(例えば、第2のユーザ7002、第2のユーザ7002とは異なる別のユーザなど)が第1のユーザインタフェースオブジェクトと相互作用している間、ユーザ(例えば、第1のユーザ7102、又は第1のユーザ7102とは異なる別のユーザなど)が第1のユーザインタフェースオブジェクトにアクセスすることを防止する。第1のユーザ(例えば、第1のユーザ7102)によって使用される第1の表示生成コンポーネント(例えば、表示生成コンポーネント7200、HMDなどの異なるタイプの表示生成コンポーネントなど)を介して第1のユーザインタフェースオブジェクトを含む三次元環境のビューを表示するとき、コンピュータシステムは、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力(例えば、視線入力、手の移動、視線入力とユーザの手の移動との組み合わせなど)を検出する。第1のユーザ入力の検出に応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトがその時点で第1のユーザとの相互作用に利用可能であるか否かに応じて、第1のユーザインタフェースオブジェクトに対して第1のユーザ入力に対応する第1の動作を実行する(例えば、第1のユーザインタフェースオブジェクト又はその表現を第1のユーザの手7202の表現7202’に移動させる、三次元環境を変化させる(例えば、三次元環境内の仮想コンテンツの表示又は解除を引き起こす、三次元環境内の他の仮想コンテンツを変化させるなど)第1のユーザインタフェースオブジェクトに関連付けられた機能を実行するなど)か、又は第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという視覚的インジケーションを表示し、第1の動作の実行を取りやめる。コンピュータシステムは、視覚的インジケーションを提供し、別のユーザ(例えば、第2のユーザ7002)がその時点で第1のユーザインタフェースオブジェクトを制御する(例えば、別のユーザが、第1のユーザインタフェースオブジェクトと相互作用している、第1のユーザの同時相互作用を除外するように第1のユーザインタフェースオブジェクトと相互作用している、及び/又は第1のユーザが実行しようとしているタイプのアクションについて第1のユーザインタフェースオブジェクトをロックしているなど)という判定に従って、第1の動作の実行を取りやめる。いくつかの実施形態では、視覚的インジケーションを表示することは、第1のユーザに対して示される三次元環境のビュー内の第1のユーザインタフェースオブジェクトを移動させて、第1のユーザインタフェースオブジェクトと第1のユーザの手の接近表現との間の予め設定された距離を維持することを含む。いくつかの実施形態では、視覚的インジケーションを表示することは、第1のユーザに対して示される三次元環境のビュー(例えば、図7Cに示されるように、ユーザ7102側のビュー)内の第1のユーザインタフェースオブジェクトの視覚的外観を変更することを含む。いくつかの実施形態では、第1のユーザインタフェースオブジェクトが制御ユーザによって(例えば、スロージェスチャ、トスジェスチャなどによって)第1のユーザに解放されると、コンピュータシステムは、第1のユーザインタフェースオブジェクトが、第1のユーザに対して示される三次元環境の現在表示されているビューの視点に対して予め設定された向きで(例えば、コンテンツ側又は制御側が第1のユーザ7102に向かって)表示されるように、第1のユーザインタフェースオブジェクトを回転させる。いくつかの実施形態では、コンピュータシステムは、第1のユーザの一部の表現(例えば、第1のユーザ7102の手7202の表現、ユーザの顔の仮想ポジションの腕の届く範囲内など)のポジション又はその近くに第1のユーザインタフェースオブジェクトの表現を表示することによって、第1のユーザインタフェースオブジェクトの第1のユーザへのアクセスを制御する。 In some embodiments, the computer system allows multiple users (e.g., a first user 7102, a second user 7002, another user, etc.) to have the right to access a first user interface object (e.g., a first user interface object 7016, another user interface object, a control panel, a virtual menu, a media object, etc.) displayed in a three-dimensional environment (e.g., a three-dimensional environment 7015, another virtual or augmented reality environment, etc.), but prevents a user (e.g., the first user 7102, or another user different from the first user 7102, etc.) from accessing the first user interface object while another user (e.g., the second user 7002, another user different from the second user 7002, etc.) is interacting with the first user interface object. When displaying a view of a three-dimensional environment including a first user interface object via a first display generation component (e.g., display generation component 7200, a different type of display generation component such as an HMD, etc.) used by a first user (e.g., first user 7102), the computer system detects a first user input (e.g., gaze input, hand movement, a combination of gaze input and user hand movement, etc.) directed at the first user interface object. In response to detecting the first user input, the computer system either performs a first action on the first user interface object corresponding to the first user input (e.g., moving the first user interface object or a representation thereof towards the representation 7202' of the first user's hand 7202, performing a function associated with the first user interface object that changes the three-dimensional environment (e.g., causing virtual content to be displayed or released within the three-dimensional environment, changing other virtual content within the three-dimensional environment, etc.), depending on whether the first user interface object is currently available for interaction with the first user, or displays a visual indication that the first user interface object is not available for interaction with the first user and cancels performance of the first action. The computer system provides a visual indication and aborts execution of the first action pursuant to a determination that another user (e.g., second user 7002) currently controls the first user interface object (e.g., another user is interacting with the first user interface object, interacting with the first user interface object in a manner that precludes simultaneous interaction of the first user, and/or locks the first user interface object for the type of action the first user is attempting to perform, etc.). In some embodiments, displaying the visual indication includes moving the first user interface object in a view of the three-dimensional environment shown to the first user to maintain a preset distance between the first user interface object and a close representation of the first user's hand. In some embodiments, displaying the visual indication includes changing a visual appearance of the first user interface object in a view of the three-dimensional environment shown to the first user (e.g., a view from the user 7102's side as shown in FIG. 7C ). In some embodiments, when the first user interface object is released by the controlling user to the first user (e.g., by a throw gesture, a toss gesture, etc.), the computer system rotates the first user interface object such that the first user interface object is displayed in a preset orientation (e.g., content or control side toward the first user 7102) relative to the viewpoint of the currently displayed view of the three-dimensional environment shown to the first user. In some embodiments, the computer system controls the first user's access to the first user interface object by displaying a representation of the first user interface object at or near a representation of a portion of the first user (e.g., a representation of the first user's 7102 hand 7202, within arm's reach of a virtual position of the user's face, etc.).

図7A~図7Cに示される例では、いくつかの実施形態によれば、三次元環境7015は、ユーザ7102及び7002のうちの一方から、一方のユーザによって制御されるコンピュータシステムを使用して開始され、ユーザ7102及び7002のうちの他方によって、他方のユーザによって制御されるコンピュータシステムを使用して受け入れられる要求に応じて、第1のユーザ7102と第2のユーザ7002との間で共有される。いくつかの実施形態では、両方のユーザが、第3のユーザによって使用されるコンピュータシステムから、それぞれのコンピュータシステムを使用して三次元環境を共有する要求を受信し、受け入れている。いくつかの実施形態では、両方のユーザが、それぞれのコンピュータシステムを使用して、三次元環境を共有する要求をサーバに送信しており、ユーザの要求は、サーバによって受け入れられている。コンピュータ生成三次元環境を共有するとき、ユーザのロケーション及び向き、並びにユーザのそれぞれの頭、目、手、腕、及び/又は手首のロケーション及び向きは、センサ(例えば、カメラ、運動センサなど)によってリアルタイムで又は周期的にキャプチャされ、ロケーション及び向きデータは、ユーザによって制御されるコンピュータシステムの一方又は両方、及び/又はコンピュータシステムと通信しているサーバに提供される。ロケーションデータは、コンピュータシステム及び/又はサーバによって使用されて、コンピュータ生成三次元環境内のユーザのそれぞれのポジション及び向き、並びにユーザのそれぞれの頭部、目、手、腕、及び/又は手首のそれぞれのポジション及び向き、並びに、対応して、ユーザに関連付けられた異なる表示生成コンポーネントを介して提供される三次元環境のビュー内のユーザのそれぞれの頭部、腕、手、及び/又は手首を含むユーザの表現のそれぞれのポジション、並びにユーザに関連付けられた異なる表示生成コンポーネントを介して提供される三次元環境のビューの視野及び視点を判定する。 In the example shown in Figures 7A-7C, according to some embodiments, the three-dimensional environment 7015 is shared between the first user 7102 and the second user 7002 in response to a request initiated by one of the users 7102 and 7002 using a computer system controlled by the one user and accepted by the other of the users 7102 and 7002 using a computer system controlled by the other user. In some embodiments, both users receive and accept a request to share the three-dimensional environment from a computer system used by a third user using their respective computer systems. In some embodiments, both users send a request to share the three-dimensional environment to a server using their respective computer systems, and the user's request is accepted by the server. When sharing a computer-generated three-dimensional environment, the location and orientation of the users, as well as the location and orientation of their respective heads, eyes, hands, arms, and/or wrists, are captured in real time or periodically by sensors (e.g., cameras, motion sensors, etc.), and the location and orientation data is provided to one or both of the computer systems controlled by the users and/or to a server in communication with the computer systems. The location data is used by the computer system and/or server to determine the respective positions and orientations of the users within the computer-generated three-dimensional environment, as well as the respective positions and orientations of the users' respective heads, eyes, hands, arms, and/or wrists, and correspondingly, the respective positions of the representations of the users including the users' respective heads, arms, hands, and/or wrists within views of the three-dimensional environment provided via the different display generation components associated with the users, as well as the fields of view and viewpoints of the views of the three-dimensional environment provided via the different display generation components associated with the users.

いくつかの実施形態では、2人以上のユーザが、コンピュータ生成環境(例えば、仮想電話会議、チャットセッション、マルチプレーヤゲーム、共有コンピュータ生成体験(例えば、グループ瞑想、エクササイズ、ゲーム、共同作業など)など)を共有するとき、それらは、コンピュータ生成環境内に存在する同じユーザインタフェースオブジェクト(例えば、仮想ボール、仮想制御パネル、文書又はメディアコンテンツ、仮想メニュー、ユーザインタフェースなど)を制御及び/又は操作することを所望し得る。これにより、コンピュータシステムがユーザインタフェースオブジェクトに対して異なるユーザのアクションを一貫して優先することが困難になる場合があり、結果として生じる三次元環境の変化がユーザを混乱させる可能性がある。本明細書に開示されるように、コンピュータシステムは、第1のユーザ7102に提示される環境のビュー7015-1内の第1のユーザインタフェースオブジェクトの外観特性のセットを変更することによって、環境内の第2のユーザ7002の既に制御下にある第1のユーザインタフェースオブジェクト7016と相互作用しようとする第1のユーザ7102の試みに応じて視覚的フィードバックを提供し、それによって、ユーザのアクション間の競合を低減し、ユーザが第1のユーザインタフェースオブジェクト7016と相互作用するときのユーザ混乱を低減する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトを制御する第2のユーザ7002に対して示される三次元環境のビュー7015-2に提示される第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクトと相互作用しようとする第1のユーザの試みの結果として変更されず、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と相互作用するときに第2のユーザ7002に対する混乱を引き起こさない。 In some embodiments, when two or more users share a computer-generated environment (e.g., a virtual conference call, a chat session, a multiplayer game, a shared computer-generated experience (e.g., a group meditation, exercise, game, collaboration, etc.), they may wish to control and/or manipulate the same user interface objects (e.g., a virtual ball, a virtual control panel, a document or media content, a virtual menu, a user interface, etc.) present in the computer-generated environment. This may make it difficult for the computer system to consistently prioritize the actions of different users on the user interface objects, and the resulting changes in the three-dimensional environment may be confusing to the users. As disclosed herein, the computer system provides visual feedback in response to the first user's 7102 attempt to interact with a first user interface object 7016 already under the control of the second user 7002 in the environment by modifying a set of appearance characteristics of the first user interface object in the view 7015-1 of the environment presented to the first user 7102, thereby reducing conflicts between the users' actions and reducing user confusion when the users interact with the first user interface object 7016. In some embodiments, the first user interface object 7016 presented in the view 7015-2 of the three-dimensional environment shown to the second user 7002 controlling the first user interface object is not altered as a result of the first user's attempt to interact with the first user interface object and does not cause confusion to the second user 7002 when the second user 7002 interacts with the first user interface object 7016.

図7Aは、例示的な物理的環境(例えば、シーン105、別の屋内又は屋外の物理的環境など)を示す。いくつかの実施形態では、図7Aに示されるように、2人以上のユーザ(例えば、ユーザ7102、ユーザ7002など)が同じ物理的環境に存在する。第1のユーザ7102は、第1の表示生成コンポーネント(例えば、表示生成コンポーネント7200、第1のユーザによって使用されるHMDなどの別のタイプの表示生成コンポーネントなど)を介して、三次元環境7015(例えば、拡張現実環境、仮想環境など)の第1のビュー7015-1を見ている。第2のユーザ7002は、第2の表示生成コンポーネント(例えば、表示生成コンポーネント7100、第2のユーザによって使用されるHMDなどの別のタイプの表示生成コンポーネントなど)を介して同じ三次元環境7015の第2のビュー7015-2を見ている。いくつかの実施形態では、三次元環境7015(例えば、第1の表示生成コンポーネント7200を介して提示されるときに7015-1とラベル付けされ、第2の表示生成コンポーネント7100を介して提示されるときに7015-2とラベル付けされるなど)は、共有コンピュータ生成体験、通信セッション、アプリケーション環境、ゲーム、映画などの環境である。 7A illustrates an exemplary physical environment (e.g., scene 105, another indoor or outdoor physical environment, etc.). In some embodiments, as illustrated in FIG. 7A, two or more users (e.g., user 7102, user 7002, etc.) are present in the same physical environment. A first user 7102 views a first view 7015-1 of a three-dimensional environment 7015 (e.g., an augmented reality environment, a virtual environment, etc.) through a first display generating component (e.g., display generating component 7200, another type of display generating component such as an HMD used by the first user, etc.). A second user 7002 views a second view 7015-2 of the same three-dimensional environment 7015 through a second display generating component (e.g., display generating component 7100, another type of display generating component such as an HMD used by the second user, etc.). In some embodiments, the three-dimensional environment 7015 (e.g., labeled 7015-1 when presented via the first display generating component 7200 and labeled 7015-2 when presented via the second display generating component 7100) is an environment for a shared computer-generated experience, a communication session, an application environment, a game, a movie, etc.

いくつかの実施形態では、第1のユーザ7102及び第2のユーザ7002は、必ずしも同じ物理的環境に同時に位置している必要はなく、2つの異なる物理的環境に別々に位置していてもよい。いくつかの実施形態では、三次元環境7015は、第2のユーザではなく第1のユーザの物理的環境の表現を含み、第1のユーザ及び第2のユーザは、第1のユーザの物理的環境に基づいて、三次元環境内の共有体験を有する。いくつかの実施形態では、三次元環境7015は、第1のユーザではなく第2のユーザの物理的環境の表現を含み、第1のユーザ及び第2のユーザは、第2のユーザの物理的環境に基づいて三次元環境内の共有体験を有する。いくつかの実施形態では、三次元環境7015は、第1のユーザの物理的環境又は第2のユーザの物理的環境ではない第3の物理的環境の表現を含み、第1のユーザ及び第2のユーザは、第3の物理的環境(例えば、共有体験に参加している第3のユーザの物理的環境、ユーザに関連付けられていない、又は共有体験に参加していないユーザに関連付けられている別の物理的環境など)に基づいて、三次元環境内に共有体験を有する。いくつかの実施形態では、三次元環境7015は、仮想三次元環境を含み、第1のユーザ及び第2のユーザは、仮想三次元環境内の共有体験を有する。いくつかの実施形態では、それぞれの物理的環境(例えば、同じ物理的環境、異なる物理的環境など)内の第1のユーザ及び第2のユーザのポジション及び移動は、同じ三次元環境内のポジション及び移動に(例えば、同じマッピング関係、又は異なるマッピング関係などを使用して)マッピングされるが、三次元環境の外観は、(例えば、異なる壁紙、配色、異なる仮想家具などを用いて)調整されて、個別のユーザに対して示される三次元環境のビュー内で個別のユーザに合わせて適応させることができる。 In some embodiments, the first user 7102 and the second user 7002 are not necessarily located in the same physical environment at the same time, but may be located separately in two different physical environments. In some embodiments, the three-dimensional environment 7015 includes a representation of the physical environment of the first user but not the second user, and the first user and the second user have a shared experience in the three-dimensional environment based on the physical environment of the first user. In some embodiments, the three-dimensional environment 7015 includes a representation of the physical environment of the second user but not the first user, and the first user and the second user have a shared experience in the three-dimensional environment based on the physical environment of the second user. In some embodiments, the three-dimensional environment 7015 includes a representation of a third physical environment that is not the physical environment of the first user or the physical environment of the second user, and the first user and the second user have a shared experience in the three-dimensional environment based on the third physical environment (e.g., the physical environment of a third user participating in the shared experience, another physical environment not associated with the user or associated with a user not participating in the shared experience, etc.). In some embodiments, the three-dimensional environment 7015 includes a virtual three-dimensional environment, and the first user and the second user have a shared experience within the virtual three-dimensional environment. In some embodiments, the positions and movements of the first user and the second user within their respective physical environments (e.g., the same physical environment, different physical environments, etc.) are mapped (e.g., using the same mapping relationship, different mapping relationships, etc.) to positions and movements within the same three-dimensional environment, but the appearance of the three-dimensional environment can be adjusted (e.g., with different wallpaper, color schemes, different virtual furniture, etc.) to accommodate the individual users within the view of the three-dimensional environment shown to the individual users.

いくつかの実施形態では、コンピュータシステムは、環境7015の少なくとも空間部分(例えば、リビングルームに対応するがキッチンには対応しない環境の空間部分、第1のユーザの前の物理空間の部分に対応するが第1のユーザの後ろの物理空間の部分には対応しない環境の空間部分など)が共有されているという判定に従って、三次元環境が第1のユーザ7102と第2のユーザ7002との間で少なくとも部分的に共有されていると判定する。いくつかの実施形態では、コンピュータシステムは、環境7015の少なくとも空間部分が少なくともある期間中(例えば、第1のユーザと第2のユーザとの間の通信セッション中、午前中、勤務時間中、両方のユーザがオンラインであるときなど)に共有されるという判定に従って、三次元環境が第1のユーザと第2のユーザとの間で少なくとも部分的に共有されると判定する。いくつかの実施形態では、コンピュータシステムは、環境7105内のオブジェクトが完全に又は部分的に共有される(例えば、同時に可視でありかつアクセス可能である、同時に可視であるが同時にアクセス可能ではない、他者が制御しているときに可視であるがアクセス可能ではない(例えば、他者がオブジェクトを見ることができる、又は見ることができないなど))という判定に従って、三次元環境7015が第1のユーザと第2のユーザとの間で少なくとも部分的に共有されると判定する。いくつかの実施形態では、コンピュータシステムは、三次元環境7015の少なくとも一部(例えば、三次元環境の第1のビュー7015-1に示される部分、三次元環境7015の別の部分など)が第1のユーザ及び第2のユーザの両方によって同時に見られるために表示されるという判定に従って、三次元環境7015が第1のユーザと第2のユーザとの間で少なくとも部分的に共有されると判定する。いくつかの実施形態では、コンピュータシステムは、三次元環境内の仮想オブジェクトの一部又は全部が三次元環境内で第1のユーザ及び第2のユーザの両方に同時に表示されるという判定に従って、三次元環境7015が第1のユーザと第2のユーザとの間で少なくとも部分的に共有されていると判定する。 In some embodiments, the computer system determines that the three-dimensional environment is at least partially shared between the first user 7102 and the second user 7002 according to a determination that at least a spatial portion of the environment 7015 is shared (e.g., a spatial portion of the environment corresponding to the living room but not the kitchen, a spatial portion of the environment corresponding to a portion of the physical space in front of the first user but not a portion of the physical space behind the first user, etc.). In some embodiments, the computer system determines that the three-dimensional environment is at least partially shared between the first user and the second user according to a determination that at least a spatial portion of the environment 7015 is shared during at least a period of time (e.g., during a communication session between the first user and the second user, during the morning, during work hours, when both users are online, etc.). In some embodiments, the computer system determines that the three-dimensional environment 7015 is at least partially shared between the first user and the second user according to a determination that an object in the environment 7105 is fully or partially shared (e.g., visible and accessible at the same time, visible but not accessible at the same time, visible but not accessible when the other person has control (e.g., the other person can see the object or cannot see it, etc.)). In some embodiments, the computer system determines that the three-dimensional environment 7015 is at least partially shared between the first user and the second user according to a determination that at least a portion of the three-dimensional environment 7015 (e.g., the portion shown in the first view 7015-1 of the three-dimensional environment, another portion of the three-dimensional environment 7015, etc.) is displayed for viewing by both the first user and the second user simultaneously. In some embodiments, the computer system determines that the three-dimensional environment 7015 is at least partially shared between the first user and the second user in accordance with a determination that some or all of the virtual objects in the three-dimensional environment are simultaneously displayed to both the first user and the second user in the three-dimensional environment.

図7B及び図7Cでは、コンピュータシステムは、第1の表示生成コンポーネント7200を介して、第1のユーザ7102と第2のユーザ7002との間で少なくとも部分的に共有される三次元環境7015の第1のビュー7015-1を表示し、実質的に同時に(例えば、ネットワーク遅延、処理時間遅延などについて調整されて)、コンピュータシステム又はコンピュータシステムと通信している別のコンピュータシステムは、第2の表示生成コンポーネント7100を介して三次元環境7105の第2のビュー7015-2を表示する。いくつかの実施形態によれば、第1のビュー7015-1及び第2のビュー7015-2は両方とも、三次元環境の少なくとも第1の部分(例えば、三次元環境において表される物理的環境の同じ部分に対応する個別の部分、三次元環境の仮想環境の同じ部分に対応する個別の部分など)を含む。いくつかの実施形態では、三次元環境の第1の部分は、任意選択的に、(例えば、第1のユーザとその物理的環境との間のそれぞれの空間関係、及び/又は第1のユーザとその物理的環境との間のそれぞれの空間関係などに基づいて)三次元環境7105の第1のビュー7015-1及び第2のビュー7015-2内で異なる視野角から示される。 7B and 7C, the computer system displays a first view 7015-1 of the three-dimensional environment 7015 that is at least partially shared between the first user 7102 and the second user 7002 via the first display generation component 7200, and substantially simultaneously (e.g., adjusted for network delays, processing time delays, etc.), the computer system or another computer system in communication with the computer system displays a second view 7015-2 of the three-dimensional environment 7105 via the second display generation component 7100. According to some embodiments, both the first view 7015-1 and the second view 7015-2 include at least a first portion of the three-dimensional environment (e.g., separate portions corresponding to the same portion of the physical environment represented in the three-dimensional environment, separate portions corresponding to the same portion of the virtual environment of the three-dimensional environment, etc.). In some embodiments, the first portion of the three-dimensional environment is optionally shown from different viewing angles in the first view 7015-1 and the second view 7015-2 of the three-dimensional environment 7105 (e.g., based on the respective spatial relationships between the first user and its physical environment, and/or the respective spatial relationships between the first user and its physical environment, etc.).

いくつかの実施形態では、第1のビュー7015-1は、第1のユーザ7102の物理的環境内の第1のユーザ7102の現在ロケーションに対応するポジションを有する第1の視点を有し、そのポジションは、第1のユーザ7102の物理的環境(例えば、シーン105、別の物理的環境など)内の第1のユーザ7102の移動に従って三次元環境7015内で移動する。いくつかの実施形態において、第2のビュー7015-2は、第2のユーザ7002の物理的環境内の現在ロケーションに対応する、三次元環境7015におけるポジションを有する第2の視点を有し、そのポジションは、第2のユーザの物理的環境(例えば、シーン105、別の物理的環境など)内の第2のユーザ7002の移動に従って三次元環境7015内で移動する。いくつかの実施形態では、個別の表示生成コンポーネント(例えば、第1の表示生成コンポーネント7200、第2の表示生成コンポーネント7100など)を介して示される三次元環境7015の現在表示されているビューの視点は、個別の表示生成コンポーネントの現在ロケーションに対応する、三次元環境7015内のポジション を有し、そのポジションは、個別の表示生成コンポーネントの物理的環境(例えば、シーン105、別の物理的環境など)内の個別の表示生成コンポーネントの移動に従って三次元環境7015内で移動する。いくつかの実施形態では、個別の表示生成コンポーネント(例えば、第1の表示生成コンポーネント7200、第2の表示生成コンポーネント7100など)を介して示される三次元環境7015の現在表示されているビューの視点は、個別の表示生成コンポーネントに関連付けられた1つ以上のカメラの現在ロケーションに対応する、三次元環境内のポジションを有し、そのポジションは、個別の表示生成コンポーネントの物理的環境(例えば、シーン105、別の物理的環境など)内の個別の表示生成コンポーネントに関連付けられた1つ以上のカメラの移動に従って三次元環境7015内で移動する。図7A~図7Cに示す例では、第1のビュー7015-1及び第2のビュー7015-2が同じ視点を有するように見えるが、第1の表示生成コンポーネント7200及び第2の表示生成コンポーネント7100を介して示されるそれぞれのビュー及びそれらの対応する視点は、第1の表示生成コンポーネント(及び第1のユーザ)及び第2の表示生成コンポーネント(及び第2のユーザ)のそれぞれの物理的環境に存在する空間関係及び移動に基づいて別々に独立して判定され、所与の時間において厳密に同じである必要はないことを理解されたい。 In some embodiments, the first view 7015-1 has a first viewpoint having a position corresponding to a current location of the first user 7102 in the first user's 7102 physical environment, which position moves within the three-dimensional environment 7015 according to the first user's 7102 movement within the first user's 7102 physical environment (e.g., scene 105, another physical environment, etc.). In some embodiments, the second view 7015-2 has a second viewpoint having a position in the three-dimensional environment 7015 corresponding to a current location in the second user's 7002 physical environment, which position moves within the three-dimensional environment 7015 according to the second user's 7002 movement within the second user's physical environment (e.g., scene 105, another physical environment, etc.). In some embodiments, a viewpoint of a currently displayed view of the three-dimensional environment 7015 shown via an individual display generating component (e.g., first display generating component 7200, second display generating component 7100, etc.) has a position in the three-dimensional environment 7015 that corresponds to a current location of the individual display generating component, and that position moves within the three-dimensional environment 7015 according to movement of the individual display generating component within the individual display generating component's physical environment (e.g., scene 105, another physical environment, etc.). In some embodiments, a viewpoint of a currently displayed view of the three-dimensional environment 7015 shown via an individual display generating component (e.g., first display generating component 7200, second display generating component 7100, etc.) has a position in the three-dimensional environment that corresponds to a current location of one or more cameras associated with the individual display generating component, and that position moves within the three-dimensional environment 7015 according to movement of the one or more cameras associated with the individual display generating component within the individual display generating component's physical environment (e.g., scene 105, another physical environment, etc.). In the examples shown in FIGS. 7A-7C, the first view 7015-1 and the second view 7015-2 appear to have the same viewpoint, however, it should be understood that the respective views and their corresponding viewpoints shown via the first display generation component 7200 and the second display generation component 7100 are determined separately and independently based on the spatial relationships and movements present in the respective physical environments of the first display generation component (and first user) and the second display generation component (and second user), and need not be exactly the same at a given time.

図7B及び図7Cにおいて、三次元環境7015の第1のビュー7015-1及び第2のビュー7015-2は、1つ以上のユーザインタフェースオブジェクト(例えば、第1のユーザインタフェースオブジェクト7016、第2のユーザインタフェースオブジェクト7018、他のユーザインタフェースオブジェクト、仮想三次元オブジェクトなど)、及び任意選択的に、1つ以上の表面(例えば、壁7004の表現7004’又は7004’’、壁7006の表現7006’又は7006’’、床7008の表現7008’又は7008’’、仮想壁、仮想スクリーン、仮想窓、仮想風景などの仮想表面)、及び/又は1つ以上の物理的オブジェクトの表現(例えば、物理的環境7015内の物理的オブジェクト7014の表現7014’又は7014’’、三次元環境7014において表される別の物理的環境内の他の物理的オブジェクトの表現など)を含む。いくつかの実施形態では、第1のビュー7015-1及び第2のビュー7015-2は、物理的環境の表現を含まず、仮想三次元環境(例えば、仮想会議室、ゲーム環境、仮想体験、仮想競技場など)を含む。 In Figures 7B and 7C, the first view 7015-1 and the second view 7015-2 of the three-dimensional environment 7015 include one or more user interface objects (e.g., first user interface object 7016, second user interface object 7018, other user interface objects, virtual three-dimensional objects, etc.), and optionally, one or more surfaces (e.g., a representation 7004' or 7004" of wall 7004, a representation 7006' or 7006" of wall 7006, a representation 7008' or 7008" of floor 7008, a virtual surface such as a virtual wall, a virtual screen, a virtual window, a virtual landscape, etc.), and/or a representation of one or more physical objects (e.g., a representation 7014' or 7014" of physical object 7014 in physical environment 7015, a representation of another physical object in another physical environment represented in the three-dimensional environment 7014, etc.). In some embodiments, the first view 7015-1 and the second view 7015-2 do not include a representation of a physical environment, but rather include a virtual three-dimensional environment (e.g., a virtual conference room, a gaming environment, a virtual experience, a virtual stadium, etc.).

いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、アプリケーションの表現であり、予め設定された基準を満たす第1のユーザインタフェースオブジェクトとの相互作用は、コンピュータシステムに、三次元環境においてアプリケーションを開始させるか、又はアプリケーションのアプリケーション機能を実行させる。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、複数のユーザインタフェースオブジェクト(例えば、選択可能なアバター、選択可能なメニューアイテム、選択可能なデバイスコントロール、選択可能なコンテンツアイテム、スライダコントロール、ボタンなど)を含むユーザインタフェースである。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、物理的環境内のユーザの手の移動に従って三次元環境内で操作(例えば、変形、部分への分離、回転、移動など)することができる仮想三次元オブジェクトである。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、異なる機能又は動作に対応する複数のコントロールを含む単一のコントロール又はコントロールパネルである。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、情報アイテム、通知、アラートなどである。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、メディアアイテム又は文書などである。 In some embodiments, the first user interface object 7016 is a representation of an application, and interaction with the first user interface object that meets pre-set criteria causes the computer system to launch the application in the three-dimensional environment or execute an application function of the application. In some embodiments, the first user interface object 7016 is a user interface that includes multiple user interface objects (e.g., selectable avatars, selectable menu items, selectable device controls, selectable content items, slider controls, buttons, etc.). In some embodiments, the first user interface object 7016 is a virtual three-dimensional object that can be manipulated (e.g., transformed, separated into parts, rotated, moved, etc.) in the three-dimensional environment according to the movement of the user's hand in the physical environment. In some embodiments, the first user interface object 7016 is a single control or control panel that includes multiple controls corresponding to different functions or operations. In some embodiments, the first user interface object 7016 is an information item, a notification, an alert, etc. In some embodiments, the first user interface object 7016 is a media item, a document, etc.

いくつかの実施形態では、図7B及び図7Cに示すように、第1のビュー7015-1は、第1のユーザ7102の手7202の表現7202’、及び第2のユーザ7002の手7028の表現7028’を含み、第2のビュー7015-2は、第1のユーザ7102の手7202の表現7202’’、及び第2のユーザ7002の手7028の表現7028’’を含む。図7B及び図7Cにれるシナリオでは、第2のユーザ7002は、第1のユーザ7102と第1のユーザインタフェースオブジェクト7016との間の同時相互作用を除外して、第1のユーザインタフェースオブジェクト7016を制御する。例えば、いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第1のユーザ7002の制御下にあるとき、第1のユーザインタフェースオブジェクト7016は、第2のユーザ7002の物理的環境内の第2のユーザ7002の手7028のロケーションに対応する、三次元環境7015内のポジションに表示される。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第2のユーザ7002の制御下にあるとき、第1のユーザインタフェースオブジェクト7016の表現は、第2のユーザ7002の物理的環境内の第2のユーザ7002の手7028のロケーションに対応する、三次元環境7015内のポジションに表示され、第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクト7016の表現のポジションから離れた別のポジションに表示される。この例では、第2のユーザ7002は、第1のユーザインタフェースオブジェクト7016を制御しており、第1のユーザインタフェースオブジェクト7016は、第2のユーザの手7028のロケーションに対応する、三次元環境7015内のポジションに表示される。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第2のユーザ7002の制御下にあるとき、第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクト7016の予め設定された面(例えば、前面A、コンテンツ提示面、インタラクティブ面など)が三次元環境7105の現在表示されている第2のビュー7015-2(例えば、第1のユーザインタフェースオブジェクト7016を制御する第2のユーザ7002に示されるビュー、第2の表示生成コンポーネント7100によって表示されるビューなど)に対応する視点に向くように、三次元環境7015内に配向される。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクト7016の予め設定された表面が三次元環境の現在表示されている第1のビュー7015-1に対応する視点(例えば、その時点で第1のユーザインタフェースオブジェクト7016を制御しない第1のユーザ7102に示されるビュー、第1の表示生成コンポーネント7200によって表示されるビューなど)の方を向くように、第1のユーザインタフェースオブジェクト7016を制御する第2のユーザ7002によって三次元環境内で再配向することができる。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第2のユーザ7002の制御下にあり、第1のユーザ7102と共有されない場合(例えば、第1のユーザインタフェースオブジェクト7016のコンテンツ表示側が、第1の表示生成コンポーネント7200によって第1のユーザ7102に提示される三次元環境の第1のビュー7015-1内にある場合であっても)、第1のユーザインタフェースオブジェクト7016上のコンテンツの少なくとも一部は、三次元環境の第2のビュー7015-2にのみ示され、三次元環境の第1のビュー7015-1には示されない。いくつかの実施形態では、第2のユーザ7002は、第1のユーザインタフェースオブジェクト7016のコンテンツ提示側が第2のビュー7015-2の視点から離れる方を向くように、第1のユーザインタフェースオブジェクト7016を再配向することによって、第1のユーザインタフェースオブジェクト7016の隠されたコンテンツを第1のユーザ7102に可視であるようにすることができる。 In some embodiments, as shown in FIGS. 7B and 7C, the first view 7015-1 includes a representation 7202' of the hand 7202 of the first user 7102 and a representation 7028' of the hand 7028 of the second user 7002, and the second view 7015-2 includes a representation 7202'' of the hand 7202 of the first user 7102 and a representation 7028'' of the hand 7028 of the second user 7002. In the scenario shown in FIGS. 7B and 7C, the second user 7002 controls the first user interface object 7016, excluding any simultaneous interaction between the first user 7102 and the first user interface object 7016. For example, in some embodiments, when the first user interface object 7016 is under the control of the first user 7002, the first user interface object 7016 is displayed at a position in the three dimensional environment 7015 that corresponds to the location of the hand 7028 of the second user 7002 in the physical environment of the second user 7002. In some embodiments, when the first user interface object 7016 is under the control of the second user 7002, a representation of the first user interface object 7016 is displayed at a position in the three dimensional environment 7015 that corresponds to the location of the hand 7028 of the second user 7002 in the physical environment of the second user 7002, and the first user interface object 7016 is displayed at another position away from the position of the representation of the first user interface object 7016. In this example, the second user 7002 is controlling a first user interface object 7016, and the first user interface object 7016 is displayed at a position within the three dimensional environment 7015 that corresponds to the location of the second user's hand 7028. In some embodiments, when the first user interface object 7016 is under the control of the second user 7002, the first user interface object 7016 is oriented within the three dimensional environment 7015 such that a pre-defined surface of the first user interface object 7016 (e.g., front surface A, a content presentation surface, an interactive surface, etc.) faces a viewpoint that corresponds to a currently displayed second view 7015-2 of the three dimensional environment 7105 (e.g., a view shown to the second user 7002 controlling the first user interface object 7016, a view displayed by the second display generation component 7100, etc.). In some embodiments, the first user interface object 7016 can be reoriented within the three-dimensional environment by the second user 7002 controlling the first user interface object 7016 such that a preset surface of the first user interface object 7016 faces toward a viewpoint corresponding to a currently displayed first view 7015-1 of the three-dimensional environment (e.g., the view shown to a first user 7102 who is not currently controlling the first user interface object 7016, the view displayed by the first display generation component 7200, etc.). In some embodiments, if the first user interface object 7016 is under the control of the second user 7002 and is not shared with the first user 7102 (e.g., even if the content-presenting side of the first user interface object 7016 is in the first view 7015-1 of the three-dimensional environment presented to the first user 7102 by the first display generating component 7200), at least a portion of the content on the first user interface object 7016 is shown only in the second view 7015-2 of the three-dimensional environment and not in the first view 7015-1 of the three-dimensional environment. In some embodiments, the second user 7002 can make the hidden content of the first user interface object 7016 visible to the first user 7102 by reorienting the first user interface object 7016 such that the content-presenting side of the first user interface object 7016 faces away from the viewpoint of the second view 7015-2.

図7B及び図7Cでは、第1のビュー7015-1及び第2のビュー7015-2は両方とも、第1のユーザの手7202の個別の表現(例えば、表現7202’又は7202’’)及び第2のユーザの手7028のそ個別の表現(例えば、表現7028’又は7028’’)を含む。いくつかの実施形態では、コンピュータシステムは、ユーザの手のカメラビューに基づいて手の表現を表示する。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント(単数又は複数)の透明部分を介して手の表現のビューを提供する。いくつかの実施形態では、コンピュータシステムは、第1のユーザ及び第2のユーザの物理的環境(単数又は複数)内に位置する1つ以上のセンサから受信されるセンサ情報に基づいて、ユーザの手のスタイル表現を生成する。いくつかの実施形態では、ユーザの手(単数又は複数)の表現のポジション及び構成は、ユーザの物理的環境(単数又は複数)におけるユーザの手(単数又は複数)のロケーション(単数又は複数)及び構成(単数又は複数)に従って変化する。いくつかの実施形態では、コンピュータシステムは、ユーザの手のカメラビューに基づいて手の表現を表示する。いくつかの実施形態では、コンピュータシステムは、所与の時間に、一方のユーザの手の表現を表示するが、他方のユーザの手の表現を表示しない。例えば、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016を制御している場合、第2のユーザの手7028の表現は、任意選択的に、第2のユーザ7002に示される第2のビュー7015-2にのみ表示され、第1のユーザ7102に示される第1のビュー7015-1には表示されない。別の例では、ユーザの手の表現は、それぞれの物理的環境内の第1のユーザ及び/又は第2のユーザ(及び/又はそれぞれの表示生成コンポーネント若しくはカメラなど)の移動に起因して、個別の表示生成コンポーネントを介して提供される視野の内外に移動し得る。 In Figures 7B and 7C, the first view 7015-1 and the second view 7015-2 both include a respective representation of the first user's hand 7202 (e.g., representation 7202' or 7202") and a respective representation of the second user's hand 7028 (e.g., representation 7028' or 7028"). In some embodiments, the computer system displays the representation of the hand based on a camera view of the user's hand. In some embodiments, the computer system provides a view of the representation of the hand through a transparent portion of the display generation component(s). In some embodiments, the computer system generates a style representation of the user's hand based on sensor information received from one or more sensors located in the first user's and the second user's physical environment(s). In some embodiments, the position and configuration of the representation of the user's hand(s) varies according to the location(s) and configuration(s) of the user's hand(s) in the user's physical environment(s). In some embodiments, the computer system displays hand representations based on camera views of the users' hands. In some embodiments, the computer system displays hand representations of one user but not the other user at a given time. For example, if the second user 7002 is controlling the first user interface object 7016, a representation of the second user's hand 7028 is optionally displayed only in the second view 7015-2 shown to the second user 7002 and not in the first view 7015-1 shown to the first user 7102. In another example, the user's hand representation may move in and out of the field of view provided via the respective display generation components due to movement of the first user and/or the second user (and/or the respective display generation components or cameras, etc.) within their respective physical environments.

図7B及び図7Cでは、第1のユーザインタフェースオブジェクト7016を制御する第2のユーザ7002によって使用される第2の表示生成コンポーネント7100を介して表示される三次元環境の第2のビュー7015-2内で、第1のユーザインタフェースオブジェクト7016は、第1のセットの外観特性(例えば、第2の表示生成コンポーネントによって第2のユーザに対して表示されるような第1のユーザインタフェースオブジェクトの通常の外観(例えば、第1の形状、第1のサイズ、第1の色、第1の不透明度、第1の彩度、第1の輝度など))で表示される。第1のユーザインタフェースオブジェクト7016は、第1のユーザ7102が、第1のユーザインタフェースオブジェクトに向けられた個別の移動又は入力を用いて第1のユーザインタフェースオブジェクト7016にアクセスしようとしているか否かにかかわらず、第2のユーザ7002の制御下で第1のセットの外観特性を維持する。第1のユーザインタフェースオブジェクト7016は、第2のユーザ7002によって使用されるコンピュータシステムを介した第2のユーザ7002と第1のユーザインタフェースオブジェクト7016との間の相互作用に従って、個別の方法でその外観を変化させることができる。第2のユーザ7002と第1のユーザインタフェースオブジェクト7016との間の相互作用によって引き起こされる外観のこれらの変化は、任意選択的に、変化が発生する任意の所与の時間に第1のビュー7015-1及び第2のビュー7015-2の両方に示される。 In Figures 7B and 7C, within a second view 7015-2 of the three-dimensional environment displayed via a second display generating component 7100 used by a second user 7002 to control a first user interface object 7016, the first user interface object 7016 is displayed with a first set of appearance characteristics (e.g., a normal appearance of the first user interface object as displayed to the second user by the second display generating component (e.g., a first shape, a first size, a first color, a first opacity, a first saturation, a first brightness, etc.)). The first user interface object 7016 maintains the first set of appearance characteristics under the control of the second user 7002 regardless of whether the first user 7102 seeks to access the first user interface object 7016 with a separate movement or input directed at the first user interface object. The first user interface object 7016 can change its appearance in a distinct manner according to an interaction between the second user 7002 and the first user interface object 7016 via a computer system used by the second user 7002. These changes in appearance caused by the interaction between the second user 7002 and the first user interface object 7016 are, optionally, shown in both the first view 7015-1 and the second view 7015-2 at any given time that the change occurs.

図7Bでは、第1のユーザインタフェースオブジェクト7016が第2のユーザ7002の制御下にある間、(例えば、ユーザの手などのユーザの一部の移動を介して、視線入力を介して、空中ジェスチャを介して、手の別の部分に対する手の一部の移動を伴うジェスチャを介して、制御オブジェクトを介して提供される入力を介してなど)第1のユーザ7002が第1のユーザインタフェースオブジェクト7016にアクセスしようとしていないか、又は第1のユーザインタフェースオブジェクト7016の制御権を取得しようとしていない場合、第1のユーザインタフェースオブジェクト7016は、(任意選択的に、異なる視点から、及び/又は隠されたコンテンツの編集などで)三次元環境の第2のビュー7015-2と同じ第1のセットの外観特性で第1のビュー7015-1に表示される。第1のビュー及び第2のビューの両方が、第1のユーザの手7202を含む物理空間のロケーションに対応する、三次元環境の部分をキャプチャする場合、第1のユーザ7102の物理的環境内の第1のユーザの手7202の移動は、第1のビュー7015-1及び第2のビュー7015-2の両方において表され得る。 In FIG. 7B , while the first user interface object 7016 is under the control of the second user 7002, if the first user 7002 is not attempting to access or gain control of the first user interface object 7016 (e.g., via movement of a part of the user, such as the user's hand, via gaze input, via an air gesture, via a gesture involving movement of a part of the hand relative to another part of the hand, via input provided via a control object, etc.), the first user interface object 7016 is displayed in the first view 7015-1 with the same first set of appearance characteristics as in the second view 7015-2 of the three-dimensional environment (optionally from a different perspective and/or with editing of hidden content, etc.). If both the first view and the second view capture a portion of the three-dimensional environment that corresponds to a location in physical space that includes the first user's hand 7202, the movement of the first user's hand 7202 within the first user's 7102 physical environment may be represented in both the first view 7015-1 and the second view 7015-2.

対照的に、図7Cでは、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016に向けられた、第1のユーザ7102によって提供された第1のユーザ入力を検出する。例えば、いくつかの実施形態では、コンピュータシステムは、三次元環境7015内の第1のユーザインタフェースオブジェクト7016のポジションに対応する第1のユーザ7102の物理的環境内のロケーションへの第1のユーザ7102の一部(例えば、ユーザの手7202、第1のユーザの別の手など)の移動を検出する。いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016に向けられた視線入力と、視線入力と共に検出される制御入力(例えば、指移動ジェスチャ、空中ジェスチャ、コントローラによって提供される入力など)とを検出する。図7Cに示される例において、第1のユーザ入力は、第1のユーザインタフェースオブジェクト7016のポジションに対応するロケーションへの第1のユーザの手7202の移動であり、任意選択的に、三次元環境において第1のユーザインタフェースオブジェクト7016を把持するための移動又は姿勢を伴う。いくつかの実施形態では、第1のユーザ7102の手7202の移動、ポジション、及び/又は姿勢の表現は、第1のビュー7015-1及び第2のビュー7015-2の両方に示される。いくつかの実施形態では、第1のユーザ7102の手7202の移動、ポジション、及び/又は姿勢の表現は、第1のビュー7015-1のみに示され、第2のビュー7015-2には示されない。いくつかの実施形態では、第2のビュー7015-2内に第1のユーザ7102の手7202の移動、ポジション、及び/又は姿勢を示さないことによって、第2のユーザ7002によって使用されるコンピュータシステムは、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と相互作用するとき、第2のユーザ7002に対する混乱を低減する。 In contrast, in FIG. 7C , the computer system detects a first user input provided by the first user 7102 directed to the first user interface object 7016. For example, in some embodiments, the computer system detects a movement of a part of the first user 7102 (e.g., the user's hand 7202, another hand of the first user, etc.) to a location in the first user's 7102 physical environment that corresponds to the position of the first user interface object 7016 in the three-dimensional environment 7015. In some embodiments, the computer system detects a gaze input directed to the first user interface object 7016 and a control input (e.g., a finger movement gesture, an air gesture, an input provided by a controller, etc.) that is detected together with the gaze input. In the example shown in FIG. 7C , the first user input is a movement of the first user's hand 7202 to a location that corresponds to the position of the first user interface object 7016, optionally accompanied by a movement or posture to grasp the first user interface object 7016 in the three-dimensional environment. In some embodiments, a representation of the movement, position, and/or posture of the hand 7202 of the first user 7102 is shown in both the first view 7015-1 and the second view 7015-2. In some embodiments, a representation of the movement, position, and/or posture of the hand 7202 of the first user 7102 is shown only in the first view 7015-1 and not in the second view 7015-2. In some embodiments, by not showing the movement, position, and/or posture of the hand 7202 of the first user 7102 in the second view 7015-2, the computer system used by the second user 7002 reduces confusion to the second user 7002 when the second user 7002 interacts with the first user interface object 7016.

図7Cでは、第1のユーザインタフェースオブジェクト7016に向けられた第1のユーザ入力を検出したことに応じて、かつ第2のユーザ7002が第1のユーザインタフェースオブジェクトと現在相互作用している(例えば、第1のユーザインタフェースオブジェクト7016を制御する、第1のユーザ7102による要求された相互作用を除外して第1のユーザインタフェースオブジェクトを制御するなど)という判定に従って、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないという視覚的インジケーションを表示する。いくつかの実施形態では、視覚的インジケーションを表示することは、三次元環境7015の第1のビュー7015-1内の第1のユーザインタフェースオブジェクト7016の外観又は第1のユーザインタフェースオブジェクト7016のポジションのうちの少なくとも1つを変更することを含む。 7C, in response to detecting a first user input directed at the first user interface object 7016 and in accordance with a determination that the second user 7002 is currently interacting with the first user interface object (e.g., controlling the first user interface object 7016, controlling the first user interface object to the exclusion of a requested interaction by the first user 7102, etc.), the computer system displays a visual indication that the first user interface object 7016 is not available for interaction with the first user 7102. In some embodiments, displaying the visual indication includes modifying at least one of an appearance of the first user interface object 7016 or a position of the first user interface object 7016 within the first view 7015-1 of the three-dimensional environment 7015.

いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016が三次元環境内の第2のユーザ7002の仮想ポジションに対して予め設定された空間関係を有する(例えば、第1のユーザインタフェースオブジェクト7016が第2のユーザの掌又は手7028の表現内にある、第1のユーザインタフェースオブジェクト7016が三次元環境の第1のビュー7015-1内にある第2のユーザのプライベート空間内にあるなど)という判定に従って、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と現在相互作用していると判定する。いくつかの実施形態では、コンピュータシステムは、第2のユーザ7002が第2の表示生成コンポーネント7100を介して三次元環境の第2のビュー7015-2を表示するコンピュータシステムを通じて第1のユーザインタフェースオブジェクト7016を制御、選択、移動、修正、及び/又は他の方法で相互作用しているという判定に従って、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と現在相互作用していると判定する。 In some embodiments, the computer system determines that the second user 7002 is currently interacting with the first user interface object 7016 according to a determination that the first user interface object 7016 has a pre-established spatial relationship with respect to the virtual position of the second user 7002 in the three-dimensional environment (e.g., the first user interface object 7016 is within a representation of the palm or hand 7028 of the second user, the first user interface object 7016 is within a private space of the second user within the first view 7015-1 of the three-dimensional environment, etc.). In some embodiments, the computer system determines that the second user 7002 is currently interacting with the first user interface object 7016 according to a determination that the second user 7002 is controlling, selecting, moving, modifying, and/or otherwise interacting with the first user interface object 7016 through the computer system displaying the second view 7015-2 of the three-dimensional environment via the second display generating component 7100.

いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないことを示す視覚的インジケーションを三次元環境7015の第1のビュー7015-1に表示するために、コンピュータシステムは、第1のセットの外観特性とは異なる第2のセットの外観特性(例えば、第2の形状、第2のサイズ、第2の色、第2の不透明度、第2の彩度、第2の輝度など)を有する第1のユーザインタフェースオブジェクト7016を表示する(例えば、第2のセットの外観特性は、第1のユーザインタフェースオブジェクトがこの時点で第2のユーザを制御しており、第1のユーザとの相互作用に利用可能でないことの視覚的インジケーションを提供する)。例えば、図7Cの第1のビュー7015-1に示される第1のユーザインタフェースオブジェクト7016は、図7Cの第2のビュー7015-2に示されるものに比べて半透明である。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないことを示すために三次元環境7015の第1のビュー7015-1に視覚的インジケーションを表示するために、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016を、第1のユーザ7102がそれを把持しようとするときに邪魔にならないように移動させる。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、視覚的インジケーションが第1のユーザ7102に表示されるだけでよいため、第2のユーザ7002に表示される第2のビュー7015-2内のその外観及び/又はポジションを維持する。いくつかの実施形態では、第1のユーザ7102によって提供された第1のユーザ入力が、第1のユーザインタフェースオブジェクト7016に関して第1の動作を実行する要求に対応する場合、コンピュータシステムは、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と現在相互作用している(例えば、第1のユーザインタフェースオブジェクト7016を制御する、第1のユーザ7102によって要求された相互作用を除外して第1のユーザインタフェースオブジェクト7016を制御するなど)という判定に従って、第1のユーザインタフェースオブジェクト7016に関して第1の動作を実行しない。例えば、いくつかの実施形態では、コンピュータシステムは、第1のユーザの手7202の表現7202’によって把持されている第1のユーザインタフェースオブジェクト7106を示さない。いくつかの実施形態では、コンピュータシステムは、第1のユーザの手7202の表現7202’内に移動する第1のユーザインタフェースオブジェクト7016のゴースト画像又は別の表現を示さない。 In some embodiments, to display a visual indication in the first view 7015-1 of the three-dimensional environment 7015 that the first user interface object 7016 is unavailable for interaction with the first user 7102, the computer system displays the first user interface object 7016 with a second set of appearance characteristics (e.g., a second shape, a second size, a second color, a second opacity, a second saturation, a second brightness, etc.) that are different from the first set of appearance characteristics (e.g., the second set of appearance characteristics provide a visual indication that the first user interface object is now controlling the second user and is unavailable for interaction with the first user). For example, the first user interface object 7016 shown in the first view 7015-1 of FIG. 7C is semi-transparent compared to that shown in the second view 7015-2 of FIG. 7C. In some embodiments, to display a visual indication in the first view 7015-1 of the three-dimensional environment 7015 to indicate that the first user interface object 7016 is unavailable for interaction with the first user 7102, the computer system moves the first user interface object 7016 out of the way when the first user 7102 attempts to grasp it. In some embodiments, the first user interface object 7016 maintains its appearance and/or position in the second view 7015-2 displayed to the second user 7002, as the visual indication only needs to be displayed to the first user 7102. In some embodiments, if the first user input provided by the first user 7102 corresponds to a request to perform a first action with respect to the first user interface object 7016, the computer system does not perform the first action with respect to the first user interface object 7016 pursuant to a determination that the second user 7002 is currently interacting with the first user interface object 7016 (e.g., controlling the first user interface object 7016, controlling the first user interface object 7016 excluding the interaction requested by the first user 7102, etc.). For example, in some embodiments, the computer system does not show the first user interface object 7106 being grasped by the representation 7202' of the first user's hand 7202. In some embodiments, the computer system does not show a ghost image or another representation of the first user interface object 7016 moving into the representation 7202' of the first user's hand 7202.

いくつかの実施形態では、第1のユーザインタフェースオブジェクト7106に向けられた第1のユーザ入力を検出したことに応じて、かつ第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と現在相互作用していないという判定に従って、コンピュータシステムは、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作を実行する。いくつかの実施形態では、第1の動作を実行することは、第1のユーザインタフェースオブジェクト7016が第1のユーザ入力に従って第1のユーザ7102によって把持されるか又は移動される(例えば、三次元環境内の第1のユーザ7102の仮想ポジションに向かって移動される、第1のユーザ入力の移動に従って移動されるなど)ことを示すことを含む。いくつかの実施形態では、第1の動作を実行することは、把持されている及び/又は第1のユーザの手7202の表現7202’内に移動している第1のユーザインタフェースオブジェクト7016のゴースト画像又は他の表現を示すことを含む。いくつかの実施形態では、第1のユーザ7102からの第1のユーザ入力が検出されたときに第2のユーザ7002が第1のユーザインタフェースオブジェクト7106と相互作用していなかったという判定に従って、第1のユーザインタフェースオブジェクト7016は、第1のセットの外観特性で(例えば、その元のロケーションに、又は第1のユーザの手の表現などで)表示され続ける。 In some embodiments, in response to detecting a first user input directed at the first user interface object 7106 and in accordance with a determination that the second user 7002 is not currently interacting with the first user interface object 7016, the computer system performs a first operation on the first user interface object in accordance with the first user input. In some embodiments, performing the first operation includes indicating that the first user interface object 7016 is being grasped or moved by the first user 7102 in accordance with the first user input (e.g., moved toward a virtual position of the first user 7102 in the three-dimensional environment, moved in accordance with the movement of the first user input, etc.). In some embodiments, performing the first operation includes indicating a ghost image or other representation of the first user interface object 7016 being grasped and/or moved within the representation 7202' of the first user's hand 7202. In some embodiments, pursuant to a determination that the second user 7002 was not interacting with the first user interface object 7106 when the first user input from the first user 7102 was detected, the first user interface object 7016 continues to be displayed with the first set of appearance characteristics (e.g., in its original location, or with a representation of the first user's hand, etc.).

いくつかの実施形態では、第2のユーザ7002が第1のユーザインタフェースオブジェクトと相互作用している間、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016を把持しようと試みるか、又は他の方法で第1のユーザインタフェースオブジェクトと相互作用すると、コンピュータシステムは、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016を把持しようと試みるにつれて、第1のユーザ7102に表示された第1のビュー7015-1内の第1のユーザインタフェースオブジェクトをフェードアウトするなど、第1のユーザインタフェースオブジェクトの外観を変更する。例えば、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016の第1のセットの外観特性のうちの少なくとも1つを変更して(例えば、第1のユーザインタフェースオブジェクトの透明度レベルを上げる、彩度を下げる、不透明度を下げる、ぼかし、暗くする、解像度を下げる、サイズを縮小するなど)、任意選択的に、第1のユーザインタフェースオブジェクト7016の周囲環境の外観を維持しながら(例えば、周囲環境の外観及び/又は視覚的プロミネンスを変更しない)、三次元環境の第1のビュー7015-1内の第1のユーザインタフェースオブジェクト7016の視覚的プロミネンスを低減する。いくつかの実施形態では、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016と相互作用する試みを停止したことを検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元するために、第1のユーザインタフェースオブジェクトを把持するか又は第1のユーザインタフェースオブジェクトと相互作用する第1のユーザの試みに応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つ(例えば、いくつか、全てなど)を(例えば、第1のユーザ入力を検出する直前に、又は第1のユーザ入力の検出に応じて変更が行われる前に存在したレベルなどに)復元する。 In some embodiments, when the first user 7102 attempts to grasp or otherwise interact with the first user interface object 7016 while the second user 7002 is interacting with the first user interface object, the computer system changes the appearance of the first user interface object, such as fading out the first user interface object in the first view 7015-1 displayed to the first user 7102 as the first user 7102 attempts to grasp the first user interface object 7016. For example, the computer system may modify at least one of the first set of appearance characteristics of the first user interface object 7016 (e.g., increase the transparency level, decrease the saturation, decrease the opacity, blur, darken, decrease the resolution, reduce the size, etc. of the first user interface object) to, optionally, reduce the visual prominence of the first user interface object 7016 in the first view 7015-1 of the three-dimensional environment while maintaining the appearance of the surrounding environment of the first user interface object 7016 (e.g., not changing the appearance and/or visual prominence of the surrounding environment). In some embodiments, in response to detecting that the first user 7102 has stopped attempting to interact with the first user interface object 7016, the computer system restores at least one (e.g., some, all, etc.) of the first set of appearance characteristics of the first user interface object that were changed in response to the first user's attempt to grasp or interact with the first user interface object (e.g., to a level that existed immediately prior to detecting the first user input or before the change was made in response to detecting the first user input, etc.) to restore the visual prominence of the first user interface object.

いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が、第1のユーザの手7202のロケーションに対応するポジションから離れるように移動される(例えば、第2のユーザ7002のアクションによって、及び/又は三次元環境内で発生した他のイベント(例えば、第1のユーザ7102による相互作用の試みに関連しないイベント)などに従って、三次元環境7015内の手7202の表現7202’から離れるように移動される)場合、コンピュータシステムは、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元するために、第1のユーザが第1のユーザインタフェースオブジェクトを把持するか、又は他の方法で第1のユーザインタフェースオブジェクトと相互作用する試みに応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つ(例えば、一部、全部など)を(例えば、第1のユーザ入力を検出する直前に、又は第1のユーザ入力の検出に応じて変更が行われる前に存在したレベルになど)復元する。 In some embodiments, when the first user interface object 7016 is moved away from a position corresponding to the location of the first user's hand 7202 (e.g., moved away from the representation 7202' of the hand 7202 in the three-dimensional environment 7015 due to an action of the second user 7002 and/or in accordance with other events occurring in the three-dimensional environment (e.g., events unrelated to an interaction attempt by the first user 7102), etc.), the computer system restores at least one (e.g., some, all, etc.) of the first set of appearance characteristics of the first user interface object that was modified in response to the first user's attempt to grasp or otherwise interact with the first user interface object (e.g., to a level that existed immediately prior to detecting the first user input or before the modification was made in response to detecting the first user input) to restore the visual prominence of the first user interface object.

いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないという視覚的インジケーションが第1のビュー7015-1に表示された後、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザ7102との相互作用に利用可能になるように、第2のユーザ7002がもはや第1のユーザインタフェースオブジェクトと相互作用していないこと、及び/又は第1のユーザインタフェースオブジェクトの制御を放棄したことをコンピュータシステムが検出するまで、視覚的インジケーションを表示し続ける。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないという視覚的インジケーションが第1のビュー7015-1に表示された後、コンピュータシステムは、第1のユーザが第1のユーザ入力又は別の入力を介して第1のユーザインタフェースオブジェクト7106と相互作用しようとするのを停止した後、予め設定された期間(例えば、10秒、5秒など)にわたって視覚的インジケーションを表示し続ける。 In some embodiments, after the visual indication that the first user interface object 7016 is not available for interaction with the first user 7102 is displayed in the first view 7015-1, the computer system continues to display the visual indication until the computer system detects that the second user 7002 is no longer interacting with the first user interface object and/or has relinquished control of the first user interface object so that the first user interface object becomes available for interaction with the first user 7102. In some embodiments, after the visual indication that the first user interface object 7016 is not available for interaction with the first user 7102 is displayed in the first view 7015-1, the computer system continues to display the visual indication for a preset period of time (e.g., 10 seconds, 5 seconds, etc.) after the first user stops attempting to interact with the first user interface object 7106 via the first user input or another input.

いくつかの実施形態において、第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクト7016を制御する第2のユーザ7002によって提供されるジェスチャ入力(例えば、トスジェスチャ、スロージェスチャ、プッシュジェスチャなど)に従って、第1のユーザのロケーションに対応するポジション(例えば、第1のユーザ7102の手7202に対応するポジション、第1のユーザ7102を取り囲むプライベート空間に対応するポジションなど)に送信することができる。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、第2のユーザ7002によって提供されたジェスチャ入力の結果として、三次元環境7015内の第1のポジションから第2のポジションへ移動する間に回転する(例えば、再配向する、向く方向を変えるなど)。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016はまた、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016の制御権を得た後、第1のユーザ7102によって提供されるジェスチャ入力(例えば、トスジェスチャ、スロージェスチャ、プッシュジェスチャなど)に従って、第2のユーザ7002のロケーションに対応するポジションに送信することができる。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、第1のユーザ7102によって提供されたジェスチャ入力の結果として、三次元環境7015内の第2のポジションから第3のポジションへ移動する間に回転する(例えば、配向を変える、向く方向を変えるなど)。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7106は、そのコンテンツ提示側又はインタラクティブ側が第1のユーザインタフェースオブジェクトを受け取る側の方を向くように回転する。 In some embodiments, the first user interface object 7016 can be sent to a position corresponding to the location of the first user (e.g., a position corresponding to the hand 7202 of the first user 7102, a position corresponding to a private space surrounding the first user 7102, etc.) according to a gesture input (e.g., a toss gesture, a throw gesture, a push gesture, etc.) provided by the second user 7002 controlling the first user interface object 7016. In some embodiments, the first user interface object 7016 rotates (e.g., reorients, changes its facing direction, etc.) while moving from a first position to a second position within the three-dimensional environment 7015 as a result of the gesture input provided by the second user 7002. In some embodiments, the first user interface object 7016 can also be sent to a position corresponding to the location of the second user 7002 according to a gesture input (e.g., a toss gesture, a throw gesture, a push gesture, etc.) provided by the first user 7102 after the first user 7102 gains control of the first user interface object 7016. In some embodiments, the first user interface object 7016 rotates (e.g., changes orientation, changes facing direction, etc.) while moving from the second position to the third position in the three-dimensional environment 7015 as a result of the gesture input provided by the first user 7102. In some embodiments, the first user interface object 7106 rotates such that its content presenting or interactive side faces the side receiving the first user interface object.

いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016は、第1のユーザインタフェースオブジェクトを制御するユーザによって提供されるジェスチャ入力(例えば、トスジェスチャ、スロージェスチャ、プッシュジェスチャなど)に応じて、第1のユーザインタフェースオブジェクトが第1のユーザ及び第2のユーザの両方によってより良好なビューで見られ得る(例えば、三次元環境7015の中心に表示される、物理的環境105の壁に対応するポジションに表示される、三次元環境7015内の仮想表面に表示されるなど)三次元環境内のポジションに送信することができる。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、三次元環境内のポジションに到達したときに、第1のユーザ及び第2のユーザの両方がそのコンテンツ及び/又はインタラクティブ側を見ることを可能にする向きを有し、及び/又は三次元環境のポジションにおける表面(例えば、壁面、テーブル面、仮想表面、仮想スクリーン、仮想テーブル上面などの表現)に対して予め設定された空間関係(例えば、重なる、平行、斜めに、垂直、直立など)を有するように、三次元環境内のポジションに移動しながら回転する(例えば、再向きする、対面方向を変えるなど)。 In some embodiments, the first user interface object 7016 can be sent to a position in the three-dimensional environment where the first user interface object can be better viewed by both the first user and the second user (e.g., displayed at the center of the three-dimensional environment 7015, displayed at a position corresponding to a wall of the physical environment 105, displayed on a virtual surface in the three-dimensional environment 7015, etc.) in response to a gesture input (e.g., a toss gesture, a throw gesture, a push gesture, etc.) provided by a user controlling the first user interface object. In some embodiments, the first user interface object has an orientation that allows both the first user and the second user to see its content and/or interactive side when it reaches the position in the three-dimensional environment, and/or rotates while moving to a position in the three-dimensional environment (e.g., re-facing, changing the facing direction, etc.) such that it has a pre-defined spatial relationship (e.g., overlapping, parallel, diagonally, vertical, upright, etc.) with respect to a surface (e.g., a representation of a wall surface, a table surface, a virtual surface, a virtual screen, a virtual table top, etc.) at the position of the three-dimensional environment.

いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016が第1のユーザ7102との相互作用に利用可能でないことの視覚的インジケーションとして、三次元環境の第1のビュー7015-1内の第1のユーザインタフェースオブジェクト7016のポジションを変更する。いくつかの実施形態では、三次元環境の第1のビュー7015-1内の第1のユーザインタフェースオブジェクトのポジションを変更することは、第1のユーザインタフェースオブジェクトと第1のユーザ入力を提供した第1のユーザ7102の手7202の表現7202’との間の少なくとも予め設定された距離を維持するために、第1のユーザインタフェースオブジェクトの元のポジションから第1のユーザインタフェースオブジェクト7016を移動させることを含む(例えば、第1のユーザインタフェースオブジェクトは、第1のユーザインタフェースオブジェクトを把持しようとする第1のユーザ7102の手7202の表現7202’を避けるために1つ以上の方向に移動するように見える)。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016の移動は、第1のユーザインタフェースオブジェクトの外観に対して行われる変更を伴う(例えば、第1のユーザインタフェースオブジェクトは、第1のユーザ7102の手の表現7202’がそれ自体に近づきすぎることを回避するために、移動している間に弱まる又は暗くなるように見える)。 In some embodiments, the computer system alters a position of the first user interface object 7016 within the first view 7015-1 of the three-dimensional environment as a visual indication that the first user interface object 7016 is unavailable for interaction with the first user 7102. In some embodiments, altering the position of the first user interface object within the first view 7015-1 of the three-dimensional environment includes moving the first user interface object 7016 from an original position of the first user interface object to maintain at least a preset distance between the first user interface object and the representation 7202' of the hand 7202 of the first user 7102 that provided the first user input (e.g., the first user interface object appears to move in one or more directions to avoid the representation 7202' of the hand 7202 of the first user 7102 attempting to grasp the first user interface object). In some embodiments, the movement of the first user interface object 7016 is accompanied by changes made to the appearance of the first user interface object (e.g., the first user interface object appears to fade or darken while being moved to avoid the representation 7202' of the first user's 7102's hand getting too close to itself).

いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016が第2のユーザ7002の制御下になく、第1のユーザ7102との相互作用に利用可能である場合、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016を、三次元環境7015の第1のビュー7015-1内の第1のユーザの手7202の表現7202’に向かって移動させ、任意選択的に、三次元環境の第2のビュー7015-2内にも移動させる。 In some embodiments, if the first user interface object 7016 is not under the control of the second user 7002 and is available for interaction with the first user 7102, the computer system moves the first user interface object 7016 towards the representation 7202' of the first user's hand 7202 in the first view 7015-1 of the three-dimensional environment 7015, and optionally also into the second view 7015-2 of the three-dimensional environment.

いくつかの実施形態では、第1のユーザ7102によって提供される第1のユーザ入力は、所定の選択ジェスチャを含む(例えば、である、を含む、で開始する、で終了するなど)(例えば、選択ジェスチャは、同じ手の親指への人差し指のタッチダウンを含むピンチジェスチャ(任意選択的に、その後、親指から人差し指を持ち上げる、又は手に接続された手首をフリックする、又は手全体を平行移動するなど)、同じ手の人差し指と親指とをタッチ姿勢から互いに引き離すことを含むジェスチャ、ピンチジェスチャ、ピンチアンドドラッグジェスチャ、ピンチアンドフリックジェスチャなどである)。いくつかの実施形態では、コンピュータシステムは、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と相互作用していない間に第1のユーザ入力を検出したことに応じて、第1のユーザ7102から受信した後続の入力(例えば、ピンチジェスチャが維持されている間のドラッグジェスチャ、ピンチジェスチャが維持されている間のフリックジェスチャ、所定の選択ジェスチャが終了した後のドラッグジェスチャなど)のターゲットとして第1のユーザインタフェースオブジェクト7016を選択する。いくつかの実施形態では、第1のユーザインタフェースオブジェクト7016を第1のユーザ7102から受信した後続の入力のターゲットとして選択することと併せて、コンピュータシステムは、第1のユーザインタフェースオブジェクト7016を三次元環境の第1のビュー7015-1内の第1のポジションに維持しながら、第1のユーザインタフェースオブジェクト7106の表現(例えば、第1のユーザインタフェースオブジェクトの複製、第1のユーザインタフェースオブジェクトのゴースト画像など)を第1のユーザ7102の手7202のロケーションに対応するポジションに表示する(例えば、第1のユーザインタフェースオブジェクトは元のロケーションに留まるが、第1のユーザ7102と第1のユーザインタフェースオブジェクトの表現との間の相互作用に従って第1のユーザ7102によって「遠隔」制御することができる)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手7102の表現7202’の近くに表示されるが、コンピュータシステムが第1のユーザ7202によって提供される別の選択入力を検出するまで、第1のユーザの手のロケーションに対応するポジションに進まない。いくつかの実施形態では、コンピュータシステムは、第1のユーザ7102が選択入力の要件と一致する入力を提供しているという判定に従って、第1のユーザインタフェースオブジェクトの表現の形状を変化させ、第1のユーザインタフェースオブジェクトの表現の形状の変化は、選択入力を完了するための要件に関する視覚的ガイダンスを任意選択的に提供する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現とのユーザ相互作用は、第1のユーザインタフェースオブジェクトとの相互作用に変換され、コンピュータシステムに、第1のユーザ7102と第1のユーザインタフェースオブジェクトの表現との間の相互作用に従って第1のユーザインタフェースオブジェクトに対して動作を実行させる。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手7202の表現7202’のポジションに表示されたままであり、任意選択的に、第1のユーザ7102が、第1のユーザと三次元環境を共有している他のユーザの相互作用を除外して、第1のユーザインタフェースオブジェクトを制御することを示す。 In some embodiments, the first user input provided by the first user 7102 includes a predefined selection gesture (e.g., is, includes, starts with, ends with, etc.) (e.g., the selection gesture is a pinch gesture involving touching down of the index finger on the thumb of the same hand (optionally followed by lifting the index finger from the thumb, or flicking the wrist connected to the hand, or translating the entire hand, etc.), a gesture involving pulling the index finger and thumb of the same hand away from each other from a touching position, a pinch gesture, a pinch and drag gesture, a pinch and flick gesture, etc.). In some embodiments, in response to detecting a first user input while the second user 7002 is not interacting with the first user interface object 7016, the computer system selects the first user interface object 7016 as a target for a subsequent input received from the first user 7102 (e.g., a drag gesture while a pinch gesture is maintained, a flick gesture while a pinch gesture is maintained, a drag gesture after a predefined selection gesture is completed, etc.). In some embodiments, in conjunction with selecting the first user interface object 7016 as a target for subsequent input received from the first user 7102, the computer system maintains the first user interface object 7016 in a first position within the first view 7015-1 of the three-dimensional environment while displaying a representation of the first user interface object 7106 (e.g., a replica of the first user interface object, a ghost image of the first user interface object, etc.) in a position corresponding to the location of the hand 7202 of the first user 7102 (e.g., the first user interface object remains in its original location but can be "remotely" controlled by the first user 7102 according to interactions between the first user 7102 and the representation of the first user interface object). In some embodiments, the representation of the first user interface object is displayed near the representation 7202' of the first user's hand 7102, but does not advance to the position corresponding to the location of the first user's hand until the computer system detects another selection input provided by the first user 7202. In some embodiments, the computer system changes a shape of the representation of the first user interface object in accordance with a determination that the first user 7102 is providing an input consistent with the requirements for the selection input, the change in shape of the representation of the first user interface object optionally providing visual guidance regarding the requirements for completing the selection input. In some embodiments, a user interaction with the representation of the first user interface object is translated into an interaction with the first user interface object, causing the computer system to perform an action on the first user interface object in accordance with the interaction between the first user 7102 and the representation of the first user interface object. In some embodiments, the representation of the first user interface object remains displayed at the position of the representation 7202' of the first user's hand 7202, optionally indicating that the first user 7102 controls the first user interface object, to the exclusion of interactions of other users sharing the three-dimensional environment with the first user.

いくつかの実施形態では、図7A~図7Cのコンピュータシステム、第1の表示生成コンポーネント7200及び第2の表示生成コンポーネント7100の挙動に関して上述した特徴の一部又は全部は、第1のユーザインタフェースオブジェクト7016に対する第1のユーザ7102及び第2のユーザ7002の役割が逆になる他のシナリオにも同等に適用可能である。そのような他のシナリオでは、第1のユーザ及び第2のユーザによって使用されるコンピュータシステム及び表示生成コンポーネントの動作は、特定のシナリオにおいて適宜逆転されてもよい。上述した特徴は依然として有効であり、したがって、簡潔にするために本明細書では繰り返さない。 In some embodiments, some or all of the features described above with respect to the behavior of the computer system, first display generating component 7200, and second display generating component 7100 of FIGS. 7A-7C are equally applicable to other scenarios in which the roles of the first user 7102 and the second user 7002 with respect to the first user interface object 7016 are reversed. In such other scenarios, the operation of the computer system and display generating components used by the first user and the second user may be reversed as appropriate for the particular scenario. The features described above remain valid and therefore will not be repeated herein for the sake of brevity.

図7D~図7Fは、いくつかの実施形態による、三次元環境の現在表示されているビューの視点に対して物理的オブジェクトの表現を様々な方式で表示する方法を示すブロック図であり、視点は第1の物理的環境内のユーザの移動に従って移動し、物理的オブジェクトの表現は第1の物理的環境とは異なる第2の物理的環境内の物理的オブジェクトの移動に従って移動し、物理的オブジェクトの表現と視点との間の空間関係が予め設定された基準を満たすことに応じて、表現を表示する方式の変化がトリガされる。 7D-7F are block diagrams illustrating a method of displaying representations of physical objects in various manners relative to a viewpoint of a currently displayed view of a three-dimensional environment, according to some embodiments, where the viewpoint moves according to a user's movements in a first physical environment, the representations of the physical objects move according to movements of the physical objects in a second physical environment different from the first physical environment, and a change in the manner in which the representations are displayed is triggered in response to the spatial relationship between the representations of the physical objects and the viewpoint satisfying a preset criterion.

いくつかの実施形態では、コンピュータシステムは、第1のユーザ(及び三次元環境7304を見るために第1のユーザ7002によって使用される第1の表示生成コンポーネント7100)の物理的環境(例えば、シーン105-a、又は別の屋内若しくは屋外物理的環境など)とは異なる物理的環境(例えば、シーン105-b、又は別の屋内若しくは屋外物理的環境など)に位置する物理的オブジェクト(例えば、第2のユーザ7102、動物、移動ドローンなど)の表現を含む三次元環境7204のビューを表示する。コンピュータシステムは、任意選択的に、第1のユーザ7002(及び/又は第1の表示生成コンポーネント7100)の物理的環境(例えば、シーン105-a、又は別の物理的環境など)内の第1のユーザ7002の移動に従って、三次元環境7304の現在表示されているビューに対応する視点を移動させる。コンピュータシステムは、その物理的環境(例えば、シーン105-b、又は別の物理的環境など)における物理的オブジェクトのロケーション及び移動経路に基づいて、三次元環境7204における物理的オブジェクトの表現(例えば、第2のユーザ7102の表現7102’-a、別の物理的オブジェクトの表現など)のポジション及び移動経路を判定する。コンピュータシステムは、三次元環境7304内のポジションと、個別の物理的環境(例えば、第1のユーザ7002及び第1の表示生成コンポーネント7100の物理的環境105-a、物理的オブジェクトの物理的環境(例えば、第2のユーザ7102の物理的環境105-b、物理的オブジェクトの別の物理的環境など)など)内のロケーションとの間の第1のタイプの対応関係(例えば、マッピング及び変換関係、任意選択的に、視点、物理的オブジェクト、及び第1のユーザなどの異なるマッピング及び変換関係)を利用する。いくつかの条件下では(例えば、第1のユーザ7002の移動、及び/又は物理的オブジェクト(例えば、この例では第2のユーザ7102によって表される物理的オブジェクト)の移動などに起因して)、物理的オブジェクトの表現のポジション(単数又は複数)は、ポジションが三次元環境7304内のポジションと物理的環境(例えば、シーン105-a、105-bなど)内のロケーションとの間の第1のタイプの対応関係を使用して判定される場合、第1の表示生成コンポーネント7100を介して示される三次元環境7304の現在表示されているビュー(例えば、ビュー7304-a、7304-a’など)の視点のポジションの閾値距離(例えば、腕の長さ、3フィート、ユーザ指定距離など)内にある。そのような条件下で、コンピュータシステムは、(例えば、図7Fに示されるように)第1のタイプの対応関係に基づいて判定されたポジションからオフセットされた調整されたポジションに物理的オブジェクトの表現(例えば、この例では、表現7102’-a)を表示する。いくつかの実施形態では、調整されたポジションは、第1のタイプの対応とは異なる第2のタイプの対応に基づいて判定され、調整されたポジションが、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビュー(例えば、ビュー7304-a’’、第1の表示生成コンポーネント7100を介して示される後続のビューなど)の視点のポジションから閾値距離よりも大きいままであることを確実にする。コンピュータシステムは、第1のタイプの対応関係に基づいて計算された未調整ポジションが、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビュー(例えば、ビュー7304-a’’、第1の表示生成コンポーネント7100を介して示される後続のビューなど)の視点のポジションから閾値距離を超えて離れるまで、物理的オブジェクトの表現(例えば、この例では表現7102’-a)の調整ポジションを判定するために、第2のタイプの対応関係を使用し続ける。 In some embodiments, the computer system displays a view of the three-dimensional environment 7204 including representations of physical objects (e.g., the second user 7102, animals, a moving drone, etc.) located in a different physical environment (e.g., scene 105-b, or another indoor or outdoor physical environment, etc.) than the physical environment (e.g., scene 105-a, or another indoor or outdoor physical environment, etc.) of the first user (and the first display generating component 7100 used by the first user 7002 to view the three-dimensional environment 7304). The computer system optionally moves a viewpoint corresponding to the currently displayed view of the three-dimensional environment 7304 in accordance with the movement of the first user 7002 within the physical environment (e.g., scene 105-a, or another physical environment, etc.) of the first user 7002 (and/or the first display generating component 7100). The computer system determines positions and paths of movement of the representations of the physical objects (e.g., representation 7102'-a of the second user 7102, representation of another physical object, etc.) in the three-dimensional environment 7204 based on the locations and paths of movement of the physical objects in the physical environment (e.g., scene 105-b, or another physical environment, etc.). The computer system utilizes a first type of correspondence (e.g., mapping and transformation relationships, optionally different mapping and transformation relationships between viewpoints, physical objects, and the first user, etc.) between positions in the three-dimensional environment 7304 and locations in the respective physical environments (e.g., physical environment 105-a of the first user 7002 and the first display generating component 7100, the physical environment of the physical objects (e.g., physical environment 105-b of the second user 7102, another physical environment of the physical objects, etc.). Under some conditions (e.g., due to movement of the first user 7002 and/or movement of a physical object (e.g., the physical object represented by the second user 7102 in this example), etc.), the position(s) of the representation of the physical object is within a threshold distance (e.g., an arm's length, three feet, a user-specified distance, etc.) of the position of the viewpoint of the currently displayed view (e.g., view 7304-a, 7304-a', etc.) of the three-dimensional environment 7304 shown via the first display generation component 7100, when the position is determined using a first type of correspondence between positions in the three-dimensional environment 7304 and locations in the physical environment (e.g., scenes 105-a, 105-b, etc.). Under such conditions, the computer system displays the representation of the physical object (e.g., representation 7102'-a in this example) at an adjusted position that is offset from the position determined based on the first type of correspondence (e.g., as shown in FIG. 7F ). In some embodiments, the adjusted position is determined based on a second type of correspondence different from the first type of correspondence to ensure that the adjusted position remains greater than a threshold distance from the position of the viewpoint of the currently displayed view of the three-dimensional environment shown via the first display generating component (e.g., view 7304-a'', a subsequent view shown via the first display generating component 7100, etc.). The computer system continues to use the second type of correspondence to determine the adjusted position of the representation of the physical object (e.g., representation 7102'-a in this example) until the unadjusted position calculated based on the first type of correspondence is greater than a threshold distance away from the position of the viewpoint of the currently displayed view of the three-dimensional environment shown via the first display generating component (e.g., view 7304-a'', a subsequent view shown via the first display generating component 7100, etc.).

いくつかの実施形態では、コンピュータシステムが三次元環境7304のビューを第1のユーザ7002に提供し、三次元環境7304の現在表示されているビューに対応する視点のポジションが、第1のユーザ7002の物理的環境内の第1のユーザの頭部、身体、又は眼のロケーションに基づくとき、コンピュータシステムは、時として、他の物理的オブジェクト(例えば、この例では第2のユーザ7102によって表される物理的オブジェクトであるが、コンピュータ生成環境7304を第1のユーザ7002と共有していない無生物オブジェクト又は生物オブジェクトであり得る、など)の表現を、それらの個別の物理的環境内の物理的オブジェクトのロケーションに対応するポジションに表示する。いくつかの状況では、現実世界における第1のユーザ7002と他の物理的オブジェクトとの間の実際の物理的衝突又は不快な空間的近接の危険若しくは可能性がない場合であっても、物理的オブジェクトの表現のポジションは、第1のユーザに対して示されるビューに対応する視点のポジションと衝突するか、又は近づきすぎて(例えば、具体的に調整されない場合、別様にアドレス指定されない場合など)、三次元環境内の第1のユーザの視覚経験を第1のユーザにとって不快にするか、又は時にはいらいらさせることがある。 In some embodiments, when the computer system provides a view of the three-dimensional environment 7304 to the first user 7002 and the viewpoint position corresponding to the currently displayed view of the three-dimensional environment 7304 is based on the location of the first user's head, body, or eyes within the first user's 7002 physical environment, the computer system sometimes displays representations of other physical objects (e.g., a physical object represented by the second user 7102 in this example, but which may be an inanimate object or an animate object that does not share the computer-generated environment 7304 with the first user 7002, etc.) at positions corresponding to the location of the physical objects in their respective physical environments. In some circumstances, even when there is no risk or possibility of an actual physical collision or uncomfortable spatial proximity between the first user 7002 and other physical objects in the real world, the position of the representation of the physical object may clash with or be too close (e.g., if not specifically adjusted, otherwise addressed, etc.) to the position of the viewpoint corresponding to the view shown to the first user, making the first user's visual experience in the three-dimensional environment uncomfortable or sometimes frustrating for the first user.

本明細書に開示されるように、コンピュータシステムは、第1のタイプの対応関係に基づいて判定された物理的オブジェクトの表現のポジションが、第1のユーザに対して示される三次元環境の現在表示されているビューに対応する視点の閾値範囲内にないとき、三次元環境内のポジションと物理的オブジェクトの物理的環境内の対応するロケーションとの間の第1のタイプの対応関係又はマッピング関係に基づいて、第1のユーザとは他の物理的環境内に位置する物理的オブジェクトの表現のポジションを判定する。これは、物理的オブジェクトの表現が視点の仮想ポジションからある距離にある場合、三次元環境内の物理的オブジェクトの表現の移動は、実世界における移動及び空間関係を模倣するように物理的オブジェクトの移動に対応することができ、物理的オブジェクトの表現は、第1のユーザの個人空間の感覚を侵害しないことを意味する。しかしながら、物理的オブジェクトの表現が視点の仮想ポジションから非常に近い場合、同じ方法で(例えば、第1のタイプの対応関係又はマッピング関係に従って)物理的オブジェクトの移動に対応する物理的オブジェクトの表現の移動は、物理的オブジェクトの表現が不合理なサイズで表示されること、視点と重なること、及び/又は第1のユーザの個人空間の感覚を侵害することを引き起こす。したがって、第1のタイプの対応関係又はマッピング関係に基づいて、物理的オブジェクトの表現が視点から閾値距離内にあるという判定に従って、コンピュータシステムは、物理的オブジェクトの表現の調整されたポジションを計算するために、三次元環境内のポジションと物理的オブジェクトの物理的環境内の対応するロケーションとの間の第2のタイプの対応関係又はマッピング関係を使用し、それにより、物理的オブジェクトの表現は、調整されたポジションに表示され、及び/又は不合理なサイズで表示されること、視点と重なること、及び/又は第1のユーザの個人空間の感覚を侵害することを回避するように移動することができる。 As disclosed herein, the computer system determines a position of a representation of a physical object located in a physical environment other than the first user based on a first type of correspondence or mapping relationship between a position in the three-dimensional environment and a corresponding location in the physical environment of the physical object when the position of the representation of the physical object determined based on the first type of correspondence is not within a threshold range of a viewpoint corresponding to a currently displayed view of the three-dimensional environment shown to the first user. This means that if the representation of the physical object is at a certain distance from the virtual position of the viewpoint, the movement of the representation of the physical object in the three-dimensional environment can correspond to the movement of the physical object in a way that mimics the movement and spatial relationship in the real world, and the representation of the physical object does not violate the first user's sense of personal space. However, if the representation of the physical object is very close to the virtual position of the viewpoint, the movement of the representation of the physical object that corresponds to the movement of the physical object in the same way (e.g., according to the first type of correspondence or mapping relationship) causes the representation of the physical object to be displayed at an unreasonable size, to overlap with the viewpoint, and/or to violate the first user's sense of personal space. Thus, pursuant to a determination based on the first type of correspondence or mapping relationship that the representation of the physical object is within a threshold distance from the viewpoint, the computer system uses the second type of correspondence or mapping relationship between the position in the three-dimensional environment and the corresponding location in the physical environment of the physical object to calculate an adjusted position of the representation of the physical object, such that the representation of the physical object may be displayed in the adjusted position and/or moved to avoid being displayed at an unreasonable size, overlapping with the viewpoint, and/or violating the first user's sense of personal space.

図7Dは、いくつかの実施形態による、2人のユーザ、例えば、第1のユーザ7002及び第2のユーザ7102がコンピュータ生成三次元環境7304を共有しているシナリオを示す。いくつかの実施形態では、第1のユーザ7002は第1の物理的環境105-aに位置し、第2のユーザ7102は第2の物理的環境105-bに位置する。いくつかの実施形態では、第1の物理的環境及び第2の物理的環境は、互いに重複し得る同じ物理的環境の一部である。いくつかの実施形態では、第1の物理的環境及び第2の物理的環境は、互いに重複しない別個の物理的環境である。いくつかの実施形態では、第1の物理的環境及び第2の物理的環境は、任意選択的に、屋内環境、屋外環境、1つの屋内環境及び1つの屋外環境、屋内環境と屋外環境との混合などである。この例では、第1の物理的環境は、物理表面(例えば、壁7004-a及び7006-a、床7008-aなど)及び物理的オブジェクト(例えば、物理的オブジェクト7010、他の物理的オブジェクトなど)を含む。第2の物理的環境は、物理的表面(例えば、壁7004-b及び7006-b、床7008-bなど)及び物理的オブジェクト(例えば、物理的オブジェクト7014、他の物理的オブジェクトなど)を含む。第1のユーザ7002は、第1の表示生成コンポーネント7100のユーザであり、第1の表示生成コンポーネント7100を介して共有三次元環境7304の第1のビュー7304-a(及びその後更新された第1のビュー7304-a’、7304-a’’など)が提供される。第2のユーザ7102は、第2の表示生成コンポーネント7200のユーザであり、第2の表示生成コンポーネント7200を介して共有三次元環境7304の第2のビュー7304-b(及びその後更新された第1のビュー7304-b’、7304-b’’など)が提供される。説明のために、第1のユーザ7002は、第1の物理的環境105-a内の直線7300に沿って前方に移動し、第2のユーザ7102は、第2の物理的環境105-b内の直線7302に沿って前方に移動し、三次元環境7304の第2のビュー7304-b内の直線7300の表現7300’は、第2のビュー7304-bの視点を通過し、三次元環境7304の第1のビュー7304-a内の直線7302の表現7302’は、第1のビュー7304-aの視点を通過する。いくつかの実施形態では、第1のユーザ7002及び第2のユーザ7102の移動経路が直線である必要はなく、経路は、任意の形状であってもよく、及び/又はそれらの物理的環境内に好適な任意の空間範囲を有してもよい。いくつかの実施形態では、第1のユーザ及び第2のユーザの両方が個別の物理的環境内で移動する必要はない。いくつかの実施形態では、個別の表示生成コンポーネントを介して提供される三次元環境の現在表示されているビューの視点は、静止していなくてもよく、及び/又は個別の表示生成コンポーネントの移動及び/又は個別の表示生成コンポーネントの個別のユーザの移動に従って移動してもよい。いくつかの実施形態では、三次元環境が第1のユーザと第2のユーザとの間の共有環境であるという要件はない。例えば、いくつかの実施形態では、第1の表示生成コンポーネント7100の観点から、この例における第2のユーザ7102は、単に、第2の物理的環境内の物理的オブジェクト(例えば、動物、ドローン、三次元環境を使用していない、又は三次元環境への入力を提供していない人など)の表現である。同様に、いくつかの実施形態では、第2の表示生成コンポーネントの観点から、この例における第1のユーザ7002は、単に、第1の物理的環境内の物理的オブジェクト(例えば、動物、ドローン、三次元環境を使用していない、又は三次元環境への入力を提供していない人など)の表現である。いくつかの実施形態では、表示生成コンポーネント(例えば、第1の表示生成コンポーネント、第2の表示生成コンポーネントなど)のうちの1つのみが使用され、他の表示生成コンポーネントは、存在しない、又は本明細書に説明されるプロセスに関与しない。 7D illustrates a scenario in which two users, e.g., a first user 7002 and a second user 7102, are sharing a computer-generated three-dimensional environment 7304, according to some embodiments. In some embodiments, the first user 7002 is located in a first physical environment 105-a and the second user 7102 is located in a second physical environment 105-b. In some embodiments, the first physical environment and the second physical environment are part of the same physical environment that may overlap with each other. In some embodiments, the first physical environment and the second physical environment are separate physical environments that do not overlap with each other. In some embodiments, the first physical environment and the second physical environment are, optionally, an indoor environment, an outdoor environment, one indoor environment and one outdoor environment, a mix of indoor and outdoor environments, etc. In this example, the first physical environment includes physical surfaces (e.g., walls 7004-a and 7006-a, floor 7008-a, etc.) and physical objects (e.g., physical object 7010, other physical objects, etc.). The second physical environment includes physical surfaces (e.g., walls 7004-b and 7006-b, floor 7008-b, etc.) and physical objects (e.g., physical object 7014, other physical objects, etc.). A first user 7002 is a user of a first view generation component 7100 and is provided with a first view 7304-a (and subsequently updated first views 7304-a', 7304-a", etc.) of a shared three-dimensional environment 7304 via the first view generation component 7100. A second user 7102 is a user of a second view generation component 7200 and is provided with a second view 7304-b (and subsequently updated first views 7304-b', 7304-b", etc.) of a shared three-dimensional environment 7304 via the second view generation component 7200. For purposes of illustration, a first user 7002 moves forward along a straight line 7300 in a first physical environment 105-a, a second user 7102 moves forward along a straight line 7302 in a second physical environment 105-b, a representation 7300' of the straight line 7300 in a second view 7304-b of a three-dimensional environment 7304 passes through the viewpoint of the second view 7304-b, and a representation 7302' of the straight line 7302 in a first view 7304-a of a three-dimensional environment 7304 passes through the viewpoint of the first view 7304-a. In some embodiments, the paths of travel of the first user 7002 and the second user 7102 need not be straight lines, and the paths may be of any shape and/or have any suitable spatial extent within their physical environments. In some embodiments, it is not necessary for both the first user and the second user to move within separate physical environments. In some embodiments, the viewpoint of the currently displayed view of the three-dimensional environment provided via the individual display generating components may not be stationary and/or may move according to the movement of the individual display generating components and/or the movement of the individual users of the individual display generating components. In some embodiments, there is no requirement that the three-dimensional environment is a shared environment between the first user and the second user. For example, in some embodiments, from the perspective of the first display generating component 7100, the second user 7102 in this example is simply a representation of a physical object in the second physical environment (e.g., an animal, a drone, a person not using or providing input to the three-dimensional environment, etc.). Similarly, in some embodiments, from the perspective of the second display generating component, the first user 7002 in this example is simply a representation of a physical object in the first physical environment (e.g., an animal, a drone, a person not using or providing input to the three-dimensional environment, etc.). In some embodiments, only one of the display generation components (e.g., the first display generation component, the second display generation component, etc.) is used, and the other display generation components are not present or do not participate in the processes described herein.

図7Dに示す例では、いくつかの実施形態によれば、三次元環境7304は、ユーザ7002とユーザ7102との間で、1人のユーザによって制御されるコンピュータシステムを使用してユーザ7002及び7102のうちの1人から開始され、ユーザ7002及び7102のうちの別のユーザによって制御されるコンピュータシステムを使用して別のユーザによって受け入れられる要求に応じて共有される。いくつかの実施形態では、両方のユーザが、第3のユーザによって使用されるコンピュータシステムから、それぞれのコンピュータシステムを使用して三次元環境を共有する要求を受信し、受け入れている。いくつかの実施形態では、両方のユーザが、それぞれのコンピュータシステムを使用して、三次元環境を共有する要求をサーバに送信しており、ユーザの要求は、サーバによって受け入れられている。コンピュータ生成三次元環境を共有するとき、ユーザのロケーション及び向き、並びにユーザのそれぞれの頭、目、手、腕、及び/又は手首のロケーション及び向きは、センサ(例えば、カメラ、運動センサなど)によってリアルタイムで又は周期的にキャプチャされ、ロケーション及び向きデータは、ユーザによって制御されるコンピュータシステムの一方又は両方、及び/又はコンピュータシステムと通信しているサーバに提供される。ロケーションデータは、コンピュータシステム及び/又はサーバによって使用されて、コンピュータ生成三次元環境内のユーザのそれぞれのロケーション及び向き、並びにユーザのそれぞれの頭部、目、手、腕、及び/又は手首のそれぞれのロケーション及び向き、並びに、対応して、ユーザに関連付けられた異なる表示生成コンポーネントを介して提供される三次元環境のビュー内のユーザのそれぞれの頭部、腕、手、及び/又は手首を含むユーザの表現のそれぞれのポジション、並びにユーザに関連付けられた異なる表示生成コンポーネントを介して提供される三次元環境のビューの視野及び視点を判定する。いくつかの実施形態では、ユーザによって共有されるコンピュータ生成環境は、仮想会議通話、チャットセッション、マルチプレーヤゲーム、共有コンピュータ生成体験(例えば、グループ瞑想、エクササイズ、ゲーム、共同作業など)などの環境である。いくつかの実施形態では、ユーザの表現は、ユーザのアバターである。いくつかの実施形態では、ユーザの表現は、任意選択的に、三次元環境内の表面に付着されない、又は表面によって支持されない。 In the example shown in FIG. 7D, according to some embodiments, a three-dimensional environment 7304 is shared between user 7002 and user 7102 in response to a request initiated by one of users 7002 and 7102 using a computer system controlled by one user and accepted by another of users 7002 and 7102 using a computer system controlled by the other of users 7002 and 7102. In some embodiments, both users receive and accept a request to share the three-dimensional environment from a computer system used by a third user using their respective computer systems. In some embodiments, both users send a request to share the three-dimensional environment to a server using their respective computer systems, and the user's request is accepted by the server. When sharing a computer-generated three-dimensional environment, the location and orientation of the users, as well as the location and orientation of their respective heads, eyes, hands, arms, and/or wrists, are captured in real time or periodically by sensors (e.g., cameras, motion sensors, etc.), and the location and orientation data is provided to one or both of the computer systems controlled by the users and/or to a server in communication with the computer systems. The location data is used by the computer system and/or server to determine the location and orientation of each of the users within the computer-generated three-dimensional environment, as well as the location and orientation of each of the users' heads, eyes, hands, arms, and/or wrists, and correspondingly, the position of each of the representations of the users including their respective heads, arms, hands, and/or wrists within the view of the three-dimensional environment provided via the different display generation components associated with the users, as well as the field of view and viewpoint of the view of the three-dimensional environment provided via the different display generation components associated with the users. In some embodiments, the computer-generated environment shared by the users is an environment such as a virtual conference call, a chat session, a multiplayer game, a shared computer-generated experience (e.g., a group meditation, exercise, game, collaboration, etc.). In some embodiments, the representation of the user is an avatar of the user. In some embodiments, the representation of the user is, optionally, not attached to or supported by a surface within the three-dimensional environment.

図7Dのパート(A)では、コンピュータシステムは、第1の表示生成コンポーネント7100を介して三次元環境7304の第1のビュー7304-aを表示する。三次元環境の第1のビュー7304-aにおいて、第2のユーザ7102の表現7102’-aは、第2の物理的環境105-b内の第2のユーザ7102の現在ロケーションに対応するポジションに表示される。三次元環境の第1のビュー7304-a内には、仮想経路7306-a、仮想オブジェクト7308-aなどの他のオブジェクトがある。第1のビュー7304-a内の第2のユーザ7102の表現7102’-a、仮想オブジェクト7308-a、及び仮想経路7306-aのそれぞれの外観及び表示ポジションは、第1の表示生成コンポーネント7100を介して示される三次元環境の現在表示されている第1のビュー7304-aの視点のポジションに対する三次元環境内のそれらのそれぞれのポジションに基づく。いくつかの実施形態では、第1のユーザ7002の表現7002’-aは、三次元環境の第1のビュー7304-a内に、第1のユーザ7002の仮想ポジション及び/又は三次元環境において現在表示されている第1のビュー7304-aの視点に対応するポジションで、任意選択的に可視である。この例では、図7D、パート(A)に示すように、コンピュータシステムは、第1のビュー7304-aの視点の仮想ポジションに向かう直線7302の表現7302’に沿った表現7102’-aの移動を表示する。図7Dに示される瞬間において、表現7102’-aは、三次元環境7304内のポジションと第2の物理的環境(例えば、シーン105-b、又は第2のユーザ7102の別の物理的環境など)内のロケーションとの間の第1のタイプの対応関係に従って計算されるポジションに表示される。第2のユーザ7102の表現7102’-aは、第2のユーザ7102が第2の物理的環境内で線7302に沿って前方に移動するにつれて、第1のビュー7304-aの視点に向かって移動して接近するように示されている。 In part (A) of FIG. 7D, the computer system displays a first view 7304-a of a three-dimensional environment 7304 via the first display generation component 7100. In the first view 7304-a of the three-dimensional environment, a representation 7102'-a of the second user 7102 is displayed at a position corresponding to the current location of the second user 7102 in the second physical environment 105-b. In the first view 7304-a of the three-dimensional environment, there are other objects such as a virtual path 7306-a, a virtual object 7308-a, etc. The appearance and display positions of each of the representation 7102'-a of the second user 7102, the virtual object 7308-a, and the virtual path 7306-a in the first view 7304-a are based on their respective positions in the three-dimensional environment relative to the position of the viewpoint of the currently displayed first view 7304-a of the three-dimensional environment shown via the first display generation component 7100. In some embodiments, the representation 7002'-a of the first user 7002 is optionally visible in the first view 7304-a of the three-dimensional environment at a position corresponding to the virtual position of the first user 7002 and/or the viewpoint of the first view 7304-a currently displayed in the three-dimensional environment. In this example, as shown in Fig. 7D, part (A), the computer system displays the movement of the representation 7102'-a along the representation 7302' of the straight line 7302 toward the virtual position of the viewpoint of the first view 7304-a. At the moment shown in Fig. 7D, the representation 7102'-a is displayed at a position calculated according to a first type of correspondence between a position in the three-dimensional environment 7304 and a location in the second physical environment (e.g., scene 105-b, or another physical environment of the second user 7102, etc.). The representation 7102'-a of the second user 7102 is shown moving toward and approaching the viewpoint of the first view 7304-a as the second user 7102 moves forward along the line 7302 in the second physical environment.

いくつかの実施形態では、図7Dの部分(B)に示されるように、コンピュータシステム、又はコンピュータシステムと通信している別のコンピュータシステムは、任意選択的に、表示生成コンポーネント7200を介して、三次元環境7304の第2のビュー7304-bを表示する。三次元環境の第2のビュー7304-bにおいて、第1のユーザ7002の表現7002’-bは、第1の物理的環境(例えば、シーン105-a、又は第1のユーザの別の物理的環境など)内の第1のユーザ7002の現在ロケーションに対応するポジションに表示される。三次元環境の第2のビュー7304-bには、仮想経路7306-b(例えば、仮想経路7306-aと同じ仮想経路であるが、第2のビュー7304-bの視点から見たもの)、仮想オブジェクト7308-b(例えば、仮想オブジェクト7308-aと同じ仮想オブジェクトであるが、第2のビュー7304-bの視点から見たもの)などの他のオブジェクトがある。第2のビュー7304-b内の第1のユーザ7002の表現7002’-b、仮想オブジェクト7308-b、及び仮想経路7306-bのそれぞれの外観及び表示ポジションは、第2の表示生成コンポーネント7200を介して示される三次元環境の現在表示されている第2のビュー7304-bの視点のポジションに対する三次元環境内のそれらのそれぞれのポジションに基づく。いくつかの実施形態では、第2のユーザ7102の表現7102’-bは、第2のユーザ7102の仮想ポジション及び/又は現在表示されている第2のビュー7304-bの視点に対応するポジションにおいて、三次元環境の第2のビュー7304-b内で可視である。この例では、図7Dの部分(B)に示されるように、コンピュータシステムは、第2のビュー7304-bの視点の仮想ポジションに向かう直線7300の表現7300’に沿った表現7002’-bの移動を表示する。図7Dに示される瞬間、表現7002’-bは、三次元環境7304内のポジションと第1の物理的環境(例えば、シーン105-a、又は第1のユーザの別の物理的環境など)内のロケーションとの間の第1のタイプの対応関係に従って計算されるポジションに表示される。第1のユーザ7002の表現7002’-bは、第1のユーザ7002が第1の物理的環境内で線7300に沿って前方に移動するにつれて、第2のビュー7304-bの視点の仮想ポジションに向かって移動し、接近するように示されている。 In some embodiments, as shown in part (B) of FIG. 7D, the computer system, or another computer system in communication with the computer system, optionally displays a second view 7304-b of the three-dimensional environment 7304 via the display generation component 7200. In the second view 7304-b of the three-dimensional environment, the representation 7002'-b of the first user 7002 is displayed in a position corresponding to the current location of the first user 7002 in the first physical environment (e.g., scene 105-a, or another physical environment of the first user, etc.). In the second view 7304-b of the three-dimensional environment, there are other objects, such as a virtual path 7306-b (e.g., the same virtual path as virtual path 7306-a, but viewed from the perspective of the second view 7304-b), a virtual object 7308-b (e.g., the same virtual object as virtual object 7308-a, but viewed from the perspective of the second view 7304-b). The appearance and display position of each of the representation 7002'-b of the first user 7002, the virtual object 7308-b, and the virtual path 7306-b in the second view 7304-b is based on their respective positions in the three-dimensional environment relative to the position of the viewpoint of the currently displayed second view 7304-b of the three-dimensional environment shown via the second display generation component 7200. In some embodiments, the representation 7102'-b of the second user 7102 is visible in the second view 7304-b of the three-dimensional environment at a position corresponding to the virtual position of the second user 7102 and/or the viewpoint of the currently displayed second view 7304-b. In this example, as shown in part (B) of FIG. 7D, the computer system displays the movement of the representation 7002'-b along the representation 7300' of the straight line 7300 toward the virtual position of the viewpoint of the second view 7304-b. At the moment shown in FIG. 7D, the representation 7002'-b is displayed at a position calculated according to a first type of correspondence between positions in the three-dimensional environment 7304 and locations in the first physical environment (e.g., scene 105-a, or another physical environment of the first user). The representation 7002'-b of the first user 7002 is shown moving toward and approaching the virtual position of the viewpoint of the second view 7304-b as the first user 7002 moves forward along the line 7300 in the first physical environment.

図7Eは、第1のユーザ7002及び第2のユーザ7102のいずれか又は両方が、第1のタイプの対応関係(例えば、三次元環境7304内のポジションと第1の物理的環境内のロケーションとの間の第1のタイプの対応関係、三次元環境7304内のポジションと第2の物理的環境内のロケーションとの間の第1のタイプの対応関係など)に従って計算された三次元環境7304内の第1のユーザ及び第2のユーザのそれぞれのポジションが、三次元環境7304内で互いに個別の予め設定された閾値距離にあるように、それぞれの物理的環境内で移動した時点を示す。いくつかの実施形態では、この時点で、図7Eの部分(A)に示すように、第2のユーザ7102の表現7102’-aの個別のポジションと、三次元環境7304内のポジションと第2の物理的環境内のロケーションとの間の第1のタイプの対応に従って計算される更新された第1のビュー7304-a’の視点のポジションとは、三次元環境7304内で互いの第1の閾値距離にある。いくつかの実施形態では、任意選択的に、図7Eの部分(B)に示すように、三次元環境7304内のポジションと第1の物理的環境内のロケーションとの間の第1のタイプの対応関係に従って計算される、第1のユーザ7002の表現7002’-bの個別のポジション及び更新された第2のビュー7304-b’の視点のポジションは、三次元環境内で互いに第2の予め設定された閾値距離にある(例えば、第1の予め設定された閾値距離と同じ、異なる予め設定された閾値距離にあるなど)。いくつかの実施形態では、第1の閾値距離は、第1のユーザ及び第2のユーザのそれぞれの個人設定及び他の特性(例えば、サイズ、形状、姿勢、活動など)に応じて、第2の閾値距離とは異なる。 7E illustrates a time when either or both of the first user 7002 and the second user 7102 have moved within their respective physical environments such that the respective positions of the first user and the second user within the three-dimensional environment 7304 calculated according to a first type of correspondence (e.g., a first type of correspondence between a position within the three-dimensional environment 7304 and a location within the first physical environment, a first type of correspondence between a position within the three-dimensional environment 7304 and a location within the second physical environment, etc.) are at a respective pre-set threshold distance from each other within the three-dimensional environment 7304. In some embodiments, at this point, as shown in part (A) of FIG. 7E, the respective positions of the representation 7102'-a of the second user 7102 and the position of the viewpoint of the updated first view 7304-a' calculated according to the first type of correspondence between the position within the three-dimensional environment 7304 and the location within the second physical environment are at a first threshold distance from each other within the three-dimensional environment 7304. In some embodiments, optionally, as shown in part (B) of FIG. 7E, the individual positions of the representation 7002'-b of the first user 7002 and the position of the viewpoint of the updated second view 7304-b', calculated according to a first type of correspondence between positions in the three-dimensional environment 7304 and locations in the first physical environment, are at a second preset threshold distance from each other in the three-dimensional environment (e.g., at the same preset threshold distance, a different preset threshold distance, etc. than the first preset threshold distance). In some embodiments, the first threshold distance is different from the second threshold distance depending on the personal settings and other characteristics (e.g., size, shape, posture, activity, etc.) of the first user and the second user, respectively.

図7Eのパート(A)では、第1のユーザ7002及び第2のユーザ7102の彼/彼女の物理的環境内の移動を検出したことに応じて、コンピュータシステムは、第1の物理的環境内の第1のユーザ7002の移動に従って移動させられる視点を有する三次元環境の更新された第1のビュー7304-a’を表示する。いくつかの実施形態では、更新された第1のビュー7304-a’の視点は、第1のユーザ7002及び/又は第1の表示生成コンポーネント7100が第1の物理的環境内で移動しなかった場合、三次元環境内で静止している。いくつかの実施形態では、第1のタイプの対応関係に従って第2の物理的環境内の第2のユーザの現在ロケーションに基づいて計算される三次元環境内の第2のユーザ7102の表現7102’-aの個別のポジションが、三次元環境の更新された第1のビュー7304-a’に関連付けられた視点に対応する三次元環境内の個別のポジションから第1の予め設定された閾値距離以上であるという判定に従って、コンピュータシステムは、三次元環境の更新された第1のビュー7304-a’内の第1の表示ポジションに表現7102’-aを表示し、第1の表示ポジションは、三次元環境内の表現7102’-aの個別のポジションである。 In part (A) of FIG. 7E, in response to detecting movement of the first user 7002 and the second user 7102 within his/her physical environment, the computer system displays an updated first view 7304-a' of the three-dimensional environment having a viewpoint that is moved according to the movement of the first user 7002 within the first physical environment. In some embodiments, the viewpoint of the updated first view 7304-a' is stationary within the three-dimensional environment if the first user 7002 and/or the first display generation component 7100 have not moved within the first physical environment. In some embodiments, in response to a determination that a respective position of the representation 7102'-a of the second user 7102 in the three dimensional environment, calculated based on the second user's current location in the second physical environment according to the first type of correspondence, is greater than or equal to a first preset threshold distance from a respective position in the three dimensional environment corresponding to a viewpoint associated with the updated first view 7304-a' of the three dimensional environment, the computer system displays the representation 7102'-a at a first display position within the updated first view 7304-a' of the three dimensional environment, the first display position being the respective position of the representation 7102'-a in the three dimensional environment.

いくつかの実施形態では、第1の予め設定された閾値距離は、腕の長さ、三次元環境7304内の第1のユーザ7002のための個人空間の予め設定された半径であり、三次元環境内の第1のユーザ7002の仮想ポジションを囲む予め設定された境界面(例えば、第1のユーザ7002の表現の仮想面、又は第1のユーザ7002の仮想ポジションを囲む境界ボックス)によって定義される。 In some embodiments, the first pre-set threshold distance is an arm's length, a pre-set radius of a personal space for the first user 7002 in the three-dimensional environment 7304, and is defined by a pre-set bounding surface surrounding the virtual position of the first user 7002 in the three-dimensional environment (e.g., a virtual surface of a representation of the first user 7002, or a bounding box surrounding the virtual position of the first user 7002).

いくつかの実施形態では、任意選択的に、図7Eの部分(B)に示されるように、第2のユーザ7102の物理的環境内の第2のユーザ7102の移動を検出したことに応じて、第2のユーザ7102のコンピュータシステムは、第2の物理的環境内の第2のユーザ7102の移動に従って移動される視点を有する三次元環境7304の更新された第2のビュー7304-b’を表示する。いくつかの実施形態では、更新された第2のビュー7304-b’の視点は、第2のユーザ7102及び/又は第2の表示生成コンポーネント7200が第2の物理的環境内で移動しなかった場合、三次元環境内で静止している。いくつかの実施形態では、第1のタイプの対応関係に従って第1の物理的環境内の第1のユーザ7002の現在ロケーションに基づいて計算される三次元環境内の第1のユーザ7002の表現7002’-bの個別のポジションが、三次元環境の更新された第2のビュー7304-b’に関連付けられた視点に対応する三次元環境内の個別のポジションから第2の予め設定された閾値距離以上であるという判定に従って、第2のユーザ7102のコンピュータシステムは、三次元環境の更新された第2のビュー7304-b’内の第2の表示ポジションに表現7002’-bを表示し、第2の表示ポジションは、三次元環境内の表現7002’-bの個別のポジションである。 Optionally, in some embodiments, as shown in part (B) of FIG. 7E, in response to detecting movement of the second user 7102 within the second user's 7102 physical environment, the computer system of the second user 7102 displays an updated second view 7304-b' of the three-dimensional environment 7304 having a viewpoint that is moved according to the movement of the second user 7102 within the second physical environment. In some embodiments, the viewpoint of the updated second view 7304-b' is stationary within the three-dimensional environment if the second user 7102 and/or the second display generating component 7200 have not moved within the second physical environment. In some embodiments, in response to a determination that the individual position of the representation 7002'-b of the first user 7002 in the three-dimensional environment, calculated based on the current location of the first user 7002 in the first physical environment according to the first type of correspondence, is greater than or equal to a second preset threshold distance from the individual position in the three-dimensional environment corresponding to the viewpoint associated with the updated second view 7304-b' of the three-dimensional environment, the computer system of the second user 7102 displays the representation 7002'-b at a second display position within the updated second view 7304-b' of the three-dimensional environment, the second display position being the individual position of the representation 7002'-b in the three-dimensional environment.

いくつかの実施形態では、第2の予め設定された閾値距離は、腕の長さ、三次元環境内の第2のユーザ7102の個人空間の予め設定された半径であり、三次元環境内の第2のユーザ7102の仮想ポジションを取り囲む予め設定された境界面(例えば、第2のユーザ7102の表現の仮想面、第2のユーザ7102の仮想ポジションを取り囲む境界ボックスなど)によって定義される。 In some embodiments, the second pre-set threshold distance is an arm's length, a pre-set radius of the second user's 7102 personal space in the three-dimensional environment, and is defined by a pre-set bounding surface surrounding the second user's 7102 virtual position in the three-dimensional environment (e.g., a virtual surface of a representation of the second user 7102, a bounding box surrounding the second user's 7102 virtual position, etc.).

図7Fでは、図7Eに示されるものの次の瞬間、第1のユーザ7002及び第2のユーザ7102のいずれか又は両方の移動が、第1のタイプの対応関係(例えば、三次元環境7304内のポジションと第1の物理的環境内のロケーションとの間の第1のタイプの対応関係、三次元環境7304内のポジションと第2の物理的環境内のロケーションとの間の第1のタイプの対応関係など)に従って計算されるような三次元環境内の第1のユーザ及び第2のユーザのそれぞれのポジションが、三次元環境内で互いの個別の予め設定された閾値距離内にあるように、それらのそれぞれの物理的環境内で継続している。いくつかの実施形態では、この時点で、三次元環境7304内のポジションと第2の物理的環境内のロケーションとの間の第1のタイプの対応関係に従って計算される、第2のユーザ7102の表現の個別のポジション及び更に更新された第1のビュー7304-a’’の視点のポジションは、三次元環境内で互いの第1の予め設定された閾値距離未満である。 7F, the next moment after that shown in FIG. 7E, the movement of either or both of the first user 7002 and the second user 7102 continues in their respective physical environments such that the respective positions of the first user and the second user in the three-dimensional environment as calculated according to a first type of correspondence (e.g., a first type of correspondence between a position in the three-dimensional environment 7304 and a location in the first physical environment, a first type of correspondence between a position in the three-dimensional environment 7304 and a location in the second physical environment, etc.) are within a respective preset threshold distance of each other in the three-dimensional environment. In some embodiments, at this point, the respective positions of the representation of the second user 7102 and the position of the viewpoint of the further updated first view 7304-a'' are less than a first preset threshold distance of each other in the three-dimensional environment, calculated according to the first type of correspondence between a position in the three-dimensional environment 7304 and a location in the second physical environment.

図7Fの部分(A)では、それぞれの物理的環境内の第1のユーザ7002及び/又は第2のユーザ7102の更なる移動を検出したことに応じて、コンピュータシステムは、第1の物理的環境内の第1のユーザ7002の更なる移動に従って移動される視点を有する三次元環境の更なる更新された第1のビュー7304-a’’を表示する。いくつかの実施形態では、更に更新された第1のビュー7304-a’’の視点は、第1のユーザ7002及び/又は第1の表示生成コンポーネント7100が第1の物理的環境内で移動しなかった場合、三次元環境内で静止している。いくつかの実施形態では、第1のタイプの対応関係に従って第2の物理的環境内の第2のユーザ7102の現在ロケーションに基づいて計算された三次元環境内の第2のユーザ7102の表現7102’-aの個別のポジションが、三次元環境の更に更新された第1のビュー7304-a’’に関連付けられた視点に対応する三次元環境内の個別のポジションから第1の予め設定閾値距離未満であるという判定に従って、コンピュータシステムは、三次元環境の更に更新された第1のビュー7304-a’’内の調整された表示ポジションに表現7102’-aを表示し、調整された表示ポジションは、この時点での三次元環境内の表現7102’-aの個別のポジションからオフセットされる。例えば、図7Fの部分(A)では、表現7102’-aの真正面のポジションに表現7002’-aを表示する代わりに、又は更に更新された第1のビュー7304-a’’内の表現7002’-aと重複して、表現7002’-aの調整された表示ポジションは、第1のユーザ7002の表現7002’-aの側(例えば、右側、又は別の側若しくは方向など)にオフセットされる。一般に、現在表示されている第1のビュー7304-a’’の視点の第1の予め設定された閾値距離内にあるポジションに表現7102’-aを表示する代わりに、コンピュータシステムは、第1のタイプの対応関係に従って計算された未調整ポジションからオフセットされた調整された表示ポジションに表現7102’-aを表示する。いくつかの実施形態では、コンピュータシステムは、表現7102’-aのポジションと現在表示されている第1のビュー7304-a’’の視点のポジションとの間の距離がもはや互いの第1の予め設定閾値距離内になくなるまで、第1のユーザ7002及び/又は第2のユーザ7102の移動中に、表現7102’-aの表示ポジションに調整を適用し続ける。 In portion (A) of FIG. 7F, in response to detecting further movement of the first user 7002 and/or the second user 7102 within their respective physical environments, the computer system displays a further updated first view 7304-a'' of the three-dimensional environment having a viewpoint that is moved in accordance with the further movement of the first user 7002 within the first physical environment. In some embodiments, the viewpoint of the further updated first view 7304-a'' is stationary within the three-dimensional environment if the first user 7002 and/or the first display generation component 7100 have not moved within the first physical environment. In some embodiments, following a determination that an individual position of the representation 7102'-a of the second user 7102 in the three dimensional environment calculated based on the current location of the second user 7102 in the second physical environment in accordance with the first type of correspondence is less than a first preset threshold distance from an individual position in the three dimensional environment corresponding to a viewpoint associated with the further updated first view 7304-a'' of the three dimensional environment, the computer system displays the representation 7102'-a at an adjusted display position in the further updated first view 7304-a'' of the three dimensional environment, the adjusted display position being offset from the individual position of the representation 7102'-a in the three dimensional environment at this point in time. For example, in portion (A) of Figure 7F, instead of displaying representation 7002'-a in a position directly in front of representation 7102'-a, or overlapping with representation 7002'-a in the further updated first view 7304-a", the adjusted display position of representation 7002'-a is offset to the side (e.g., to the right, or to another side or direction, etc.) of representation 7002'-a of first user 7002. In general, instead of displaying representation 7102'-a in a position that is within a first preset threshold distance of the viewpoint of the currently displayed first view 7304-a", the computer system displays representation 7102'-a in an adjusted display position that is offset from the unadjusted position calculated according to the first type of correspondence. In some embodiments, the computer system continues to apply adjustments to the display position of the representation 7102'-a as the first user 7002 and/or the second user 7102 move until the distance between the position of the representation 7102'-a and the position of the viewpoint of the currently displayed first view 7304-a'' is no longer within the first preset threshold distance of each other.

いくつかの実施形態では、任意選択的に、図7Fの部分(B)に示すように、三次元環境7304内のポジションと第1の物理的環境内のロケーションとの間の第1のタイプの対応関係に従って計算された、第1のユーザ7002の表現7002’-bの個別のポジション及び更に更新された第2のビュー7304-b’’の視点のポジションは、三次元環境内で互いの第2の予め設定された閾値距離未満(例えば、第1の予め設定された閾値距離と同じ、異なる予め設定された閾値距離など)である。 In some embodiments, optionally, as shown in part (B) of FIG. 7F, the individual positions of the representation 7002'-b of the first user 7002 and the position of the viewpoint of the further updated second view 7304-b'' calculated according to a first type of correspondence between positions in the three-dimensional environment 7304 and locations in the first physical environment are less than a second preset threshold distance from each other in the three-dimensional environment (e.g., the same as the first preset threshold distance, a different preset threshold distance, etc.).

図7Fの部分(B)では、第1のユーザ7002及び/又は第2のユーザ7102のそれぞれの物理的環境内の更なる移動を検出したことに応じて、第2のユーザ7102のコンピュータシステムは、第2の物理的環境内の第2のユーザ7102の更なる移動に従って移動される視点を有する三次元環境の更なる更新された第2のビュー7304-b’’を表示する。いくつかの実施形態では、更に更新された第2のビュー7304-a’’の視点は、第2のユーザ7102及び/又は第2の表示生成コンポーネント7200が第2の物理的環境内で移動しなかった場合、三次元環境内で静止している。いくつかの実施形態では、第1のタイプの対応関係に従って第1の物理的環境内の第1のユーザ7002の現在ロケーションに基づいて計算された三次元環境内の第1のユーザ7002の表現7002’-bの個別のポジションが、三次元環境の更に更新された第2のビュー7304-b’’に関連付けられた視点に対応する三次元環境内の個別のポジションから第2の予め設定された閾値距離未満であるという判定に従って、第2のユーザ7102のコンピュータシステムは、三次元環境の更に更新された第2のビュー7304-b’’内の調整された表示ポジションに表現7002’-bを表示し、調整された表示ポジションは、この時点における三次元環境内の表現7002’-bの個別のポジションからオフセットされる。例えば、図7Fの部分(B)では、表現7002’-bを表現7102’-bの真正面のポジションに表示するか、又は更に更新された第2のビュー7304-b’’内の表現7102’-bと重複する代わりに、表現7002’-bの調整された表示ポジションは、第2のユーザ7102の表現7102’-bの側に(例えば、右に、別の側又は方向になど)オフセットされる。一般に、現在表示されている第2のビュー7304-b’’の視点の第2の予め設定された閾値距離内にあるポジションに表現7002’-bを表示する代わりに、第2のユーザ7102のコンピュータシステムは、第1のタイプの対応関係に従って計算された未調整ポジションからオフセットされた調整された表示ポジションに表現7002’-bを表示する。いくつかの実施形態では、第2のユーザ7102のコンピュータシステムは、表現7002’-bのポジションと現在表示されている第2のビュー7304-b’’の視点のポジションとの間の距離がもはや互いの予め設定された第2の閾値距離内になくなるまで、第1のユーザ及び/又は第2のユーザの移動中に調整を適用し続ける。 In portion (B) of FIG. 7F, in response to detecting further movement of the first user 7002 and/or the second user 7102 within their respective physical environments, the computer system of the second user 7102 displays a further updated second view 7304-b'' of the three-dimensional environment having a viewpoint that is moved in accordance with the further movement of the second user 7102 within the second physical environment. In some embodiments, the viewpoint of the further updated second view 7304-a'' is stationary within the three-dimensional environment if the second user 7102 and/or the second display generation component 7200 have not moved within the second physical environment. In some embodiments, in response to a determination that an individual position of the representation 7002'-b of the first user 7002 in the three dimensional environment calculated based on the current location of the first user 7002 in the first physical environment in accordance with the first type of correspondence is less than a second preset threshold distance from an individual position in the three dimensional environment corresponding to a viewpoint associated with the further updated second view 7304-b'' of the three dimensional environment, the computer system of the second user 7102 displays the representation 7002'-b at an adjusted display position in the further updated second view 7304-b'' of the three dimensional environment, the adjusted display position being offset from the individual position of the representation 7002'-b in the three dimensional environment at this time. For example, in portion (B) of Figure 7F, instead of displaying representation 7002'-b in a position directly in front of representation 7102'-b, or even overlapping with representation 7102'-b in the updated second view 7304-b", the adjusted display position of representation 7002'-b is offset to the side (e.g., to the right, to another side or direction, etc.) of representation 7102'-b of the second user 7102. In general, instead of displaying representation 7002'-b in a position that is within a second preset threshold distance of the viewpoint of the currently displayed second view 7304-b", the computer system of the second user 7102 displays representation 7002'-b in an adjusted display position that is offset from the unadjusted position calculated according to the first type of correspondence. In some embodiments, the computer system of the second user 7102 continues to apply the adjustments during the movement of the first user and/or the second user until the distance between the position of the representation 7002'-b and the position of the viewpoint of the currently displayed second view 7304-b'' is no longer within the preset second threshold distance of each other.

いくつかの実施形態では、上記の例において、第1のユーザ7002は移動しており、第2のユーザ7102は静止している。結果として、上述のように調整されない限り、現在表示されているビュー7304-a、7304-a’、及び7304-a’’の視点は、三次元環境において異なるポジションを有し、第1のユーザ7002の表現7002’-bは、三次元環境において(例えば、図7D~図7Fにおける現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、7304-b’’において)異なるポジションを有する。上述のように調整されない限り、現在表示されているビュー7304-b、7304-b’、及び7304-b’’の視点は、三次元環境において同じポジションを有し、第2のユーザ7102の表現7102’-aは、三次元環境において(例えば、図7D~図7Fにおける現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、7304-b’’において)同じポジションを有する。 In some embodiments, in the above example, the first user 7002 is moving and the second user 7102 is stationary. As a result, unless adjusted as described above, the viewpoints of the currently displayed views 7304-a, 7304-a', and 7304-a" have different positions in the three-dimensional environment, and the representations 7002'-b of the first user 7002 have different positions in the three-dimensional environment (e.g., in the currently displayed first views 7304-a, 7304-a', and 7304-a" and the currently displayed second views 7304-b, 7304-b', 7304-b" in Figures 7D-7F). Unless adjusted as described above, the viewpoints of the currently displayed views 7304-b, 7304-b', and 7304-b'' have the same position in the three-dimensional environment, and the representation 7102'-a of the second user 7102 has the same position in the three-dimensional environment (e.g., in the currently displayed first views 7304-a, 7304-a', and 7304-a'' and the currently displayed second views 7304-b, 7304-b', 7304-b'' in Figures 7D-7F).

いくつかの実施形態では、上記の例において、第1のユーザ7002は静止しており、第2のユーザ7102は第2の物理的環境内で移動している。結果として、上述のように調整されない限り、現在表示されているビュー7304-b、7304-b’、及び7304-b’’の視点は、三次元環境において異なるポジションを有し、第2のユーザ7102の表現7102’-aは、三次元環境において(例えば、図7D~図7Fにおける現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、7304-b’’において)異なるポジションを有する。上述のように調整されない限り、現在表示されているビュー7304-a、7304-a’、及び7304-a’’の視点は、三次元環境において同じポジションを有し、第1のユーザ7002の表現7002’-bは、三次元環境において(例えば、図7D~図7Fにおける現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、7304-b’’において)同じポジションを有する。 In some embodiments, in the above example, the first user 7002 is stationary and the second user 7102 is moving within the second physical environment. As a result, unless adjusted as described above, the viewpoints of the currently displayed views 7304-b, 7304-b', and 7304-b" have different positions in the three-dimensional environment and the representation 7102'-a of the second user 7102 has different positions in the three-dimensional environment (e.g., in the currently displayed first views 7304-a, 7304-a', and 7304-a" and the currently displayed second views 7304-b, 7304-b', 7304-b" in Figures 7D-7F). Unless adjusted as described above, the viewpoints of the currently displayed views 7304-a, 7304-a', and 7304-a'' have the same position in the three-dimensional environment, and the representation 7002'-b of the first user 7002 has the same position in the three-dimensional environment (e.g., in the currently displayed first views 7304-a, 7304-a', and 7304-a'' and the currently displayed second views 7304-b, 7304-b', and 7304-b'' in Figures 7D-7F).

いくつかの実施形態では、上記の例において、第1のユーザ7002及び第2のユーザ7102は両方とも、それぞれの物理的環境内で移動している。その結果、現在表示されている第1のビュー7304-b、7304-b’、及び7304-b’’の視点、並びに現在表示されている第2のビュー7304-a、7304-a’、7304-a’’の視点は全て、三次元環境において異なるポジションを有する。第2のユーザ7102の表現7102’-aは、図7D~図7Fの現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、及び7304-b’’において三次元環境内の異なるポジションを有し、第1のユーザ7002の表現7002’-bは、図7D~図7Fの現在表示されている第1のビュー7304-a、7304-a’、及び7304-a’’、並びに現在表示されている第2のビュー7304-b、7304-b’、及び7304-b’’において三次元環境内の異なるポジションを有する。 In some embodiments, in the example above, both the first user 7002 and the second user 7102 are moving within their respective physical environments. As a result, the viewpoints of the currently displayed first views 7304-b, 7304-b', and 7304-b'', and the viewpoints of the currently displayed second views 7304-a, 7304-a', 7304-a'', all have different positions in the three-dimensional environment. The representation 7102'-a of the second user 7102 has different positions in the three-dimensional environment in the currently displayed first views 7304-a, 7304-a', and 7304-a'' and the currently displayed second views 7304-b, 7304-b', and 7304-b'' of Figures 7D-7F, and the representation 7002'-b of the first user 7002 has different positions in the three-dimensional environment in the currently displayed first views 7304-a, 7304-a', and 7304-a'' and the currently displayed second views 7304-b, 7304-b', and 7304-b'' of Figures 7D-7F.

いくつかの実施形態では、第1のユーザ7002の表現7002’-b及び/又は第2のユーザ7102の表現7102’-aは、第1のビュー及び第2のビュー内の空間に浮動している。例えば、いくつかの実施形態では、第1のユーザ7002の表現7002’-bは、三次元環境の第2のビュー7034-b、7034-b’、及び7034-b’’などに浮かんでいる第1のユーザ7002の浮動アバターであり、第1のユーザの移動及び/又は第2のユーザの移動に起因して、第2のビュー7034-b’’の視点が表現7002’-bの第2の予め設定された閾値距離内に入ると、自動的に邪魔にならないように移動する。同様に、いくつかの実施形態では、第2のユーザ7102の表現7102’-aは、三次元環境の第1のビュー7034-a、7034-a’、及び7034-a’’などに浮かんでいる第2のユーザ7102の浮動アバターであり、第1のユーザの移動及び/又は第2のユーザの移動に起因して、第1のビュー7034-a’’の視点が表現7102’-aの第1の予め設定された閾値距離内に入ると、自動的に邪魔にならないように移動する。いくつかの実施形態では、三次元環境内のユーザのアバターは、三次元環境の現実感レベル(例えば、写真の現実感レベル、漫画の現実感レベルなど)に基づいて選択される現実感レベルである。いくつかの実施形態では、三次元環境7304が第1の現実感レベルで表示されるという判定に従って、ユーザの表現は、第1の現実感レベルに対応する第1のセットの表示特性(例えば、第1の解像度、第1の次元数、第1の鮮明度、第1のカラーパレット、照明効果なしなど)で表示され、三次元環境が第1の現実感レベルとは異なる(例えば、より高い、より低いなど)第2の現実感レベルで表示されるという判定に従って、ユーザの表現は、第2の現実感レベルに対応する第2のセットの表示特性(例えば、第2の解像度、第2の次元数、第2の鮮明度、第2のカラーパレット、照明効果ありなど)で表示され、第2のセットの表示特性は、第1のセットの表示特性とは異なる(例えば、より高い、より低い、加算する、減算するなど)。 In some embodiments, the representation 7002'-b of the first user 7002 and/or the representation 7102'-a of the second user 7102 are floating in space within the first view and the second view. For example, in some embodiments, the representation 7002'-b of the first user 7002 is a floating avatar of the first user 7002, floating in the second views 7034-b, 7034-b', and 7034-b'', etc. of the three-dimensional environment, and automatically moves out of the way when the viewpoint of the second view 7034-b'' comes within a second preset threshold distance of the representation 7002'-b due to the movement of the first user and/or the movement of the second user. Similarly, in some embodiments, the representation 7102'-a of the second user 7102 is a floating avatar of the second user 7102 floating in the first view 7034-a, 7034-a', and 7034-a", etc. of the three dimensional environment, and automatically moves out of the way when the viewpoint of the first view 7034-a" comes within a first preset threshold distance of the representation 7102'-a due to the first user's movement and/or the second user's movement. In some embodiments, the user's avatar in the three dimensional environment is a level of realism selected based on the realism level of the three dimensional environment (e.g., a photorealism level, a cartoon realism level, etc.). In some embodiments, following a determination that the three-dimensional environment 7304 is displayed at a first level of reality, the user's representation is displayed with a first set of display characteristics (e.g., a first resolution, a first number of dimensions, a first clarity, a first color palette, no lighting effects, etc.) corresponding to the first level of reality, and following a determination that the three-dimensional environment is displayed at a second level of reality different (e.g., higher, lower, etc.) from the first level of reality, the user's representation is displayed with a second set of display characteristics (e.g., a second resolution, a second number of dimensions, a second clarity, a second color palette, with lighting effects, etc.) corresponding to the second level of reality, where the second set of display characteristics is different (e.g., higher, lower, adding, subtracting, etc.) from the first set of display characteristics.

いくつかの実施形態では、個別のユーザの表現の表示ポジションが調整されるとき、個別のユーザの表現は、通常の方法で(例えば、第1のタイプの対応関係に従って、調整なしでなど)物理的環境内の個別のユーザの移動に対応しない移動コンポーネントと共に移動する。いくつかの実施形態では、個別のユーザの個別の表現の調整されたポジション置に適用されるオフセットの量は、個別の表現と三次元環境内の視点の仮想ポジションとの間の空間関係に基づいて可変である。いくつかの実施形態では、表現7102’-aの表示ポジションに対する調整は、任意選択的に、第1のユーザ7002に表示される第1のビュー7304-a’’に適用され、第2のユーザ7102に表示される第2のビュー7304-b’’には適用されない。いくつかの実施形態では、表現7002’-bの表示ポジションに対する調整は、任意選択的に、第1のユーザ7002に表示される第1のビュー7304-a’’ではなく、第2のユーザ7102に表示される第2のビュー7304-b’’に適用される。 In some embodiments, when the display position of the individual user's representation is adjusted, the individual user's representation moves with a movement component that does not correspond to the movement of the individual user in the physical environment in a normal manner (e.g., according to a first type of correspondence, without adjustment, etc.). In some embodiments, the amount of offset applied to the adjusted position of the individual user's individual representation is variable based on the spatial relationship between the individual representation and the virtual position of the viewpoint in the three-dimensional environment. In some embodiments, the adjustment to the display position of the representation 7102'-a is optionally applied to the first view 7304-a'' displayed to the first user 7002 and not to the second view 7304-b'' displayed to the second user 7102. In some embodiments, the adjustment to the display position of the representation 7002'-b is optionally applied to the second view 7304-b'' displayed to the second user 7102 rather than to the first view 7304-a'' displayed to the first user 7002.

いくつかの実施形態では、三次元環境7304は、仮想三次元環境又は拡張現実環境を含み、第1のユーザ及び第2のユーザは、仮想三次元環境において共有体験を有する。いくつかの実施形態では、それぞれの物理的環境(例えば、同じ物理的環境、異なる物理的環境など)内の第1のユーザ及び第2のユーザのポジション及び移動は、同じ三次元環境内のポジション及び移動に(例えば、同じマッピング関係、又は異なるマッピング関係などを使用して)マッピングされるが、三次元環境の外観は、(例えば、異なる壁紙、配色、異なる仮想家具などを用いて)調整されて、個別のユーザに対して示される三次元環境のビュー内で個別のユーザに合わせて適応させることができる。 In some embodiments, the three-dimensional environment 7304 includes a virtual three-dimensional environment or an augmented reality environment, and the first user and the second user have a shared experience in the virtual three-dimensional environment. In some embodiments, the positions and movements of the first user and the second user in their respective physical environments (e.g., the same physical environment, different physical environments, etc.) are mapped (e.g., using the same mapping relationship, or different mapping relationships, etc.) to positions and movements in the same three-dimensional environment, but the appearance of the three-dimensional environment can be adjusted (e.g., with different wallpaper, color schemes, different virtual furniture, etc.) to accommodate the individual users within the view of the three-dimensional environment shown to the individual users.

図7G~図7Jは、いくつかの実施形態による、コンピュータシステムによって受信されるユーザのバイオメトリックデータの変化に従って、コンピュータ生成体験の環境を表示する没入レベルの変化を示すブロック図である。 7G-7J are block diagrams illustrating changes in immersion levels displaying an environment of a computer-generated experience according to changes in a user's biometric data received by a computer system, according to some embodiments.

いくつかの実施形態では、コンピュータシステムは、ユーザ(例えば、ユーザ7002)に対応するバイオメトリックデータ(例えば、バー7312によって表されるバイオメトリックデータ、他のバイオメトリックデータなど)に従って、コンピュータ生成体験(例えば、視覚体験、視聴覚体験、仮想現実体験、拡張現実体験など)をユーザに提示する没入レベルを変更する。例えば、コンピュータ生成体験が開始された後、例えば、積極的に、及び/又はコンピュータ生成コンテンツの影響下で、ユーザが自分の身体的及び感情的な状態を調整しているとき、コンピュータシステムは、ユーザに対応するバイオメトリックデータ(例えば、心拍数、血圧、呼吸数など)の変化を検出することができる。様々な没入レベルに関連付けられた予め設定された基準(例えば、インジケータ7326によって表される閾値又は他のタイプの閾値若しくは基準など)のそれぞれのセットに対するバイオメトリックデータの変化に従って、コンピュータシステムは、物理的環境の表現の視覚的プロミネンスに対して仮想コンテンツの(例えば、空間範囲、視覚的奥行き、彩度、視覚的コントラストなどを含む)視覚的プロミネンスを変更することによって(例えば、仮想コンテンツの複雑さ、空間範囲、及び/又は視覚的特性を強化すること、及び/又は物理的環境の表現の視覚的明瞭さ、ぼかし半径、不透明度、彩度などを低減することなどによって)コンピュータ生成体験をユーザに提供する没入レベルを増加又は低減させる。 In some embodiments, the computer system alters the immersion level at which it presents a computer-generated experience (e.g., a visual experience, an audiovisual experience, a virtual reality experience, an augmented reality experience, etc.) to a user according to biometric data (e.g., biometric data represented by bar 7312, other biometric data, etc.) corresponding to a user (e.g., user 7002). For example, after a computer-generated experience has begun, the computer system can detect changes in biometric data (e.g., heart rate, blood pressure, respiratory rate, etc.) corresponding to the user as the user adjusts his or her physical and emotional state, e.g., actively and/or under the influence of the computer-generated content. In response to changes in the biometric data relative to respective sets of pre-established criteria (e.g., the thresholds represented by indicators 7326 or other types of thresholds or criteria) associated with various levels of immersion, the computer system increases or decreases the level of immersion provided to the user in the computer-generated experience by altering the visual prominence (including, e.g., spatial extent, visual depth, saturation, visual contrast, etc.) of the virtual content relative to the visual prominence of the representation of the physical environment (e.g., by enhancing the complexity, spatial extent, and/or visual characteristics of the virtual content and/or reducing the visual clarity, blur radius, opacity, saturation, etc. of the representation of the physical environment).

図7G~図7Jに示す例では、コンピュータシステムは、最初に、表示生成コンポーネント(例えば、表示生成コンポーネント7100、又はHMDなどの別のタイプの表示生成コンポーネントなど)を介して三次元環境のビュー7316を表示する。いくつかの実施形態では、三次元環境のビュー7316は、ユーザ7002の物理的環境のパススルービューであり、表示生成コンポーネントによって提供される視野の周辺部分内に仮想コンテンツを含まないか、又は最小量の仮想コンテンツ(例えば、システム制御、インジケータなど)を含む。ビュー7316は、例えば、ユーザの物理的環境の表現に対して表示される仮想コンテンツの量が最小限であるために、コンピュータ生成体験をユーザに提供する低い没入レベルに対応する。この例では、三次元環境のビュー7316は、物理的表面の表現(例えば、ユーザ7002の物理的環境105内の2つの隣接する壁7004及び7006の表現7004’及び7006’、床7008の表現7008’など)、及び物理的オブジェクトの表現(例えば、ユーザ7002の物理的環境105内の物理的オブジェクト7010の表現7010’、及び他の物理的オブジェクトの表現など)を含む。 In the examples shown in Figures 7G-7J, a computer system initially displays a view 7316 of a three-dimensional environment via a display generating component (e.g., display generating component 7100 or another type of display generating component such as an HMD). In some embodiments, the view 7316 of the three-dimensional environment is a pass-through view of the user's 7002 physical environment and includes no virtual content or a minimal amount of virtual content (e.g., system controls, indicators, etc.) within a peripheral portion of the field of view provided by the display generating component. The view 7316 corresponds to a low level of immersion that provides a computer-generated experience to the user, for example, due to a minimal amount of virtual content displayed relative to a representation of the user's physical environment. In this example, the view 7316 of the three-dimensional environment includes representations of physical surfaces (e.g., representations 7004' and 7006' of two adjacent walls 7004 and 7006 in the user 7002's physical environment 105, a representation 7008' of a floor 7008, etc.) and representations of physical objects (e.g., a representation 7010' of a physical object 7010 in the user 7002's physical environment 105, as well as representations of other physical objects).

図7Gはまた、コンピュータシステムが、低い没入レベルで三次元環境のビュー7316を表示している(例えば、物理的環境のパススルービューを表示する、又は最小量の仮想コンテンツを有する物理的環境の表現を表示するなど)間、コンピュータシステムが、ユーザ7002に対応するバイオメトリックデータを受信することを示す。ユーザ7002のバイオメトリックデータが次に高い没入レベルに対応する予め設定された基準を満たさないという判定に従って、コンピュータシステムは、三次元環境の現在表示されているビュー内の物理的環境の表現の視覚的プロミネンスを低減することなく、三次元環境の第1のビュー7316の表示を維持する。例えば、図7Gに示すように、バイオメトリックデータは、バイオメトリックデータの値(単数又は複数)の全範囲に対するバー7312の長さによって示される値又は値のセットを有し、異なるより高い没入レベルに遷移するための予め設定された基準に対応する閾値は、バイオメトリックデータの値の全範囲に対するインジケータ7326のポジションによって示される。 FIG. 7G also illustrates that while the computer system is displaying a view 7316 of the three-dimensional environment at a low immersion level (e.g., displaying a pass-through view of the physical environment or displaying a representation of the physical environment with a minimal amount of virtual content), the computer system receives biometric data corresponding to the user 7002. Pursuant to a determination that the biometric data of the user 7002 does not meet the preset criteria corresponding to the next higher immersion level, the computer system maintains the display of the first view 7316 of the three-dimensional environment without reducing the visual prominence of the representation of the physical environment in the currently displayed view of the three-dimensional environment. For example, as illustrated in FIG. 7G, the biometric data has a value or set of values indicated by the length of the bar 7312 relative to the full range of values of the biometric data, and a threshold value corresponding to the preset criteria for transitioning to a different higher immersion level is indicated by the position of the indicator 7326 relative to the full range of values of the biometric data.

いくつかの実施形態では、ユーザ7002に対応するバイオメトリックデータは、ユーザ7002の心拍数、呼吸数、体温、特定の化学物質、薬剤、及び/又はホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値などのうちの1つ以上を含む。いくつかの実施形態では、ユーザ7002に対応するバイオメトリックデータは、コンピュータ生成体験とのユーザの関与中に経時的に変化し得る1つ以上のタイプのバイオメトリックデータ(例えば、呼吸数、血圧、集中度、血糖値など)を含む。いくつかの実施形態では、ユーザに対応するバイオメトリックデータは、ユーザの身体的アクション(例えば、コンピュータ生成体験とのユーザの関与中にコンピュータシステムによって提供されるユーザインタフェース要素又は制御との直接相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)を通じて変動し得る、1つ以上のタイプのバイオメトリックデータを含む。いくつかの実施形態では、ユーザに対応するバイオメトリックデータは、ユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックを含む。いくつかの実施形態では、バイオメトリックデータは、表示生成コンポーネントを介した三次元環境の現在のビューの表示の前の時間又は予め設定された量の時間内のユーザの生理学的状態に対応するリアルタイムデータを含む。いくつかの実施形態では、バイオメトリックデータは、ユーザに接続されるか、又は向けられる1つ以上のバイオメトリックセンサ(例えば、種々の好適な医療デバイス、振動センサ、カメラ、熱センサ、化学センサなど)を通じて、連続的及び/又は周期的に収集され、コンピュータシステムに連続的及び/又は周期的に伝送される。いくつかの実施形態では、バイオメトリックデータは、平均的なユーザがコンピュータ生成体験に関与している期間にわたって典型的には変化しない、人間の非一次的特徴(例えば、指紋、虹彩パターン及び色、顔特徴、声紋など)を含まない。 In some embodiments, the biometric data corresponding to the user 7002 includes one or more of the user's 7002 heart rate, respiration rate, body temperature, serum concentrations of certain chemicals, drugs, and/or hormones, blood pressure, brain waves, concentration, pupil size, metabolic rate, blood glucose level, and the like. In some embodiments, the biometric data corresponding to the user 7002 includes one or more types of biometric data (e.g., respiration rate, blood pressure, concentration, blood glucose level, and the like) that may change over time during the user's engagement with the computer-generated experience. In some embodiments, the biometric data corresponding to the user includes one or more types of biometric data that may vary through the user's physical actions (e.g., meditation, changes in breathing patterns, exercise, and the like, as opposed to direct interaction with user interface elements or controls provided by the computer system during the user's engagement with the computer-generated experience). In some embodiments, the biometric data corresponding to the user includes one or more types of composite metrics of multiple types of biometric data corresponding to the user's mood, happiness, and/or stress level, and the like. In some embodiments, the biometric data includes real-time data corresponding to the user's physiological state within a time or a preset amount of time prior to the display of the current view of the three-dimensional environment via the display generation component. In some embodiments, the biometric data is continuously and/or periodically collected through one or more biometric sensors (e.g., various suitable medical devices, vibration sensors, cameras, thermal sensors, chemical sensors, etc.) connected to or directed at the user and continuously and/or periodically transmitted to the computer system. In some embodiments, the biometric data does not include non-primary human characteristics (e.g., fingerprints, iris patterns and colors, facial features, voice prints, etc.) that typically do not change over the period that an average user is engaged with a computer-generated experience.

いくつかの実施形態では、コンピュータシステムは、心拍数が第1の閾値心拍数よりも大きく、血圧が第1の閾値血圧よりも高く、ユーザの運動が閾値時間量の間に第1の閾値移動量よりも大きく、ユーザの体温が第1の閾値体温よりも高く、ストレスレベルのメトリックが第1の閾値ストレスレベルを上回り、ユーザの気分に対応するメトリックがユーザが動揺して不満であることを示すなどという判定に従って、バイオメトリックデータが予め設定されたより高い没入レベルでコンピュータ生成体験を表示することに遷移するための予め設定された基準を満たさないと判定する。いくつかの実施形態では、コンピュータシステムは、予め設定された基準が満たされるとき、予め設定された基準が満たされる前のバイオメトリックデータの変化に基づく漸進的な遷移を経ることなく、(例えば、図7Jに示されるように)予め設定されたより高い没入レベルで三次元環境を表示することに切り替える。いくつかの実施形態では、任意選択的に、コンピュータ生成体験は、ユーザから受信される対応するバイオメトリックデータが予め設定された基準を満たすであろう状態にユーザが入ることを支援する視覚及び/又は音声ガイダンス(例えば、音楽、風景、鼓舞メッセージ、投薬記録の案内、視覚、音声、又は口頭での呼吸指示など)を含む。 In some embodiments, the computer system determines that the biometric data does not meet the preset criteria for transitioning to displaying the computer-generated experience at a preset higher immersion level according to a determination that the heart rate is greater than a first threshold heart rate, the blood pressure is greater than a first threshold blood pressure, the user's movement is greater than a first threshold movement amount for a threshold amount of time, the user's body temperature is greater than a first threshold body temperature, the stress level metric is greater than a first threshold stress level, a metric corresponding to the user's mood indicates that the user is upset and dissatisfied, etc. In some embodiments, the computer system switches to displaying the three-dimensional environment at a preset higher immersion level (e.g., as shown in FIG. 7J) when the preset criteria are met, without going through a gradual transition based on changes in the biometric data before the preset criteria are met. In some embodiments, optionally, the computer-generated experience includes visual and/or audio guidance (e.g., music, scenery, motivational messages, medication record guidance, visual, audio, or verbal breathing instructions, etc.) to assist the user in entering a state in which the corresponding biometric data received from the user would meet the preset criteria.

図7H~図7Iは、いくつかの実施形態では、コンピュータシステムが、ユーザに対応するバイオメトリックデータの変化の傾向及び/又は大きさに従って、コンピュータ生成体験をユーザに提供する没入レベルを徐々に調整することを示す。例えば、いくつかの実施形態では、バイオメトリックデータが、予め設定されたより高い没入レベル(例えば、拡張現実ビュー、拡張仮想性ビュー、仮想現実ビューなど)に切り替えるための予め設定された基準の満足に近づく変化を呈すると、コンピュータシステムは、コンピュータ生成体験に対応する仮想コンテンツの視覚的プロミネンス及び/又は量を増加させ、三次元環境の現在表示されているビュー内の物理的環境の表現の視覚的プロミネンス及び/又は量を低減させる。いくつかの実施形態では、コンピュータシステムは、ユーザに対応するバイオメトリックデータの変化の量及び/又は性質に対応する量だけ、コンピュータ生成体験に対応する仮想コンテンツと物理的環境の表現との間の視覚的バランスを変化させる。同様に、いくつかの実施形態では、バイオメトリックデータが、予め設定されたより高い没入レベルに切り替えるための予め設定された基準を満たすことから離れる変化を呈すると、コンピュータシステムは、コンピュータ生成体験に対応する仮想コンテンツの視覚的プロミネンス及び/又は量を減少させ、三次元環境の現在表示されているビュー内の物理的環境の表現の視覚的プロミネンス及び/又は量を増加させる。 7H-7I illustrate that in some embodiments, the computer system gradually adjusts the level of immersion provided to the user in the computer-generated experience according to the trend and/or magnitude of the change in the biometric data corresponding to the user. For example, in some embodiments, when the biometric data exhibits a change approaching satisfaction of a preset criterion for switching to a preset higher immersion level (e.g., an augmented reality view, an augmented virtuality view, a virtual reality view, etc.), the computer system increases the visual prominence and/or amount of the virtual content corresponding to the computer-generated experience and reduces the visual prominence and/or amount of the representation of the physical environment in the currently displayed view of the three-dimensional environment. In some embodiments, the computer system changes the visual balance between the virtual content corresponding to the computer-generated experience and the representation of the physical environment by an amount corresponding to the amount and/or nature of the change in the biometric data corresponding to the user. Similarly, in some embodiments, when the biometric data exhibits a change away from meeting the pre-set criteria for switching to a pre-set higher level of immersion, the computer system decreases the visual prominence and/or amount of the virtual content corresponding to the computer-generated experience and increases the visual prominence and/or amount of the representation of the physical environment within the currently displayed view of the three-dimensional environment.

いくつかの実施形態では、コンピュータシステムは、ユーザに対応するバイオメトリックデータの変化の量及び/又は性質に対応する量だけ、仮想コンテンツと物理的環境の表現との間の視覚的バランスを変化させる。図7Hに示されるように、(例えば、インジケータ7326のポジションに近づくバー7312の増加した長さによって示されるように)バイオメトリックデータの値が予め設定された基準を満たすように変化するとき、三次元環境のビュー(例えば、図7Hのビュー7318)に表示される仮想コンテンツの量は、以前の状態(例えば、図7Gのビュー7316)と比較して増加し、物理的環境の表現の視覚的プロミネンスは減少する。より具体的には、図7Hでは、壁7004及び7006の表現7004’及び7006’は、仮想コンテンツ7320及び7322(例えば、視覚効果が適用される物理的環境の表現の部分を視覚的に隠す視覚効果、仮想表面、仮想オブジェクト、仮想風景など)の表示によって置換されるか又は隠され、表現7010’の表面の少なくとも一部も、仮想コンテンツ7324(例えば、視覚効果が適用される物理的環境の表現の部分を視覚的に隠す視覚効果、仮想表面、仮想オブジェクト、仮想風景など)の表示によって置換されるか又は隠される。図7Hに続く図7Iに示されるように、バイオメトリックデータの値が、(例えば、インジケータ7326のポジションから後退するバー7312の減少した長さによって示されるように)予め設定された基準を満たすことから離れて変化するとき、三次元環境のビュー(例えば、図7Iのビュー7328)内に表示される仮想コンテンツの量は、以前の状態(例えば、図7Hのビュー7318)と比較して減少し、物理的環境の表現の視覚的プロミネンスは再び増加する(例えば、任意選択的に、図7Gに示される状態よりも依然として低い)。より具体的には、図7Iでは、壁7006の表現7006’は、仮想コンテンツ7332が除去された後に再表示され、壁7004の表現7004’は、仮想コンテンツ7320の視覚的プロミネンスが低減されたときに部分的に再表示される(例えば、視覚効果が適用される物理的環境の表現の部分を視覚的に覆い隠す視覚効果の大きさが低減され、仮想面及び仮想オブジェクトが縮小され、除去され、数が低減され、又はより半透明にされるなど)。仮想コンテンツ7324の表示によって置換された、又は隠された表現7010’の表面の部分の視覚的プロミネンスは、仮想コンテンツ7324に対して行われた変更(例えば、より半透明にされた、より不透明でなくされた、表現7010’に対してより少ない量の歪みを含むなど)によって同様に増加する。いくつかの実施形態では、予め設定されたより高い没入レベルに遷移するための予め設定された基準が満たされる前に(例えば、インジケータ7326によって示される閾値がユーザに対応するバイオメトリックデータによって満たされる前に、又は他の基準がバイオメトリックデータによって満たされる前に、など)、バイオメトリックデータがユーザの現在の状態に基づいて更新されるにつれて、コンピュータシステムは、バイオメトリックデータに従って、仮想コンテンツと三次元環境の現在表示されているビュー内の物理的環境の表現との間の視覚的バランスを連続的又は周期的に調整する(例えば、物理的環境の表現に対する仮想コンテンツの視覚的プロミネンスを増加させる、物理的環境の表現に対する仮想コンテンツの視覚的プロミネンスを減少させる、など)。 In some embodiments, the computer system changes the visual balance between the virtual content and the representation of the physical environment by an amount corresponding to the amount and/or nature of the change in the biometric data corresponding to the user. As shown in FIG. 7H, when the value of the biometric data changes to meet a pre-set criterion (e.g., as indicated by the increased length of bar 7312 approaching the position of indicator 7326), the amount of virtual content displayed in the view of the three-dimensional environment (e.g., view 7318 of FIG. 7H) increases compared to a previous state (e.g., view 7316 of FIG. 7G) and the visual prominence of the representation of the physical environment decreases. More specifically, in FIG. 7H , representations 7004' and 7006' of walls 7004 and 7006 are replaced or hidden by the display of virtual content 7320 and 7322 (e.g., a visual effect, a virtual surface, a virtual object, a virtual scenery, etc. that visually obscures a portion of the representation of the physical environment to which the visual effect is applied), and at least a portion of the surface of representation 7010' is also replaced or hidden by the display of virtual content 7324 (e.g., a visual effect, a virtual surface, a virtual object, a virtual scenery, etc. that visually obscures a portion of the representation of the physical environment to which the visual effect is applied). As shown in Figure 7I, which follows Figure 7H, when the value of the biometric data changes away from meeting the pre-set criteria (e.g., as indicated by the reduced length of bar 7312 receding from the position of indicator 7326), the amount of virtual content displayed in the view of the three-dimensional environment (e.g., view 7328 in Figure 7I) is reduced compared to the previous state (e.g., view 7318 in Figure 7H), and the visual prominence of the representation of the physical environment is increased again (e.g., optionally still lower than the state shown in Figure 7G). More specifically, in Figure 7I, the representation 7006' of wall 7006 is redisplayed after the virtual content 7332 is removed, and the representation 7004' of wall 7004 is partially redisplayed when the visual prominence of the virtual content 7320 is reduced (e.g., the magnitude of visual effects that visually obscure the portion of the representation of the physical environment to which the visual effect is applied is reduced, virtual surfaces and objects are reduced, removed, reduced in number or made more translucent, etc.). The visual prominence of the portions of the surface of the representation 7010' that are replaced or obscured by the display of the virtual content 7324 is similarly increased by the changes made to the virtual content 7324 (e.g., made more translucent, less opaque, includes a lesser amount of distortion to the representation 7010', etc.). In some embodiments, before a preset criterion for transitioning to a preset higher immersion level is met (e.g., before a threshold indicated by the indicator 7326 is met by the biometric data corresponding to the user, or before other criteria are met by the biometric data, etc.), the computer system continuously or periodically adjusts the visual balance between the virtual content and the representation of the physical environment in the currently displayed view of the three-dimensional environment according to the biometric data as the biometric data is updated based on the user's current state (e.g., increases the visual prominence of the virtual content relative to the representation of the physical environment, decreases the visual prominence of the virtual content relative to the representation of the physical environment, etc.).

図7Jでは、コンピュータシステムは、ユーザに対応する更新されたバイオメトリックデータが、バイオメトリックデータによって予め設定基準が満たされる前に表示されたもの(例えば、図7G~7Iのビュー7316、7318、7328など)と比較してより高い没入レベルを有する予め設定されたより高い没入レベル(例えば、拡張現実環境、拡張仮想現実環境、仮想現実環境など)に遷移するための予め設定基準を満たすことを検出し、コンピュータシステムは、予め設定されたより高い没入レベルでの三次元環境の表示(例えば、図7Jのビュー7334、又は予め設定されたより高い没入レベルでの三次元環境の別のビューなどの表示)に遷移する。この例では、図7Jに示されるように、コンピュータシステムは、仮想コンテンツ(例えば、図7Jのビュー7334内の壁7006、7004、床7008、及び物理的オブジェクト7010の表現7006’、7004’、7008’、及び7010’を視覚的に覆い隠す仮想コンテンツ7322、7320、7330、及び7324)の視覚的特性を通じて、物理的環境のヒント(例えば、壁と床との間の構造的関係、物理的オブジェクトの存在など)のみが三次元環境内で依然として可視であるように、仮想コンテンツの視覚的プロミネンスを増加させ、物理的環境の表現の視覚的プロミネンスを更に減少させている。いくつかの実施形態では、コンピュータシステムは、三次元環境内の様々なポジションに仮想オブジェクトを更に表示する。例えば、仮想オブジェクト7332は、物理的環境内の物理的オブジェクト7010のロケーションに対応するポジションに表示され、仮想オブジェクト7326は、床7008上のロケーションに対応するポジションに表示され、他の仮想オブジェクトは、物理的環境内の自由空間に対応するポジションに、又は物理的環境の状態とは無関係に表示され得る。いくつかの実施形態では、予め設定されたより高い没入レベルに遷移するための予め設定基準が満たされた後、コンピュータシステムは、三次元環境の現在表示されているビュー内の仮想コンテンツの量を急激に増加させるか、又はコンピュータ生成体験に対応する完全に新しい環境(例えば、新しい仮想世界、新しいシーンなど)を表示する。いくつかの実施形態では、予め設定基準が満たされ、コンピュータシステムが予め設定されたより高い没入レベルで三次元環境を表示した後、予め設定基準が更新されたバイオメトリックデータによってもはや満たされないという判定に従って、コンピュータシステムは、図7H及び図7Iに示すように、バイオメトリックデータの変化に基づいて三次元環境が表示される没入レベルを徐々に調整する。いくつかの実施形態では、予め設定された基準が満たされ、コンピュータシステムが予め設定されたより高い没入レベルで三次元環境を表示した後、予め設定された基準が更新されたバイオメトリックデータによってもはや満たされていないという判定に従って、コンピュータシステムは、(例えば、図7Gに示すように)より低い没入レベルで三次元環境の表示に戻るように急に切り替わる。 In FIG. 7J, the computer system detects that updated biometric data corresponding to the user meets preset criteria for transitioning to a preset higher immersion level (e.g., an augmented reality environment, an augmented virtual reality environment, a virtual reality environment, etc.) having a higher immersion level compared to what was displayed before the preset criteria was met by the biometric data (e.g., views 7316, 7318, 7328, etc. of FIGs. 7G-7I), and the computer system transitions to a display of a three-dimensional environment at the preset higher immersion level (e.g., a display such as view 7334 of FIG. 7J, or another view of the three-dimensional environment at the preset higher immersion level). In this example, as shown in Figure 7J, the computer system, through the visual characteristics of the virtual content (e.g., virtual content 7322, 7320, 7330, and 7324, which visually obscure representations 7006', 7004', 7008', and 7010' of walls 7006, 7004, floor 7008, and physical object 7010 in view 7334 of Figure 7J), increases the visual prominence of the virtual content and further decreases the visual prominence of the representations of the physical environment such that only hints of the physical environment (e.g., structural relationships between walls and floors, presence of physical objects, etc.) are still visible within the three-dimensional environment. In some embodiments, the computer system further displays virtual objects at various positions within the three-dimensional environment. For example, virtual object 7332 may be displayed in a position corresponding to the location of physical object 7010 in the physical environment, virtual object 7326 may be displayed in a position corresponding to a location on floor 7008, and other virtual objects may be displayed in positions corresponding to free space in the physical environment or independent of the state of the physical environment. In some embodiments, after the preset criteria for transitioning to a preset higher immersion level are met, the computer system abruptly increases the amount of virtual content in the currently displayed view of the three-dimensional environment or displays an entirely new environment (e.g., a new virtual world, a new scene, etc.) corresponding to the computer-generated experience. In some embodiments, after the preset criteria are met and the computer system displays the three-dimensional environment at the preset higher immersion level, pursuant to a determination that the preset criteria are no longer met by the updated biometric data, the computer system gradually adjusts the immersion level at which the three-dimensional environment is displayed based on the change in the biometric data, as shown in Figures 7H and 7I. In some embodiments, after the preset criteria are met and the computer system displays the three-dimensional environment at a preset higher level of immersion, pursuant to a determination that the preset criteria are no longer met by the updated biometric data, the computer system abruptly switches back to displaying the three-dimensional environment at a lower level of immersion (e.g., as shown in FIG. 7G).

いくつかの実施形態では、予め設定された基準は、心拍数が第1の閾値心拍数よりも低い、呼吸数が第1の閾値呼吸数よりも低い、血圧が第1の閾値血圧よりも低い、ユーザの移動が閾値時間中に第1の閾値移動量より小さい、ユーザの体温が第1の閾値体温よりも低い、ストレスレベルのメトリックが第1の閾値ストレスレベルよりも低い、ユーザの気分に対応するメトリックがユーザがリラックスして幸せであることを示すという判定に従って満たされる。 In some embodiments, the pre-set criteria are met according to a determination that the heart rate is below a first threshold heart rate, the respiration rate is below a first threshold respiration rate, the blood pressure is below a first threshold blood pressure, the user's movement is less than a first threshold movement amount during a threshold time, the user's body temperature is below a first threshold body temperature, a stress level metric is below a first threshold stress level, and a metric corresponding to the user's mood indicates that the user is relaxed and happy.

いくつかの実施形態では、低い没入レベルで示される三次元環境のビュー(例えば、図7Gに示されるような、又は三次元環境の別のビューなど)は、コンピュータシステムの表示生成コンポーネントが最初にオンにされる、又はユーザの頭部若しくはユーザの目の前に置かれるときに表示され、仮想要素は三次元環境に表示されないか、又は最小量の仮想要素が三次元環境に表示される。これにより、表示生成コンポーネントがユーザの目を遮断することなく、ユーザは、現実世界の直接ビューと非常に類似している三次元環境のビューから開始することができる。いくつかの実施形態では、低い没入レベルに対応する三次元環境のビューは、二次元ウィンドウ内に表示される、又は物理的環境の表現に対するポジションに表示される表示域内に制限されるアプリケーション又はコンピュータ生成体験のユーザインタフェース又は環境(例えば、二次元環境、三次元環境など)のビューである。いくつかの実施形態では、低い没入レベルで示される三次元環境のビュー(例えば、図7Gに示すように、又は三次元環境の別のビューなど)は、アプリケーション又はコンピュータ生成体験がユーザによって最初に起動又は開始されたときに表示され、アプリケーション又は体験の完全な空間範囲は、三次元環境においてまだ表示されていない。これにより、ユーザは、あまり没入感がなく、実世界のビューのコンテキストで見られる三次元環境のビューから開始することができる。 In some embodiments, a view of the three-dimensional environment shown at a low immersion level (e.g., as shown in FIG. 7G, or another view of the three-dimensional environment, etc.) is displayed when the display generating component of the computer system is first turned on or placed in front of the user's head or eyes, and no virtual elements or a minimal amount of virtual elements are displayed in the three-dimensional environment. This allows the user to start with a view of the three-dimensional environment that closely resembles a direct view of the real world, without the display generating component blocking the user's eyes. In some embodiments, a view of the three-dimensional environment corresponding to a low immersion level is a view of the user interface or environment (e.g., a two-dimensional environment, a three-dimensional environment, etc.) of the application or computer-generated experience that is displayed in a two-dimensional window or is limited within a display area displayed in a position relative to a representation of the physical environment. In some embodiments, a view of the three-dimensional environment shown at a low immersion level (e.g., as shown in FIG. 7G, or another view of the three-dimensional environment, etc.) is displayed when the application or computer-generated experience is first launched or started by the user, and the full spatial extent of the application or experience has not yet been displayed in the three-dimensional environment. This allows the user to start with a less immersive view of the three-dimensional environment that is seen in the context of the real-world view.

いくつかの実施形態では、コンピュータシステムによって表示される仮想コンテンツ(例えば、仮想壁紙、仮想オブジェクト、仮想表面、仮想風景、仮想三次元環境など)は、物理的環境の視界を少なくとも部分的に遮断又は不明瞭にする。いくつかの実施形態では、予め設定されたよりも高い没入レベルで三次元環境のビューを表示するとき、コンピュータシステムは、第1のクラスの物理的オブジェクト又は表面(例えば、前壁、前壁、及び天井など)のビューを、新しく表示された仮想要素又は既存の仮想要素の新しく表示された部分と置換又は遮断する。いくつかの実施形態では、アニメーション遷移が表示されて、仮想要素が徐々に拡大するか、又はより不透明になり一杯にすることで、第1のクラスの物理的オブジェクト又は表面のビューを覆う又は遮断する。いくつかの実施形態では、予め設定されたより高い没入レベルで三次元環境のビューを表示するとき、コンピュータシステムは、物理的要素の任意のクラス全体を置換することなく、仮想要素を三次元環境に追加する。いくつかの実施形態では、追加される仮想要素は、任意選択的に、メニュー(例えば、アプリケーションのメニュー、文書など)、コントロール(例えば、ディスプレイ輝度コントロール、ディスプレイ焦点コントロールなど)、又はユーザ入力によって操作することができる、又は三次元環境に情報若しくはフィードバックを提供するその他のオブジェクト(例えば、仮想アシスタント、文書、メディアアイテムなど)などのユーザインタフェースオブジェクトを含む。いくつかの実施形態では、追加される仮想要素は、任意選択的に、ユーザ入力によって操作することができず、物理的環境のルックアンドフィールを置換する三次元環境のルックアンドフィールを提供するように機能する非インタラクティブオブジェクト又は表面を含む。いくつかの実施形態では、コンピュータシステムによって表示される仮想コンテンツは、物理的環境のビューを少なくとも部分的に遮断又は不明瞭にする視覚効果(例えば、物理的環境の表現をフェードアウトする、ぼかす、ぼんやりさせるなど)を含む。 In some embodiments, the virtual content (e.g., virtual wallpaper, virtual objects, virtual surfaces, virtual landscapes, virtual three-dimensional environments, etc.) displayed by the computer system at least partially blocks or obscures the view of the physical environment. In some embodiments, when displaying a view of the three-dimensional environment at a higher than preset immersion level, the computer system replaces or blocks the view of a first class of physical objects or surfaces (e.g., the front wall, the front wall, and the ceiling, etc.) with a newly displayed virtual element or a newly displayed portion of an existing virtual element. In some embodiments, an animated transition is displayed in which the virtual element gradually expands or becomes more opaque and fills up, thereby obscuring or blocking the view of the first class of physical objects or surfaces. In some embodiments, when displaying a view of the three-dimensional environment at a higher than preset immersion level, the computer system adds the virtual element to the three-dimensional environment without replacing any entire class of physical elements. In some embodiments, the virtual elements added optionally include user interface objects such as menus (e.g., application menus, documents, etc.), controls (e.g., display brightness controls, display focus controls, etc.), or other objects that can be manipulated by user input or that provide information or feedback to the three-dimensional environment (e.g., virtual assistants, documents, media items, etc.). In some embodiments, the virtual elements added optionally include non-interactive objects or surfaces that cannot be manipulated by user input and that function to provide a look and feel of the three-dimensional environment that replaces the look and feel of the physical environment. In some embodiments, the virtual content displayed by the computer system includes visual effects that at least partially block or obscure the view of the physical environment (e.g., fading out, blurring, dimming the representation of the physical environment, etc.).

いくつかの実施形態では、バイオメトリックデータが更新され、更新されたバイオメトリックデータが、更に高い没入レベルで三次元環境を表示することに遷移するための予め設定された基準を満たすという判定に従って、コンピュータシステムは、コンピュータ生成体験に対応する仮想コンテンツの視覚的プロミネンスを増加させ、物理的環境からの視覚的刺激を、更に高い没入レベルに対応する別のレベルに低減する。例えば、いくつかの実施形態では、コンピュータシステムは、追加のクラスの物理的オブジェクト又は表面(例えば、床)を、新たに表示された仮想要素又は既存の仮想要素の新たに表示された部分によって置換する、不明瞭にする、又は遮断する。いくつかの実施形態では、アニメーション遷移が表示されて、仮想要素が徐々に拡大するか、又はより不透明になり一杯にすることで、追加のクラスの物理的オブジェクト及び表面のvビューを覆う又は遮断する。 In some embodiments, the biometric data is updated, and pursuant to a determination that the updated biometric data meets the preset criteria for transitioning to displaying the three-dimensional environment at a higher level of immersion, the computer system increases the visual prominence of the virtual content corresponding to the computer-generated experience and reduces the visual cues from the physical environment to another level corresponding to the higher level of immersion. For example, in some embodiments, the computer system replaces, obscures, or blocks the additional class of physical objects or surfaces (e.g., floors) with newly displayed virtual elements or newly displayed portions of existing virtual elements. In some embodiments, an animated transition is displayed in which the virtual elements gradually expand or become more opaque and full, thereby obscuring or blocking the v-view of the additional class of physical objects and surfaces.

いくつかの実施形態では、三次元環境は、コンピュータ生成仲介体験の環境であり、ユーザが、より深い瞑想体験の状態に入るために必要とされる集中、弛緩、集中などのレベルを達成したことをバイオメトリックデータが示す際、コンピュータシステムは、環境の現在表示されているビューを、例えば、瞑想体験に対応する仮想コンテンツの拡張された空間範囲(例えば、幅、深度、角度など)及び視覚的プロミネンス、並びに物理的環境の表現の低減された空間範囲及び視覚的プロミネンスを伴う、より没入型の環境に変換する。 In some embodiments, the three-dimensional environment is an environment for a computer-generated mediated experience, and when the biometric data indicates that the user has achieved a level of focus, relaxation, concentration, etc. required to enter a state of a deeper meditative experience, the computer system transforms the currently displayed view of the environment into a more immersive environment, e.g., with an expanded spatial extent (e.g., width, depth, angle, etc.) and visual prominence of the virtual content corresponding to the meditative experience, and a reduced spatial extent and visual prominence of the representation of the physical environment.

いくつかの実施形態では、コンピュータ生成体験の視覚的コンテンツを表示する没入レベルの増加と共に、コンピュータシステムはまた、コンピュータシステムの音声出力デバイスのアクションを通じてユーザによって知覚可能な物理的環境の音の抑制レベルを増加させ、及び/又は音声出力デバイスによって出力されるコンピュータ生成体験の音声コンテンツの没入レベルを増加させる(例えば、音量を増加させる、ステレオ音声出力モード若しくはサラウンドサウンド出力モードから空間音声出力モードに変更する、又はステレオ音声出力モードからサラウンドサウンド出力モードに変更するなど)。 In some embodiments, along with increasing the level of immersion in displaying the visual content of the computer-generated experience, the computer system also increases the level of sound suppression in the physical environment perceivable by the user through actions of an audio output device of the computer system and/or increases the level of immersion in the audio content of the computer-generated experience output by the audio output device (e.g., increasing the volume, changing from a stereo audio output mode or a surround sound output mode to a spatial audio output mode, or changing from a stereo audio output mode to a surround sound output mode, etc.).

いくつかの実施形態では、コンピューティングシステムは、2つ以上の没入レベルで表示生成コンポーネントを介してCGRコンテンツの視覚的コンポーネントを表示するように構成される。いくつかの実施形態では、コンピュータシステムは、少なくとも第1の没入レベル、第2の没入レベル、及び第3の没入レベルでCGRコンテンツの視覚的コンポーネントを表示する。いくつかの実施形態では、コンピュータシステムは、少なくとも2つの没入レベルでCGRコンテンツの視覚的コンポーネントを表示し、それぞれ、互いに対してより没入レベルの低い視覚体験及びより没入レベルの高い視覚体験を提供する。いくつかの実施形態では、コンピューティングシステムは、ユーザに対応するバイオメトリックデータが基準の異なるセットを満たすことに応じて、表示生成コンポーネントを介して表示される視覚的コンテンツを異なる没入レベル間で遷移させる。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、CGR環境内に存在するCGR体験に対応する仮想コンテンツの量を増加させること、及び/又はCGR環境内に存在する周囲の物理的環境の表現の量を減少させることに対応する。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、コンピュータ生成コンテンツの増加する画像忠実度(例えば、増加するピクセル解像度、増加する色解像度、増加する色飽和度、増加するルミナンス、増加する不透明度、増加する画像詳細など)及び/又は空間範囲(例えば、角度範囲、空間深度など)、及び/又は周囲の物理的環境の表現の減少する画像忠実度及び/又は空間範囲を有する、コンテンツ表示の異なるモードに対応する。いくつかの実施形態では、第1の没入レベルは、パススルーモードであり、物理的環境は、表示生成コンポーネントを通じて(例えば、物理的環境のカメラビューとして、又は表示生成コンポーネントの透明若しくは半透明の部分を通じて)ユーザに完全に可視である。いくつかの実施形態では、パススルーモードで提示される視覚的CGRコンテンツは、物理的環境のビューとして同時に可視な最小量の仮想要素を有する、又は物理的環境のユーザのビューの周辺の仮想要素(例えば、ディスプレイの周辺領域に表示されるインジケータ及びコントロール)のみを有する、物理的環境のパススルービューを含む。例えば、物理的環境のビューは、表示生成コンポーネントによって提供される視野の中央領域及び大部分の領域を占め、より少数のコントロール(例えば、映画のタイトル、プログレスバー、再生コントロール(例えば、再生ボタン)など)のみが、表示生成コンポーネントによって提供される視野の周辺領域に表示される。いくつかの実施形態では、第1の没入レベルは、パススルーモードであり、物理的環境は、表示生成コンポーネントを通じて(例えば、物理的環境のカメラビューとして、又は表示生成コンポーネントの透明部分を通じて)第1のユーザに完全に可視であり、視覚的CGRコンテンツは、物理的環境の表現に重ねられて、物理的環境の表現の一部を置換して、又は物理的環境の表現の一部のビューを遮断するなどして仮想ウィンドウ又はフレーム内に表示される。いくつかの実施形態では、第2の没入レベルは、物理的環境のパススルービューがコンピュータシステムによって生成された仮想要素で拡張された複合現実モードであり、仮想要素は、ユーザの視野の中央領域及び/又は大部分の領域を占有する(例えば、仮想コンテンツは、コンピュータ生成環境のビュー内の物理的環境と統合される)。いくつかの実施形態では、第2の没入レベルは、物理的環境のパススルービューが、物理的環境の表現の一部に重ねられる、物理的環境の表現の一部の表示を置換する、又は物理的環境の表現の一部のビューを遮断するなどし、表示生成コンポーネントが物理的環境に対して移動されるときに明らかにされる追加の深さ又は空間範囲を有する、仮想ウィンドウ、ビューポート、又はフレームで拡張される、複合現実モードである。いくつかの実施形態では、第3の没入レベルは、拡張現実モードであり、仮想コンテンツは、物理的環境の表現と共に三次元環境内に表示され、仮想オブジェクトは、物理的環境の異なるロケーションに対応するポジションで三次元環境全体に分散される。いくつかの実施形態では、第3の没入レベルは、仮想コンテンツが物理的環境の表現なしに三次元環境に表示される仮想現実モードである。いくつかの実施形態では、上述の異なる没入レベルは、互いに対して増加する没入レベルを表す。 In some embodiments, the computing system is configured to display the visual components of the CGR content via the display generation component at two or more immersion levels. In some embodiments, the computer system displays the visual components of the CGR content at least a first immersion level, a second immersion level, and a third immersion level. In some embodiments, the computer system displays the visual components of the CGR content at least two immersion levels, providing less immersive and more immersive visual experiences relative to each other, respectively. In some embodiments, the computing system transitions the visual content displayed via the display generation component between different immersion levels in response to biometric data corresponding to the user satisfying different sets of criteria. In some embodiments, the first, second, and third immersion levels correspond to increasing the amount of virtual content corresponding to the CGR experience present in the CGR environment and/or decreasing the amount of a representation of the surrounding physical environment present in the CGR environment. In some embodiments, the first, second, and third immersion levels correspond to different modes of content presentation having increasing image fidelity (e.g., increasing pixel resolution, increasing color resolution, increasing color saturation, increasing luminance, increasing opacity, increasing image detail, etc.) and/or spatial extent (e.g., angular extent, spatial depth, etc.) of the computer-generated content and/or decreasing image fidelity and/or spatial extent of the representation of the surrounding physical environment. In some embodiments, the first immersion level is a pass-through mode, where the physical environment is fully visible to the user through the display generation components (e.g., as a camera view of the physical environment or through transparent or semi-transparent portions of the display generation components). In some embodiments, the visual CGR content presented in the pass-through mode includes a pass-through view of the physical environment with a minimal amount of virtual elements simultaneously visible as the view of the physical environment, or with only virtual elements peripheral to the user's view of the physical environment (e.g., indicators and controls displayed in a peripheral area of the display). For example, the view of the physical environment occupies a central and majority area of the field of view provided by the display generation component, and only a smaller number of controls (e.g., movie title, progress bar, playback controls (e.g., play button), etc.) are displayed in a peripheral area of the field of view provided by the display generation component. In some embodiments, the first level of immersion is a pass-through mode, where the physical environment is fully visible to the first user through the display generation component (e.g., as a camera view of the physical environment or through a transparent portion of the display generation component), and the visual CGR content is displayed in a virtual window or frame, such as overlaid on a representation of the physical environment, replacing a portion of the representation of the physical environment, or blocking the view of a portion of the representation of the physical environment. In some embodiments, the second level of immersion is a mixed reality mode, where the pass-through view of the physical environment is augmented with virtual elements generated by the computer system, where the virtual elements occupy a central and/or majority area of the user's field of view (e.g., the virtual content is integrated with the physical environment in the view of the computer-generated environment). In some embodiments, the second immersion level is a mixed reality mode in which a pass-through view of the physical environment is augmented with a virtual window, viewport, or frame that is overlaid on, replaces the display of, or blocks the view of a portion of the representation of the physical environment, and has additional depth or spatial extent that is revealed when the display generating component is moved relative to the physical environment. In some embodiments, the third immersion level is an augmented reality mode in which virtual content is displayed in the three-dimensional environment along with the representation of the physical environment, and virtual objects are distributed throughout the three-dimensional environment in positions that correspond to different locations of the physical environment. In some embodiments, the third immersion level is a virtual reality mode in which virtual content is displayed in the three-dimensional environment without a representation of the physical environment. In some embodiments, the different immersion levels described above represent increasing levels of immersion relative to each other.

いくつかの実施形態では、コンピュータシステムは、コンピュータ生成体験(例えば、アプリケーション、通信セッション、映画、ビデオ、ゲームなど)の音声コンテンツを出力するための音声出力モードを、コンピュータ生成体験の視覚的コンテンツが表示生成コンポーネントによって表示されている没入レベルに従って選択する。いくつかの実施形態では、視覚的コンテンツを表示する没入レベルが(例えば、第1の没入レベルから第2の没入レベルへ、第1の没入レベルから第3の没入レベルへ、又は第2の没入レベルから第3の没入レベルへなど)増加すると、コンピュータシステムは、音声出力モードを没入レベルの低い出力モードから没入レベルの高い出力モードへ切り替える(例えば、第1の音声出力モードから第2の音声出力モードへ、又は第1の音声出力モードから第3の音声出力モードへ、又は第2の音声出力モードから第3の音声出力モードへなど、第1の音声出力モード、第2の音声出力モード、及び第3の音声出力モードは、没入レベルが増加していく音声出力に対応する)。本明細書で説明するように、空間音声出力モードは、ステレオ音声出力モード及びモノラル音声出力モードよりも高い没入レベルに対応する。空間音声出力モードは、サラウンドサウンド出力モードよりも高い没入レベルに対応する。サラウンドサウンド出力モードは、ステレオ音声出力モード及びモノラル音声出力モードよりも高い没入レベルに対応する。ステレオ音声出力モードは、モノラル音声出力モードよりも高い没入レベルに対応する。いくつかの実施形態では、コンピュータシステムは、コンピュータ生成体験の視覚的コンテンツを表示生成コンポーネントを介して提供する没入レベルに基づいて、複数の利用可能な音声出力モード、例えば、モノラル音声出力モード、ステレオ音声出力モード、サラウンドサウンド出力モード、空間音声出力モードなどから音声出力モードを選択する。 In some embodiments, the computer system selects an audio output mode for outputting audio content of a computer-generated experience (e.g., an application, a communication session, a movie, a video, a game, etc.) according to an immersion level at which visual content of the computer-generated experience is being displayed by the display generation component. In some embodiments, as the immersion level at which the visual content is displayed increases (e.g., from a first immersion level to a second immersion level, from the first immersion level to a third immersion level, or from the second immersion level to the third immersion level, etc.), the computer system switches the audio output mode from an output mode with a lower immersion level to an output mode with a higher immersion level (e.g., the first audio output mode, the second audio output mode, and the third audio output mode corresponding to audio output with increasing immersion levels, such as from the first audio output mode to the second audio output mode, or from the first audio output mode to the third audio output mode, or from the second audio output mode to the third audio output mode, etc.). As described herein, the spatial audio output mode corresponds to a higher level of immersion than the stereo audio output mode and the mono audio output mode. The spatial audio output mode corresponds to a higher level of immersion than the surround sound output mode. The surround sound output mode corresponds to a higher level of immersion than the stereo audio output mode and the mono audio output mode. The stereo audio output mode corresponds to a higher level of immersion than the mono audio output mode. In some embodiments, the computer system selects an audio output mode from a plurality of available audio output modes, e.g., a mono audio output mode, a stereo audio output mode, a surround sound output mode, a spatial audio output mode, etc., based on a level of immersion at which the computer-generated experience's visual content is provided via the display generation component.

図7K~7Mは、いくつかの実施形態による、物理的環境の表現を含む環境のビューを表示するときにコンピュータシステムによって提供される複数のタイプの感覚調整の効果を集約することを示すブロック図である。 Figures 7K-7M are block diagrams illustrating the aggregation of effects of multiple types of sensory modulation provided by a computer system when displaying a view of an environment that includes a representation of a physical environment, according to some embodiments.

いくつかの実施形態では、コンピュータシステムは、特別な器具又はコンピュータシステムの支援なしでは容易に知覚され得ない物理的環境の様々な側面を知覚するユーザの能力を強化する複数のタイプの感覚調整機能を提供する。ユーザが一度に物理的環境の一部を見るときに単一タイプの感覚調整機能を使用することのみを可能にする代わりに、コンピュータシステムは、コンピュータシステムによって提供される物理的環境のビュー内で以前に隠されていた物理的環境の部分に存在する特徴及び特性が明らかにされ得るように、物理的環境の一部の表現に及ぼす2つ以上のタイプの感覚増強機能の効果を集約する。 In some embodiments, the computer system provides multiple types of sensory modulation features that enhance the user's ability to perceive various aspects of the physical environment that may not be readily perceived without the assistance of special equipment or the computer system. Instead of only allowing the user to use a single type of sensory modulation feature when viewing a portion of the physical environment at a time, the computer system aggregates the effects of two or more types of sensory enhancement features on the representation of a portion of the physical environment such that features and characteristics present in a portion of the physical environment that were previously hidden within the view of the physical environment provided by the computer system may be revealed.

いくつかの実施形態では、コンピュータシステムが、表示生成コンポーネント(例えば、表示生成コンポーネント7100、又はHMDなどの別のタイプの表示生成コンポーネント)を介して、物理的環境の表現を含む三次元環境を表示するとき、コンピュータシステムは、任意選択的に、物理的環境の現在表示されている部分に対応するセンサ入力又は情報を使用して、物理的環境の表現を強化及び調整し、それにより、ユーザは、ユーザが表示生成コンポーネントの支援なしに物理的環境の部分を見るときにユーザに利用可能でない感覚情報を用いて物理的環境の部分を知覚することができる。 In some embodiments, when a computer system displays a three-dimensional environment including a representation of a physical environment via a display generation component (e.g., display generation component 7100 or another type of display generation component such as an HMD), the computer system optionally uses sensor input or information corresponding to a currently displayed portion of the physical environment to enhance and adjust the representation of the physical environment, thereby allowing a user to perceive a portion of the physical environment using sensory information that is not available to the user when the user views the portion of the physical environment without the assistance of the display generation component.

図7Kでは、コンピュータシステムは、物理的環境の第1の部分の第1の表現を含む三次元環境のビュー7340を表示する。ビュー7340において、物理的環境の第1の部分の第1の表現は、コンピュータシステムによって行われる感覚調整を伴わない物理的環境の第1の部分の外観に対応する。いくつかの実施形態では、物理的環境の第1の部分の第1の表現は、正常な人間の知覚の範囲内の平均色及び強度検出に対応する第1のレベルの撮像感度を有するカラーカメラによってキャプチャされる物理的環境の第1の部分のビューに対応する。いくつかの実施形態では、物理的環境の第1の部分の第1の表現は、表示生成コンポーネントの透明部分を通じた物理的環境の第1の部分のビューに対応し、コンピュータシステムによって増強及び調整されない。 In FIG. 7K, the computer system displays a view 7340 of a three-dimensional environment including a first representation of a first portion of the physical environment. In the view 7340, the first representation of the first portion of the physical environment corresponds to an appearance of the first portion of the physical environment without sensory adjustments made by the computer system. In some embodiments, the first representation of the first portion of the physical environment corresponds to a view of the first portion of the physical environment captured by a color camera having a first level of imaging sensitivity corresponding to average color and intensity detection within the range of normal human perception. In some embodiments, the first representation of the first portion of the physical environment corresponds to a view of the first portion of the physical environment through a transparent portion of the display generation component and is not augmented or adjusted by the computer system.

いくつかの実施形態において、コンピュータシステムは、コンピュータシステムによって提供される複数の感覚調整機能のそれぞれを作動させるための複数のアフォーダンス(例えば、ハードウェアコントロール7354、7356、及び7358、三次元環境に表示されるユーザインタフェース要素など)を提供する。いくつかの実施形態では、コンピュータシステムは、複数の感覚調整機能のそれぞれに対応するアフォーダンスに向けられたユーザの起動入力(例えば、ボタン押下入力、タップ入力、ジェスチャ入力、タッチ入力、視線入力、選択入力、これらの組み合わせなど)に従って、複数の感覚調整機能のそれぞれを順番に又は組み合わせて作動させる。いくつかの実施形態では、複数の感覚調整機能のうちのそれぞれの1つは、コンピュータシステムに関連付けられた対応するハードウェアアフォーダンス又は三次元環境内の対応するユーザインタフェースコントロールの存在を必要とせずに、予め設定された入力(例えば、ジェスチャ入力、タッチ入力、音声コマンドなど)によって任意選択的に作動される。 In some embodiments, the computer system provides a plurality of affordances (e.g., hardware controls 7354, 7356, and 7358, user interface elements displayed in the three-dimensional environment, etc.) for activating each of the plurality of sensory adjustment functions provided by the computer system. In some embodiments, the computer system activates each of the plurality of sensory adjustment functions in sequence or in combination according to a user activation input (e.g., a button press input, a tap input, a gesture input, a touch input, a gaze input, a selection input, combinations thereof, etc.) directed at an affordance corresponding to each of the plurality of sensory adjustment functions. In some embodiments, each one of the plurality of sensory adjustment functions is optionally activated by a preset input (e.g., a gesture input, a touch input, a voice command, etc.) without requiring the presence of a corresponding hardware affordance associated with the computer system or a corresponding user interface control in the three-dimensional environment.

この例では、図7Kに示すように、物理的環境の第1の部分の第1の表現は、部屋の内側から部屋の壁上の窓に向かうビューを含む。この例は非限定的であり、様々な実施形態によれば、物理的環境の第1の部分は、任意の屋内又は屋外環境であり得る。この例では、物理的環境の第1の部分の第1の表現は、壁の表現7344’、窓の表現7346’、窓から第1の距離にある窓の外側の丘の表現7348’、及び窓から第2の距離だけ離れた丘の頂上付近の木の表現7350’を含む。丘及び木が表示生成コンポーネントから大きな距離にあり、丘の表現7348’及び木の表現7350’が、三次元環境の現在表示されているビューに対応する視点から遠く離れているため(例えば、視点と表現7348’及び7350’との間のそれぞれの距離は、ユーザの目(又は表示生成コンポーネント)から丘及び木までのそれぞれの距離に対応する)、丘の表現7348’及び木の表現7350’は、表示生成コンポーネント7100によって提供される視野の小さな部分を占有する。 In this example, as shown in FIG. 7K, the first representation of the first portion of the physical environment includes a view from inside the room toward a window on a wall of the room. This example is non-limiting, and according to various embodiments, the first portion of the physical environment can be any indoor or outdoor environment. In this example, the first representation of the first portion of the physical environment includes a representation 7344' of a wall, a representation 7346' of a window, a representation 7348' of a hill outside the window at a first distance from the window, and a representation 7350' of a tree near the top of the hill a second distance away from the window. Because the hills and trees are at a large distance from the view generation component and the hill representation 7348' and the tree representation 7350' are far away from the viewpoint corresponding to the currently displayed view of the three-dimensional environment (e.g., the respective distances between the viewpoint and the representations 7348' and 7350' correspond to the respective distances from the user's eyes (or the view generation component) to the hills and trees), the hill representation 7348' and the tree representation 7350' occupy a small portion of the field of view provided by the view generation component 7100.

図7Lにおいて、コンピュータシステムは、コンピュータシステムによって提供される複数の感覚調整機能のうちの第1の感覚調整機能を作動させるユーザ入力を検出する。例えば、コンピュータシステムは、ハードウェアアフォーダンス7354がユーザの入力によって作動されたこと、第1の感覚調整機能に対応するユーザインタフェースオブジェクトがユーザの入力によって作動又は選択されたこと、第1の感覚調整機能を作動させるための基準を満たすジェスチャ入力、音声コマンド、及び/又はタッチ入力などがユーザによって提供されたことなどを検出する。これに応じて、コンピュータシステムは、物理的環境の第2の部分の第2の表現を含む三次元環境の第2のビュー7361を表示し、物理的環境の第2の部分は、物理的環境の第1の部分内に含まれる(例えば、図7Kに示す物理的環境の第1の部分の全部若しくは一部、又は第1の感覚調整機能を作動させた入力の検出前に示された物理的環境の一部などである)。三次元環境の第2のビュー7361において、図7Lの例に示されるように、木の表現7350’’の表示特性は、第1の感覚調整機能の動作に従って、三次元環境の第1のビュー7340に示される木の表現7350’に対して調整される。例えば、第1の感覚調整機能が、図7Lに示されるように、オブジェクトがユーザにより近く見えるように、オブジェクトの焦点距離を低減するシミュレートされた望遠鏡視である場合、木の表現7350’’は、図7Kに示されるように、第2の距離よりも視点にはるかに近く位置するように見える(例えば、調整された距離は、第2の距離の5分の1であり、調整された距離は、第2の距離の10分の1であり、調整された距離は、第2の距離及び/又はシミュレートされた望遠鏡視の最大倍率の予め設定された割合に基づいて選択される距離である、など)。同様に、丘の表現7348’’もまた、図7Kに示されるように、第1の距離よりもユーザのはるかに近くに位置するように見える(例えば、調整された距離は、第1の距離の5分の1であり、調整された距離は、第1の距離の10分の1であり、調整された距離は、第1の距離及び/又はシミュレートされた望遠鏡機能の最大倍率の予め設定された割合に基づいて選択される距離である、など)。この例では、ビュー7361内のユーザの視点又は仮想ポジションは、いくつかの実施形態に従って、ビュー7340内のウィンドウのポジションに移動される。この例では、いくつかの実施形態によれば、ビュー7361内のユーザの視点又は仮想ポジションは、依然として、物理的環境内のユーザ及び/又は表示生成コンポーネントの実際のロケーションに基づく。 In FIG. 7L, the computer system detects a user input that activates a first sensory adjustment feature of a plurality of sensory adjustment features provided by the computer system. For example, the computer system detects that a hardware affordance 7354 has been activated by a user's input, that a user interface object corresponding to the first sensory adjustment feature has been activated or selected by a user's input, that a gesture input, a voice command, and/or a touch input, etc., that meets criteria for activating the first sensory adjustment feature has been provided by the user, etc. In response, the computer system displays a second view 7361 of the three-dimensional environment including a second representation of a second portion of the physical environment, the second portion of the physical environment being contained within the first portion of the physical environment (e.g., all or a portion of the first portion of the physical environment shown in FIG. 7K, or the portion of the physical environment shown prior to detection of the input that activated the first sensory adjustment feature). In the second view 7361 of the three-dimensional environment, as shown in the example of Figure 7L, the display characteristics of the representation 7350" of the tree are adjusted relative to the representation 7350' of the tree shown in the first view 7340 of the three-dimensional environment in accordance with the operation of the first sensory adjustment function. For example, if the first sensory adjustment function is a simulated telescopic view that reduces the focal length of the object so that the object appears closer to the user, as shown in Figure 7L, the representation 7350" of the tree will appear to be located much closer to the viewpoint than at the second distance, as shown in Figure 7K (e.g., the adjusted distance is one-fifth of the second distance, the adjusted distance is one-tenth of the second distance, the adjusted distance is a distance selected based on a preset percentage of the second distance and/or the maximum magnification of the simulated telescopic view, etc.). Similarly, the representation 7348'' of the hill also appears to be located much closer to the user than the first distance, as shown in FIG. 7K (e.g., the adjusted distance is one-fifth the first distance, the adjusted distance is one-tenth the first distance, the adjusted distance is a distance selected based on a preset percentage of the first distance and/or the maximum magnification of the simulated telescope function, etc.). In this example, the user's viewpoint or virtual position in view 7361 is moved to the position of the window in view 7340, according to some embodiments. In this example, the user's viewpoint or virtual position in view 7361 is still based on the actual location of the user and/or the display generation component in the physical environment, according to some embodiments.

いくつかの実施形態では、コンピュータは、第1の感覚調整機能を適用するとき、三次元環境の現在のビューに向けられたユーザの視線のロケーションに基づいて、物理的環境のターゲット部分を選択する。例えば、図7Kに示すように、コンピュータシステムは、ユーザの視線7352が三次元環境の第1のビュー7340内の木の表現7350’に向けられていることを検出し、第1の感覚調整機能が適用される物理的環境の第2の部分として、物理的環境の第1の部分から木を含む物理的環境の部分を選択する。 In some embodiments, when applying the first sensory adjustment function, the computer selects a target portion of the physical environment based on the location of the user's gaze directed at the current view of the three-dimensional environment. For example, as shown in FIG. 7K, the computer system detects that the user's gaze 7352 is directed at a representation 7350' of a tree in the first view 7340 of the three-dimensional environment and selects a portion of the physical environment that includes the tree from the first portion of the physical environment as the second portion of the physical environment to which the first sensory adjustment function is applied.

いくつかの実施形態では、シミュレートされた望遠鏡視は、コンピュータシステムによって提供される第1のタイプの感覚調節機能の例示的な例であり、コンピュータシステムによって提供され、ユーザ入力によって選択される別のタイプの感覚調節機能によって置換されてもよい。 In some embodiments, the simulated telescopic vision is an illustrative example of a first type of sensory accommodation function provided by the computer system, and may be replaced by another type of sensory accommodation function provided by the computer system and selected by user input.

図7Mでは、コンピュータシステムが、ユーザの入力によって作動された第1の感覚調整機能の動作に従って調整された物理的環境の第2の表現を含む三次元環境の第2のビュー7361を表示している間、コンピュータシステムは、複数の感覚調整機能のうちの第1の感覚調整機能とは異なる第2の感覚調整機能を作動させる第2のユーザ入力を検出する。例えば、コンピュータシステムは、ハードウェアアフォーダンス7356がユーザの入力によって作動されたこと、第2の感覚調整機能に対応するユーザインタフェースオブジェクトがユーザの入力によって作動又は選択されたこと、第2の感覚調整機能を作動させるための基準を満たすジェスチャ入力、音声コマンド、及び/又はタッチ入力などがユーザによって提供されたことなどを検出する。これに応じて、コンピュータシステムは、物理的環境の第3の部分の第3の表現を含む三次元環境の第3のビュー7364を表示し、物理的環境の第3の部分は、物理的環境の第2の部分内に含まれる(例えば、図7Lに示す物理的環境の第2の部分の全部若しくは一部、又は第2の感覚調整機能を作動させた入力の検出前に示された物理的環境の一部などである)。三次元環境の第3のビュー7364において、図7Mの例に示されるように、木の表現7350’’’の表示特性は、第2の感覚調整機能の動作に従って、三次元環境の第2のビュー7361に示される木の表現7350’’に対して更に調整される。例えば、第2の感覚調整機能が、図7Mに示されるように、温度及び/又は熱放射の変動に従って色及び/又は強度の変動を提示するシミュレートされた熱視である場合、木の表現7350’’’は、第3のビュー7364内の背景環境に対して異なる色及び/又は強度を有するように見え、表現7350’’’の部分7366’’’及び7368’’’の表示特性は、(例えば、熱撮像センサ又はコンピュータシステムと通信している他のセンサによって検出されるように、コンピュータシステムに送信されるか又はコンピュータシステムによって別のコンピュータシステムから取り出される熱データによって示されるように、など)物理的環境内の木の他の部分に対する木のそれらの部分の温度に基づいて更に調整される。例えば、部分7366’’’及び7368’’’によって表されるこれらの部分のより高い温度は、より多くの熱を放射するか、又は木自体よりも高い温度を有する小動物又はオブジェクトを明らかにする可能性が高い。表現7350’’’内の部分7366’’’及び7368’’’は、図7Kに示すように、木の元の第1の表現7350’に対する第1の感覚調整機能及び第2の感覚調整機能の両方の動作に基づいて生成される表示特性を有する。 In FIG. 7M, while the computer system is displaying a second view 7361 of the three-dimensional environment including a second representation of the physical environment adjusted according to the operation of the first sensory adjustment feature activated by the user's input, the computer system detects a second user input that activates a second sensory adjustment feature of the plurality of sensory adjustment features that is different from the first sensory adjustment feature. For example, the computer system detects that a hardware affordance 7356 has been activated by the user's input, that a user interface object corresponding to the second sensory adjustment feature has been activated or selected by the user's input, that a gesture input, a voice command, and/or a touch input, etc., that meets the criteria for activating the second sensory adjustment feature has been provided by the user, etc. In response, the computer system displays a third view 7364 of the three-dimensional environment including a third representation of a third portion of the physical environment, the third portion of the physical environment being included within the second portion of the physical environment (e.g., all or a portion of the second portion of the physical environment shown in FIG. 7L, or the portion of the physical environment shown prior to the detection of the input that activated the second sensory adjustment feature, etc.). In a third view 7364 of the three dimensional environment, as shown in the example of FIG. 7M , the display characteristics of the tree representation 7350'' are further adjusted relative to the tree representation 7350'' shown in the second view 7361 of the three dimensional environment in accordance with operation of the second sensory adjustment function. For example, if the second sensory adjustment function is a simulated heat vision that presents variations in color and/or intensity according to variations in temperature and/or thermal radiation as shown in FIG. 7M , the tree representation 7350''' will appear to have a different color and/or intensity relative to the background environment in the third view 7364, and the display characteristics of portions 7366''' and 7368''' of representation 7350''' will be further adjusted based on the temperature of those portions of the tree relative to other portions of the tree in the physical environment (e.g., as detected by a thermal imaging sensor or other sensor in communication with the computer system, as indicated by thermal data transmitted to the computer system or retrieved by the computer system from another computer system, etc.). For example, the higher temperatures of these portions represented by portions 7366''' and 7368''' are more likely to reveal small animals or objects that radiate more heat or have a higher temperature than the tree itself. Portions 7366''' and 7368''' in representation 7350''' have display characteristics that are generated based on the operation of both the first sensory modulation function and the second sensory modulation function on the original first representation 7350' of the tree, as shown in FIG. 7K.

いくつかの実施形態では、コンピュータシステムは、第2の感覚調整機能を適用するとき、三次元環境の現在表示されているビューに向けられたユーザの視線のロケーションに基づいて、物理的環境のターゲット部分を選択する。例えば、図7Lに示すように、コンピュータシステムは、ユーザの視線7360が三次元環境の第2のビュー7361内の木の表現7350’’に向けられていることを検出し、第1の感覚調整機能及び第2の感覚調整機能の両方が適用される物理的環境の第3の部分として、物理的環境の第2の部分から木を含む物理的環境の部分を選択する。 In some embodiments, when applying the second sensory adjustment function, the computer system selects a target portion of the physical environment based on the location of the user's gaze directed toward the currently displayed view of the three-dimensional environment. For example, as shown in FIG. 7L, the computer system detects that the user's gaze 7360 is directed toward a representation 7350'' of a tree in the second view 7361 of the three-dimensional environment and selects a portion of the physical environment that includes the tree from the second portion of the physical environment as a third portion of the physical environment to which both the first sensory adjustment function and the second sensory adjustment function are applied.

いくつかの実施形態では、シミュレートされた熱視は、コンピュータシステムによって提供される第2のタイプの感覚調整機能の例証的実施例であり、コンピュータシステムによって提供され、ユーザの入力によって選択される別のタイプの感覚調整機能によって置換されてもよい。 In some embodiments, simulated heat vision is an illustrative example of a second type of sensory modulation functionality provided by the computer system, and may be replaced by another type of sensory modulation functionality provided by the computer system and selected by user input.

いくつかの実施形態では、第1の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)が、第1のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、望遠鏡視、顕微鏡視、暗視、熱視など)に従って、物理的環境の個別の部分のベースライン表現(例えば、図7Mの部分7366’’’、7368’’’、に対応する図7Kの木の表現7350’、物理的環境の別の部分など)に対して調整されて、物理的環境の個別の部分の第1の調整された表現(例えば、図7Mの木の表現7350’’’の部分7366’’’、7368’’’に対応する図7Lの木の表現7350’’、又は物理的環境の別の部分の更に調整された表現など)を取得し、第2の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)が、第2のタイプのコンピュータ生成感覚調整に従って、物理的環境の第2の表現に対して調整されて、物理的環境の個別の部分の第3の表現(例えば、図7Mの木の表現7350’’’の部分7366’’’、7368’’’、又は物理的環境の別の部分の更に調整された表現など)を取得する。いくつかの実施形態では、第2の表示特性は、第1のタイプ及び第2のタイプの感覚調整機能のいくつかの組み合わせにおいて、第1の表現及び第2の表現において同じ値を有し、第2の表示特性は、第1のタイプ及び第2のタイプの感覚調整機能のいくつかの組み合わせにおいて、第1の表現及び第2の表現において異なる値を有する。 In some embodiments, a first display characteristic (e.g., resolution, zoom level, magnification, color distribution, intensity distribution, focal length, etc.) is adjusted relative to a baseline representation of the individual portion of the physical environment (e.g., tree representation 7350' of FIG. 7K corresponding to portions 7366''', 7368''' of FIG. 7M, another portion of the physical environment, etc.) according to a first type of computer-generated sensory adjustment (e.g., binocular vision, telescopic vision, microscopic vision, night vision, thermal vision, etc.) to generate a first adjusted representation of the individual portion of the physical environment (e.g., portions 7366''', 7368''', of tree representation 7350' of FIG. 7M, another portion of the physical environment, etc.). 7L corresponding to portions 7366''', 7368''', or a further adjusted representation of another portion of the physical environment, and second display characteristics (e.g., resolution, zoom level, magnification, color distribution, intensity distribution, focal length, etc.) are adjusted for the second representation of the physical environment according to the second type of computer-generated sensory adjustment to obtain a third representation of the respective portion of the physical environment (e.g., portions 7366''', 7368''', or a further adjusted representation of another portion of the physical environment, etc.). In some embodiments, the second display characteristics have the same value in the first representation and the second representation in some combinations of the first and second types of sensory adjustment functions, and the second display characteristics have different values in the first representation and the second representation in some combinations of the first and second types of sensory adjustment functions.

いくつかの実施形態では、コンピュータシステムは、物理的環境の表現が、第3の感覚調整機能(例えば、第3の感覚調整機能に対応するアフォーダンス7358、ユーザインタフェースオブジェクト、ジェスチャ入力、音声コマンドなどとの相互作用によって作動させることができる感覚調整機能など)に更に基づいて調整されることを可能にする。いくつかの実施形態では、物理的環境の第3の表現を含む三次元環境の第3のビュー7364を表示している間、コンピュータシステムは、第1のタイプ及び第2のタイプの感覚調整機能とは異なる第3のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視、カラーフィルタなど)を作動させる要求に対応する第3のユーザ入力を検出する。それに応じて、コンピュータシステムは、物理的環境の第4の部分の第4の表現(例えば、物理的環境の第3の部分の全部又は一部)を含む三次元環境の第4のビューを表示し、物理的環境の第4の表現は、第1のタイプの感覚調整機能に従って物理的環境の第4の部分の第1の表現に対して調整された第1の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)と、第2のタイプの感覚調整機能に従って物理的環境の第4の部分の第2の表現に対して調整された第2の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)と、第3のタイプの感覚調整機能に従って物理的環境の第4の部分の物理的環境の第3の表現に対して調整された第3の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)とを有する。 In some embodiments, the computer system enables the representation of the physical environment to be further adjusted based on a third sensory adjustment feature (e.g., an affordance 7358 corresponding to the third sensory adjustment feature, a sensory adjustment feature that can be activated by interaction with a user interface object, a gestural input, a voice command, etc.). In some embodiments, while displaying a third view 7364 of the three-dimensional environment including the third representation of the physical environment, the computer system detects a third user input corresponding to a request to activate a third type of computer-generated sensory adjustment (e.g., binocular vision, microscopic vision, night vision, thermal vision, color filters, etc.) that is distinct from the first and second types of sensory adjustment features. In response, the computer system displays a fourth view of the three-dimensional environment including a fourth representation of a fourth portion of the physical environment (e.g., all or a portion of a third portion of the physical environment), the fourth representation of the physical environment having first display characteristics (e.g., resolution, zoom level, magnification, color distribution, intensity distribution, focal length, etc.) adjusted for the first representation of the fourth portion of the physical environment according to a first type of sensory adjustment function, second display characteristics (e.g., resolution, zoom level, magnification, color distribution, intensity distribution, focal length, etc.) adjusted for the second representation of the fourth portion of the physical environment according to a second type of sensory adjustment function, and third display characteristics (e.g., resolution, zoom level, magnification, color distribution, intensity distribution, focal length, etc.) adjusted for the third representation of the physical environment of the fourth portion of the physical environment according to a third type of sensory adjustment function.

いくつかの実施形態では、第1の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、双眼鏡視、単眼鏡視、望遠鏡視など)(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含み、第2の感覚調整機能は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。 In some embodiments, the first sensory adjustment function includes simulated telescopic viewing (e.g., binocular, monocular, telescopic, etc.) for viewing distant physical objects (e.g., reducing the focal length of an object so that the object appears closer to the user), and the second sensory adjustment function includes simulated microscopic viewing for magnifying nearby physical objects.

いくつかの実施形態では、第1の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、オブジェクトがユーザにより近く見えるように、オブジェクトの焦点距離を低減すること)を含み、第2の感覚調整機能は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含む。 In some embodiments, the first sensory adjustment function includes simulated telescopic vision for viewing remote physical objects (e.g., reducing the focal length of an object so that the object appears closer to the user) and the second sensory adjustment function includes simulated night vision for viewing physical objects under low light conditions (e.g., increased sensitivity in low light conditions, the brightness of an object is visually enhanced, small variations in brightness are magnified, etc.).

いくつかの実施形態では、第1の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減すること)を含み、第2の感覚調整機能は、フィルタ(例えば、カラーフィルタ、光周波数フィルタ、強度フィルタ、運動フィルタなど)を用いて物理的オブジェクトのビューを修正することを含む。 In some embodiments, the first sensory adjustment function includes simulated telescoping for viewing a remote physical object (e.g., reducing the focal length of the object so that the object appears closer to the user), and the second sensory adjustment function includes modifying the view of the physical object with filters (e.g., color filters, light frequency filters, intensity filters, motion filters, etc.).

いくつかの実施形態では、第1の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減すること)を含み、第2の感覚調整機能は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音のための選択的音声増強(例えば、音量を増強すること、ある音周波数を選択的に増強/抑制することなど)を含む。 In some embodiments, the first sensory adjustment function includes simulated telescopic viewing for viewing distant physical objects (e.g., reducing the focal length of an object so that the object appears closer to the user), and the second sensory adjustment function includes selective sound enhancement (e.g., boosting the volume, selectively enhancing/suppressing certain sound frequencies, etc.) for sounds corresponding to a subset of physical objects in the physical environment (e.g., a selected subset of all sound-producing physical objects, a physical object that is centered in the current field of view, etc.).

いくつかの実施形態では、物理的環境の第3の表現を表示するのと同時に、コンピュータシステムは、物理的環境の第3の表現において可視である物理的環境の一部に対応する音を出力し、音は、物理的環境の一部の外側の音源からの音に対して選択的に増強される(例えば、音量を増加させる、いくつかの選択された周波数の振幅を修正するなど)。 In some embodiments, simultaneously with displaying the third representation of the physical environment, the computer system outputs sounds corresponding to the portion of the physical environment that is visible in the third representation of the physical environment, and the sounds are selectively enhanced (e.g., increasing the volume, modifying the amplitude of some selected frequencies, etc.) relative to sounds from sources outside the portion of the physical environment.

いくつかの実施形態では、物理的環境の第3の表現を表示するのと同時に、コンピュータシステムは、物理的環境の第2の表現及び第3の表現の両方において可視である物理的環境の一部から発せられる発話に対応するテキスト出力を表示し、発話は、物理的環境の一部の外側の音源からの音に対して選択的に増強される。 In some embodiments, concurrently with displaying the third representation of the physical environment, the computer system displays text output corresponding to speech emanating from a portion of the physical environment that is visible in both the second and third representations of the physical environment, the speech being selectively enhanced relative to sounds from a sound source outside the portion of the physical environment.

いくつかの実施形態では、第1の感覚調整機能は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含み、第2の感覚調整機能は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従って色及び/又は強度の変動を提示することなど)を含む。 In some embodiments, the first sensory modulation function includes simulated microscopic vision to magnify nearby physical objects, and the second sensory modulation function includes simulated thermal vision to view physical objects having different thermal emission profiles (e.g., high sensitivity to temperature variations, presenting variations in color and/or intensity according to temperature and/or thermal emission variations, etc.).

いくつかの実施形態では、第1の感覚調整機能は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含む。 In some embodiments, the first sensory adjustment function includes simulated night vision for viewing physical objects in low light conditions (e.g., high sensitivity in low light conditions, the brightness of objects is visually enhanced, small variations in brightness are magnified, etc.), and the second sensory adjustment function includes simulated telescopic vision for viewing remote physical objects (e.g., reducing the focal length of an object so that the object appears closer to the user).

いくつかの実施形態では、第1の感覚調整機能は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に強化される、輝度の小さな変動が拡大されるなど)を含み、第2の感覚調整機能は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。 In some embodiments, the first sensory adjustment function includes simulated night vision for viewing physical objects in low light conditions (e.g., high sensitivity in low light conditions, visual enhancement of object brightness, magnification of small variations in brightness, etc.), and the second sensory adjustment function includes simulated microscopic vision for magnifying nearby physical objects.

いくつかの実施形態では、第1の感覚調整機能は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2の感覚調整機能は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度の変動に対する高感度、温度及び/又は熱放射の変動に応じた色及び/又は強度の変動を提示することなど)を含む。 In some embodiments, the first sensory adjustment function includes simulated night vision for viewing physical objects under low light conditions (e.g., high sensitivity in low light conditions, the brightness of the object is visually enhanced, small variations in brightness are magnified, etc.), and the second sensory adjustment function includes simulated heat vision for viewing physical objects having different thermal radiation profiles (e.g., high sensitivity to variations in temperature, presenting variations in color and/or intensity in response to variations in temperature and/or thermal radiation, etc.).

いくつかの実施形態では、第1の感覚調整機能は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2の感覚調整機能及び第2のタイプのコンピュータ生成感覚調整は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音に対する選択的音声増強(例えば、音量を増強する、ある音周波数を選択的に増強/抑制するなど)を含む。 In some embodiments, the first sensory modulation function includes simulated night vision for viewing physical objects under low light conditions (e.g., high sensitivity in low light conditions, luminance of objects is visually enhanced, small variations in luminance are magnified, etc.), and the second sensory modulation function and the second type of computer-generated sensory modulation includes selective sound enhancement (e.g., boosting volume, selectively enhancing/suppressing certain sound frequencies, etc.) for sounds corresponding to a subset of physical objects in the physical environment (e.g., a selected subset of all sound-producing physical objects, a physical object that is centered in the current field of view, etc.).

いくつかの実施形態では、第1の感覚調整機能は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度変動に対する高感度、温度及び/又は熱放射変動に従った色及び/又は強度変動を提示することなど)を含み、第2の感覚調整機能は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、ユーザにより近く見えるようにオブジェクトの焦点距離を低減すること)を含む。 In some embodiments, the first sensory adjustment function includes simulated thermal vision for viewing physical objects having different thermal radiation profiles (e.g., high sensitivity to temperature variations, presenting color and/or intensity variations according to temperature and/or thermal radiation variations, etc.), and the second sensory adjustment function includes simulated telescopic vision for viewing remote physical objects (e.g., reducing the focal length of the object so that it appears closer to the user).

いくつかの実施形態では、第1の感覚調整機能は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含み、第2の感覚調整機能は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。 In some embodiments, the first sensory modulation function includes simulated thermal vision for viewing physical objects having various thermal radiation profiles (e.g., high sensitivity to temperature variations, presenting color and/or intensity variations according to temperature and/or thermal radiation variations, etc.), and the second sensory modulation function includes simulated microscopic vision for magnifying nearby physical objects.

いくつかの実施形態では、第1の感覚調整動作は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含み、第2の感覚調整動作は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高い感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含む。 In some embodiments, the first sensory adjustment operation includes simulated heat vision for viewing physical objects having various thermal radiation profiles (e.g., increased sensitivity to temperature variations, presenting variations in color and/or intensity according to temperature and/or thermal radiation variations, etc.), and the second sensory adjustment operation includes simulated night vision for viewing physical objects under low light conditions (e.g., increased sensitivity in low light conditions, luminance of objects is visually enhanced, small variations in luminance are magnified, etc.).

いくつかの実施形態では、第1の感覚調整機能は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含み、第2の感覚調整動作は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音に対する選択的音声増強(例えば、音量を増強すること、こと、特定の音周波数を選択的に増強/抑制することなど)を含む。 In some embodiments, the first sensory modulation function includes simulated thermal vision for viewing physical objects having various thermal emission profiles (e.g., high sensitivity to temperature variations, presenting variations in color and/or intensity according to temperature and/or thermal emission variations, etc.), and the second sensory modulation action includes selective sound enhancement (e.g., enhancing the volume, selectively enhancing/suppressing certain sound frequencies, etc.) for sounds corresponding to a subset of physical objects in the physical environment (e.g., a selected subset of all sound-producing physical objects, a physical object that is centered in the current field of view, etc.).

いくつかの実施形態では、ユーザによって選択された複数の選択された感覚調整機能が物理的環境の一部のベースライン表現に適用される順序は、1つ以上の予め設定された制約に基づいてコンピュータシステムによって調整され、任意選択的に、これらの感覚調整機能がユーザによって作動される順序とは異なる。例えば、いくつかの実施形態では、シミュレートされた望遠鏡視に対応する調整は、ユーザに最終結果を提示する目的で他のタイプの感覚調整が実行される必要がある物理的環境の部分を減少させるため、他のタイプの感覚調整に対応する調整の前に実行される。いくつかの実施形態では、コンピュータシステムは、異なるタイプの感覚調整機能がユーザによって作動される順序を観察し、ユーザによって作動される各追加の感覚調整に応じて得られる中間結果を提示する。 In some embodiments, the order in which multiple selected sensory adjustment features selected by the user are applied to the baseline representation of a portion of the physical environment is adjusted by the computer system based on one or more pre-set constraints, and optionally differs from the order in which these sensory adjustment features are activated by the user. For example, in some embodiments, adjustments corresponding to simulated telescopic viewing are performed before adjustments corresponding to other types of sensory adjustments in order to reduce the portions of the physical environment in which other types of sensory adjustments need to be performed in order to present the final result to the user. In some embodiments, the computer system observes the order in which different types of sensory adjustment features are activated by the user and presents intermediate results obtained in response to each additional sensory adjustment activated by the user.

図7N~図7Pは、いくつかの実施形態による、三次元環境のビュー内の物理的環境の部分が個別のタイプのエクササイズに対応するという判定に従って、三次元環境のビュー内に個別のタイプのエクササイズに対応する仮想コンテンツを選択的に表示することを示すブロック図である。 7N-7P are block diagrams illustrating selectively displaying virtual content corresponding to a particular type of exercise within a view of a three-dimensional environment pursuant to a determination that a portion of the physical environment within the view of the three-dimensional environment corresponds to a particular type of exercise, according to some embodiments.

いくつかの実施形態では、コンピュータシステムは、三次元環境のビュー(例えば、ビュー7408、ビュー7410など)に表された物理的ロケーション(例えば、物理的オブジェクト7404のロケーション、物理的オブジェクト7402のロケーションなど)が個別のタイプのエクササイズ(例えば、ローイング、ハイキングなど)に関連付けられているという判定に従って、個別のタイプのエクササイズ(例えば、ローイング、ハイキングなど)に対応する仮想コンテンツ(例えば、仮想開放水域7406、仮想ハイキングコース7412など)(例えば、仮想風景、エクササイズ器具の視覚的及び機能的強化、ユーザインタフェース、ヘルス及びスコアボードなど)を表示する。例えば、ユーザ及び表示生成コンポーネント(例えば、ユーザ7002及び表示生成コンポーネント7100、又はHMDなどの別のタイプの表示生成コンポーネントを有する別のユーザなど)が現実世界内(例えば、シーン105内、又は別の物理的環境内など)のロケーションを移動する際、三次元環境のビュー内に示される仮想コンテンツは、ユーザ及び表示生成コンポーネントの現在ロケーションに関連付けられたタイプのエクササイズに対応するように調整される。いくつかの実施形態では、ロケーションが複数のタイプのエクササイズに関連付けられている場合、コンピュータシステムは、他のコンテキスト情報(例えば、ユーザの移動、そのロケーションにおけるオブジェクトとのユーザの関与など)に基づいて、そのロケーションに関連付けられている複数のタイプのエクササイズからあるタイプのエクササイズを選択し、選択されたタイプのエクササイズに対応する視覚的コンテンツを表示する。 In some embodiments, the computer system displays virtual content (e.g., virtual open water 7406, virtual hiking trail 7412, etc.) (e.g., virtual scenery, visual and functional enhancements to exercise equipment, user interfaces, health and scoreboards, etc.) corresponding to a particular type of exercise (e.g., rowing, hiking, etc.) pursuant to a determination that a physical location (e.g., location of physical object 7404, location of physical object 7402, etc.) represented in a view of the three-dimensional environment (e.g., view 7408, view 7410, etc.) is associated with a particular type of exercise (e.g., rowing, hiking, etc.). For example, as the user and display generating component (e.g., user 7002 and display generating component 7100, or another user having another type of display generating component such as an HMD, etc.) move between locations in the real world (e.g., within scene 105, or within another physical environment, etc.), the virtual content shown in the view of the three-dimensional environment is adjusted to correspond to the type of exercise associated with the current location of the user and display generating component. In some embodiments, if a location is associated with multiple types of exercises, the computer system selects a type of exercise from the multiple types of exercises associated with the location based on other contextual information (e.g., the user's movements, the user's engagement with objects at the location, etc.) and displays visual content corresponding to the selected type of exercise.

図7Nの部分(A)は、ユーザ7002が物理的環境(例えば、シーン105、又は別の物理的環境など)に位置することを示す。ユーザ7002は、屋外環境若しくは屋内環境である異なる物理的環境に位置してもよく、又は屋内環境と屋外環境との間を移動してもよい。ユーザ7002は、第1の表示生成コンポーネント(例えば、表示生成コンポーネント7100、HMDなどの別のタイプの表示生成コンポーネントなど)を介して提供される視野を通じて物理的環境を見る。物理的環境は、物理的表面(例えば、壁7004及び7006、床7008、他の物理的表面など)及び1つ以上の物理的オブジェクト(例えば、エクササイズ器具7402、7404、他の物理的オブジェクトなど)を含む。いくつかの実施形態では、物理的環境は、ユーザが同時に見ることができない互いに分離した複数の部屋又はセクションを含む建物である。いくつかの実施形態では、物理的環境は、個々の建物内の部屋、様々な公園、様々な地理的領域など、互いに分離した複数の領域を含む。いくつかの実施形態では、物理的環境は、道路、木、空、開放水域、岩、山、車両、動物、人などの屋外の物理的オブジェクト及び表面を含む屋外環境である。いくつかの実施形態では、コンピュータシステムは、ユーザの物理的環境内(例えば、表示生成コンポーネントを通じたユーザの視野内、ユーザの閾値近傍(例えば、5メートル以内、数歩以内など)など)にある個別のロケーションに関連付けられる、1つ以上のタイプのエクササイズ(例えば、屋内エクササイズ、屋内スポーツ、屋外エクササイズ、屋外スポーツ、健康及び身体的能力を促進する身体活動、機能回復訓練及び療法など)を判定するために、情報を記憶し、及び/又は規則及び人工知能を実装する。いくつかの実施形態では、コンピュータシステムは、個別のロケーションに存在する物理的オブジェクトのタイプに基づいて、個別のロケーションに関連付けられたエクササイズのタイプを判定する。いくつかの実施形態では、コンピュータシステムは、個別のロケーションに存在する環境又は設定のタイプに基づいて、個別のロケーションに関連付けられたエクササイズのタイプを判定する。いくつかの実施形態では、コンピュータシステムは、他のタイプのマーカ及び信号、又は個別のに存在する情報の組み合わせに基づいて、個別ロケーションのロケーションに関連付けられたエクササイズのタイプを判定する。 Part (A) of FIG. 7N shows that a user 7002 is located in a physical environment (e.g., scene 105, or another physical environment, etc.). The user 7002 may be located in different physical environments, which may be an outdoor environment or an indoor environment, or may move between an indoor environment and an outdoor environment. The user 7002 views the physical environment through a field of view provided via a first display generating component (e.g., display generating component 7100, another type of display generating component such as an HMD, etc.). The physical environment includes physical surfaces (e.g., walls 7004 and 7006, floor 7008, other physical surfaces, etc.) and one or more physical objects (e.g., exercise equipment 7402, 7404, other physical objects, etc.). In some embodiments, the physical environment is a building that includes multiple rooms or sections that are separate from one another that cannot be viewed by the user simultaneously. In some embodiments, the physical environment includes multiple areas that are separate from one another, such as rooms within individual buildings, different parks, different geographic areas, etc. In some embodiments, the physical environment is an outdoor environment including outdoor physical objects and surfaces such as roads, trees, sky, open water, rocks, mountains, vehicles, animals, people, etc. In some embodiments, the computer system stores information and/or implements rules and artificial intelligence to determine one or more types of exercises (e.g., indoor exercises, indoor sports, outdoor exercises, outdoor sports, physical activities that promote health and physical performance, restorative training and therapy, etc.) associated with individual locations within the user's physical environment (e.g., within the user's field of view through the display generation component, within a threshold vicinity of the user (e.g., within 5 meters, within a few steps, etc.), etc.). In some embodiments, the computer system determines the type of exercise associated with the individual locations based on the type of physical objects present at the individual locations. In some embodiments, the computer system determines the type of exercise associated with the individual locations based on the type of environment or setting present at the individual locations. In some embodiments, the computer system determines the type of exercise associated with the individual locations based on other types of markers and signals, or a combination of information present at the individual locations.

図7Nの部分(B)では、コンピュータシステムは、ユーザ7002の物理的環境の表現を含む三次元環境の第1のビュー7405を表示する。いくつかの実施形態では、三次元環境の第1のビュー7405は、図7N(B)に示されるように、仮想要素を伴わない、又は最小限の仮想要素を伴う、現実ビューである。この例では、第1のビュー7405は、仮想コンテンツなしで、物理的表面の表現(例えば、壁7004及び7006の表現7004’及び7006’、床7008の表現7008など)と、物理的オブジェクトの表現(例えば、物理的オブジェクト7402の表現7402’、物理的オブジェクト7404の表現7404’など)とを含む。いくつかの実施形態では、三次元環境の第1のビューは、コンピュータシステムの基本機能を制御するためのユーザインタフェースオブジェクト(例えば、様々なコンピュータ生成体験を起動するためのアプリケーションアイコン、ディスプレイ設定、音声コントロールなど)を伴う、現実ビュー(例えば、図7N(B)に示されるビュー7405)である。いくつかの実施形態では、三次元環境の第1のビューは、低い没入レベルで表示される拡張現実ビューである(例えば、特定のアプリケーション体験(例えば、健康用途、瞑想アプリケーション、ワークアウトアプリケーション、ゲームアプリケーションなど)の一部ではなく、全体としてユーザの視野の小さい割合(例えば、10%未満、20%未満など)しか占有しない、又は制限された浮動ウィンドウなどに表示されるユーザインタフェースオブジェクト(例えば、アプリケーション起動パッド、ウェルカムユーザインタフェース、設定ユーザインタフェース)を表示する)。いくつかの実施形態では、三次元環境の第1のビュー7405に含まれる物理的環境の表現は、物理的環境の一部のカメラビューである。いくつかの実施形態では、三次元環境の第1のビュー7405に示される物理的環境の部分は、(例えば、ユーザが自分の頭部に表示生成コンポーネントを装着しているとき、又は自分の手に表示生成コンポーネントを保持しているときなど)ユーザが物理的環境の周りを移動するにつれて変化する。いくつかの実施形態では、三次元環境の第1のビュー7405に示される物理的環境の部分は、表示生成コンポーネントが物理的環境の周りを移動するにつれて変化する。いくつかの実施形態では、三次元環境の第1のビュー7405に含まれる物理的環境の表現は、表示生成コンポーネントの透明部分を通じた物理的環境のビューである。この例では、物理的オブジェクト7402は、三次元環境の第1のビュー7405に示される物理的環境の第1の部分内の第1のロケーションに配置され、物理的オブジェクト7404は、三次元環境の第1のビュー7405に示される物理的環境の第1の部分内の第2のロケーションに配置される。いくつかの実施形態では、第1のロケーション及び第2のロケーションは、必ずしも三次元環境の同じビュー内にある必要はなく、同じ物理的環境内の2つの別個のロケーションに、又は互いに完全に分離された異なる物理的環境に位置してもよい。この例では、物理的オブジェクト7402は、第1のタイプのエクササイズ(例えば、ランニング、ウォーキングなど)に対応する器具又は設定に対応し、物理的オブジェクト7402は、第2のタイプのエクササイズ(例えば、ローイング、ボート漕ぎ、水上スキーなど)に対応する器具又は設定に対応する。 In part (B) of FIG. 7N, the computer system displays a first view 7405 of a three-dimensional environment including a representation of the physical environment of the user 7002. In some embodiments, the first view 7405 of the three-dimensional environment is a real view without or with minimal virtual elements, as shown in FIG. 7N(B). In this example, the first view 7405 includes representations of physical surfaces (e.g., representations 7004' and 7006' of walls 7004 and 7006, representation 7008 of floor 7008, etc.) and representations of physical objects (e.g., representation 7402' of physical object 7402, representation 7404' of physical object 7404, etc.) without virtual content. In some embodiments, the first view of the three-dimensional environment is a real view (e.g., view 7405 shown in FIG. 7N(B)) with user interface objects for controlling basic functions of the computer system (e.g., application icons for launching various computer-generated experiences, display settings, audio controls, etc.). In some embodiments, the first view of the three-dimensional environment is an augmented reality view that is displayed at a low level of immersion (e.g., displays user interface objects (e.g., application launch pad, welcome user interface, settings user interface) that are not part of a particular application experience (e.g., wellness application, meditation application, workout application, gaming application, etc.) and that as a whole occupy only a small percentage (e.g., less than 10%, less than 20%) of the user's field of view or are displayed in a limited floating window, etc.). In some embodiments, the representation of the physical environment included in the first view of the three-dimensional environment 7405 is a camera view of a portion of the physical environment. In some embodiments, the portion of the physical environment shown in the first view of the three-dimensional environment 7405 changes as the user moves around the physical environment (e.g., when the user is wearing a display generating component on his or her head or holding a display generating component in his or her hand, etc.). In some embodiments, the portion of the physical environment shown in the first view of the three-dimensional environment 7405 changes as the display generating component moves around the physical environment. In some embodiments, the representation of the physical environment included in the first view 7405 of the three-dimensional environment is a view of the physical environment through a transparent portion of the display generation component. In this example, the physical object 7402 is located at a first location within the first portion of the physical environment shown in the first view 7405 of the three-dimensional environment, and the physical object 7404 is located at a second location within the first portion of the physical environment shown in the first view 7405 of the three-dimensional environment. In some embodiments, the first location and the second location are not necessarily in the same view of the three-dimensional environment, but may be located in two separate locations within the same physical environment, or in different physical environments completely separated from each other. In this example, the physical object 7402 corresponds to equipment or a setting corresponding to a first type of exercise (e.g., running, walking, etc.), and the physical object 7402 corresponds to equipment or a setting corresponding to a second type of exercise (e.g., rowing, boating, water skiing, etc.).

図7O及び図7Pでは、コンピュータシステムは、三次元環境の第1のビュー7450を表示している間、物理的環境内のユーザ7002の移動を検出する。いくつかの実施形態では、三次元環境の第1のビュー内で可視である物理的環境の部分は、ユーザが物理的環境内で動き回るにつれて変化する。図7Oは、ユーザ7002が、第1のタイプのエクササイズに対応する物理的オブジェクト7404又は設定を含む第1のロケーションに移動した第1のシナリオを示す。図7Oは、ユーザ7002が、第2のタイプのエクササイズに対応する物理的オブジェクト7402又は設定を含む第2のロケーションに移動した第2のシナリオを示す。 In Figures 7O and 7P, the computer system detects movement of a user 7002 within the physical environment while displaying a first view 7450 of the three-dimensional environment. In some embodiments, the portions of the physical environment that are visible in the first view of the three-dimensional environment change as the user moves around in the physical environment. Figure 7O illustrates a first scenario in which the user 7002 has moved to a first location that includes a physical object 7404 or setting that corresponds to a first type of exercise. Figure 7O illustrates a second scenario in which the user 7002 has moved to a second location that includes a physical object 7402 or setting that corresponds to a second type of exercise.

いくつかの実施形態では、ユーザの移動は、(例えば、ユーザが表示生成コンポーネントを保持又は装着している間、表示生成コンポーネントとユーザとの間の空間関係が、ユーザが表示生成コンポーネントを通じて物理的環境を見続けることができるように維持されている間など)個別のロケーション(例えば、第1の物理的オブジェクト7404を含む第1のロケーション、第2の物理的オブジェクト7402を含む第2のロケーションなど)へのユーザ全体の移動を含む。いくつかの実施形態では、ユーザの移動は、(例えば、ユーザが表示生成コンポーネントを保持又は装着している、表示生成コンポーネントとユーザとの間の空間関係が、ユーザが表示生成コンポーネントを通じて物理的環境を見続けることができるように維持されている間など)個別のロケーション(例えば、第1の物理的オブジェクト7404を含む第1のロケーション、第2の物理的オブジェクト7402を含む第2のロケーションなど)のビューをキャプチャするように表示生成コンポーネント又は表示生成コンポーネントに関連付けられたカメラを配向するユーザの移動を含む。いくつかの実施形態では、ユーザの移動は、個別のロケーションでの物理的オブジェクト(単数又は複数)の操作(例えば、個別のロケーションでエクササイズ器具をオンにすること、個別のロケーションでエクササイズ器具を持ち上げること、個別のロケーションでエクササイズ器具の使用を開始することなど)に対応する移動を更に含む。 In some embodiments, the user's movement includes movement of the entire user to a separate location (e.g., a first location including the first physical object 7404, a second location including the second physical object 7402, etc.) (e.g., while the user is holding or wearing the display generating component, while the spatial relationship between the display generating component and the user is maintained such that the user can continue to view the physical environment through the display generating component, etc.). In some embodiments, the user's movement includes movement of the user to orient the display generating component or a camera associated with the display generating component to capture a view of the separate location (e.g., a first location including the first physical object 7404, a second location including the second physical object 7402, etc.) (e.g., while the user is holding or wearing the display generating component, while the spatial relationship between the display generating component and the user is maintained such that the user can continue to view the physical environment through the display generating component, etc.). In some embodiments, the user's movements further include movements corresponding to the manipulation of a physical object(s) at a discrete location (e.g., turning on the exercise equipment at a discrete location, picking up the exercise equipment at a discrete location, beginning to use the exercise equipment at a discrete location, etc.).

図7Oに示されるように、ユーザは、第1のタイプのエクササイズに対応する物理的オブジェクト7404を含む物理的環境内の第1のロケーションに移動している。この例では、ユーザはまた、ユーザが第1のタイプのエクササイズのために物理的オブジェクト7404を使用し始めることを可能にする物理的オブジェクト7404に対するポジションに移動している(例えば、器具上に座る、器具上に立つ、器具の1つ以上の部分を保持するなど)。いくつかの実施形態では、コンピュータシステムは、任意選択的に、ユーザが第1のタイプのエクササイズ(例えば、オールを漕ぐこと、シフトレバーを引くこと、開始姿勢をとることなど)に対応するエクササイズの1回以上の移動の繰り返しを開始したことを検出する。第1のタイプのエクササイズに対応する物理的オブジェクト7404を含む第1のロケーションへの第1のユーザの移動を検出したことに応じて、かつ第1のロケーションが第1のタイプのエクササイズに対応するという判定、及び任意選択的に、ユーザの移動が第1のセットの基準(例えば、第1のロケーションに対応する基準、第1のタイプのエクササイズに対応する基準など)を満たすという判定に従って、コンピュータシステムは、三次元環境の第2のビュー7408を表示し、第2のビュー7408は、第1のタイプのエクササイズに対応する第1の仮想コンテンツを含み、第1の仮想コンテンツのビューは、第1のロケーション(例えば、物理的オブジェクト7404を含むが物理的オブジェクト7402を含まないロケーション、第2のタイプのエクササイズに対応しないロケーションなど)を含む物理的環境のビューの少なくとも一部を置換する。いくつかの実施形態では、第1の仮想コンテンツは、三次元環境の第2のビュー7408内の物理的環境のビューを完全に置換する。いくつかの実施形態では、仮想コンテンツは、三次元環境の第2のビュー7408内の物理的環境の表現の表示に重なって、遮断して、又は置換して表示される。 7O, the user has moved to a first location in a physical environment that includes a physical object 7404 corresponding to a first type of exercise. In this example, the user has also moved to a position relative to the physical object 7404 that allows the user to begin using the physical object 7404 for the first type of exercise (e.g., sitting on the equipment, standing on the equipment, holding one or more portions of the equipment, etc.). In some embodiments, the computer system optionally detects that the user has begun one or more repetitions of a movement of an exercise corresponding to the first type of exercise (e.g., rowing an oar, pulling a shift lever, assuming a starting position, etc.). In response to detecting movement of the first user to a first location including a physical object 7404 corresponding to the first type of exercise, and optionally in accordance with a determination that the first location corresponds to the first type of exercise, and a determination that the user's movement satisfies a first set of criteria (e.g., criteria corresponding to the first location, criteria corresponding to the first type of exercise, etc.), the computer system displays a second view 7408 of the three-dimensional environment, the second view 7408 including a first virtual content corresponding to the first type of exercise, the view of the first virtual content replacing at least a portion of the view of the physical environment including the first location (e.g., a location including the physical object 7404 but not the physical object 7402, a location not corresponding to the second type of exercise, etc.). In some embodiments, the first virtual content completely replaces the view of the physical environment in the second view 7408 of the three-dimensional environment. In some embodiments, the virtual content is displayed overlaying, occluding, or replacing the display of the representation of the physical environment in the second view 7408 of the three-dimensional environment.

いくつかの実施形態では、コンピュータシステムは、第1のロケーションが第1のタイプのエクササイズに対応する第1のタイプのエクササイズ器具(例えば、ローイングマシン、ボートなど)を有するという判定に従って、第1のロケーションが第1のタイプのエクササイズに対応すると判定する。いくつかの実施形態では、コンピュータシステムは、第1のロケーションが第1のタイプのエクササイズ(例えば、ローイング、瞑想など)のために設計された(例えば、適切な床面、構造などを有する)ロケーションであるという判定に従って、第1のロケーションが第1のタイプのエクササイズに対応すると判定する。 In some embodiments, the computer system determines that the first location corresponds to a first type of exercise according to a determination that the first location has a first type of exercise equipment (e.g., a rowing machine, a boat, etc.) corresponding to the first type of exercise. In some embodiments, the computer system determines that the first location corresponds to a first type of exercise according to a determination that the first location is a location designed (e.g., has a suitable floor surface, structure, etc.) for the first type of exercise (e.g., rowing, meditation, etc.).

図7Oのパート(B)に示されるように、コンピュータシステムは、ユーザ7002が第1のタイプのエクササイズに対応する第1のロケーションに移動したとき、三次元環境の第2のビュー7408を表示する。いくつかの実施形態では、第2のビュー7408は、第1のロケーション及び第1のタイプのエクササイズに対応する第1のコンピュータ生成体験に対応するより多くの仮想要素を有する拡張現実ビューである。いくつかの実施形態では、第2のビュー7408は、第1のロケーション及び第1のタイプのエクササイズに対応する第1のコンピュータ生成体験のプレビュー又は開始を示す拡張現実ビューである。いくつかの実施形態では、第2のビュー7408は、より高い没入レベルで表示される拡張現実ビューである(例えば、第1のタイプのエクササイズに対応する第1の特定のアプリケーション体験の一部であるユーザインタフェースオブジェクト(例えば、仮想ハイキングコース、仮想風景、スコアボード、エクササイズ統計、エクササイズパラメータを変更する制御など)を表示し、全体としてユーザの視野のかなりの割合(例えば、60%超、90%超など)を占有するか、又は三次元仮想若しくは拡張現実環境で表示される。この例では、三次元環境の第2のビューに表示される仮想コンテンツは、第1のロケーションの表示生成コンポーネントによって提供される視野内に潜在的にある物理的環境の様々な部分の表現7004’、7006’、及び/又は7008’のビューを置換した仮想開放水域7406を含む。いくつかの実施形態では、表示生成コンポーネントによって提供される潜在的視野内の物理的環境の全ての部分は、仮想コンテンツの表示によって置換又は遮断される。いくつかの実施形態では、ユーザの身体の一部、エクササイズ器具の少なくとも一部などの物理的環境の一部は、三次元環境の第2のビュー7408内で可視のままである。 As shown in part (B) of FIG. 7O, the computer system displays a second view 7408 of the three-dimensional environment when the user 7002 moves to a first location corresponding to the first type of exercise. In some embodiments, the second view 7408 is an augmented reality view having more virtual elements corresponding to the first location and the first computer-generated experience corresponding to the first type of exercise. In some embodiments, the second view 7408 is an augmented reality view showing a preview or start of the first computer-generated experience corresponding to the first location and the first type of exercise. In some embodiments, the second view 7408 is an augmented reality view displayed at a higher level of immersion (e.g., displays user interface objects that are part of the first particular application experience corresponding to the first type of exercise (e.g., virtual hiking trails, virtual scenery, leaderboards, exercise statistics, controls to change exercise parameters, etc.) and occupies a significant percentage (e.g., more than 60%, more than 90%, etc.) of the user's field of view as a whole or is displayed in the three-dimensional virtual or augmented reality environment. In this example, the virtual content displayed in the second view of the three-dimensional environment includes a virtual open body of water 7406 that replaces the view of representations 7004', 7006', and/or 7008' of various portions of the physical environment potentially within the field of view provided by the display generation component of the first location. In some embodiments, all portions of the physical environment within the potential field of view provided by the display generation component are replaced or blocked by the display of the virtual content. In some embodiments, portions of the physical environment, such as parts of the user's body, at least a portion of the exercise equipment, etc., remain visible in the second view 7408 of the three-dimensional environment.

図7Pに示されるように、ユーザは、第2のタイプのエクササイズに対応する物理的オブジェクト7402を含む物理的環境内の第2のロケーションに移動している。この例では、ユーザはまた、ユーザが第2のタイプのエクササイズのために物理的オブジェクト7402を使用し始めることを可能にする物理的オブジェクト7402に対するポジションに移動している(例えば、器具上に座る、器具上に立つ、器具の1つ以上の部分を保持するなど)。いくつかの実施形態では、コンピュータシステムは、任意選択的に、ユーザが第2のタイプのエクササイズに対応する移動の1回以上の繰り返しを開始したこと(例えば、階段を踏むこと、ペダルを踏むことを開始すること、ウォーキングを開始することなど)を検出する。第2のタイプのエクササイズに対応する物理的オブジェクト7402を含む第2のロケーションへのユーザの移動を検出したことに応じて、かつ第2のロケーションが第2のタイプのエクササイズに対応するという判定、及び任意選択的に、ユーザの移動が第2のセットの基準(例えば、第2のロケーションに対応する基準、第2のタイプのエクササイズに対応する基準など)を満たすという判定に従って、コンピュータシステムは、三次元環境の第3のビュー7412を表示し、第3のビュー7412は、第2のタイプのエクササイズに対応する第2の仮想コンテンツを含み、第2の仮想コンテンツのビューは、第2のロケーション(例えば、第2のタイプのエクササイズに対応するが第1のタイプのエクササイズに対応しないロケーション、物理的オブジェクト7404を含まないロケーションなど)を含む物理的環境のビューの少なくとも一部を置換する。いくつかの実施形態では、第1の仮想コンテンツは、三次元環境の第3のビュー7410内の物理的環境のビューを完全に置換する。いくつかの実施形態では、仮想コンテンツは、物理的環境の表現の少なくとも一部の表示に重なって、遮断して、又は置換して表示される。 7P, the user has moved to a second location in the physical environment that includes a physical object 7402 corresponding to a second type of exercise. In this example, the user has also moved to a position relative to the physical object 7402 that allows the user to begin using the physical object 7402 for the second type of exercise (e.g., sitting on the equipment, standing on the equipment, holding one or more portions of the equipment, etc.). In some embodiments, the computer system optionally detects that the user has begun one or more repetitions of a movement corresponding to the second type of exercise (e.g., taking a step, starting to pedal, starting to walk, etc.). In response to detecting movement of the user to a second location including a physical object 7402 corresponding to the second type of exercise, and in accordance with a determination that the second location corresponds to the second type of exercise, and optionally a determination that the user's movement satisfies a second set of criteria (e.g., criteria corresponding to the second location, criteria corresponding to the second type of exercise, etc.), the computer system displays a third view 7412 of the three-dimensional environment, the third view 7412 including a second virtual content corresponding to the second type of exercise, the view of the second virtual content replacing at least a portion of the view of the physical environment including the second location (e.g., a location corresponding to the second type of exercise but not the first type of exercise, a location not including the physical object 7404, etc.). In some embodiments, the first virtual content completely replaces the view of the physical environment in the third view 7410 of the three-dimensional environment. In some embodiments, the virtual content is displayed overlaying, occluding, or replacing the display of at least a portion of the representation of the physical environment.

いくつかの実施形態では、コンピュータシステムは、第2のロケーションが第2のタイプのエクササイズに対応する第2のタイプのエクササイズ器具(例えば、階段、ステッパー、トレッドミルなど)を有するという判定に従って、第2のロケーションが第2のタイプのエクササイズに対応すると判定する。いくつかの実施形態では、コンピュータシステムは、第2のロケーションが第2のタイプのエクササイズ(例えば、ハイキング、ランニングなど)のために設計された(例えば、適切な床面、構造などを有する)ロケーションであるという判定に従って、第2のロケーションが第2のタイプのエクササイズに対応すると判定する。 In some embodiments, the computer system determines that the second location corresponds to a second type of exercise according to a determination that the second location has a second type of exercise equipment (e.g., stairs, stepper, treadmill, etc.) corresponding to the second type of exercise. In some embodiments, the computer system determines that the second location corresponds to a second type of exercise according to a determination that the second location is a location designed (e.g., has a suitable floor surface, structure, etc.) for the second type of exercise (e.g., hiking, running, etc.).

図7Pの部分(B)に示されるように、コンピュータシステムは、ユーザ7002が第2のタイプのエクササイズに対応する第2のロケーションに移動したとき、三次元環境の第3のビュー7410を表示する。いくつかの実施形態では、第3のビュー7410は、第2のロケーション及び第2のタイプのエクササイズに対応する第2のコンピュータ生成体験に対応するより多くの仮想要素を有する拡張現実ビューである。いくつかの実施形態では、第3のビュー7410は、第2のロケーション及び第2のタイプのエクササイズに対応する第2のコンピュータ生成体験のプレビュー又は開始を示す拡張現実ビューである。いくつかの実施形態では、第3のビュー7410は、より高い没入レベルで表示される拡張現実ビューである(例えば、第2のタイプのエクササイズに対応する第2の特定のアプリケーション体験(例えば、仮想ハイキングコース、仮想風景、スコアボード、エクササイズ統計、エクササイズパラメータを変更する制御など)の一部であり、全体としてユーザの視野のかなりの割合(例えば、60%超、90%超など)を占有するか、又は三次元仮想若しくは拡張現実環境で表示されるユーザインタフェースオブジェクトを表示する)。この例では、三次元環境の第3のビュー7410に表示された仮想コンテンツは、第2のロケーションの表示生成コンポーネントによって提供される視野内に潜在的にある物理的環境の様々な部分の表現7004’、7006’、及び/又は7008’のビューを置換した仮想ハイキングコース7412を含む。いくつかの実施形態では、表示生成コンポーネントによって提供される潜在的視野内の物理的環境の全ての部分は、仮想コンテンツの表示によって置換又は遮断される。いくつかの実施形態では、ユーザの身体の一部、エクササイズ器具の少なくとも一部などの物理的環境の一部は、三次元環境の第3のビュー7410内で可視のままである。 As shown in part (B) of FIG. 7P, the computer system displays a third view 7410 of the three-dimensional environment when the user 7002 moves to a second location corresponding to the second type of exercise. In some embodiments, the third view 7410 is an augmented reality view with more virtual elements corresponding to the second location and the second computer-generated experience corresponding to the second type of exercise. In some embodiments, the third view 7410 is an augmented reality view showing a preview or start of the second computer-generated experience corresponding to the second location and the second type of exercise. In some embodiments, the third view 7410 is an augmented reality view displayed at a higher level of immersion (e.g., displaying user interface objects that are part of a second specific application experience (e.g., virtual hiking trails, virtual scenery, leaderboards, exercise statistics, controls to change exercise parameters, etc.) corresponding to the second type of exercise and that occupy a significant percentage (e.g., more than 60%, more than 90%, etc.) of the user's field of view as a whole or that are displayed in the three-dimensional virtual or augmented reality environment). In this example, the virtual content displayed in the third view 7410 of the three-dimensional environment includes a virtual hiking trail 7412 that replaces the views of the representations 7004', 7006', and/or 7008' of various portions of the physical environment potentially within the field of view provided by the display generation component at the second location. In some embodiments, all portions of the physical environment within the potential field of view provided by the display generation component are replaced or blocked by the display of the virtual content. In some embodiments, portions of the physical environment, such as parts of the user's body, at least a portion of the exercise equipment, etc., remain visible in the third view 7410 of the three-dimensional environment.

いくつかの実施形態では、コンピュータシステムは、現在ロケーションにおける個別のタイプのエクササイズに対応する個別のタイプのエクササイズ器具の検出に従って、現在ロケーションが個別のタイプのエクササイズに対応すると判定する。いくつかの実施形態では、個別のタイプのエクササイズ器具の検出は、個別のタイプのエクササイズ器具に対応するRFID信号の検出、現在ロケーションをキャプチャするカメラフィード内の個別のタイプのエクササイズ器具の画像の検出、現在ロケーションが個別のタイプのエクササイズ器具の登録ロケーションと一致することの検出などに基づく。 In some embodiments, the computer system determines that the current location corresponds to a particular type of exercise according to detecting a particular type of exercise equipment corresponding to the particular type of exercise at the current location. In some embodiments, detecting the particular type of exercise equipment is based on detecting an RFID signal corresponding to the particular type of exercise equipment, detecting an image of the particular type of exercise equipment in a camera feed capturing the current location, detecting that the current location matches a registered location of the particular type of exercise equipment, etc.

いくつかの実施形態では、ユーザの現在ロケーションが個別のタイプのエクササイズに関連付けられたロケーションに対応するという判定に従って、コンピュータシステムは、個別のタイプのエクササイズに対応する三次元環境のビューを表示し、これは、三次元環境のビュー内の現在ロケーションに関連付けられた個別のタイプのエクササイズに対応する仮想コンテンツの視覚的プロミネンスを増加させながら、三次元環境の現在表示されているビュー内の物理的環境の表現の視覚的プロミネンスを徐々に低減することを含む。いくつかの実施形態では、物理的環境の表現の視覚的プロミネンスを低減することは、物理的環境の表現のより多くの部分の表示を停止すること、物理的環境の表現をフェードアウトすることなどを含む。いくつかの実施形態では、個別のタイプのエクササイズに対応する仮想コンテンツの視覚的プロミネンスを徐々に増加させることは、物理的環境の表現が徐々に低減された三次元環境のビューの領域内で、仮想コンテンツの表示を開始すること、仮想コンテンツの可視性を増加させること、仮想コンテンツによって占有されるユーザの視野の割合を増加させること、仮想コンテンツの不透明度又は輝度を増加させることなどを含む。 In some embodiments, pursuant to a determination that the user's current location corresponds to a location associated with the individual type of exercise, the computer system displays a view of the three-dimensional environment corresponding to the individual type of exercise, which includes gradually reducing the visual prominence of a representation of the physical environment in the currently displayed view of the three-dimensional environment while increasing the visual prominence of virtual content corresponding to the individual type of exercise associated with the current location in the view of the three-dimensional environment. In some embodiments, reducing the visual prominence of the representation of the physical environment includes ceasing to display more and more portions of the representation of the physical environment, fading out the representation of the physical environment, etc. In some embodiments, gradually increasing the visual prominence of the virtual content corresponding to the individual type of exercise includes beginning to display the virtual content in the region of the view of the three-dimensional environment where the representation of the physical environment is gradually reduced, increasing the visibility of the virtual content, increasing a percentage of the user's field of view occupied by the virtual content, increasing the opacity or brightness of the virtual content, etc.

いくつかの実施形態では、個別のロケーションは、複数のタイプのエクササイズに対応してもよく、コンピュータシステムは、ユーザがどのタイプのエクササイズを実行したいかを明確にするために、ユーザが複数のタイプのエクササイズのうちのそれぞれ1つに対応する何らかの移動をすることを必要とし、個別のロケーションにおける三次元環境のビューに表示するための対応する仮想コンテンツを選択する。例えば、いくつかの実施形態では、コンピュータシステムは、個別のロケーションに関連付けられた複数のタイプのエクササイズの個別の1つに対応する移動(例えば、特徴的な動作の開始(例えば、トレッドミル上での歩行の開始、階段ステッパー上での足踏み、楕円上での脚の前後移動、又はローイングマシン上でのローイングの開始など)、個別のタイプのエクササイズに対応するエクササイズ器具への足踏み/着座(例えば、ローイングマシン又はウェイトトレーニングマシン上での着座など)、個別のタイプのエクササイズに対応する準備姿勢(例えば、仮想テニスボールを打つための準備姿勢での起立、瞑想又はヨガを開始するための床への着座など)を検出し、コンピュータシステムは、個別のタイプのエクササイズに対応する仮想コンテンツを含む三次元環境のビューを表示する。 In some embodiments, the individual locations may correspond to multiple types of exercises, and the computer system requires the user to make some movement corresponding to a respective one of the multiple types of exercises to clarify which type of exercise the user wants to perform, and selects corresponding virtual content for display in the view of the three-dimensional environment at the individual location. For example, in some embodiments, the computer system detects a movement corresponding to a respective one of the multiple types of exercises associated with the individual location (e.g., the start of a characteristic motion (e.g., starting to walk on a treadmill, stepping on a stair stepper, moving legs back and forth on an elliptical, or starting rowing on a rowing machine, etc.), stepping/sitting on exercise equipment corresponding to the individual type of exercise (e.g., sitting on a rowing machine or weight training machine, etc.), a preparation position corresponding to the individual type of exercise (e.g., standing up in a preparation position to hit a virtual tennis ball, sitting on the floor to start meditation or yoga, etc.), and the computer system displays a view of the three-dimensional environment including virtual content corresponding to the individual type of exercise.

いくつかの実施形態では、コンピュータシステムは、個別のロケーションでユーザによって実行される個別のタイプのエクササイズの進行に従って、三次元環境のビューに表示される仮想コンテンツを徐々に変化させる。例えば、いくつかの実施形態では、現実世界のビューは徐々に消え、及び/又は表示が停止され、個別のタイプのエクササイズに対応する仮想コンテンツによって徐々に置換される。いくつかの実施形態では、コンピュータシステムは、個別のタイプのエクササイズに対応する個別の仮想環境が第1の表示生成コンポーネントを介して完全に表示されるまで(例えば、三次元環境の第2のビューが第1のタイプのエクササイズに対応する仮想環境を含み、三次元環境の第3のビューが第2のタイプのエクササイズに対応する仮想環境を含むなど)、第1のユーザの視野内に表示される仮想コンテンツの量を徐々に増加させる。例えば、いくつかの実施形態では、開放ジムがヨガとダンスの両方に関連付けられたロケーションであるとき、第1のユーザが開放ジムに到着した後、第1のユーザがナマステポーズで座る場合、コンピュータシステムは、ユーザが仮想ビーチ上でヨガを練習するために、海洋音を伴う仮想海洋ビューを表示し、第1のユーザがダンサーのポーズで立つ場合、コンピュータシステムは、ユーザがダンスを練習するために、ダンス音楽を伴う仮想ステージを表示する。 In some embodiments, the computer system gradually changes the virtual content displayed in the view of the three-dimensional environment according to the progress of the individual type of exercise performed by the user at the individual location. For example, in some embodiments, the view of the real world gradually disappears and/or is stopped from being displayed and gradually replaced by the virtual content corresponding to the individual type of exercise. In some embodiments, the computer system gradually increases the amount of virtual content displayed in the first user's field of view until the individual virtual environment corresponding to the individual type of exercise is fully displayed via the first display generation component (e.g., the second view of the three-dimensional environment includes the virtual environment corresponding to the first type of exercise, the third view of the three-dimensional environment includes the virtual environment corresponding to the second type of exercise, etc.). For example, in some embodiments, when the open gym is a location associated with both yoga and dance, after the first user arrives at the open gym, if the first user sits in a namaste pose, the computer system displays a virtual ocean view with ocean sounds for the user to practice yoga on a virtual beach, and if the first user stands in a dancer's pose, the computer system displays a virtual stage with dance music for the user to practice dance.

いくつかの実施形態では、コンピュータシステムが、ユーザが個別のロケーションから離れたことを検出すると、コンピュータシステムは、個別のロケーションに関連付けられたエクササイズのタイプに対応する仮想コンテンツの表示を停止する。例えば、図7Oでは、コンピュータシステムが、ユーザ7002が物理的オブジェクト7404を含む第1のロケーションを離れたことを検出した場合、ビュー7408が表示された後、コンピュータシステムは、第1のタイプのエクササイズに対応するビュー7408の表示を停止する。いくつかの実施形態では、コンピュータシステムは、第1のタイプのエクササイズ又は第2のタイプのエクササイズのいずれかに対応する仮想コンテンツを含まないビュー7405を再表示する。いくつかの実施形態では、ユーザが第1のロケーションから第2のロケーションに移動したことをコンピュータシステムが検出すると、コンピュータシステムは、第2のタイプのエクササイズに対応する仮想コンテンツ7410を表示する。 In some embodiments, when the computer system detects that the user has left the individual location, the computer system stops displaying the virtual content corresponding to the type of exercise associated with the individual location. For example, in FIG. 7O, if the computer system detects that the user 7002 has left the first location including the physical object 7404, after the view 7408 is displayed, the computer system stops displaying the view 7408 corresponding to the first type of exercise. In some embodiments, the computer system redisplays the view 7405, which does not include the virtual content corresponding to either the first type of exercise or the second type of exercise. In some embodiments, when the computer system detects that the user has moved from the first location to the second location, the computer system displays the virtual content 7410 corresponding to the second type of exercise.

いくつかの実施形態では、コンピュータシステムは、個別のタイプのエクササイズに対応する仮想コンテンツを含む三次元環境のビューを表示するときに、個別のタイプのエクササイズに対応するステータス情報(例えば、現在のセッション中の進行、持続時間、速度、力、身長、ペース、ストライド長、パフォーマンスレベル、スコア、完了した反復回数など、過去の統計、第1のユーザ及び/又は複数のユーザにわたる平均統計、同じタイプのエクササイズを実行している他のユーザのステータスなど)を表示する。 In some embodiments, when the computer system displays a view of the three-dimensional environment including virtual content corresponding to the particular type of exercise, it displays status information corresponding to the particular type of exercise (e.g., progress during the current session, duration, speed, force, height, pace, stride length, performance level, score, number of repetitions completed, etc., historical statistics, average statistics for the first user and/or across multiple users, status of other users performing the same type of exercise, etc.).

いくつかの実施形態では、コンピュータシステムは、個別のタイプのエクササイズに対応する仮想コンテンツを含む三次元環境のビューを表示するときに、ユーザに対応する健康情報(例えば、リアルタイムバイオメトリックデータ(例えば、心拍数、血圧、呼吸数、体温、血糖値など)、体重、BMIなど)を表示する。 In some embodiments, the computer system displays corresponding health information to the user (e.g., real-time biometric data (e.g., heart rate, blood pressure, respiratory rate, body temperature, blood glucose, etc.), weight, BMI, etc.) when displaying a view of a three-dimensional environment including virtual content corresponding to a particular type of exercise.

いくつかの実施形態では、コンピュータシステムは、個別のタイプのエクササイズに対応する仮想コンテンツを含む三次元環境のビューを表示するときに、ユーザによって実行される個別のタイプのエクササイズの進行情報(例えば、リアルタイムスコア、完了したラップ、残りのラップ、持続時間、歩数、移動距離、完了したポーズなど)を視覚的に提示する。 In some embodiments, the computer system visually presents progress information (e.g., real-time score, laps completed, laps remaining, duration, steps, distance traveled, completed poses, etc.) of a particular type of exercise performed by the user when displaying a view of a three-dimensional environment including virtual content corresponding to the particular type of exercise.

いくつかの実施形態では、個別のタイプのエクササイズに対応する仮想コンテンツを含む三次元環境は、没入型環境であり、三次元環境の現在表示されているビューに含まれる空間範囲よりも大きい空間範囲を含む。例えば、ユーザが自分の頭を回転させるか、又は他の方法で三次元環境の現在表示されているビューに対応する視点を変更すると、仮想コンテンツの異なる部分が三次元環境の現在表示されているビューに表示される。 In some embodiments, the three-dimensional environment including the virtual content corresponding to the particular type of exercise is an immersive environment and includes a spatial extent that is greater than the spatial extent included in the currently displayed view of the three-dimensional environment. For example, as the user turns his/her head or otherwise changes the viewpoint that corresponds to the currently displayed view of the three-dimensional environment, different portions of the virtual content are displayed in the currently displayed view of the three-dimensional environment.

いくつかの実施形態では、三次元環境の第2及び/又は第3のビューは、ユーザと競争して、(例えば、第1のユーザの以前の最良記録に基づいて、第1のタイプのエクササイズについて第1のユーザの予め設定された構成に基づいてなど)個別のタイプのエクササイズを実行するように示されるユーザの仮想表現を含む。 In some embodiments, the second and/or third views of the three-dimensional environment include a virtual representation of the user shown competing with the user to perform a particular type of exercise (e.g., based on the first user's previous best performance, based on the first user's pre-set configuration for the first type of exercise, etc.).

いくつかの実施形態では、三次元環境の第2及び/又は第3のビューは、ユーザと競争して個別のタイプのエクササイズを実行するように示される、ユーザとは異なる少なくとも別のユーザの仮想表現を含む。 In some embodiments, the second and/or third views of the three-dimensional environment include a virtual representation of at least another user, different from the user, who is shown competing with the user to perform a particular type of exercise.

本明細書に開示されるように、いくつかの実施形態では、表示生成コンポーネントを介して表示される三次元環境は、物理的環境の表現を伴わずに、三次元環境内の様々な仮想ポジションに仮想オブジェクト及びコンテンツを含む、仮想三次元環境である。いくつかの実施形態では、三次元環境は、物理的環境の1つ以上の物理的側面(例えば、壁、床、表面、重力の方向、時刻などのポジション及び向き)によって制約される三次元環境内の様々な仮想ポジションに仮想オブジェクトを表示する複合現実環境である。いくつかの実施形態では、三次元環境は、物理的環境の表現を含む拡張現実環境である。物理的環境の表現は、物理的環境内の異なる物理的オブジェクトと表面との間の空間関係が、三次元環境内の物理的オブジェクトと表面との表現間の空間関係によって反映されるように、三次元環境内の異なるポジションにある物理的オブジェクト及び表面のそれぞれの表現を含む。仮想オブジェクトが、三次元環境内の物理的オブジェクト及び表面の表現のポジションに対して配置されるとき、仮想オブジェクトは、物理的環境内の物理的オブジェクト及び表面との対応する空間関係を有するように見える。いくつかの実施形態では、表示生成コンポーネントは、物理的環境の表現が表示されるパススルー部分を含む。いくつかの実施形態では、パススルー部分は、ユーザの視野を取り囲み、ユーザの視野内の物理的環境の少なくとも一部を明らかにする表示生成コンポーネントの透明又は半透明(例えば、シースルー)部分である。例えば、パススルー部分は、半透明(例えば、50%、40%、30%、20%、15%、10%、又は5%未満の不透明度)又は透明であるヘッドマウントディスプレイの一部であり、それにより、ユーザは、ヘッドマウントディスプレイを除去することなく、又はヘッドアップディスプレイから離れたりすることなく、パススルー部分を通じてユーザを取り囲む現実世界を視認することができる。いくつかの実施形態では、パススルー部分は、仮想又は複合現実環境を表示するとき、半透明又は透明から完全に不透明に徐々に遷移する。いくつかの実施形態では、表示生成コンポーネントのパススルー部分は、1つ以上のカメラ(例えば、モバイルデバイスの若しくはヘッドマウントディスプレイに関連付けられた後面カメラ(単数又は複数)、又は画像データを電子デバイスに供給する他のカメラ)によってキャプチャされた物理的環境の少なくとも一部の画像又はビデオのライブフィードを表示する。いくつかの実施形態では、1つ以上のカメラは、直接ユーザの目の前に(例えば、表示生成コンポーネントの後ろに)ある物理的環境の一部に向けられる。いくつかの実施形態では、1つ以上のカメラは、直接ユーザの目の前にない(例えば、異なる物理的環境にある、又はユーザの側方又は後方にある)物理的環境の一部に向けられる。いくつかの実施形態では、物理的環境内の1つ以上の物理的オブジェクトのロケーションに対応するポジションに仮想オブジェクト又はコンテンツを表示するとき、仮想オブジェクトのうちの少なくともいくつかは、カメラのライブビューの一部(例えば、ライブビュー内にキャプチャされた物理的環境の一部)の代わりに表示される(例えば、その表示を置換する)。いくつかの実施形態では、仮想オブジェクト及びコンテンツのうちの少なくともいくつかは、物理的環境内の物理的表面又は空き空間上に投影され、表示生成コンポーネントのパススルー部分を通じて可視である(例えば、物理的環境のカメラビューの一部として、又は表示生成コンポーネントの透明若しくは半透明の部分を通じて可視であるなど)。いくつかの実施形態では、仮想オブジェクト及びコンテンツのうちの少なくともいくつかは、ディスプレイの一部分に重なるように表示され、表示生成コンポーネントの透明又は半透明部分を介して可視である物理的環境の全てではないが少なくとも一部分のビューを遮断する。いくつかの実施形態では、仮想オブジェクトのうちの少なくともいくつかは、(例えば、物理的環境のカメラビューを通じて、又は表示生成コンポーネントの透明部分を通じて視認されるような)物理的環境の表現の画像に対するポジションにおいて、ユーザの網膜上に直接投影される。 As disclosed herein, in some embodiments, the three-dimensional environment displayed via the display generation component is a virtual three-dimensional environment that includes virtual objects and content at various virtual positions within the three-dimensional environment without a representation of the physical environment. In some embodiments, the three-dimensional environment is a mixed reality environment that displays virtual objects at various virtual positions within the three-dimensional environment that are constrained by one or more physical aspects of the physical environment (e.g., positions and orientations of walls, floors, surfaces, direction of gravity, time of day, etc.). In some embodiments, the three-dimensional environment is an augmented reality environment that includes a representation of the physical environment. The representation of the physical environment includes respective representations of physical objects and surfaces at different positions within the three-dimensional environment such that spatial relationships between different physical objects and surfaces in the physical environment are reflected by spatial relationships between the representations of the physical objects and surfaces in the three-dimensional environment. When the virtual objects are positioned relative to the positions of the representations of the physical objects and surfaces in the three-dimensional environment, the virtual objects appear to have corresponding spatial relationships with the physical objects and surfaces in the physical environment. In some embodiments, the display generation component includes a pass-through portion in which the representation of the physical environment is displayed. In some embodiments, the pass-through portion is a transparent or semi-transparent (e.g., see-through) portion of the display generation component that surrounds the user's field of view and reveals at least a portion of the physical environment in the user's field of view. For example, the pass-through portion is a portion of a head-mounted display that is semi-transparent (e.g., less than 50%, 40%, 30%, 20%, 15%, 10%, or 5% opacity) or transparent, allowing the user to view the real world surrounding the user through the pass-through portion without removing the head-mounted display or moving away from the head-up display. In some embodiments, the pass-through portion gradually transitions from semi-transparent or transparent to fully opaque when displaying a virtual or mixed reality environment. In some embodiments, the pass-through portion of the display generation component displays a live feed of images or video of at least a portion of the physical environment captured by one or more cameras (e.g., rear-facing camera(s) of a mobile device or associated with the head-mounted display, or other cameras that provide image data to an electronic device). In some embodiments, the one or more cameras are aimed at a portion of the physical environment that is directly in front of the user (e.g., behind the display generation component). In some embodiments, one or more cameras are directed at a portion of the physical environment that is not directly in front of the user (e.g., in a different physical environment, or to the side or behind the user). In some embodiments, when displaying virtual objects or content in positions that correspond to the location of one or more physical objects in the physical environment, at least some of the virtual objects are displayed in place of (e.g., replace the display of) a portion of the live view of the camera (e.g., a portion of the physical environment captured in the live view). In some embodiments, at least some of the virtual objects and content are projected onto physical surfaces or open space in the physical environment and are visible through a pass-through portion of the display generation component (e.g., as part of a camera view of the physical environment, or visible through a transparent or semi-transparent portion of the display generation component, etc.). In some embodiments, at least some of the virtual objects and content are displayed to overlay a portion of the display, blocking the view of at least a portion, but not all, of the physical environment that is visible through the transparent or semi-transparent portion of the display generation component. In some embodiments, at least some of the virtual objects are projected directly onto the user's retina in a position relative to an image of a representation of the physical environment (e.g., as viewed through a camera view of the physical environment or through a transparent portion of a display generation component).

いくつかの実施形態では、(例えば、図7A~7P及び図8~12に関して)本明細書に記載される各種実施例及び実施形態で使用される入力ジェスチャは、任意選択的に、いくつかの実施形態によると、仮想又は複合現実環境と相互作用するために、ジェスチャの直前又は最中に動作を実行するためにユーザの手全体又は腕をそれらの自然なロケーション(単数又は複数)及び姿勢(単数又は複数)から離れるように大きく移動させることを任意選択的に必要とせずに、ユーザの指(単数又は複数)を他の指(単数又は複数)又はユーザの手の一部(単数又は複数)に対して移動させることによって実行される不連続の小さな運動ジェスチャを含む。 In some embodiments, the input gestures used in the various examples and embodiments described herein (e.g., with respect to FIGS. 7A-7P and 8-12) optionally include discrete, small movement gestures performed by moving a user's finger(s) relative to another finger(s) or a portion(s) of the user's hand, optionally without requiring the user to significantly move the user's entire hand or arm away from their natural location(s) and posture(s) to perform an action immediately before or during the gesture, according to some embodiments, to interact with a virtual or mixed reality environment.

いくつかの実施形態では、入力ジェスチャは、センサシステム(例えば、図1のセンサ190、図3の画像センサ314)によってキャプチャされるデータ及び信号を解析することによって検出される。いくつかの実施形態では、センサシステムは、1つ以上の撮像センサ(例えば、モーションRGBカメラ、赤外線カメラ、深度カメラなどの1つ以上のカメラ)を含む。例えば、1つ以上の撮像センサは、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120(例えば、ディスプレイ及びタッチ感知面として機能するタッチスクリーンディスプレイ、立体ディスプレイ、パススルー部分を有するディスプレイなど))を含むコンピュータシステム(例えば、図1のコンピュータシステム101(例えば、ポータブル電子デバイス7100又はHMD))のコンポーネントである、又は上記コンピュータシステムにデータを提供する。いくつかの実施形態では、1つ以上の撮像センサは、デバイスのディスプレイとは反対側のデバイスの側に1つ以上の後面カメラを含む。いくつかの実施形態では、入力ジェスチャは、ヘッドマウントシステムのセンサシステム(例えば、ユーザの左目の左画像及びユーザの右目の右画像を提供する立体ディスプレイを含むVRヘッドセット)によって検出される。例えば、ヘッドマウントシステムのコンポーネントである1つ以上のカメラは、ヘッドマウントシステムの前側及び/又は下側に取り付けられている。いくつかの実施形態では、1つ以上の撮像センサは、撮像センサがヘッドマウントシステム及び/又はヘッドマウントシステムのユーザの画像をキャプチャするように、ヘッドマウントシステムが使用される空間に配置される(例えば、部屋内の様々なロケーションでヘッドマウントシステムの周りに配列される)。いくつかの実施形態では、入力ジェスチャは、ヘッドアップデバイス(例えば、ヘッドアップディスプレイ、グラフィックを表示する能力を有する自動車フロントガラス、グラフィックを表示する能力を有する窓、グラフィックを表示する能力を有するレンズ)のセンサシステムによって検出される。例えば、1つ以上の撮像センサは、自動車の内面に取り付けられる。いくつかの実施形態では、センサシステムは、1つ以上の深度センサ(例えば、センサアレイ)を含む。例えば、1つ以上の深度センサは、1つ以上の光ベースの(例えば、赤外線)センサ及び/又は1つ以上の音響ベースの(例えば、超音波)センサを含む。いくつかの実施形態では、センサシステムは、光エミッタ(例えば、赤外線エミッタ)及び/又は音声エミッタ(例えば、超音波エミッタ)などの1つ以上の信号エミッタを含む。例えば、光(例えば、所定パターンを有する赤外光エミッタアレイからの光)が手(例えば、手7200)に投射されている間、光の照明下の手の画像が1つ以上のカメラによってキャプチャされ、キャプチャされた画像が手のポジション置及び/又は構成を判定するために解析される。タッチ感知面又は他の直接接触機構又は近接ベースの機構の信号を使用することと対照的に、手に向けられた画像センサからの信号を使用して入力ジェスチャを判定することで、ユーザは、特定の入力デバイス又は入力領域によって課せられる制約を経験せずに、手で入力ジェスチャを提供するときに、大きな運動を実行するか、又は相対的に静止状態を保つかを自由に選択することができる。 In some embodiments, the input gesture is detected by analyzing data and signals captured by a sensor system (e.g., sensor 190 of FIG. 1, image sensor 314 of FIG. 3). In some embodiments, the sensor system includes one or more imaging sensors (e.g., one or more cameras, such as a motion RGB camera, an infrared camera, a depth camera, etc.). For example, the one or more imaging sensors are components of or provide data to a computer system (e.g., computer system 101 of FIG. 1 (e.g., portable electronic device 7100 or HMD)) that includes a display generating component (e.g., display generating component 120 of FIGS. 1, 3, and 4 (e.g., a touch screen display that functions as a display and a touch-sensitive surface, a stereoscopic display, a display with a pass-through portion, etc.)). In some embodiments, the one or more imaging sensors include one or more rear-facing cameras on a side of the device opposite the display of the device. In some embodiments, the input gesture is detected by a sensor system of a head-mounted system (e.g., a VR headset including a stereoscopic display that provides a left image for the user's left eye and a right image for the user's right eye). For example, one or more cameras that are components of the head-mounted system are mounted on the front and/or underside of the head-mounted system. In some embodiments, one or more imaging sensors are positioned in the space in which the head-mounted system is used (e.g., arrayed around the head-mounted system at various locations in a room) such that the imaging sensors capture images of the head-mounted system and/or a user of the head-mounted system. In some embodiments, the input gesture is detected by a sensor system of a head-up device (e.g., a head-up display, an automobile windshield capable of displaying graphics, a window capable of displaying graphics, a lens capable of displaying graphics). For example, the one or more imaging sensors are mounted on an interior surface of an automobile. In some embodiments, the sensor system includes one or more depth sensors (e.g., a sensor array). For example, the one or more depth sensors include one or more light-based (e.g., infrared) sensors and/or one or more acoustic-based (e.g., ultrasonic) sensors. In some embodiments, the sensor system includes one or more signal emitters, such as light emitters (e.g., infrared emitters) and/or sound emitters (e.g., ultrasonic emitters). For example, while light (e.g., light from an infrared light emitter array having a predetermined pattern) is projected onto a hand (e.g., hand 7200), an image of the hand under the illumination of the light is captured by one or more cameras, and the captured image is analyzed to determine the position and/or configuration of the hand. By determining input gestures using signals from an image sensor directed at the hand, as opposed to using signals from a touch-sensitive surface or other direct contact or proximity-based mechanism, a user can freely choose to perform large movements or remain relatively still when providing input gestures with their hand without experiencing constraints imposed by a particular input device or input area.

いくつかの実施形態では、タップ入力は、任意選択的に、ユーザの手の人差し指上の(例えば、親指に隣接する人差し指の側部上の)親指のタップ入力を示す。いくつかの実施形態では、人差し指の側部から親指を持ち上げる必要なく、タップ入力が検出される。いくつかの実施形態では、タップ入力は、親指の下方移動の後に親指の上方移動が続き、親指が閾値時間未満、人差し指の側部と接触しているという判定に従って検出される。いくつかの実施形態では、タップホールド入力は、親指が上昇ポジションからタッチダウンポジションまで移動し、少なくとも第1の閾値時間(例えば、タップ時間閾値又はタップ時間閾値よりも長い別の時間閾値)、タッチダウンポジションに留まるという判定に従って検出される。いくつかの実施形態では、コンピュータシステムは、人差し指上の親指によるタップホールド入力を検出するために、手全体が、少なくとも第1の閾値時間、あるロケーションで実質的に静止したままであることを必要とする。いくつかの実施形態では、タッチホールド入力は、手が実質的に静止したままであることを必要とせずに検出される(例えば、親指が人差し指の側部に置かれている間、手全体が移動することができる)。いくつかの実施形態では、タップホールドラッグ入力は、親指が人差し指の側部にタッチし、親指が人差し指の側部に静止している間に手全体が移動するときに検出される。 In some embodiments, the tap input optionally indicates a thumb tap input on the index finger of the user's hand (e.g., on the side of the index finger adjacent to the thumb). In some embodiments, the tap input is detected without having to lift the thumb from the side of the index finger. In some embodiments, the tap input is detected according to a determination that a downward movement of the thumb is followed by an upward movement of the thumb and the thumb is in contact with the side of the index finger for less than a threshold time. In some embodiments, the tap hold input is detected according to a determination that the thumb moves from an up position to a touch down position and remains in the touch down position for at least a first threshold time (e.g., a tap time threshold or another time threshold longer than the tap time threshold). In some embodiments, the computer system requires that the entire hand remains substantially stationary at a location for at least a first threshold time to detect a thumb tap hold input on the index finger. In some embodiments, the touch hold input is detected without requiring the hand to remain substantially stationary (e.g., the entire hand can move while the thumb is resting on the side of the index finger). In some embodiments, a taphole drag input is detected when the thumb touches the side of the index finger and the entire hand moves while the thumb remains stationary on the side of the index finger.

いくつかの実施形態では、フリックジェスチャは、任意選択的に、人差し指を横切る親指の移動(例えば、人差し指の掌側から後側への)プッシュ又はフリック入力を示す。いくつかの実施形態では、親指の伸長移動は、例えば、親指による上方フリック入力のように、人差し指の側部から離れる上方移動を伴う。いくつかの実施形態では、人差し指は、親指が前方及び上方に移動する間、親指の方向と反対方向に移動する。いくつかの実施形態では、逆フリック入力は、伸長ポジションから後退ポジションに移動する親指によって実行される。いくつかの実施形態では、人差し指は、親指が後方及び下方に移動する間、親指の方向と反対方向に移動する。 In some embodiments, the flick gesture optionally indicates a push or flick input with the thumb moving across the index finger (e.g., from the palm side of the index finger to the back side). In some embodiments, the extension movement of the thumb is accompanied by an upward movement away from the side of the index finger, e.g., an upward flick input with the thumb. In some embodiments, the index finger moves in a direction opposite to that of the thumb while the thumb moves forward and upward. In some embodiments, a reverse flick input is performed by the thumb moving from an extended position to a retracted position. In some embodiments, the index finger moves in a direction opposite to that of the thumb while the thumb moves backward and downward.

いくつかの実施形態では、スワイプジェスチャは、任意選択的に、人差し指に沿った(例えば、親指に隣接する人差し指の側部又は掌の側部に沿った)親指の移動によるスワイプ入力である。いくつかの実施形態では、人差し指は、任意選択的に、伸長状態(例えば、実質的に直線)又は屈曲状態である。いくつかの実施形態では、人差し指は、スワイプ入力ジェスチャで親指が移動する間、伸長状態と屈曲状態との間を移動する。 In some embodiments, the swipe gesture is a swipe input, optionally by movement of the thumb along the index finger (e.g., along the side of the index finger adjacent to the thumb or along the side of the palm). In some embodiments, the index finger is optionally in an extended state (e.g., substantially straight) or bent state. In some embodiments, the index finger moves between an extended state and a bent state during the movement of the thumb in the swipe input gesture.

いくつかの実施形態では、様々な指の異なる指骨は、異なる入力に対応する。様々な指(例えば、人差し指、中指、薬指、及び任意選択的に小指)の様々な指骨にわたる親指のタップ入力は、任意選択的に、異なる動作にマッピングされる。同様に、いくつかの実施形態では、異なるプッシュ又はクリック入力が、異なる指及び/又は指の異なる部分を横切る親指によって実行されて、個別のユーザインタフェース接触で異なる動作をトリガすることができる。同様に、いくつかの実施形態では、異なる指に沿って、及び/又は異なる方向に(例えば、指の遠位端又は近位端に向かって)親指によって実行される異なるスワイプ入力が、個別のユーザインタフェースコンテキストで異なる動作をトリガする。 In some embodiments, different phalanges of various fingers correspond to different inputs. Thumb tap inputs across the various phalanges of various fingers (e.g., index, middle, ring, and optionally pinky) are optionally mapped to different actions. Similarly, in some embodiments, different push or click inputs can be performed by the thumb across different fingers and/or different portions of the fingers to trigger different actions in distinct user interface contacts. Similarly, in some embodiments, different swipe inputs performed by the thumb along different fingers and/or in different directions (e.g., toward the distal or proximal ends of the fingers) trigger different actions in distinct user interface contexts.

いくつかの実施形態では、コンピュータシステムは、タップ入力、フリック入力、及びスワイプ入力を、親指の移動のタイプに基づいて異なるタイプの入力として処理する。いくつかの実施形態では、コンピュータシステムは、所与の入力タイプ(例えば、タップ入力タイプ、フリック入力タイプ、スワイプ入力タイプなど)の異なるサブ入力タイプ(例えば、近位、中間、遠位サブタイプ、又は人差し指、中指、薬指、若しくは小指サブタイプ)として親指によってタップ、タッチ、又はスワイプされる異なる指ロケーションを有する入力を処理する。いくつかの実施形態では、移動する指(例えば、親指)によって実行される移動量、及び/又は指の移動に関連付けられる他の移動の尺度(例えば、速度、初期速度、終了速度、持続時間、方向、移動パターンなど)が使用されて、指入力によってトリガされる動作に定量的に影響を与える。 In some embodiments, the computer system processes tap, flick, and swipe inputs as different types of inputs based on the type of thumb movement. In some embodiments, the computer system processes inputs having different finger locations tapped, touched, or swiped by the thumb as different sub-input types (e.g., proximal, intermediate, distal subtypes, or index, middle, ring, or pinky subtypes) of a given input type (e.g., tap input type, flick input type, swipe input type, etc.). In some embodiments, the amount of movement performed by the moving finger (e.g., thumb) and/or other movement measures associated with the finger movement (e.g., velocity, initial velocity, ending velocity, duration, direction, movement pattern, etc.) are used to quantitatively affect the action triggered by the finger input.

いくつかの実施形態では、コンピュータシステムは、タップスワイプ入力(例えば、親指が他の指へのタッチダウン後に、指の側部に沿ってスワイプする)、タップフリック入力(例えば、親指が他の指へのタッチダウン後に、掌の側部から指の後部まで指を横切ってフリックする)、ダブルタップ入力(例えば、ほぼ同じロケーションでの指の側部上の2連続タップ)などの、親指による一連の移動を組み合わせた組み合わせ入力タイプを認識する。 In some embodiments, the computer system recognizes combination input types that combine a series of thumb movements, such as a tap-swipe input (e.g., thumb swipes along the side of a finger after touching down on another finger), a tap-flick input (e.g., thumb flicks across the finger from the side of the palm to the back of the finger after touching down on another finger), and a double-tap input (e.g., two consecutive taps on the side of a finger in approximately the same location).

いくつかの実施形態では、ジェスチャ入力は、親指の代わりに人差し指によって実行される(例えば、人差し指が親指上でタップ又はスワイプを実行するか、又は親指及び人差し指が互いに向かって動いてピンチジェスチャを実行する)。いくつかの実施形態では、手首の移動(例えば、水平方向又は垂直方向での手首のフリック)は、指の移動入力の直前、直後(例えば、閾値時間内)、又は同時に実行されて、手首の移動による修正入力のない指の移動入力と比較して、現在のユーザインタフェースコンテキストで追加の動作、異なる動作、又は修正された動作をトリガする。いくつかの実施形態では、ユーザの顔に面するユーザの掌で実行される指入力ジェスチャは、ユーザの顔と反対に面するユーザの掌で実行される指入力ジェスチャとは異なるタイプのジェスチャとして処理される。例えば、ユーザに面するユーザの掌で実行されるタップジェスチャは、ユーザの顔と反対に面するユーザの掌で実行されるタップジェスチャに応じて実行される動作(例えば、同じ動作)と比較して、プライバシー保護が追加(又は低減)された動作を実行する。 In some embodiments, the gesture input is performed by the index finger instead of the thumb (e.g., the index finger performs a tap or swipe on the thumb, or the thumb and index finger move towards each other to perform a pinch gesture). In some embodiments, a wrist movement (e.g., a wrist flick in a horizontal or vertical direction) is performed immediately before, after (e.g., within a threshold time), or simultaneously with the finger movement input to trigger an additional, different, or modified action in the current user interface context compared to a finger movement input without a modified wrist movement input. In some embodiments, a finger input gesture performed with the palm of the user facing the user's face is treated as a different type of gesture than a finger input gesture performed with the palm of the user facing away from the user's face. For example, a tap gesture performed with the palm of the user facing the user performs an action with added (or reduced) privacy protection compared to an action (e.g., the same action) performed in response to a tap gesture performed with the palm of the user facing away from the user's face.

1つのタイプの指入力を使用して、本開示で提供される実施例において動作タイプをトリガすることができるが、他の実施形態では、同じタイプの動作をトリガするために、他のタイプの指入力が任意選択的に使用される。 While one type of finger input may be used to trigger an action type in the examples provided in this disclosure, in other embodiments, other types of finger input are optionally used to trigger the same type of action.

図7A~図7Pに関する追加の説明は、以下の図8~12に関して記載された方法8000、9000、10000、11000、及び12000を参照して以下に提供される。 Additional description of Figures 7A-7P is provided below with reference to methods 8000, 9000, 10000, 11000, and 12000 described with respect to Figures 8-12 below.

図8は、いくつかの実施形態による、2人以上のユーザ間で共有されるコンピュータ生成三次元環境内のユーザインタフェースオブジェクトとの相互作用をサポートする方法のフローチャートである。 Figure 8 is a flowchart of a method for supporting interaction with user interface objects in a computer-generated three-dimensional environment shared among two or more users, according to some embodiments.

いくつかの実施形態では、方法8000は、コンピュータシステム(例えば、図1の第1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法8000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法8000の一部の動作は、任意選択的に組み合わされ、及び/又は一部の動作の順序は、任意選択的に変更される。 In some embodiments, the method 8000 is performed on a computer system (e.g., the first computer system 101 of FIG. 1) including a display generating component (e.g., the display generating component 120 of FIGS. 1, 3, and 4) (e.g., a heads-up display, a display, a touch screen, a projector, etc.) and one or more cameras (e.g., a camera (e.g., a color sensor, an infrared sensor, and other depth-sensing camera)) facing forward from the user's hand or the user's head. In some embodiments, the method 8000 is performed by instructions stored in a non-transitory computer-readable storage medium and executed by one or more processors of the computer system, such as one or more processors 202 of the computer system 101 (e.g., the control unit 110 of FIG. 1A). Some operations of the method 8000 are optionally combined and/or the order of some operations is optionally changed.

いくつかの実施形態では、方法8000は、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120、表示生成コンポーネント7100など)(例えば、ヘッドアップディスプレイ、HMD、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタンなど)と通信しているコンピュータシステム(例えば、図1の第1のコンピュータシステム101)において実行される。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。 In some embodiments, the method 8000 is executed in a computer system (e.g., the first computer system 101 of FIG. 1 ) in communication with a display generation component (e.g., display generation component 120, display generation component 7100, etc., of FIGS. 1, 3, and 4) (e.g., a heads-up display, HMD, display, touch screen, projector, etc.) and one or more input devices (e.g., a camera, controller, touch-sensitive surface, joystick, buttons, etc.). In some embodiments, the computer system is an integrated device having one or more processors and memory enclosed in the same housing as the display generation component and at least some of the one or more input devices. In some embodiments, the computer system includes a computing component including one or more processors and memory that are separate from the display generation component and/or the one or more input devices. In some embodiments, the display generation component and the one or more input devices are integrated within and enclosed in the same housing.

方法8000では、コンピュータシステムは、第1のユーザインタフェースオブジェクト(例えば、図7Bのユーザインタフェースオブジェクト7016、別のユーザインタフェースオブジェクトなど)(例えば、アプリケーションの表現、複数のユーザインタフェースオブジェクト(例えば、選択可能なアバター、選択可能なメニューアイテム、選択可能なデバイスコントロール、選択可能なコンテンツアイテム、スライダコントロール、ボタンなど)を含むユーザインタフェース、仮想三次元オブジェクト、コントロール、異なる機能又は動作に対応する複数のコントロールを含むコントロールパネル、情報アイテム、メディアアイテムなど)を、三次元環境の第1のビュー(例えば、図7Bの第1のビュー7015-1、別の第1のビューなど)に表示し(8002)、三次元環境は、第1のユーザ(例えば、図7A~図7Cのユーザ7102)と第2のユーザ(例えば、図7A~図7Cのユーザ7002)との間で少なくとも部分的に共有され(例えば、環境の少なくとも空間部分が共有される、環境が少なくともある期間中に共有される、環境内のオブジェクトが完全に又は部分的に共有される(例えば、同時に閲覧可能及びアクセス可能である、同時に閲覧可能であるが同時にアクセス可能でない、他者が制御を有する(例えば、他者がオブジェクトを閲覧又は閲覧できない)場合に閲覧可能であるがアクセス可能でないなど)、(例えば、三次元環境の少なくとも一部(例えば、三次元環境の第1のビューに示される部分、三次元環境の別の部分など)が、第1のユーザと第2のユーザの両方によって閲覧のために表示されているとき、及び/又は三次元環境内の仮想オブジェクト(例えば、第1のユーザインタフェースオブジェクト、別のユーザインタフェースオブジェクトなど)が、第1のユーザと第2のユーザの両方に示される三次元環境内に同時に表示されるとき)、(例えば、図7Bに示されるように)第1のセットの外観特性(例えば、第2の表示生成コンポーネントによって第2のユーザに対して表示されるような第1のユーザインタフェースオブジェクトの通常の外観(例えば、第1の形状、第1のサイズ、第1の色、第1の不透明度、第1の彩度、第1の輝度など))で三次元環境の第1のビュー内の第1のポジションに第1のユーザインタフェースオブジェクトが表示される(例えば、図7Bの第1のビュー7015-1)。三次元環境の第1のビュー内の第1のポジションに第1のセットの外観特性を有する第1のユーザインタフェースオブジェクトを表示している間、コンピュータシステムは、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力であって、第1のユーザによって提供された第1のユーザ入力を検出する(8004)(例えば、ユーザ入力を検出することは、物理的環境内の第1のロケーションへの第1のユーザの一部の移動を検出することを含み、物理的環境内の第1のロケーションは、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトの個別のポジションに対応し、ユーザ入力を検出することは、第1のユーザインタフェースオブジェクトに向けられた視線入力及び視線入力と共に検出される制御入力(例えば、指移動ジェスチャ、空中ジェスチャ、コントローラによって提供される入力など)を検出することを含む)。第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したこと(8006)に応じて、かつ第2のユーザ(例えば、図7A~図7Cのユーザ7002)が第1のユーザインタフェースオブジェクト(例えば、図7A~図7Cのユーザインタフェースオブジェクト7016)と現在相互作用していない(例えば、第1のユーザインタフェースオブジェクトが、三次元環境の第1のビュー内の第2のユーザの仮想ポジションとの予め設定された空間関係を有していない(例えば、第1のユーザインタフェースオブジェクトが、第2のユーザの掌又は手の表現内にない、第1のユーザインタフェースオブジェクトが、三次元環境の第1のビュー内で可視である第2のユーザのプライベート空間外にある、など)という判定に従って、第2のユーザが、少なくとも部分的に共有される三次元環境内の三次元環境の第2のビューを表示する第2のコンピュータシステムを介して第1のユーザインタフェースオブジェクトを制御、選択、移動、修正、及び/又は相互作用していない、など)ことに従って、コンピュータシステムは、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対する第1の動作を実行する(8008)(例えば、第1のユーザインタフェースオブジェクトが第1のユーザ入力に従って第1のユーザによって把持されている又は移動させられていることを示す(例えば、ユーザに向かって移動させられる、第1のユーザ入力の移動に従って移動させられる、など)、第1のユーザの手の表現に把持されている又は移動させられている第1のユーザインタフェースオブジェクトのゴースト画像を示す、など)。いくつかの実施形態では、第1のユーザ入力が検出されたときに第2のユーザが第1のユーザインタフェースオブジェクトと相互作用していなかったという判定に従って、第1のユーザインタフェースオブジェクトは、第1のセットの外観特性で(例えば、その元のロケーションに、又は第1のユーザの手の表現などで)表示され続ける。第1のユーザインタフェースオブジェクト(例えば、図7A~図7Cのユーザインタフェースオブジェクト7016)に向けられた第1のユーザ入力を検出したこと(8006)に応じて、かつ第2のユーザが第1のユーザインタフェースオブジェクト(例えば、第1のユーザインタフェースオブジェクトは、三次元環境の第1のビュー内の第2のユーザの仮想ポジションとの予め設定された空間関係を有する)と現在相互作用している(例えば、第1のユーザインタフェースオブジェクトが第2のユーザの掌又は手の表現内にある、第1のユーザインタフェースオブジェクトが三次元環境の第1のビュー内に見える第2のユーザのプライベート空間内にあるなど)という判定に従って、第2のユーザが、三次元環境の第2のビューを共有三次元環境に表示する第2のコンピュータシステムを通じて第1のユーザインタフェースオブジェクトを制御、選択、移動、修正、及び/又は他の方法で相互作用しているなど)、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという視覚的インジケーションを表示し(8010)、視覚的インジケーションを表示することは、第1のユーザインタフェースオブジェクトの外観又は三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトのポジションのうちの少なくとも1つを変更することを含む(例えば、図7Cでは、ユーザインタフェースオブジェクト7016の外観は、第1のユーザ7102に示される第1のビュー7015-1内で変更される)。いくつかの実施形態では、コンピュータシステムは、第1のセットの外観特性とは異なる第2のセットの外観特性(例えば、第2の形状、第2のサイズ、第2の色、第2の不透明度、第2の彩度、第2の輝度など)を有する第1のユーザインタフェースオブジェクトを表示し(例えば、第2のセットの外観特性は、第1のユーザインタフェースオブジェクトがこの時点で第2のユーザを制御しており、第1のユーザと相互作用するために利用可能でないという視覚的インジケーションを提供する)、及び/又は第1のユーザが第1のユーザインタフェースオブジェクトを把持しようとするときに第1のユーザインタフェースオブジェクトを邪魔にならないように移動させる。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、視覚的インジケーションが第1のユーザに対して表示されるだけでよいため、第2のユーザに対して表示される少なくとも部分的に共有される三次元環境のビュー内のその外観及び/又はポジションを維持する。いくつかの実施形態では、視覚的インジケーションは、第2のユーザが少なくとも部分的に共有された三次元環境内で第1のユーザインタフェースオブジェクトと相互作用している間、表示される。コンピュータシステムは、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作を実行することを取りやめる(8014)。いくつかの実施形態では、コンピュータシステムは、第1のユーザの表現によって把持されている第1のユーザインタフェースオブジェクトを示さないか、又は第1のユーザ入力の移動に従って移動する第1のユーザインタフェースオブジェクトを示さない(例えば、第1のユーザの手によって把持されることを回避するためにオブジェクトが移動していない、第1のユーザの表現によって把持されることを回避するためにオブジェクトが縮小又は形状を変化していない、など)。いくつかの実施形態では、コンピュータシステムは、第1のユーザの手の表現内に移動する第1のユーザインタフェースオブジェクトのゴースト画像を示さない。 In method 8000, the computer system displays (8002) a first user interface object (e.g., user interface object 7016 of FIG. 7B, another user interface object, etc.) (e.g., a representation of an application, a user interface including a plurality of user interface objects (e.g., a selectable avatar, a selectable menu item, a selectable device control, a selectable content item, a slider control, a button, etc.), a virtual three-dimensional object, a control, a control panel including a plurality of controls corresponding to different functions or actions, an information item, a media item, etc.) in a first view (e.g., first view 7015-1 of FIG. 7B, another first view, etc.) of a three-dimensional environment, and the three-dimensional environment is at least partially shared (e.g., at least a spatial portion of the environment is shared, the environment is shared at least for a period of time, objects in the environment are fully or partially shared (e.g., can be viewed simultaneously) between a first user (e.g., user 7102 of FIG. 7A-7C) and a second user (e.g., user 7002 of FIG. 7A-7C). and accessible, simultaneously viewable but not simultaneously accessible, viewable but not accessible when another has control (e.g., the other can view or cannot view the object), etc.), (e.g., when at least a portion of the three dimensional environment (e.g., a portion shown in a first view of the three dimensional environment, another portion of the three dimensional environment, etc.) is displayed for viewing by both the first user and the second user, and/or when a virtual object within the three dimensional environment (e.g., a first user interface object, another user interface object, etc.) is displayed for viewing by both the first user and the second user. ) is displayed in a three dimensional environment shown to both the first user and the second user simultaneously), the first user interface object is displayed in a first position in a first view of the three dimensional environment (e.g., first view 7015-1 of FIG. 7B ) with a first set of appearance characteristics (e.g., the normal appearance of the first user interface object as displayed to the second user by the second display generation component (e.g., first shape, first size, first color, first opacity, first saturation, first brightness, etc.)) (e.g., as shown in FIG. 7B ). While displaying a first user interface object having a first set of appearance characteristics at a first position within the first view of the three-dimensional environment, the computer system detects (8004) a first user input directed to the first user interface object, the first user input being provided by a first user (e.g., detecting the user input includes detecting movement of a portion of the first user to a first location within the physical environment, the first location within the physical environment corresponding to a discrete position of the first user interface object within the first view of the three-dimensional environment, and detecting the user input includes detecting a gaze input directed at the first user interface object and a control input (e.g., a finger movement gesture, an air gesture, an input provided by a controller, etc.) detected along with the gaze input). In response to detecting 8006 a first user input directed at the first user interface object, and in accordance with a determination that a second user (e.g., user 7002 of FIGS. 7A-7C ) is not currently interacting with the first user interface object (e.g., user interface object 7016 of FIGS. 7A-7C ) (e.g., the first user interface object does not have a pre-defined spatial relationship with a virtual position of the second user within the first view of the three dimensional environment (e.g., the first user interface object is not within a representation of the second user's palm or hand, the first user interface object is outside of a private space of the second user that is visible within the first view of the three dimensional environment, etc.), the second user is In accordance with a determination that the second user was not interacting with the first user interface object when the first user input was detected (e.g., not controlling, selecting, moving, modifying, and/or interacting with the first user interface object via the second computer system displaying the second view of the three-dimensional environment within the partially shared three-dimensional environment), the computer system performs (8008) a first action on the first user interface object in accordance with the first user input (e.g., indicating that the first user interface object is being grasped or moved by the first user in accordance with the first user input (e.g., moved towards the user, moved in accordance with the movement of the first user input, etc.), showing a ghost image of the first user interface object being grasped or moved in the hand representation of the first user, etc.). In some embodiments, in accordance with a determination that the second user was not interacting with the first user interface object when the first user input was detected, the first user interface object continues to be displayed with the first set of appearance characteristics (e.g., in its original location or with the hand representation of the first user, etc.). In response to detecting 8006 a first user input directed at a first user interface object (e.g., user interface object 7016 of FIGS. 7A-7C ) and in accordance with a determination that a second user is currently interacting with the first user interface object (e.g., the first user interface object has a pre-defined spatial relationship with a virtual position of the second user within the first view of the three-dimensional environment) (e.g., the first user interface object is within a representation of the second user's palm or hand, the first user interface object is within a private space of the second user visible within the first view of the three-dimensional environment, etc.), the second user is prompted to view the second view of the three-dimensional environment from a shared third-party application. 7C , the first user 7102 controls, selects, moves, modifies, and/or otherwise interacts with the first user interface object through a second computer system that displays the first user interface object in the three-dimensional environment, and the computer system displays a visual indication that the first user interface object is unavailable for interaction with the first user (8010), where displaying the visual indication includes changing at least one of an appearance of the first user interface object or a position of the first user interface object within the first view of the three-dimensional environment (e.g., in FIG. 7C , the appearance of user interface object 7016 is changed within first view 7015-1 shown to the first user 7102). In some embodiments, the computer system displays the first user interface object having a second set of appearance characteristics (e.g., a second shape, a second size, a second color, a second opacity, a second saturation, a second brightness, etc.) different from the first set of appearance characteristics (e.g., the second set of appearance characteristics provide a visual indication that the first user interface object is now controlling the second user and is not available for interaction with the first user) and/or moves the first user interface object out of the way when the first user attempts to grasp the first user interface object. In some embodiments, the first user interface object maintains its appearance and/or position within the view of the at least partially shared three-dimensional environment displayed to the second user, since the visual indication need only be displayed to the first user. In some embodiments, the visual indication is displayed while the second user is interacting with the first user interface object in the at least partially shared three-dimensional environment. The computer system ceases performing the first action on the first user interface object in accordance with the first user input (8014). In some embodiments, the computer system does not show the first user interface object being grasped by the representation of the first user or does not show the first user interface object moving in accordance with the movement of the first user input (e.g., the object does not move to avoid being grasped by the hand of the first user, the object does not shrink or change shape to avoid being grasped by the representation of the first user, etc.). In some embodiments, the computer system does not show a ghost image of the first user interface object moving within the representation of the hand of the first user.

これらの特徴は、例えば、図7A~図7Cに示されており、第1のユーザ7102及び第2のユーザ7002は、表示生成コンポーネント7200及び7100を介してそれぞれ示される三次元環境を共有する。第2のユーザ7002が第1のユーザインタフェースオブジェクト7016を制御する(例えば、第1のユーザインタフェースオブジェクト7016と相互作用している、第1のユーザインタフェースオブジェクト7016又はその表現を第2のビュー7015-2内の手7028の表現7028’’(第1のユーザ7102に示される第1のビュー7015-1内の表現7028’も)を介して保持するなど)とき、第1のユーザ7102が、第1のユーザの手7102の移動によって第1のユーザインタフェースオブジェクト7016と相互作用しようと試みる場合、第1のユーザ7102のコンピュータシステムは、第1の表示生成コンポーネント7200を介して示される第1のビュー7015-1内の第1のユーザインタフェースオブジェクト7016の外観を変更し、第1のユーザインタフェースオブジェクト7016に対応する動作を実行しない。対照的に、第2のユーザ7002が第1のユーザインタフェースオブジェクト7016と相互作用していない場合、コンピュータシステムは、第1のユーザの手7202の移動に従って第1の動作を実行する。これは、図7Bにおける第2のユーザ7002と第1のユーザインタフェースオブジェクト7016との間の相互作用によって間接的に示されており、第1のユーザ7102は、第1のユーザインタフェースオブジェクト7016を制御しないか、又は第1のユーザインタフェースオブジェクト7016と相互作用していない(例えば、そのシナリオにおける第1のユーザ及び第2のユーザの役割の逆転を考える)。 These features are shown, for example, in Figures 7A-7C, where a first user 7102 and a second user 7002 share a three-dimensional environment shown via display generation components 7200 and 7100, respectively. When the second user 7002 controls the first user interface object 7016 (e.g., interacts with the first user interface object 7016, holds the first user interface object 7016 or a representation thereof via a representation 7028'' of the hand 7028 in the second view 7015-2 (as well as the representation 7028' in the first view 7015-1 shown to the first user 7102), etc.), if the first user 7102 attempts to interact with the first user interface object 7016 by moving the first user's hand 7102, the computer system of the first user 7102 changes the appearance of the first user interface object 7016 in the first view 7015-1 shown via the first display generation component 7200 and does not perform an action corresponding to the first user interface object 7016. In contrast, if the second user 7002 is not interacting with the first user interface object 7016, the computer system executes the first action according to the movement of the first user's hand 7202. This is indirectly illustrated by the interaction between the second user 7002 and the first user interface object 7016 in FIG. 7B, where the first user 7102 does not control or interact with the first user interface object 7016 (e.g., consider a role reversal of the first and second users in that scenario).

いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことの視覚的インジケーションとして第1のユーザインタフェースオブジェクトの外観を変更し、第1のユーザインタフェースオブジェクトの外観を変更することは、第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを変更して(例えば、第1のユーザインタフェースオブジェクトの透明度を上げる、彩度を下げる、不透明度を下げる、ぼかす、暗くする、解像度を下げる、サイズを縮小するなど、任意選択的に、第1のユーザインタフェースオブジェクトの周囲環境の外観を維持しながら(例えば、周囲環境の視覚的プロミネンスを変化させずに))、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを低減することを含む(例えば、図7Cでは、ユーザインタフェースオブジェクト7016の外観は、第1のユーザ7102に示される第1のビュー7015-1で変更される)。いくつかの実施形態では、計算システムは、第1のユーザ入力とは無関係に判定される三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトのポジション(例えば、第1のポジション、第1のユーザインタフェースオブジェクトと第2のユーザとの間の相互作用に応じて判定される別のポジション、第1のユーザインタフェースオブジェクトの予めプログラムされた自律移動に従って判定される別のポジション(例えば、第1のユーザインタフェースオブジェクトは、予め設定された移動パターン又は予め設定されたアニメーション効果などを有する)、コンピュータシステム内の他のイベントに従って判定される別のポジションなど)を維持しながら、第1のユーザインタフェースオブジェクトの外観を変更する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したことに応じて、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していないという判定に従って、コンピュータシステムは、第1のユーザインタフェースオブジェクトの外観を変更して第1のユーザインタフェースオブジェクトの視覚的プロミネンスを低減させず、コンピュータシステムは、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作を実行する(例えば、第1のユーザインタフェースオブジェクトの外観及び視覚的プロミネンスが維持される、又は外観は、第1の動作を実行した結果として変更されてもよいが、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを低減することを目的としない、など)。 In some embodiments, the computer system alters the appearance of the first user interface object as a visual indication that the first user interface object is unavailable for interaction with the first user, where altering the appearance of the first user interface object includes altering at least one of a first set of appearance characteristics of the first user interface object (e.g., increasing transparency, decreasing saturation, decreasing opacity, blurring, darkening, decreasing resolution, decreasing size, etc. of the first user interface object, optionally reducing the visual prominence of the first user interface object while preserving the appearance of the first user interface object's surrounding environment (e.g., without changing the visual prominence of the surrounding environment)) (e.g., in FIG. 7C , the appearance of user interface object 7016 is altered in first view 7015-1 shown to first user 7102). In some embodiments, the computing system changes the appearance of the first user interface object while maintaining a position of the first user interface object in the first view of the three-dimensional environment that is determined independent of the first user input (e.g., the first position, another position that is determined in response to an interaction between the first user interface object and the second user, another position that is determined according to pre-programmed autonomous movement of the first user interface object (e.g., the first user interface object has a pre-set movement pattern or a pre-set animation effect, etc.), another position that is determined according to other events in the computer system, etc.). In some embodiments, in response to detecting a first user input directed at the first user interface object, in accordance with a determination that the second user is not currently interacting with the first user interface object, the computer system does not alter the appearance of the first user interface object to reduce the visual prominence of the first user interface object, and the computer system performs a first action on the first user interface object in accordance with the first user input (e.g., the appearance and visual prominence of the first user interface object is maintained, or the appearance may be altered as a result of performing the first action, but not for the purpose of reducing the visual prominence of the first user interface object, etc.).

第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことの視覚的インジケーションとして、第1のユーザインタフェースオブジェクトに対する視覚的プロミネンスを低減するように第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを変更することを含む、第1のユーザインタフェースオブジェクトの外観を変更することは、改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことの改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Modifying the appearance of the first user interface object, including modifying at least one of the first set of appearance characteristics of the first user interface object to reduce visual prominence for the first user interface object as a visual indication that the first user interface object is unavailable for interaction with the first user, provides improved visual feedback to the user (e.g., improved visual feedback that the first user interface object is unavailable for interaction with the first user). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力の終了を検出する(例えば、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトの個別のポジションに対応する、物理的環境内の第1のロケーションから離れる第1のユーザの一部の移動を検出する、第1のユーザインタフェースオブジェクトに向けられた視線入力が第1のユーザインタフェースオブジェクトから離れるように移動することを検出する、第1のユーザ入力を提供した第1のユーザの手が第1のユーザ入力を維持するのに必要な姿勢から外れるように移動することを検出するなど)。第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力の終了を検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元するために、第1のユーザ入力に応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを(例えば、第1のユーザ入力を検出する直前に存在したレベルに、又は第1のユーザ入力の検出に応じて変更が行われる前に、などに)復元する。いくつかの実施形態では、コンピュータシステムは、任意選択的に、第1のユーザインタフェースオブジェクトの周囲環境の外観を維持しながら(例えば、周囲環境の視覚的プロミネンスを変化させずに)、第1のユーザインタフェースオブジェクトの増加した透明度を復元し、低下した彩度を復元し、低下した不透明度を復元し、ぼやけ及び/又は暗化を停止し、低下した解像度を復元し、減少したサイズを復元するなどする。例えば、いくつかの実施形態では、第1のユーザが、第2のユーザが現在相互作用している仮想オブジェクトに対応するロケーションに向かって彼/彼女の手を伸ばすと、第1のユーザの手が、三次元環境内の仮想オブジェクトのポジションに対応する、物理的環境内のロケーションにあるとき、仮想オブジェクトは、フェードアウトするか、又はより暗くなるように見える。その後、第1のユーザがそのロケーションから手を離すと、仮想オブジェクトの外観が復元される(例えば、もはやフェードアウトされない、又は暗く見えない)。これは、図7B(図7Cに続く)に示されており、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016と相互作用しようとするのを停止する場合、第1のユーザインタフェースオブジェクト7016の外観は、第1のユーザ7102に示される第1のビュー7015-1においてもはや変更されない。 In some embodiments, the computer system detects an end of a first user input directed to a first user interface object (e.g., detects movement of a portion of the first user away from a first location in the physical environment corresponding to a distinct position of the first user interface object in a first view of the three-dimensional environment, detects that a gaze input directed to the first user interface object moves away from the first user interface object, detects that a hand of the first user that provided the first user input moves out of a posture required to maintain the first user input, etc.). In response to detecting an end of the first user input directed to the first user interface object, the computer system restores at least one of the first set of appearance characteristics of the first user interface object that was modified in response to the first user input (e.g., to a level that existed immediately prior to detecting the first user input, or before the modification was made in response to detecting the first user input, etc.) to restore visual prominence of the first user interface object. In some embodiments, the computer system optionally restores an increased transparency, restores a decreased saturation, restores a decreased opacity, stops blurring and/or darkening, restores a decreased resolution, restores a decreased size, etc. of the first user interface object, while preserving the appearance of the first user interface object's surroundings (e.g., without changing the visual prominence of the surroundings). For example, in some embodiments, when a first user extends his/her hand towards a location corresponding to a virtual object with which a second user is currently interacting, the virtual object appears to fade out or become darker when the first user's hand is in a location in the physical environment that corresponds to the position of the virtual object in the three-dimensional environment. Then, when the first user moves their hand away from that location, the appearance of the virtual object is restored (e.g., no longer faded out or appearing dark). This is shown in FIG. 7B (continued in FIG. 7C), where when the first user 7102 stops attempting to interact with the first user interface object 7016, the appearance of the first user interface object 7016 is no longer changed in the first view 7015-1 shown to the first user 7102.

第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力の終了の検出に応じて、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元するために、第1のユーザ入力に応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを復元することは、改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトが相互作用に利用可能であるという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Restoring at least one of the first set of appearance characteristics of the first user interface object that were altered in response to the first user input in response to detecting an end of the first user input directed to the first user interface object to restore the visual prominence of the first user interface object provides improved visual feedback to the user (e.g., improved visual feedback that the first user interface object is available for interaction). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、コンピュータシステムは、第1のユーザ入力の検出を継続しながら(例えば、第1のユーザ入力が最初に検出されたときに三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトの個別のポジションに対応する、物理的環境内の第1のロケーションに残っている第1のユーザの部分を検出し、三次元環境内の同じポジションに残っている第1のユーザインタフェースオブジェクトに向けられた視線入力を検出し、第1のユーザ入力を維持するために必要な姿勢に残っている第1のユーザ入力を提供した第1のユーザの手を検出するなど)、第1のユーザ入力の検出とは無関係に(例えば、第2のユーザによって提供されたユーザ入力に従って、第1のユーザインタフェースオブジェクトの固有の移動パターンに従って、第1のユーザ入力とは無関係にコンピュータシステム内の他のイベントに応じてなど)、三次元環境の第1のビュー内の第1のポジションから離れる第1のユーザインタフェースオブジェクトの移動を検出する。第1のユーザ入力の検出とは無関係に、三次元環境の第1のビュー内の第1のポジションから離れる第1のユーザインタフェースオブジェクトの移動を検出したことに応じて、コンピュータシステムは、第1のユーザ入力に応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを(例えば、第1のユーザ入力を検出する直前に存在したレベルに、又は第1のユーザ入力の検出に応じて変更が行われる前に存在したレベルに、など)復元して、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元する。いくつかの実施形態では、コンピュータシステムは、任意選択的に、第1のユーザインタフェースオブジェクトの周囲環境の外観を維持しながら(例えば、周囲環境の視覚的プロミネンスを変化させずに)、第1のユーザインタフェースオブジェクトの増加した透明度を復元し、低下した彩度を復元し、低下した不透明度を復元し、ぼやけ及び/又は暗化を停止し、低下した解像度を復元し、減少したサイズを復元するなどする。例えば、いくつかの実施形態では、第1のユーザが、第2のユーザが現在相互作用している仮想オブジェクトに対応するロケーションに向かって彼/彼女の手を伸ばすと、第1のユーザの手が、三次元環境内の仮想オブジェクトのポジションに対応する、物理的環境内のロケーションにあるとき、仮想オブジェクトは、フェードアウトするか、又はより暗くなるように見える。次いで、第1のユーザインタフェースオブジェクトが、その現在ポジションから離れ、第1のユーザの手の現在ロケーションに対応するポジションから離れるように移動される(例えば、第2のユーザによって、それ自体の移動パターンに従って、第1のユーザ入力に関連しない他のシステム生成イベントに従って移動されるなど)とき、仮想オブジェクトの外観は復元される(例えば、もはやフェードアウトされたり暗くなったりして見えない)。 In some embodiments, the computer system detects movement of the first user interface object away from the first position in the first view of the three-dimensional environment while continuing to detect the first user input (e.g., detecting a portion of the first user remaining in a first location in the physical environment that corresponds to the distinct position of the first user interface object in the first view of the three-dimensional environment when the first user input was initially detected, detecting gaze input directed at the first user interface object remaining in the same position in the three-dimensional environment, detecting the hands of the first user who provided the first user input remaining in a posture required to maintain the first user input, etc.), independently of detection of the first user input (e.g., in accordance with user input provided by a second user, in accordance with a unique movement pattern of the first user interface object, in response to other events in the computer system independent of the first user input, etc.). In response to detecting movement of the first user interface object away from the first position within the first view of the three-dimensional environment independent of detection of the first user input, the computer system restores at least one of the first set of appearance characteristics of the first user interface object that was modified in response to the first user input (e.g., to a level that existed immediately prior to detecting the first user input, or to a level that existed before the modification was made in response to detection of the first user input, etc.) to restore visual prominence of the first user interface object. In some embodiments, the computer system restores an increased transparency, restores a decreased saturation, restores a decreased opacity, stops blurring and/or darkening, restores a decreased resolution, restores a decreased size, etc. of the first user interface object, optionally while preserving the appearance of the first user interface object's surroundings (e.g., without changing the visual prominence of the surroundings). For example, in some embodiments, when a first user extends his/her hand towards a location corresponding to a virtual object with which a second user is currently interacting, the virtual object appears to fade out or become darker when the first user's hand is in a location in the physical environment that corresponds to the position of the virtual object in the three-dimensional environment. Then, when the first user interface object is moved away from its current position and away from the position corresponding to the current location of the first user's hand (e.g., moved by the second user according to its own movement pattern, according to other system-generated events not related to the first user input, etc.), the appearance of the virtual object is restored (e.g., no longer appears faded out or darkened).

第1のユーザ入力の検出とは無関係に三次元環境の第1のビュー内の第1のポジションから離れる第1のユーザインタフェースオブジェクトの移動を検出したことに応じて、第1のユーザ入力に応じて変更された第1のユーザインタフェースオブジェクトの第1のセットの外観特性のうちの少なくとも1つを復元して、第1のユーザインタフェースオブジェクトの視覚的プロミネンスを復元することは、ユーザに改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトが第1のポジションから離れたという改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting movement of the first user interface object away from the first position in the first view of the three-dimensional environment independent of detection of the first user input, restoring at least one of the first set of appearance characteristics of the first user interface object that was modified in response to the first user input to restore visual prominence of the first user interface object provides improved visual feedback to the user (e.g., improved visual feedback that the first user interface object has moved away from the first position). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという視覚的インジケーションを表示することは、第2のユーザが第1のユーザインタフェースオブジェクトとの相互作用を停止するまで、第1のユーザ入力に応じて行われた第1のユーザインタフェースオブジェクトの外観に対する変更を維持することを含む。例えば、ユーザインタフェースオブジェクト7016の変更された外観は、第1のユーザ7102が第1のユーザインタフェースオブジェクト7016と相互作用する試みを停止した後であっても、第2のユーザ7002がもはや第1のユーザ7102を除外して第1のユーザインタフェースオブジェクト7016を制御しなくなるまで維持される。例えば、いくつかの実施形態では、第1のユーザ入力の検出に応じて、かつ第1のユーザ入力が最初に検出された時点で第2のユーザが第1のユーザインタフェースオブジェクトと相互作用していたという判定に従って視覚的インジケーションが表示されると、コンピュータシステムは、第2のユーザが依然として第1のユーザインタフェースオブジェクトと相互作用しているという判定に従って、視覚的インジケーション(例えば、第1のユーザインタフェースオブジェクトの変化した外観、変化したポジションなど)を表示し続ける(例えば、第2のユーザは、第2のユーザの掌又は手のロケーションに対応するポジションに仮想オブジェクトを維持し続け、及び/又は第2のユーザのコンピュータシステムの動作を通じて仮想オブジェクトを選択、修正、又は他の方法で相互作用し続けるなど)。 In some embodiments, displaying a visual indication that the first user interface object is unavailable for interaction with the first user includes maintaining the changes to the appearance of the first user interface object made in response to the first user input until the second user stops interacting with the first user interface object. For example, the modified appearance of the user interface object 7016 is maintained until the second user 7002 no longer controls the first user interface object 7016 to the exclusion of the first user 7102, even after the first user 7102 has stopped attempting to interact with the first user interface object 7016. For example, in some embodiments, once a visual indication is displayed in response to detection of a first user input and in accordance with a determination that the second user was interacting with the first user interface object at the time the first user input was initially detected, the computer system continues to display the visual indication (e.g., a changed appearance, a changed position, etc. of the first user interface object) in accordance with a determination that the second user is still interacting with the first user interface object (e.g., the second user continues to maintain the virtual object in a position corresponding to the location of the second user's palm or hand and/or continues to select, modify, or otherwise interact with the virtual object through operation of the second user's computer system, etc.).

いくつかの実施形態では、コンピュータシステムが、第1のユーザ入力が終了したこと、及び第1のユーザが第1のユーザインタフェースオブジェクトと相互作用しようと試みるための入力を現在提供していないことを検出した場合であっても、視覚的インジケーションは表示され続ける。いくつかの実施形態では、視覚的インジケーションは、第1のユーザ入力が維持されるか否か、又は第1のユーザが第1のユーザインタフェースオブジェクトとの相互作用を試み続けるか否かにかかわらず、ある期間にわたって維持されるが、必ずしも第2のユーザが第1のユーザインタフェースオブジェクトとの相互作用を中止するまでは維持されない。いくつかの実施形態では、第1のユーザのコンピュータシステムは、第2のユーザがもはや第1のユーザインタフェースオブジェクトと相互作用していないと判定し、第2のユーザがもはや第1のユーザインタフェースオブジェクトと相互作用していないことを検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという視覚的インジケーションを表示することを停止する(例えば、コンピュータシステムは、第1のユーザインタフェースオブジェクトを弱まった状態又は暗くなった状態で表示することを停止し、第1のユーザ入力の検出に応じて変更された第1のユーザインタフェースオブジェクトの元の外観特性を復元する)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトが依然として第2のユーザの制御範囲内にある、及び/又は第1のユーザとの相互作用に利用可能でないという持続的な視覚的インジケーションは、デバイスが第1のユーザインタフェースオブジェクトと相互作用しようとする別の試みに応答する準備ができているときを第1のユーザが知るのを助け、第1のユーザインタフェースオブジェクトと相互作用しようとする際の失敗の繰り返しを回避する。 In some embodiments, the visual indication continues to be displayed even when the computer system detects that the first user input has ended and that the first user is no longer providing input to attempt to interact with the first user interface object. In some embodiments, the visual indication is maintained for a period of time regardless of whether the first user input is maintained or whether the first user continues to attempt to interact with the first user interface object, but not necessarily until the second user ceases interacting with the first user interface object. In some embodiments, the computer system of the first user determines that the second user is no longer interacting with the first user interface object, and in response to detecting that the second user is no longer interacting with the first user interface object, the computer system stops displaying the visual indication that the first user interface object is not available for interaction with the first user (e.g., the computer system stops displaying the first user interface object in a dimmed or darkened state and restores the original appearance characteristics of the first user interface object that were altered in response to detecting the first user input). In some embodiments, a persistent visual indication that the first user interface object is still within the second user's range of control and/or is unavailable for interaction with the first user helps the first user know when the device is ready to respond to another attempt to interact with the first user interface object and avoids repeated failed attempts to interact with the first user interface object.

第2のユーザが第1のユーザインタフェースオブジェクトと相互作用するのを停止するまで、第1のユーザ入力に応じて行われた第1のユーザインタフェースオブジェクトの外観に対する変更を維持することは、改善された視覚的フィードバック(例えば、第2のユーザが第1のユーザインタフェースオブジェクトと相互作用しているという改善された視覚的フィードバック、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Maintaining the changes made to the appearance of the first user interface object in response to the first user input until the second user stops interacting with the first user interface object provides the user with improved visual feedback (e.g., improved visual feedback that the second user is interacting with the first user interface object, improved visual feedback that the first user interface object is unavailable for interaction with the first user, etc.). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016)に向けられた第1のユーザ入力を検出したことに応じて、かつ第2のユーザ(例えば、図7B~図7Cのユーザ7002)が第1のユーザインタフェースオブジェクト(第1のユーザインタフェースオブジェクトは、三次元環境の第1のビュー内の第2のユーザの仮想ポジションとの予め設定された空間関係を有さない)と現在相互作用していない(例えば、第1のユーザインタフェースオブジェクトが第2のユーザの掌又は手の表現の内側にない、第1のユーザインタフェースオブジェクトが三次元環境の第1のビュー内で見える第2のユーザのプライベート空間の外側にあるなど)という判定に従って、第2のユーザは、少なくとも部分的に共有される三次元環境内の三次元環境の第2のビューを表示する第2のコンピュータシステムを介して第1のユーザインタフェースオブジェクトを制御、選択、移動、修正、及び/又はそれ以外の形で相互作用しておらず、コンピュータシステムは、三次元環境の第1のビュー内の第2のポジションに第1のユーザインタフェースオブジェクトを表示し、第2のポジションは、第1のユーザ(例えば、図7B~図7Cのユーザ7102又は別のユーザなど)の手の現在ロケーションに従って選択される。いくつかの実施形態において、第2のポジションは、第1のユーザ入力を提供する第1のユーザの手(例えば、図7B~図7Cの手7202、又は別の手など)の現在ロケーションに対応するように選択される(例えば、第1のユーザの手の表現に重なって、その表現の表示を置換して、その表現の外観を変更してなど)、又は第2のポジションは、第1のユーザ入力などによって向けられる、若しくは示される三次元環境内のポジション若しくは物理的環境内のロケーションに対応するように選択される。 In some embodiments, in response to detecting a first user input directed at a first user interface object (e.g., user interface object 7016 in FIGS. 7B-7C ) and a second user (e.g., user 7002 in FIGS. 7B-7C ) is not currently interacting with the first user interface object (the first user interface object does not have a pre-defined spatial relationship with the second user's virtual position in the first view of the three-dimensional environment) (e.g., the first user interface object is not within a representation of the second user's palm or hand, the first user interface object is not within a representation of the second user's palm or hand, the first user interface object is not within a representation of the third ... In accordance with a determination that the first user interface object is located within the first view of the environment (e.g., outside the second user's private space visible within the first view of the environment), the second user is not controlling, selecting, moving, modifying, and/or otherwise interacting with the first user interface object via a second computer system displaying a second view of the three-dimensional environment within the at least partially shared three-dimensional environment, and the computer system displays the first user interface object at a second position within the first view of the three-dimensional environment, the second position being selected according to a current location of the hand of the first user (e.g., user 7102 of FIGS. 7B-7C or another user). In some embodiments, the second position is selected to correspond to a current location of the first user's hand (e.g., hand 7202 in FIGS. 7B-7C, or another hand, etc.) providing the first user input (e.g., overlaying a representation of the first user's hand, replacing the display of that representation, changing the appearance of that representation, etc.), or the second position is selected to correspond to a position within the three-dimensional environment or a location within the physical environment that is pointed to or indicated by the first user input, etc.

いくつかの実施形態では、コンピュータシステムは、三次元環境の第1のビュー内で第1のユーザの手の表現によって把持されている第1のユーザインタフェースオブジェクトを示す、第1のユーザの手によって提供される第1のユーザ入力の移動方向に対応する方向に移動する第1のユーザインタフェースオブジェクトを示す(例えば、ユーザの手の上方への移動は、仮想オブジェクトをテーブル上面の表現から持ち上げさせ、ユーザの手の上方への移動は、仮想オブジェクトをテーブル上面の表現からジャンプさせ、ユーザの手の表現に着地させるなど)、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)を第1のユーザの手によって示されるポジションに移動させる(例えば、第1のユーザの手によるフリック及びポイントジェスチャは、仮想オブジェクトをその元のポジションから移動させ、第1のユーザの手の人差し指によって示されるポジションに移動させるなど)。第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したことに応じて、第1のユーザの手の現在ロケーションに従って選択される第2のポジションに第1のユーザインタフェースオブジェクトを表示している間(例えば、第1のユーザインタフェースオブジェクトが第1のユーザの手の表現に対応するポジションに表示されている間(例えば、第1のユーザの手によって保持されているように見える)、第1のユーザインタフェースオブジェクトが第1のユーザ入力によって選択されるポジションにホバリングして表示されている間など)、コンピュータシステムは、第1のユーザの手のスローイングジェスチャに対応する第1のユーザ(例えば、ユーザ7102、又は別のユーザなど)の手の移動を検出する。いくつかの実施形態では、コンピュータシステムは、第1のユーザの手が、第1のユーザに近いロケーションから第1のユーザから更に離れた別のロケーションに、任意選択的に、第2のユーザの表現のポジションに対応するロケーションに向かって移動していることを検出する。いくつかの実施形態では、コンピュータシステムは、第1のユーザが人差し指を第1のユーザから離して、任意選択的に第2のユーザの表現のポジションに対応するロケーションに向かってフリックすることを検出する、及び/又は第1のユーザが自分の手を使用してトス運動又はスローイング運動を実行していることを検出する。いくつかの実施形態では、スローイングジェスチャを検出することは、手の急加速とそれに続く急減速を検出することを含む。いくつかの実施形態では、スローイングジェスチャを検出することは、閉じられた手が開くことを検出すること(及び任意選択的に、急減速を検出することと併せて)を含む。第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したことに応じて、かつ第1のユーザの手のスローイングジェスチャに対応する第1のユーザの手の移動を検出したことに応じて、コンピュータシステムは、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトを、第1のユーザの手の移動の方向に対応する第1の方向に移動させ、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトを回転させる。いくつかの実施形態では、第1のユーザインタフェースオブジェクトがスローイングジェスチャの方向に対応する方向に移動するにつれて、第1のユーザインタフェースオブジェクトはまた、第1のユーザインタフェースオブジェクトの仮想重心(例えば、幾何学的中心、第1のユーザインタフェースオブジェクトによってシミュレートされるオブジェクトに応じて第1のユーザインタフェースオブジェクトの内外の別の点など)の周りを回転する(例えば、第1のユーザインタフェースオブジェクトの直線運動中の角運動量の保存をシミュレートするため、第1のユーザインタフェースオブジェクトに対するスローイングジェスチャの物理的効果をシミュレートするため、スローイングジェスチャの目的端において第1のユーザインタフェースオブジェクトの所定のユーザ対向側を第2のユーザに向けて示すため、物理的表面の表現上又は所定の直立向きを有する仮想表面上に着地するためなど)。 In some embodiments, the computer system presents a first user interface object being held by a representation of the first user's hand in a first view of the three-dimensional environment, presents the first user interface object moving in a direction corresponding to a direction of movement of a first user input provided by the first user's hand (e.g., an upward movement of the user's hand causes the virtual object to lift off of the representation of the tabletop, an upward movement of the user's hand causes the virtual object to jump off of the representation of the tabletop and land on the representation of the user's hand, etc.), and moves the first user interface object (e.g., user interface object 7016 of Figures 7B-7C, or another user interface object, etc.) to a position indicated by the first user's hand (e.g., a flick and point gesture by the first user's hand causes the virtual object to move from its original position and move to a position indicated by the index finger of the first user's hand, etc.). In response to detecting a first user input directed at the first user interface object, while displaying the first user interface object at a second position selected according to a current location of the first user's hand (e.g., while the first user interface object is displayed at a position corresponding to the first user's hand representation (e.g., appearing to be held by the first user's hand), while the first user interface object is displayed hovering at the position selected by the first user input, etc.), the computer system detects a movement of the first user's (e.g., user 7102, or another user, etc.) hand corresponding to a throwing gesture of the first user's hand. In some embodiments, the computer system detects that the first user's hand is moving from a location close to the first user to another location further away from the first user, optionally toward a location corresponding to a position of the representation of the second user. In some embodiments, the computer system detects that the first user lifts their index finger away from the first user and optionally flicks it toward a location corresponding to a position of the representation of the second user, and/or detects that the first user is performing a tossing or throwing motion using their hand. In some embodiments, detecting the throwing gesture includes detecting a sudden acceleration of the hand followed by a sudden deceleration. In some embodiments, detecting the throwing gesture includes detecting an opening of a closed hand (and optionally in conjunction with detecting a sudden deceleration). In response to detecting a first user input directed at the first user interface object, and in response to detecting a movement of the first user's hand corresponding to a throwing gesture of the first user's hand, the computer system moves the first user interface object in the first view of the three-dimensional environment in a first direction corresponding to a direction of the movement of the first user's hand, and rotates the first user interface object during the movement of the first user interface object. In some embodiments, as the first user interface object moves in a direction corresponding to the direction of the throwing gesture, the first user interface object also rotates about a virtual center of gravity of the first user interface object (e.g., a geometric center, another point inside or outside the first user interface object depending on the object simulated by the first user interface object, etc.) (e.g., to simulate conservation of angular momentum during linear motion of the first user interface object, to simulate a physical effect of the throwing gesture on the first user interface object, to present a predetermined user-facing side of the first user interface object at the destination end of the throwing gesture towards a second user, to land on a representation of a physical surface or on a virtual surface having a predetermined upright orientation, etc.).

いくつかの実施形態では、第2のユーザが第1のユーザインタフェースオブジェクトと相互作用しており、その後、スローイングジェスチャを実行して第1のユーザインタフェースオブジェクトを三次元環境内に捨てると、コンピュータシステムは、第1のユーザインタフェースオブジェクトが三次元環境の第1のビュー内で第2のユーザの手の移動の方向に対応する第2の方向に移動し、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトを回転させることを示す(例えば、第1のユーザインタフェースオブジェクトがスローイングジェスチャの方向に移動すると、第1のユーザインタフェースオブジェクトはまた、第1のユーザインタフェースオブジェクトの仮想重心の周りを回転する(例えば、第1のユーザインタフェースオブジェクトの直線運動中の角運動量の保存をシミュレートするため、第1のユーザインタフェースオブジェクトに対するスローイングジェスチャの物理的効果をシミュレートするため、スローイングジェスチャの目的端において第1のユーザに向かう第1のユーザインタフェースオブジェクトの所定のユーザ対向側を示すため、物理的表面の表現上に又は所定の直立向きを有する仮想表面上に着地するためなど))。 In some embodiments, when a second user interacts with the first user interface object and subsequently performs a throwing gesture to throw the first user interface object into the three-dimensional environment, the computer system indicates that the first user interface object moves in a second direction in the first view of the three-dimensional environment corresponding to the direction of the second user's hand movement and rotates the first user interface object during the movement of the first user interface object (e.g., as the first user interface object moves in the direction of the throwing gesture, the first user interface object also rotates about a virtual center of gravity of the first user interface object (e.g., to simulate conservation of angular momentum during linear motion of the first user interface object, to simulate a physical effect of a throwing gesture on the first user interface object, to indicate a predetermined user-facing side of the first user interface object toward the first user at the destination end of the throwing gesture, to land on a representation of a physical surface or on a virtual surface having a predetermined upright orientation, etc.)).

第1のユーザの手のスローイングジェスチャに対応する第1のユーザの手の移動を検出したことに応じて、第1のユーザの手の移動の方向に対応する第1の方向に三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトを移動させ、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトを回転させることは、改善された視覚的フィードバック(例えば、コンピュータシステムが第1のユーザの手のスローイングジェスチャを検出したという改善された視覚的フィードバック、第1のユーザインタフェースオブジェクトが移動されているという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a movement of the first user's hand corresponding to a throwing gesture of the first user's hand, moving a first user interface object in a first direction corresponding to the direction of the movement of the first user's hand in a first view of the three-dimensional environment and rotating the first user interface object during the movement of the first user interface object provides improved visual feedback to the user (e.g., improved visual feedback that the computer system has detected a throwing gesture of the first user's hand, improved visual feedback that the first user interface object is being moved, etc.). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクト(例えば、ユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)を回転させることは、第1のユーザの手の移動の方向が三次元環境の第1のビュー内の第2のユーザの表現に向いているという判定に従って、第1のユーザインタフェースオブジェクトが、物理的環境内の第1のユーザの手の移動に従って選択された三次元環境内の目的ポジション(例えば、第2のユーザの手の表現、第2のユーザに関連付けられた表面の表現などのポジション)に到達したときに三次元環境内で第1の予め設定された向きを有するように、第1のユーザインタフェースオブジェクトを第1の方式で回転させる(例えば、第1のユーザインタフェースオブジェクトを第1の回転方向に第1の量だけ、第2の回転方向に第2の量だけ、及び/又は第3の回転方向に第3の量だけ回転させる)ことを含む。いくつかの実施形態において、第1の予め設定された向きは、第1のユーザのスローイングジェスチャに応じて第1のユーザインタフェースオブジェクトが移動を開始したときに第1のユーザインタフェースオブジェクトが有していた向きとは異なる。いくつかの実施形態では、第1の予め設定された向きは、第1のユーザインタフェースオブジェクトの予め設定された前面側が第2のユーザの表現の方を向く向きである。いくつかの実施形態では、第1の予め設定された向きは、第1のユーザインタフェースオブジェクトが、第2のユーザ等の手の表現に引っかかるとき、及び/又はその上に置かれるとき、直立する向きである。いくつかの実施形態では、第2のユーザが第1のユーザインタフェースオブジェクトと相互作用しており、その後、第1のユーザの表現の方向に対応する方向にスローイングジェスチャを行った場合、コンピュータシステムは、物理的環境内の第2のユーザの手の動きに従って、選択された、三次元環境内の目的ポジションに到達したときに、第2のユーザの手の動きの方向が三次元環境の第1ビューの視点に向いているという判定に従って、第1のユーザインタフェースオブジェクトが第1の予め設定された向きを有する(例えば、第1の予め設定された向きは、第1のユーザインタフェースオブジェクトが第2のユーザのスローイングジェスチャに応じて移動を開始したときに第1のユーザインタフェースオブジェクトが有していた向きとは異なる、第1の予め設定された向きは、第1のユーザインタフェースオブジェクトの予め設定された前向き側が第1のユーザの表現に向く向きである、又は第1の予め設定された向きは、第1のユーザ等の手の表現に引っかかるとき、及び/又はその上に置かれるときに、第1のユーザインタフェースオブジェクトが直立する向きである)ように、第1のユーザインタフェースオブジェクトを個別の方式で回転させる(例えば、第1の回転方向に第1の量だけ、第2の回転方向に第2の量だけ、及び/又は第3の回転方向に第3の量だけ、など)。 In some embodiments, rotating the first user interface object (e.g., user interface object 7016, or another user interface object, etc.) during the movement of the first user interface object includes rotating the first user interface object in a first manner (e.g., rotating the first user interface object by a first amount in a first rotational direction, a second amount in a second rotational direction, and/or a third amount in a third rotational direction) such that the first user interface object has a first preset orientation in the three-dimensional environment when it reaches a destination position (e.g., a position of the representation of the second user's hand, a representation of a surface associated with the second user, etc.) in the three-dimensional environment selected in accordance with the movement of the first user's hand in the physical environment in accordance with a determination that the direction of the movement of the first user's hand is toward the representation of the second user in the first view of the three-dimensional environment. In some embodiments, the first preset orientation is different from the orientation that the first user interface object had when the first user interface object began to move in response to the throwing gesture of the first user. In some embodiments, the first preset orientation is an orientation in which a preset front side of the first user interface object faces towards a representation of a second user. In some embodiments, the first preset orientation is an orientation in which the first user interface object stands upright when hooked and/or placed on a hand representation of a second user, etc. In some embodiments, when the second user interacts with the first user interface object and subsequently performs a throwing gesture in a direction corresponding to the direction of the representation of the first user, the computer system determines that the first user interface object has a first preset orientation (e.g., the first preset orientation is an orientation in which the first user interface object stands upright when hooked and/or placed on a hand representation of a second user, etc.) in accordance with a determination that the direction of the hand movement of the second user is towards a viewpoint of the first view of the three-dimensional environment when the selected destination position in the three-dimensional environment is reached according to the hand movement of the second user in the physical environment. The first user interface object is rotated in a separate manner (e.g., by a first amount in a first rotational direction, a second amount in a second rotational direction, and/or a third amount in a third rotational direction, etc.) such that the first preset orientation is different from the orientation the first user interface object had when it began moving in response to the mouse, the first preset orientation being an orientation in which the preset forward-facing side of the first user interface object faces the representation of the first user, or the first preset orientation is an orientation in which the first user interface object will stand upright when caught by and/or placed on the representation of the hand of the first user, etc.).

物理的環境内の第1のユーザの手の移動に従って選択された三次元環境内の目的ポジションに到達したときに第1のユーザインタフェースが三次元環境において第1の予め設定された向きを有するように第1の方式で第1のユーザインタフェースオブジェクトを回転させることは、目的ポジションにおいて所望の向きで第1のユーザインタフェースオブジェクトを表示するための入力の数を低減する(例えば、ユーザは、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトが回転された後、第1のユーザインタフェースオブジェクトを所望の向きに(例えば、見るために)回転させるために追加のジェスチャを実行する必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Rotating the first user interface object in a first manner such that the first user interface object has a first preset orientation in the three-dimensional environment when a destination position in the three-dimensional environment selected according to the movement of the first user's hand in the physical environment is reached reduces the number of inputs to display the first user interface object in a desired orientation at the destination position (e.g., the user does not need to perform an additional gesture to rotate the first user interface object in a desired orientation (e.g., for viewing) after the first user interface object is rotated during the movement of the first user interface object). Reducing the number of inputs required to perform an operation improves the operability of the device, as well as reducing power usage and improving the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトを回転させることは、第1のユーザ(例えば、図7A~図7Cの第1のユーザ7102、別のユーザなど)の手の移動の方向が三次元環境の第1のビュー(例えば、図7B~図7Cの第1のビュー7015-1、別のビューなど)内の第1の表面(例えば、物理的表面(例えば、壁、テーブル上面、ソファの座席など)、仮想表面(例えば、仮想棚、仮想壁、仮想ソファなど)など)の表現の方を指すという判定に従って、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cの第1のユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)を第2の方式で回転させて(例えば、第1のユーザインタフェースオブジェクトを第1の回転方向に第1の量だけ、第2の回転方向に第2の量だけ、及び/又は第3の回転方向に第3の量だけ回転させて)、第1のユーザインタフェースオブジェクトが、物理的環境内の第1のユーザの手の移動に従って選択された第1の表面の表現上の目的ポジションに到着したときに、三次元環境内の第1の表面の表現に対して第2の予め設定された向きを有するようにすることを含む。いくつかの実施形態では、第2の予め設定された向きは、第1のユーザインタフェースオブジェクトが第1のユーザのスローイングジェスチャに応じて移動を開始したときに第1のユーザインタフェースオブジェクトが有していた向きとは異なる。いくつかの実施形態では、第2の予め設定された向きは、第1のユーザインタフェースオブジェクトの予め設定された前面側が第1のユーザの表現の方を向く向きである。いくつかの実施形態において、第2の予め設定された向きは、第1のユーザインタフェースオブジェクトが第1の表面などの表現上に着地するときに直立する向きである。 In some embodiments, rotating the first user interface object during movement of the first user interface object includes rotating the first user interface object (e.g., a first user 7102 in FIGS. 7A-7C, another user, etc.) in accordance with a determination that a direction of hand movement of a first user (e.g., a first view 7015-1 in FIGS. 7B-7C, another view, etc.) points toward a representation of a first surface (e.g., a physical surface (e.g., a wall, a table top, a sofa seat, etc.), a virtual surface (e.g., a virtual shelf, a virtual wall, a virtual sofa, etc.), etc.) in a first view of the three-dimensional environment (e.g., a first view 7015-1 in FIGS. 7B-7C, another view, etc.). , the first user interface object 7016 of FIGS. 7B-7C, or another user interface object) in a second manner (e.g., rotating the first user interface object a first amount in a first rotational direction, a second amount in a second rotational direction, and/or a third amount in a third rotational direction) such that the first user interface object has a second preset orientation with respect to the representation of the first surface in the three-dimensional environment when the first user interface object arrives at a destination position on the representation of the first surface selected in accordance with the movement of the first user's hand in the physical environment. In some embodiments, the second preset orientation is different from the orientation that the first user interface object had when the first user interface object began moving in response to the throwing gesture of the first user. In some embodiments, the second preset orientation is an orientation in which a preset front side of the first user interface object faces the representation of the first user. In some embodiments, the second preset orientation is an orientation in which the first user interface object is upright when it lands on the representation, such as the first surface.

いくつかの実施形態では、第2のユーザが第1のユーザインタフェースオブジェクトと相互作用しており、その後、第1の表面の表現の方向に対応する方向にスローイングジェスチャを実行したとき、コンピュータシステムは、第2のユーザの手の移動の方向が三次元環境内の第1の表面の表現に向いているという判定に従って、第1のユーザインタフェースオブジェクトが、物理的環境内の第2のユーザの手の移動に従って選択された第1の表面の表現上の目的ポジションに到達したときに、(例えば、第1の回転方向に第1の量だけ、第2の回転方向に第2の量だけ、及び/又は第3の回転方向に第3の量だけなど)三次元環境内の第1の表面の表現に対して第2の予め設定された向きを有するように、第1のユーザインタフェースオブジェクトを個別の方式で回転させる。いくつかの実施形態では、どのユーザが第1の表面の表現の方向にスローイングジェスチャを行ったかに関係なく、第1のユーザインタフェースオブジェクトは、第1のユーザインタフェースオブジェクトが第1の表面の表現に対して予め設定された空間関係(例えば、向き、ロケーションなど)で第1の表面の表現上に着地するように、第1の表面の表現に向かう移動中に個別の方式で回転される。例えば、いくつかの実施形態では、第1のユーザインタフェースオブジェクトが仮想ピクチャフレームであるとき、仮想ピクチャフレームは、テーブルの表現に向かって投げられている間に回転し、スローイングジェスチャを実行したユーザに向かって直立した向きでテーブルに着地する。いくつかの実施形態では、仮想ピクチャフレームが壁の表現に向かって投げられるとき、仮想ピクチャフレームは、壁の表現に向かって移動中に回転し、その背面が壁の表現に平行な状態で壁の表現に着地する。いくつかの実施形態では、仮想ピクチャフレームが第1のユーザによって第2のユーザに向かって投げられるとき、仮想ピクチャフレームは、仮想ピクチャフレームが第2のユーザの掌の表現上に着地したときに第2のユーザの表現に向かう前面を有するように回転する。 In some embodiments, when a second user interacts with the first user interface object and subsequently performs a throwing gesture in a direction corresponding to the direction of the representation of the first surface, the computer system, in accordance with a determination that the direction of the second user's hand movement is toward the representation of the first surface in the three-dimensional environment, rotates the first user interface object in a separate manner such that the first user interface object has a second pre-set orientation relative to the representation of the first surface in the three-dimensional environment (e.g., by a first amount in a first rotational direction, a second amount in a second rotational direction, and/or a third amount in a third rotational direction, etc.) when the first user interface object reaches a destination position on the representation of the first surface selected in accordance with the movement of the second user's hand in the physical environment. In some embodiments, regardless of which user performed the throwing gesture in the direction of the representation of the first surface, the first user interface object is rotated in a separate manner during movement toward the representation of the first surface such that the first user interface object lands on the representation of the first surface in a pre-set spatial relationship (e.g., orientation, location, etc.) relative to the representation of the first surface. For example, in some embodiments, when the first user interface object is a virtual picture frame, the virtual picture frame rotates while being thrown toward a representation of a table and lands on the table with an upright orientation toward the user who performed the throwing gesture. In some embodiments, when the virtual picture frame is thrown toward a representation of a wall, the virtual picture frame rotates while traveling toward the representation of the wall and lands on the representation of the wall with its back surface parallel to the representation of the wall. In some embodiments, when the virtual picture frame is thrown by a first user toward a second user, the virtual picture frame rotates to have its front surface facing toward the representation of the second user when the virtual picture frame lands on a representation of the second user's palm.

第1のユーザインタフェースオブジェクトが、物理的環境内の第1のユーザの手の移動に従って選択される第1の表面の表現上の目的ポジションに到達するときに、三次元環境内の第1の表面の表現に対して第2の予め設定された向きを有するように、第1のユーザインタフェースオブジェクトを第2の方式で回転させることは、第1の表面上に所望の向きで第1のユーザインタフェースオブジェクトを表示するために必要な入力の数を低減する(例えば、ユーザは、第1のユーザインタフェースオブジェクトの移動中に第1のユーザインタフェースオブジェクトが回転された後、第1のユーザインタフェースオブジェクトを所望の向きに(例えば、見るために)回転させるために追加のジェスチャを行う必要がない)。動作を実行するために必要な入力の数を低減することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Rotating the first user interface object in a second manner such that the first user interface object has a second pre-set orientation relative to the representation of the first surface in the three-dimensional environment when the first user interface object reaches a destination position on the representation of the first surface selected according to the movement of the first user's hand in the physical environment reduces the number of inputs required to display the first user interface object in a desired orientation on the first surface (e.g., the user does not need to perform an additional gesture to rotate the first user interface object in the desired orientation (e.g., for viewing) after the first user interface object is rotated during the movement of the first user interface object). Reducing the number of inputs required to perform an operation improves the usability of the device, as well as reducing power usage and improving the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことの視覚的インジケーションとして、三次元環境の第1のビュー(例えば、図7Cの7015-1又は別のビューなど)内の第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016又は別のユーザインタフェースオブジェクトなど)のポジションを変更し、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトのポジションを変更することは、第1のユーザインタフェースオブジェクトと第1のユーザ入力を提供した第1のユーザの手の表現との間の少なくとも予め設定された距離を維持するために、第1のユーザインタフェースオブジェクトを第1のポジションから移動させることを含む(例えば、第1のユーザインタフェースオブジェクトは、第1のユーザインタフェースオブジェクトを把持しようとする第1のユーザの手の表現を避けるために1つ以上の方向に移動するように見える)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動は、第1のユーザインタフェースオブジェクトの外観に対して行われる変更を伴う(例えば、第1のユーザインタフェースオブジェクトは、第1のユーザの手の表現がそれ自体に近づきすぎることを回避するために、移動している間に弱まる又は暗くなるように見える)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したことに応じて、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していないという判定に従って、コンピュータシステムは、第1のユーザの手の表現が第1のポジションに到達するまで、第1のユーザインタフェースオブジェクトを第1のポジションから移動させず、次いで、コンピュータシステムは、第1のユーザインタフェースオブジェクトを第1のポジションから離れるように移動させるか、又は第1のポジションからの手の後続の移動に従って第1のユーザインタフェースオブジェクトを操作する(例えば、第1のユーザインタフェースオブジェクトの後続の移動は、手を避けるためではなく、手と共に移動するため、又は手に追従するためである)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた第1のユーザ入力を検出したことに応じて、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していないという判定に従って、コンピュータシステムは、第1のユーザインタフェースオブジェクトのポジションと手の表現とが重なるまで、第1のユーザインタフェースオブジェクトを第1のポジションから第1のユーザの手の表現に向かって移動させ、次いで、コンピュータシステムは、手の後続の移動に従って第1のユーザインタフェースオブジェクトを移動させるか又は第1のユーザインタフェースオブジェクトを操作する(例えば、第1のユーザインタフェースオブジェクトは、手の表現と共に移動するか又は手の表現に従う)。 In some embodiments, the computer system alters a position of a first user interface object (e.g., user interface object 7016 of FIGS. 7B-7C or another user interface object) in a first view of the three-dimensional environment (e.g., 7015-1 of FIG. 7C or another view) as a visual indication that the first user interface object is unavailable for interaction with the first user, and altering the position of the first user interface object in the first view of the three-dimensional environment includes moving the first user interface object from a first position to maintain at least a predetermined distance between the first user interface object and a representation of the first user's hand that provided the first user input (e.g., the first user interface object appears to move in one or more directions to avoid the representation of the first user's hand attempting to grasp the first user interface object). In some embodiments, the movement of the first user interface object is accompanied by changes made to the appearance of the first user interface object (e.g., the first user interface object appears to fade or darken while moving to avoid the first user's hand representation getting too close to itself). In some embodiments, in response to detecting a first user input directed at the first user interface object, following a determination that a second user is not currently interacting with the first user interface object, the computer system does not move the first user interface object from the first position until the first user's hand representation reaches the first position, and then the computer system moves the first user interface object away from the first position or manipulates the first user interface object in accordance with subsequent movement of the hand from the first position (e.g., subsequent movement of the first user interface object is to move with or follow the hand rather than to avoid the hand). In some embodiments, in response to detecting a first user input directed at the first user interface object and following a determination that the second user is not currently interacting with the first user interface object, the computer system moves the first user interface object from a first position toward the representation of the hand of the first user until the position of the first user interface object and the representation of the hand overlap, and then the computer system moves or manipulates the first user interface object in accordance with subsequent movements of the hand (e.g., the first user interface object moves with or follows the representation of the hand).

第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという視覚的インジケーションとして、第1のユーザインタフェースオブジェクトと第1のユーザ入力を提供した第1のユーザの手の表現との間の少なくとも予め設定された距離を維持するように第1のポジションから第1のユーザインタフェースオブジェクトを移動させることは、改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Moving the first user interface object from the first position to maintain at least a preset distance between the first user interface object and the representation of the hand of the first user that provided the first user input as a visual indication that the first user interface object is unavailable for interaction with the first user provides the user with improved visual feedback (e.g., improved visual feedback that the first user interface object is unavailable for interaction with the first user). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザ入力に従って、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)に対して第1の動作を実行することは、第1のユーザインタフェースオブジェクトを第1のユーザの手(例えば、図7B~図7Cの手7202、又は別の手など)(例えば、第1のユーザ入力を提供している手、第1のユーザ入力を提供した手とは異なる第1のユーザの手、第1のユーザのいずれかの手など)の表現に向かって移動させることを含む。いくつかの実施形態では、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザの手によって把持されるために利用可能であることを示すために、手が第1のユーザインタフェースオブジェクトに向かって移動するにつれて、手の表現に向かって移動する第1のユーザインタフェースオブジェクトを示す。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動は、第1のユーザインタフェースオブジェクトのポジションが手の表現のポジションと重複するときに中止し、次いで、コンピュータシステムは、第1のユーザインタフェースオブジェクトを移動させるか、又は、もしあれば、手の後続の移動に従って第1のユーザインタフェースオブジェクトを操作する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動は、第1のポジションからの限られた距離だけであり(例えば、第1のユーザの手の表現が第1のポジションの閾値距離内まで第1のユーザインタフェースオブジェクトに接近するときに、第1のユーザインタフェースオブジェクトが第1のユーザの手の表現に向かって少しだけ移動する)、この移動は、(例えば、第1のユーザが正しい選択ジェスチャを提供するとき、第1のユーザの手の表現が第1のユーザインタフェースオブジェクトの近くに移動して第1のユーザインタフェースオブジェクトを把持することなどに応じて)第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能であるという視覚的フィードバックを第1のユーザに提供する。 In some embodiments, performing a first operation on a first user interface object (e.g., user interface object 7016 of FIGS. 7B-7C, or another user interface object, etc.) in accordance with the first user input includes moving the first user interface object toward a representation of a hand of the first user (e.g., hand 7202 of FIGS. 7B-7C, or another hand, etc.) (e.g., the hand providing the first user input, a hand of the first user different from the hand that provided the first user input, any hand of the first user, etc.). In some embodiments, the computer system shows the first user interface object moving toward the representation of the hand as the hand moves toward the first user interface object to indicate that the first user interface object is available for grasping by the hand of the first user. In some embodiments, the movement of the first user interface object ceases when a position of the first user interface object overlaps a position of the representation of the hand, and the computer system then moves or manipulates the first user interface object in accordance with subsequent movements, if any, of the hand. In some embodiments, the movement of the first user interface object is only a limited distance from the first position (e.g., the first user interface object moves a small distance toward the first user's hand representation when the first user's hand representation approaches the first user interface object to within a threshold distance of the first position), and this movement provides visual feedback to the first user that the first user interface object is available for interaction with the first user (e.g., in response to the first user's hand representation moving close to the first user interface object to grasp the first user interface object when the first user provides a correct selection gesture, etc.).

第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していないという判定に従って、第1のユーザの手の表現に向かって第1のユーザインタフェースオブジェクトを移動させることは、改善された視覚的フィードバック(例えば、ユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能であるという改善された視覚的フィードバック、コンピュータシステムが第1のユーザインタフェースオブジェクトに対して動作を実行しているという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Moving the first user interface object toward the hand representation of the first user pursuant to a determination that the second user is not currently interacting with the first user interface object provides the user with improved visual feedback (e.g., improved visual feedback that the user interface object is available for interaction with the first user, improved visual feedback that the computer system is performing an action on the first user interface object, etc.). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザ入力に従って第1のユーザインタフェースオブジェクト(例えば、ユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)に対して第1の動作を実行することは、第1のユーザ入力が所定の選択ジェスチャを含む(例えば、含む、開始する、終了するなど)という判定に従って、第1のユーザ(例えば、図7A~図7Cのユーザ7102、又は別のユーザなど)から受信した後続の入力(例えば、ピンチジェスチャが維持されている間のドラッグジェスチャ、ピンチジェスチャが維持されている間のフリックジェスチャ、所定の選択ジェスチャが終了した後のドラッグジェスチャなど)のターゲットとして第1のユーザインタフェースオブジェクトを選択することを含む。いくつかの実施形態では、選択ジェスチャは、同じ手の親指への人差し指のタッチダウンを含むピンチジェスチャ(任意選択的に、その後、親指から人差し指を離すこと、又は手に接続された手首のフリック、又は手全体の平行移動など)、タッチ姿勢から互いに引き離す同じ手の人差し指及び親指を含むジェスチャ、ピンチジェスチャ、ピンチアンドドラッグジェスチャ、ピンチアンドフリックジェスチャなどである。いくつかの実施形態では、第1のユーザの手が、第1のユーザインタフェースオブジェクトの近くのポジションに対応するロケーションに近づき、所定の選択ジェスチャを実行する場合、コンピュータシステムは、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用しているという判定に従って、第1のユーザインタフェースオブジェクトが第1のユーザとの相互作用に利用可能でないことを示す視覚的フィードバックを生成し、コンピュータシステムは、第1のユーザとの後続の相互作用のために第1のユーザインタフェースオブジェクトを選択しない。コンピュータシステムが、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していないと判定した場合、コンピュータシステムは、視覚的フィードバックを表示せず、第1のユーザとの後続の相互作用のために第1のユーザインタフェースオブジェクトを選択する。 In some embodiments, performing a first operation on a first user interface object (e.g., user interface object 7016, or another user interface object, etc.) in accordance with a first user input includes selecting the first user interface object as a target for subsequent input (e.g., a drag gesture while the pinch gesture is maintained, a flick gesture while the pinch gesture is maintained, a drag gesture after the predetermined selection gesture is terminated, etc.) received from a first user (e.g., user 7102 of FIGS. 7A-7C, or another user, etc.) in accordance with a determination that the first user input includes (e.g., includes, begins, ends, etc.) a predetermined selection gesture. In some embodiments, the selection gesture is a pinch gesture involving a touch down of an index finger onto a thumb of the same hand (optionally followed by lifting the index finger from the thumb, or a flick of the wrist connected to the hand, or translation of the entire hand, etc.), a gesture involving an index finger and thumb of the same hand pulling away from each other from a touch pose, a pinch gesture, a pinch-and-drag gesture, a pinch-and-flick gesture, etc. In some embodiments, when the hand of the first user approaches a location corresponding to a nearby position of the first user interface object and performs a predefined selection gesture, the computer system generates visual feedback indicating that the first user interface object is not available for interaction with the first user in accordance with a determination that a second user is currently interacting with the first user interface object, and the computer system does not select the first user interface object for subsequent interaction with the first user. If the computer system determines that the second user is not currently interacting with the first user interface object, the computer system does not display visual feedback and selects the first user interface object for subsequent interaction with the first user.

第1のユーザ入力が所定の選択ジェスチャを含むという判定に従って、第1のユーザから受信される後続の入力のためのターゲットとして第1のユーザインタフェースオブジェクトを選択することは、追加の表示されるコントロール(例えば、第1のユーザインタフェースオブジェクトを選択するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Selecting the first user interface object as a target for subsequent input received from the first user pursuant to a determination that the first user input includes a predefined selection gesture provides additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting the first user interface object). Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、(例えば、第1のユーザ入力の少なくとも一部を検出したことに応じて、第2のユーザが第1のユーザインタフェースオブジェクトと現在相互作用していない間に第1のユーザによって提供された所定の選択ジェスチャを検出したことに応じて、など)第1のユーザから受信された後続の入力のターゲットとして第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)を選択することと併せて、コンピュータシステムは、第1のユーザインタフェースオブジェクトを三次元環境の第1のビュー内の第1のポジションに維持しながら(例えば、第1のユーザインタフェースオブジェクトは元のロケーションに留まるが、第1のユーザと第1のユーザインタフェースオブジェクトの表現との間の相互作用に従って第1のユーザによって「遠隔的に」制御することができる)、第1のユーザの手(例えば、所定の選択ジェスチャを実行した手、又は第1の所定の選択ジェスチャを実行した手とは異なる第1のユーザの手、第1のユーザのいずれかの手など)のロケーションに対応するポジションに第1のユーザインタフェースオブジェクトの表現を表示する(例えば、第1のユーザインタフェースオブジェクトの表現又はゴースト画像は、第1のユーザの手の表現のポジションの近く又はポジションに、第1のユーザの手の表現の掌部分に表示される)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザインタフェースオブジェクトの複製、第1のユーザインタフェースオブジェクトよりも半透明な第1のユーザインタフェースオブジェクトの画像、第1のユーザインタフェースオブジェクトの特性(例えば、簡略化された内部構造、アウトラインなど)及び/又は機能のサブセットを有する第1のユーザインタフェースオブジェクトの縮小バージョン(例えば、縮小されたユーザインタフェース要素、テキストコンテンツの除去など)などである。いくつかの実施形態では、第1のユーザによって実行された選択ジェスチャに応じて第1のユーザインタフェースオブジェクトが選択されると、第1のユーザインタフェースオブジェクトのゴースト画像が、第1のユーザの手のロケーションに対応するポジションに表示される(例えば、第1のユーザの手の表現の上方、ユーザの掌の表現上などに浮動している)。 In some embodiments, in conjunction with selecting a first user interface object (e.g., user interface object 7016 of FIGS. 7B-7C, or another user interface object, etc.) as a target for subsequent input received from a first user (e.g., in response to detecting at least a portion of a first user input, in response to detecting a predefined selection gesture provided by the first user while the second user is not currently interacting with the first user interface object, etc.), the computer system may select the first user interface object (e.g., in response to detecting at least a portion of a first user input, in response to detecting a predefined selection gesture provided by the first user while the second user is not currently interacting with the first user interface object, etc.) while maintaining the first user interface object in a first position within the first view of the three-dimensional environment (e.g., in response to detecting a predefined selection gesture provided by the first user while the second user is not currently interacting with the first user interface object). the first user interface object remains in its original location but can be "remotely" controlled by the first user according to interactions between the first user and the representation of the first user interface object), displaying a representation of the first user interface object in a position corresponding to the location of the first user's hand (e.g., the hand that performed the predefined selection gesture, or a hand of the first user different from the hand that performed the first predefined selection gesture, any hand of the first user, etc.) (e.g., a representation or ghost image of the first user interface object is displayed in the palm portion of the representation of the first user's hand near or at a position of the representation of the first user's hand). In some embodiments, the representation of the first user interface object is a replica of the first user interface object, an image of the first user interface object that is more semi-transparent than the first user interface object, a scaled-down version of the first user interface object having a subset of the characteristics (e.g., a simplified internal structure, outline, etc.) and/or functionality of the first user interface object (e.g., scaled-down user interface elements, removed text content, etc.), etc. In some embodiments, when a first user interface object is selected in response to a selection gesture performed by the first user, a ghost image of the first user interface object is displayed in a position corresponding to the location of the first user's hand (e.g., floating above a representation of the first user's hand, over a representation of the user's palm, etc.).

三次元環境の第1のビュー内の第1のポジションに第1のユーザインタフェースオブジェクトを維持している間、第1のユーザの手のロケーションに対応するポジションに第1のユーザインタフェースオブジェクトの表現を表示することと併せて、第1のユーザから受信される後続の入力のためのターゲットとして第1のユーザインタフェースオブジェクトを選択することは、改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトが現在、第1のユーザから受信される後続の入力のためのターゲットであるという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Selecting the first user interface object as a target for subsequent input received from the first user in conjunction with displaying a representation of the first user interface object in a position corresponding to the location of the first user's hand while maintaining the first user interface object in a first position within the first view of the three-dimensional environment provides the user with improved visual feedback (e.g., improved visual feedback that the first user interface object is now a target for subsequent input received from the first user). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作が実行された(例えば、第1のユーザインタフェースオブジェクトの表現が第1のユーザインタフェースオブジェクトと共に第1のポジションの近くに表示された)後、第1のユーザインタフェースオブジェクトの表現(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)が第1のユーザの手の表現(例えば、図7B~図7Cの第1のビュー7015-1の表現7202’、又は別の手の表現7202など)のポジションの近くに移動し、第1のユーザインタフェースオブジェクトが第1のユーザのポジションに向かって移動して、第1のユーザインタフェースオブジェクトが第1のユーザと相互作用する準備ができたことを示すなど)、コンピュータシステムは、第1のユーザインタフェースオブジェクトに向けられた第2のユーザ入力を検出する(例えば、第1のユーザインタフェースオブジェクトの表現のポジションに向けられた所定のピンチジェスチャを検出する、第1のユーザインタフェースオブジェクトのポジションに向けられた所定のピンチジェスチャを検出する、所定の選択入力の検出と併せて第1のユーザインタフェースオブジェクトの表現のポジションに向けられた視線入力を検出する、所定の選択入力の検出と併せて第1のユーザインタフェースオブジェクトのポジションに向けられた視線入力を検出するなど)。第2のユーザ入力を検出したことに応じて、かつ第2のユーザ入力が所定の選択ジェスチャを含む(例えば、含む、開始する、終了するなど)という判定に従って、コンピュータシステムは、第1のユーザから受信した後続の入力(例えば、ピンチジェスチャが維持されている間のドラッグジェスチャ、ピンチジェスチャが維持されている間のフリックジェスチャ、所定の選択ジェスチャが終了した後のドラッグジェスチャなど)のターゲットとして第1のユーザインタフェースオブジェクトを選択する。 In some embodiments, after a first action is performed on a first user interface object in accordance with a first user input (e.g., a representation of the first user interface object is displayed near the first position with the first user interface object), a representation of the first user interface object (e.g., user interface object 7016 in FIGS. 7B-7C, or another user interface object, etc.) moves near a position of a representation of the first user's hand (e.g., representation 7202' of first view 7015-1 in FIGS. 7B-7C, or another hand representation 7202, etc.), and the first user interface object moves toward the position of the first user. and indicating that the first user interface object is ready for interaction with the first user), the computer system detects a second user input directed at the first user interface object (e.g., detect a predefined pinch gesture directed at a position of the representation of the first user interface object, detect a predefined pinch gesture directed at a position of the first user interface object, detect a gaze input directed at a position of the representation of the first user interface object in conjunction with the detection of the predefined selection input, detect a gaze input directed at a position of the first user interface object in conjunction with the detection of the predefined selection input, etc.). In response to detecting the second user input and in accordance with a determination that the second user input includes (e.g., includes, begins, ends, etc.) the predefined selection gesture, the computer system selects the first user interface object as a target for a subsequent input received from the first user (e.g., a drag gesture while the pinch gesture is maintained, a flick gesture while the pinch gesture is maintained, a drag gesture after the predefined selection gesture is ended, etc.).

いくつかの実施形態では、選択ジェスチャは、同じ手の親指への人差し指のタッチダウンを含むピンチジェスチャ(任意選択的に、親指から人差し指を離すこと、又は手に接続された手首のフリック、又は手全体の並進などが続く)、タッチ姿勢から互いに引き離す同じ手の人差し指及び親指を含むジェスチャ、ピンチジェスチャ、ピンチアンドドラッグジェスチャ、ピンチアンドフリックジェスチャなどである。いくつかの実施形態では、第1のユーザ入力に従って第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7106、又は別のユーザインタフェースオブジェクトなど)に対して第1の動作を実行することは、第1のユーザインタフェースオブジェクトを三次元環境の第1のビュー内の第1のポジションに維持している間、第1のユーザインタフェースオブジェクトの表現を(例えば、第1のユーザインタフェースオブジェクトが表示される第1のポジションとは異なる、及び/又は第1のユーザ入力を提供した第1のユーザの手の表現のポジションとは異なる第2のポジションに)表示することを含む。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザインタフェースオブジェクトの複製、第1のユーザインタフェースオブジェクトよりも半透明である第1のユーザインタフェースオブジェクトの画像、第1のユーザインタフェースオブジェクトの特性(例えば、簡略化された内部構造、輪郭など)及び/又は機能のサブセットを有する第1のユーザインタフェースオブジェクトの縮小バージョン(例えば、縮小されたユーザインタフェース要素、テキストコンテンツの除去など)などである。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザインタフェースオブジェクトからわずかにオフセットして表示される(例えば、第1のユーザの手のロケーションに対応するポジションではなく、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトの上方、正面などに浮動している、など)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手の表現に向かって移動するが、第1のユーザの手の表現の外側に留まる。 In some embodiments, the selection gesture is a pinch gesture including a touchdown of an index finger on a thumb of the same hand (optionally followed by moving the index finger away from the thumb, or by flicking the wrist connected to the hand, or by translating the entire hand, etc.), a gesture including an index finger and thumb of the same hand pulling away from each other from a touch pose, a pinch gesture, a pinch-and-drag gesture, a pinch-and-flick gesture, etc. In some embodiments, performing a first operation on a first user interface object (e.g., user interface object 7106 of FIGS. 7B-7C, or another user interface object, etc.) in accordance with a first user input includes displaying a representation of the first user interface object (e.g., in a second position different from the first position at which the first user interface object is displayed and/or different from the position of a representation of the hand of the first user that provided the first user input) while maintaining the first user interface object in a first position within a first view of the three-dimensional environment. In some embodiments, the representation of the first user interface object is a duplicate of the first user interface object, an image of the first user interface object that is more semi-transparent than the first user interface object, a scaled-down version of the first user interface object having a subset of the characteristics (e.g., simplified internal structure, outlines, etc.) and/or functionality of the first user interface object (e.g., scaled-down user interface elements, removal of text content, etc.), etc. In some embodiments, the representation of the first user interface object is displayed slightly offset from the first user interface object (e.g., floating above, in front of, etc., of the first user interface object in the first view of the three-dimensional environment, rather than in a position corresponding to the location of the first user's hand, etc.). In some embodiments, the representation of the first user interface object moves toward but remains outside of the representation of the first user's hand.

第1の動作が実行された後、第2のユーザ入力が所定のジェスチャを含むという判定に従って、第1のユーザから受信される後続の入力のためのターゲットとして第1のユーザインタフェースオブジェクトを選択することは、追加の表示されるコントロール(例えば、第1のユーザインタフェースオブジェクトを選択するための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 After the first action is performed, selecting the first user interface object as a target for subsequent input received from the first user pursuant to a determination that the second user input includes a predetermined gesture provides additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting the first user interface object). Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザ入力に従って第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7106、又は別のユーザインタフェースオブジェクト)に対して第1の動作を実行することは、第1のユーザインタフェースオブジェクトを三次元環境の第1のビュー内の第1のポジションに維持している間、第1のユーザインタフェースオブジェクトの表現(例えば、第1のユーザインタフェースオブジェクトの複製、第1のユーザインタフェースオブジェクトよりも半透明な第1のユーザインタフェースオブジェクトの画像、特性のサブセット(例えば、簡略化された内部構造又は輪郭)及び/又は第1のユーザインタフェースオブジェクトの機能(例えば、削減されたユーザインタフェース要素又は削減されたテキストコンテンツ)を有する第1のユーザインタフェースオブジェクトの削減バージョン)を(例えば、第1のユーザインタフェースオブジェクトが表示される第1のポジションとは異なる、及び/又は第1のユーザ入力を提供した第1のユーザの手の表現のポジションとは異なる第2のポジションに)表示することを含む。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザインタフェースオブジェクトからわずかにオフセットされて表示される(例えば、第1のユーザの手のロケーションに対応するポジションではなく、三次元環境の第1のビュー内の第1のユーザインタフェースオブジェクトの上、前などに浮動している)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手の表現に向かって移動するが、第1のユーザの手の表現の外側に留まる。第1のユーザインタフェースオブジェクトを三次元環境の第1のビュー内の第1のポジションに維持している間、第1のユーザインタフェースオブジェクトの表現を表示することは、改善された視覚的フィードバック(例えば、コンピュータシステムが第1のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第1の動作を実行しているという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, performing a first operation on a first user interface object (e.g., user interface object 7106 of FIGS. 7B-7C, or another user interface object) in accordance with the first user input includes displaying a representation of the first user interface object (e.g., a replica of the first user interface object, an image of the first user interface object that is more semi-transparent than the first user interface object, a reduced version of the first user interface object having a subset of the characteristics (e.g., a simplified internal structure or contours) and/or functionality (e.g., reduced user interface elements or reduced text content) of the first user interface object) (e.g., in a second position different from the first position at which the first user interface object is displayed and/or different from the position of a representation of the hand of the first user that provided the first user input) while maintaining the first user interface object in a first position within the first view of the three-dimensional environment. In some embodiments, the representation of the first user interface object is displayed slightly offset from the first user interface object (e.g., floating above, in front of, etc., the first user interface object in the first view of the three-dimensional environment, rather than in a position corresponding to the location of the first user's hand). In some embodiments, the representation of the first user interface object moves toward the representation of the first user's hand, but remains outside the representation of the first user's hand. Displaying the representation of the first user interface object while maintaining the first user interface object in the first position in the first view of the three-dimensional environment provides the user with improved visual feedback (e.g., improved visual feedback that the computer system is performing a first action on the first user interface object in accordance with the first user input). Providing improved feedback improves usability of the device, as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7106、又は別のユーザインタフェースオブジェクトなど)の表現は、第1のユーザの手(例えば、図7B~図7Cの手7202、又は別の手など)(例えば、第1のユーザ入力を提供した手、第1のユーザの別の手など)の表現から離れたポジションに最初に表示され、コンピュータシステムは、第1のユーザインタフェースオブジェクトが第1のユーザによって提供された後続のユーザ入力によって選択されたという判定に従って、第1のユーザインタフェースオブジェクトの表現を、第1のユーザの手(例えば、第1のユーザ入力を提供した手、第1のユーザの他方の手など)の表現から離れたポジションから第1のユーザの手の表現のポジションに移動させる(例えば、第1のユーザインタフェースオブジェクトの表現を、その初期表示ポジションから第1のユーザの手の表現のポジションに、ユーザの掌の表現上に移動させるなど)。いくつかの実施形態では、コンピュータシステムは、選択基準を満たす、又は選択ジェスチャを含む、第1のユーザインタフェースオブジェクトに向けられた第2のユーザ入力の検出(例えば、第1のユーザインタフェースオブジェクトの表現に向けられた所定のピンチジェスチャの検出、第1のユーザインタフェースオブジェクトに向けられた所定のピンチジェスチャの検出、所定の選択入力の検出と共に第1のユーザインタフェースオブジェクトの表現に向けられた視線入力の検出、又は所定の選択入力の検出と共に第1のユーザインタフェースオブジェクトに向けられた視線入力の検出)に応じて、第1のユーザインタフェースオブジェクトの表現を移動させる。第1のユーザによって提供される後続のユーザ入力によって第1のユーザインタフェースオブジェクトが選択されたという判定に従って、第1のユーザの手の表現から離れたポジションから第1のユーザの手の表現のポジションに第1のユーザインタフェースオブジェクトの表現を移動させることは、第1のユーザに改善された視覚的フィードバック(例えば、第1のユーザによって提供される後続のユーザ入力によって第1のユーザインタフェースオブジェクトが選択されたという改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a representation of a first user interface object (e.g., user interface object 7106 of FIGS. 7B-7C, or another user interface object, etc.) is initially displayed in a position away from a representation of a first user's hand (e.g., hand 7202 of FIGS. 7B-7C, or another hand, etc.) (e.g., the hand that provided the first user input, the first user's other hand, etc.), and pursuant to a determination that the first user interface object has been selected by a subsequent user input provided by the first user, the computer system moves the representation of the first user interface object from a position away from the representation of the first user's hand (e.g., the hand that provided the first user input, the first user's other hand, etc.) to a position of the representation of the first user's hand (e.g., moving the representation of the first user interface object from its initial display position to a position of the representation of the first user's hand, over the representation of the user's palm, etc.). In some embodiments, the computer system moves the representation of the first user interface object in response to detecting a second user input directed to the first user interface object that satisfies a selection criterion or includes a selection gesture (e.g., detecting a predefined pinch gesture directed at the representation of the first user interface object, detecting a predefined pinch gesture directed at the first user interface object, detecting a gaze input directed at the representation of the first user interface object along with detecting the predefined selection input, or detecting a gaze input directed at the first user interface object along with detecting the predefined selection input). Moving the representation of the first user interface object from a position away from the representation of the first user's hand to a position of the representation of the first user's hand pursuant to a determination that the first user interface object has been selected by a subsequent user input provided by the first user provides improved visual feedback to the first user (e.g., improved visual feedback that the first user interface object has been selected by a subsequent user input provided by the first user). Providing improved feedback improves the usability of the device, as well as reducing power usage and improving the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現を表示している間(例えば、第1のユーザインタフェースオブジェクトの表現が、第1のユーザ入力の検出(例えば、三次元環境内の第1のユーザインタフェースオブジェクトのポジションに対応するロケーションの近くで動いている第1のユーザの手の検出)に応じて表示されている)、コンピュータシステムは、第1のユーザの手(例えば、手7202、又はユーザ7102の別の手など)(例えば、第1のユーザ入力を提供した手、第1のユーザ入力を提供した手とは異なる第1のユーザの手など)の移動を検出する。第1のユーザの手(例えば、第1のユーザ入力を提供した手、第1のユーザ入力を提供した手とは異なる第1のユーザの手など)の移動を検出したことに応じて、かつ第1のユーザの手の移動が予め設定された選択ジェスチャの初期部分を識別するための予め設定された基準を満たすという判定に従って、コンピュータシステムは、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7016、又は別のユーザインタフェースオブジェクトなど)の表現の外観を変更する(例えば、形状、サイズ、色、不透明度、詳細レベルなどを変更し、任意選択的に、第1のユーザインタフェースオブジェクトの表現を第1のユーザインタフェースオブジェクトなどの外観により近似させる)。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現の外観は、第1のユーザの手の移動が選択ジェスチャの必要な進行に適合し続けるときに変化し続ける。いくつかの実施形態では、第1のユーザの手の移動が予め設定された選択ジェスチャの初期部分を識別するための予め設定された基準を満たさないことを検出したことに応じて、コンピュータシステムは、予め設定された選択ジェスチャが検出されていないことを第1のユーザに示すために、第1のユーザインタフェースオブジェクトの表現の外観を変更しないか、又は異なる方式で外観を変更しない。いくつかの実施形態では、第1のユーザの手の移動が予め設定された選択ジェスチャの必要な進行にもはや適合していないことを検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトの表現の外観を変更することを停止し、第1のユーザインタフェースオブジェクトの外観を復元するか、又は第1のユーザインタフェースオブジェクトの表現を表示することを停止する。 In some embodiments, while displaying a representation of the first user interface object (e.g., the representation of the first user interface object is being displayed in response to detection of a first user input (e.g., detection of the first user's hand moving near a location corresponding to the position of the first user interface object in the three-dimensional environment)), the computer system detects movement of the first user's hand (e.g., hand 7202, or another hand of user 7102, etc.) (e.g., the hand that provided the first user input, a hand of the first user different from the hand that provided the first user input, etc.). In response to detecting movement of the first user's hand (e.g., the hand that provided the first user input, a first user's hand different from the hand that provided the first user input, etc.), and in accordance with a determination that the movement of the first user's hand meets preset criteria for identifying an initial portion of a preset selection gesture, the computer system modifies an appearance (e.g., changes a shape, size, color, opacity, level of detail, etc.) of the representation of the first user interface object (e.g., user interface object 7016 of FIGS. 7B-7C , or another user interface object, etc.), optionally causing the representation of the first user interface object to more closely resemble an appearance of the first user interface object, etc. In some embodiments, the appearance of the representation of the first user interface object continues to change as the movement of the first user's hand continues to conform to the required progression of the selection gesture. In some embodiments, in response to detecting that the first user's hand movement does not meet the preset criteria for identifying an initial portion of the preset selection gesture, the computer system does not change or does not change the appearance of the representation of the first user interface object in a different manner to indicate to the first user that the preset selection gesture has not been detected. In some embodiments, in response to detecting that the first user's hand movement no longer conforms to the required progression of the preset selection gesture, the computer system stops changing the appearance of the representation of the first user interface object, restores the appearance of the first user interface object, or stops displaying the representation of the first user interface object.

第1のユーザの手の移動が予め設定された選択ジェスチャの初期部分を識別するための予め設定された基準を満たすという判定に従って第1のユーザインタフェースオブジェクトの表現の外観を変更することは、第1のユーザに改善された視覚的フィードバック(例えば、コンピュータシステムが予め設定された基準を満たす第1のユーザの手の移動を検出したという改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Altering the appearance of the representation of the first user interface object pursuant to a determination that the first user's hand movement meets preset criteria for identifying an initial portion of a preset selection gesture provides improved visual feedback to the first user (e.g., improved visual feedback that the computer system has detected the first user's hand movement that meets the preset criteria). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7106、又は別のユーザインタフェースオブジェクトなど)の表現を第1のユーザの手(例えば、図7B~図7Cの手7202、又は別の手など)の表現のポジションに表示している間(例えば、第1のユーザインタフェースオブジェクトの表現がその初期表示ポジションから第1のユーザの手の表現のポジションまで飛んでいることを示した後、ユーザの掌の表現上など)、第1のユーザインタフェースオブジェクトが第1のユーザによって選択されたという判定に従って、コンピュータシステムは、第1のユーザインタフェースオブジェクトの表現と相互作用する第3のユーザ入力を検出する(例えば、第3の入力は、第1のユーザ入力を提供した手、第1のユーザインタフェースオブジェクトの表現を選択した手、第1のユーザ入力を提供した手とは異なる第1のユーザの手、又は第1のユーザインタフェースオブジェクトの表現を選択した手とは異なる第1のユーザの手などによって提供される入力である。第3のユーザ入力を検出したことに応じて、コンピュータシステムは、第1のユーザインタフェースオブジェクトの表現の移動及び第1のユーザインタフェースオブジェクトの表現の外観を変更することのうちの少なくとも1つを通じて第3のユーザ入力に対する視覚的フィードバックを表示し、コンピュータシステムは、第3のユーザ入力に従って、第1のユーザインタフェースオブジェクトに対して第2の動作を実行する。いくつかの実施形態では、視覚的フィードバックは、第1のユーザインタフェースオブジェクトに対して実行される第2の動作に対応する。いくつかの実施形態では、視覚的フィードバックは、第1のユーザインタフェースオブジェクトの表現のポジションに対応するロケーションにある第1のユーザの手の移動に従って第1のユーザインタフェースオブジェクトの表現を直接操作することに対応する。いくつかの実施形態では、第2の動作を実行することは、第1のユーザインタフェースオブジェクト上のコントロールを作動させること、第1のユーザインタフェースオブジェクトを三次元空間内で移動させること、第1のユーザインタフェースオブジェクトによって表されるメディアアイテムを再生すること、第1のユーザインタフェースオブジェクトによって表されるアプリケーションを起動すること、及び/又は第1のユーザインタフェースオブジェクトによって表される別のユーザとの通信セッションを開始することなどを含む。 In some embodiments, while displaying a representation of a first user interface object (e.g., user interface object 7106 of FIGS. 7B-7C, or another user interface object, etc.) in a position of a representation of a first user's hand (e.g., hand 7202 of FIGS. 7B-7C, or another hand, etc.) (e.g., on a representation of the user's palm after showing the representation of the first user interface object flying from its initial display position to a position of the representation of the first user's hand), pursuant to a determination that the first user interface object has been selected by the first user, the computer system detects a third user input interacting with the representation of the first user interface object (e.g., the third input being an input provided by the hand that provided the first user input, the hand that selected the representation of the first user interface object, a hand of the first user different from the hand that provided the first user input, or a hand of the first user different from the hand that selected the representation of the first user interface object, etc. In response to detecting the third user input, the computer system controls the movement of the representation of the first user interface object and the display of the first user interface object. and displaying visual feedback for the third user input through at least one of changing an appearance of the representation of the first user interface object, and the computer system performs a second operation on the first user interface object in accordance with the third user input. In some embodiments, the visual feedback corresponds to the second operation performed on the first user interface object. In some embodiments, the visual feedback corresponds to directly manipulating the representation of the first user interface object in accordance with a movement of the first user's hand at a location corresponding to a position of the representation of the first user interface object. In some embodiments, performing the second operation includes actuating a control on the first user interface object, moving the first user interface object in three-dimensional space, playing a media item represented by the first user interface object, launching an application represented by the first user interface object, and/or initiating a communication session with another user represented by the first user interface object, etc.

第1のユーザインタフェースオブジェクトの表現と相互作用する第3のユーザ入力の検出に応じて、第1のユーザインタフェースオブジェクトの表現の移動及び第1のユーザインタフェースオブジェクトの表現の外観の変更のうちの少なくとも1つを通じて第3のユーザ入力に対する視覚的フィードバックを表示すること、及び第3のユーザ入力に従って第1のユーザインタフェースオブジェクトに対して第2の動作を実行することは、改善された視覚的フィードバック(例えば、コンピュータシステムが第3のユーザ入力を検出したという改善された視覚的フィードバック、及び/又はコンピュータシステムが第1のユーザインタフェースオブジェクトに対して第2の動作を実行しているという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a third user input interacting with the representation of the first user interface object, displaying visual feedback for the third user input through at least one of moving the representation of the first user interface object and changing the appearance of the representation of the first user interface object, and performing a second operation on the first user interface object in accordance with the third user input provides improved visual feedback to the user (e.g., improved visual feedback that the computer system has detected the third user input and/or improved visual feedback that the computer system is performing the second operation on the first user interface object). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、コンピュータシステムは、第1のユーザの手(例えば、図7B~図7Cの手7202、又は別の手など)の表現の更新ポジションとの既存の空間関係を第1のユーザインタフェースオブジェクトの表現が維持する(例えば、固定されたままである、追従するなど)ように(例えば、第1のユーザインタフェースが三次元環境の第1のビュー内の第1のポジションに留まる間)、第1のユーザの手の移動に従って第1のユーザインタフェースオブジェクト(例えば、図7B~図7Cのユーザインタフェースオブジェクト7106、又は別のユーザインタフェースオブジェクトなど)の表現のポジションを更新する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザが第1のユーザインタフェースオブジェクトの表現と実際に相互作用するか否かにかかわらず、第1のユーザの手の表現又はその近くのポジションに表示されたままである。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手の掌のロケーションに対応するポジションに表示され、手の表現が三次元環境の現在表示されているビュー内にないとき、又は第1のユーザの手が閉じられているとき、表示を停止する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの表現は、第1のユーザの手の表現が三次元環境の現在表示されているビュー内で再び可視になるとき、又は手の掌の表現が三次元環境の現在表示されているビュー内で再び見えるときに再表示される。第1のユーザは、第1のユーザが第1のユーザインタフェースオブジェクトの制御を具体的に放棄していない限り、(例えば、第2のユーザに向かって、又は三次元環境の共有部分(例えば、壁又はテーブル上面などの表現)に向かってスローイングジェスチャを提供することなどによって)第1のユーザインタフェースオブジェクトの表現と相互作用することができる。いくつかの実施形態では、第1のユーザは、第1のユーザインタフェースオブジェクトの表現が三次元環境の現在表示されているビューにもはや表示されないように第1のユーザが自分の手を閉じたときに、第1のユーザインタフェースオブジェクトの制御を放棄する(例えば、第2のユーザが第1のユーザインタフェースオブジェクトと相互作用していない間、第1のユーザは、別の選択入力でもう一度やり直すことによって制御を回復しなければならない)。 In some embodiments, the computer system updates the position of the representation of the first user interface object (e.g., user interface object 7106 of FIGS. 7B-7C, or another user interface object) according to the movement of the first user's hand such that the representation of the first user interface object maintains (e.g., remains fixed, follows, etc.) an existing spatial relationship with the updated position of the representation of the first user's hand (e.g., while the first user interface object remains in the first position within the first view of the three-dimensional environment). In some embodiments, the representation of the first user interface object remains displayed at or near the representation of the first user's hand, regardless of whether the first user actually interacts with the representation of the first user interface object. In some embodiments, the representation of the first user interface object is displayed at a position corresponding to the location of the palm of the first user's hand, and ceases to display when the representation of the hand is not within the currently displayed view of the three-dimensional environment or when the first user's hand is closed. In some embodiments, the representation of the first user interface object reappears when the representation of the first user's hand becomes visible again in the currently displayed view of the three-dimensional environment or when the representation of the palm of the hand becomes visible again in the currently displayed view of the three-dimensional environment. The first user can interact with the representation of the first user interface object (e.g., by providing a throwing gesture toward the second user or toward a shared portion of the three-dimensional environment (e.g., a representation of a wall or tabletop, etc.)) unless the first user has specifically relinquished control of the first user interface object. In some embodiments, the first user relinquishes control of the first user interface object when the first user closes his or her hand such that the representation of the first user interface object is no longer displayed in the currently displayed view of the three-dimensional environment (e.g., the first user must regain control by starting over again with another selection input while the second user is not interacting with the first user interface object).

第1のユーザインタフェースオブジェクトの表現が、第1のユーザの手の表現の更新ポジションとの既存の空間関係を維持するように、第1のユーザの手の移動に従って第1のユーザインタフェースオブジェクトの表現のポジションを更新することは、改善された視覚的フィードバック(例えば、第1のユーザにより提供される後続のユーザ入力により第1のユーザインタフェースオブジェクトが選択される改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Updating the position of the representation of the first user interface object in accordance with the movement of the first user's hand such that the representation of the first user interface object maintains an existing spatial relationship with the updated position of the representation of the first user's hand provides the user with improved visual feedback (e.g., improved visual feedback that the first user interface object is selected by subsequent user input provided by the first user). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

図8における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法9000、10000、11000、及び12000)に関して本明細書で記載された他のプロセスの詳細はまた、図8に関連して上述された方法8000に類似の方式で適用可能であることも留意されたい。例えば、方法8000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法9000、10000、11000、及び12000)を参照して本明細書に記載されるジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。 It should be understood that the particular order described for the operations in FIG. 8 is merely an example, and that the order described is not intended to indicate the only order in which the operations may be performed. Those skilled in the art will recognize various ways to reorder the operations described herein. In addition, it should be noted that other process details described herein with respect to other methods described herein (e.g., methods 9000, 10000, 11000, and 12000) are also applicable in a similar manner to method 8000 described above in connection with FIG. 8. For example, the gestures, gaze inputs, physical objects, user interface objects, controls, movements, references, three-dimensional environments, display generating components, surfaces, representations of physical objects, virtual objects, and/or animations described above with reference to method 8000 may optionally have one or more of the characteristics of the gestures, gaze inputs, physical objects, user interface objects, controls, movements, references, three-dimensional environments, display generating components, surfaces, representations of physical objects, virtual objects, and/or animations described herein with reference to other methods described herein (e.g., methods 9000, 10000, 11000, and 12000), the details of which are not repeated here for the sake of brevity.

図9A~図9Bは、いくつかの実施形態による、三次元環境の現在表示されているビューの視点に対して物理的オブジェクトの表現を様々な方式で表示する方法のフローチャートであり、視点は第1の物理的環境内のユーザの移動に従って移動し、物理的オブジェクトの表現は第1の物理的環境とは異なる第2の物理的環境内の物理的オブジェクトの移動に従って移動し、物理的オブジェクトの表現と視点との間の空間関係が予め設定された基準を満たすことに応じて、表現を表示する方法の変更がトリガされる。 9A-9B are flowcharts of a method, according to some embodiments, for displaying representations of physical objects in various manners relative to a viewpoint of a currently displayed view of a three-dimensional environment, where the viewpoint moves according to a user's movements in a first physical environment, the representations of the physical objects move according to movements of the physical objects in a second physical environment different from the first physical environment, and a change in the manner in which the representations are displayed is triggered in response to the spatial relationship between the representations of the physical objects and the viewpoint satisfying a preset criterion.

いくつかの実施形態では、方法9000は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法9000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法9000の一部の動作は、任意選択的に組み合わされ、及び/又は一部の動作の順序は、任意選択的に変更される。 In some embodiments, the method 9000 is performed on a computer system (e.g., computer system 101 of FIG. 1) including a display generating component (e.g., display generating component 120 of FIGS. 1, 3, and 4) (e.g., a heads-up display, a display, a touch screen, a projector, etc.) and one or more cameras (e.g., a camera (e.g., a color sensor, an infrared sensor, and other depth-sensing camera)) facing forward from a user's hand or a user's head. In some embodiments, the method 9000 is performed by instructions stored in a non-transitory computer-readable storage medium and executed by one or more processors of the computer system, such as one or more processors 202 of the computer system 101 (e.g., control unit 110 of FIG. 1A). Some operations of the method 9000 are optionally combined and/or the order of some operations is optionally changed.

いくつかの実施形態では、方法9000は、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120、表示生成コンポーネント7100など)(例えば、ヘッドアップディスプレイ、HMD、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタンなど)と通信しているコンピュータシステム(例えば、図1のコンピュータシステム101)において実行される。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。 In some embodiments, the method 9000 is executed in a computer system (e.g., computer system 101 of FIG. 1 ) in communication with a display generation component (e.g., display generation component 120, display generation component 7100, etc., of FIGS. 1, 3, and 4) (e.g., a heads-up display, HMD, display, touch screen, projector, etc.) and one or more input devices (e.g., a camera, controller, touch-sensitive surface, joystick, buttons, etc.). In some embodiments, the computer system is an integrated device having one or more processors and memory enclosed in the same housing as the display generation component and at least some of the one or more input devices. In some embodiments, the computer system includes a computing component including one or more processors and memory that are separate from the display generation component and/or the one or more input devices. In some embodiments, the display generation component and the one or more input devices are integrated within and enclosed in the same housing.

方法9000では、第1のユーザ(例えば、図7D~図7Fのユーザ7002、又は別のユーザ)が第1の物理的環境(例えば、図7D~図7Fのシーン105-a、又は別の物理的環境など)内の第1のロケーションにある、コンピュータシステムは、第1の物理的環境(例えば、第1の視点は、第1のユーザが物理的環境内の第1のロケーションにいるときのユーザの目又は顔のロケーションに対応する仮想ポジションであり、第1の視点は、三次元環境などへの第1の視点に対応する)内の第1のロケーションに関連付けられた第1の視点に対応する三次元環境(例えば、図7Dの図7304-a)(例えば、仮想三次元環境、拡張現実環境、三次元混合現実環境など)の第1のビューを表示し(9002)、三次元環境の第1のビューは、第1の物理的環境(例えば、第1の物理的環境及び第2の物理的環境は、2つの異なる部屋、2つの異なる地理的ロケーションなどにあり、第1のユーザ及び第2のユーザは、それぞれ第1の物理的環境及び第2の物理的環境に位置するとき、互いに物理的に届かない(例えば、物理的衝突の危険性がない))とは異なる第2の物理的環境(例えば、図7D~図7Fのシーン105-b、又は別の物理的環境など)内の第1のオブジェクト(例えば、第2のユーザ、移動する物理的オブジェクト(例えば、動物、飛行ドローン、ゲームの対戦相手など)など)を表す第1のユーザインタフェースオブジェクト(例えば、図7D~図7Fの第2のユーザ7102の表現7102’-a、又は別の物理的オブジェクトの別の表現など)(例えば、第1のユーザとは異なる第2のユーザのアバター、移動する物理的オブジェクトの仮想表現(例えば、動物、車両、飛行ドローン、マルチプレーヤゲームの対戦相手など))を含み、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションは、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する(例えば、第2の物理的環境内の第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動距離及び移動方向は、第1の予め設定されたオブジェクトマッピング関係(例えば、線形マッピング関係、及び/又は同じ基本方向を有する同じタイプの座標系など)に従って、三次元環境内の第1のユーザインタフェースオブジェクトの移動距離及び移動方向にそれぞれマッピングされ、三次元環境の現在表示されているビューの視点(例えば、第1のユーザの視点、三次元環境内の第1のユーザの仮想ポジションなどである。)に対応する個別のポジションの移動距離及び移動方向は、第1の予め設定されたユーザマッピング関係(例えば、線形マッピング関係、及び/又は同じ基本方向を有する同じタイプの座標系など)などに従って、第1の物理的環境内の第1のユーザの移動距離及び移動方向にそれぞれマッピングされる)。いくつかの実施形態では、第1の方式における対応関係は、現実世界における運動及びロケーションと三次元環境内の運動及びロケーションとの間のデフォルトの対応関係(例えば、現実模倣対応関係、第1のユーザの前にいる第1のユーザの別の部分への第1のユーザの一部分の移動にも適用される対応関係など)である。いくつかの実施形態では、三次元環境は、第1のユーザと第2のユーザとの間で少なくとも部分的に共有される仮想環境又は拡張現実環境であり、第1のユーザ及び第2のユーザは、三次元環境に対して2つの異なる視点から三次元環境の同じ部分を見てもよい。 In method 9000, a first user (e.g., user 7002 of FIGS. 7D-7F, or another user) is at a first location in a first physical environment (e.g., scene 105-a of FIGS. 7D-7F, or another physical environment, etc.), the computer system generates a three-dimensional environment (e.g., scene 730 of FIG. 7D) corresponding to a first viewpoint associated with the first location in the first physical environment (e.g., the first viewpoint is a virtual position corresponding to the location of the user's eyes or face when the first user is at the first location in the physical environment, the first viewpoint corresponding to a first perspective into the three-dimensional environment, etc.). 4-a) displays (9002) a first view of a three-dimensional environment (e.g., a virtual three-dimensional environment, an augmented reality environment, a three-dimensional mixed reality environment, etc.), where the first view of the three-dimensional environment includes a first object (e.g., a virtual three-dimensional environment, an augmented reality environment, a three-dimensional mixed reality environment, etc.) in a second physical environment (e.g., scene 105-b of FIGS. 7D-7F, or another physical environment, etc.) that is different from the first physical environment (e.g., the first physical environment and the second physical environment are in two different rooms, two different geographic locations, etc., and the first user and the second user are physically out of reach of each other (e.g., there is no risk of physical collision) when located in the first physical environment and the second physical environment, respectively). For example, the representation 7102′-a of the second user 7102 in FIGS. 7D-7F , or another representation of another physical object, may include a first user interface object (e.g., an avatar of the second user different from the first user, a virtual representation of a moving physical object (e.g., an animal, a flying drone, a multiplayer game opponent, etc.)) that represents a second user, a moving physical object (e.g., an animal, a vehicle, a flying drone, a multiplayer game opponent, etc.), and a respective position of the first user interface object within the three-dimensional environment is represented in a first manner within the second physical environment. corresponding to individual locations of the first object (e.g., a moving distance and a moving direction of the first object (e.g., a second user, an animal, a flying drone, etc.) in the second physical environment are respectively mapped to a moving distance and a moving direction of the first user interface object in the three-dimensional environment according to a first pre-defined object mapping relationship (e.g., a linear mapping relationship, and/or the same type of coordinate system having the same base direction, etc.), and a moving distance and a moving direction of an individual position corresponding to a viewpoint of a currently displayed view of the three-dimensional environment (e.g., the viewpoint of the first user, the virtual position of the first user in the three-dimensional environment, etc.) are respectively mapped to a moving distance and a moving direction of the first user in the first physical environment according to a first pre-defined user mapping relationship (e.g., a linear mapping relationship, and/or the same type of coordinate system having the same base direction, etc.). In some embodiments, the correspondence in the first manner is a default correspondence between motions and locations in the real world and motions and locations in the three-dimensional environment (e.g., a reality-mimicking correspondence, a correspondence that also applies to a movement of one part of the first user to another part of the first user in front of the first user, etc.). In some embodiments, the three-dimensional environment is a virtual or augmented reality environment that is at least partially shared between the first user and the second user, and the first user and the second user may view the same part of the three-dimensional environment from two different perspectives relative to the three-dimensional environment.

いくつかの実施形態では、三次元環境は共有環境ではない。いくつかの実施形態では、三次元環境は仮想三次元環境である。いくつかの実施形態では、三次元環境は、第1の物理的環境の表現(例えば、第1の物理的環境のカメラビュー又は透明パススルービューなど)と、任意選択的に、(例えば、第2の物理的環境の表現を含まずに)第2の物理的環境内の物理的オブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の表現とを含む拡張現実環境である。いくつかの実施形態では、三次元環境は、(例えば、第1のユーザインタフェースオブジェクトのポジションが、第1の表示生成コンポーネントを介して示される拡張現実環境内の第2の物理的環境の表現に対して計算で又はデジタル的に修正され得るように)第1のオブジェクトのカメラビュー又は記録された画像が除去され、第1のユーザインタフェースオブジェクトによって置換された、第2の物理的環境の表現(例えば、第2の物理的環境のカメラビュー又は透明パススルービュー、第2の物理的環境でキャプチャされたビデオ記録など)を含む拡張現実ビューである。いくつかの実施形態では、第1の物理的環境内の第1のユーザ全体の移動(例えば、第1の物理的環境内で人全体を動かすことなく単に第1のユーザの頭又は腕を動かす代わりに、第1の物理的環境内で歩く、走る、自転車に乗る、上にジャンプする、エレベータに乗るなど)は、三次元環境の現在表示されているビューの視点における対応する変化(例えば、対応する方向及び/又は対応する距離での三次元環境に対する視点の平行移動など)を引き起こす。第2の物理的環境内の第1のオブジェクト(例えば、第2のユーザ全体、動物、飛行ドローンなど)の移動(例えば、歩く、走る、自転車に乗る、上にジャンプする、エレベータに乗る、飛行するなど)は、三次元環境内の対応する方向及び/又は対応する距離などでの第1のユーザインタフェースオブジェクトの移動を引き起こす。 In some embodiments, the three-dimensional environment is not a shared environment. In some embodiments, the three-dimensional environment is a virtual three-dimensional environment. In some embodiments, the three-dimensional environment is an augmented reality environment that includes a representation of a first physical environment (e.g., a camera view or a transparent pass-through view of the first physical environment, etc.) and, optionally, a representation of a physical object (e.g., a second user, an animal, a flying drone, etc.) in the second physical environment (e.g., without including a representation of the second physical environment). In some embodiments, the three-dimensional environment is an augmented reality view that includes a representation of a second physical environment (e.g., a camera view or a transparent pass-through view of the second physical environment, a video recording captured in the second physical environment, etc.) in which the camera view or recorded image of the first object has been removed and replaced by the first user interface object (e.g., such that the position of the first user interface object may be computationally or digitally corrected with respect to the representation of the second physical environment in the augmented reality environment shown via the first display generation component). In some embodiments, movement of the first user as a whole within the first physical environment (e.g., walking, running, riding a bike, jumping on, riding an elevator, etc. within the first physical environment instead of simply moving the first user's head or arm without moving the entire person within the first physical environment) causes a corresponding change in perspective of a currently displayed view of the three-dimensional environment (e.g., a translation of the perspective relative to the three-dimensional environment in a corresponding direction and/or a corresponding distance, etc.). Movement of a first object (e.g., the second user as a whole, an animal, a flying drone, etc.) within the second physical environment (e.g., walking, running, riding a bike, jumping on, riding an elevator, flying, etc.) causes a movement of a first user interface object in a corresponding direction and/or a corresponding distance, etc. within the three-dimensional environment.

いくつかの実施形態では、第1のユーザインタフェースオブジェクトの移動及び/又はポジションが、(例えば、第1の物理的環境内の第1のユーザの現在ロケーション及び/又は移動履歴に関係なく)第1の方式で第2の物理的環境内の第1のオブジェクトの移動及び/又はロケーションに基づいて判定される場合、第1のユーザインタフェースオブジェクトは、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビューの視点(例えば、第1の物理的環境内の第1のユーザの現在ロケーション及び移動履歴に従って判定される視点)の閾値距離内にある三次元環境内のポジションに到達してもよい。いくつかの実施形態では、第1のユーザインタフェースオブジェクトを三次元環境の現在表示されているビューの視点の仮想ポジションの閾値距離内に表示させることは、第1のユーザインタフェースオブジェクトが三次元環境を見る人(例えば、第1のユーザ)の個人空間に対して非常に大きく、不自然に、及び/又は侵入的に見えることをもたらす。いくつかの実施形態では、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビューは、第1のユーザの身体の仮想表現を視覚的に含まない(例えば、三次元環境に対する第1のユーザの仮想ポジションは、現在表示されているビュー自体及び対応する視点によって反映される)。いくつかの実施形態では、第1の表示生成コンポーネントを介して示される三次元環境の現在表示されているビューは、第1のユーザの身体の一部の仮想表現を視覚的に含む(例えば、ビューは、ビューの底部に、第1のユーザの輪郭、第1のユーザの目の前の第1のユーザの手又は足の表現を含み、ビューは、三次元環境内のポジションが第1の物理的環境内の第1のユーザの移動及び/又は現在ロケーションに基づいて第1の方式で判定され、ディスプレイに対して静止したままである(例えば、三次元環境の現在表示されているビューの視点と固定された空間関係を有する)第1のユーザのアバターを含む)。 In some embodiments, when the movement and/or position of the first user interface object is determined based on the movement and/or location of the first object in the second physical environment in a first manner (e.g., regardless of the first user's current location and/or movement history in the first physical environment), the first user interface object may arrive at a position in the three-dimensional environment that is within a threshold distance of a viewpoint of a currently displayed view of the three-dimensional environment shown via the first display generation component (e.g., a viewpoint determined according to the first user's current location and movement history in the first physical environment). In some embodiments, causing the first user interface object to be displayed within the threshold distance of a virtual position of the viewpoint of the currently displayed view of the three-dimensional environment causes the first user interface object to appear too large, unnatural, and/or intrusive relative to the personal space of a person (e.g., the first user) viewing the three-dimensional environment. In some embodiments, the currently displayed view of the three-dimensional environment shown via the first display generating component does not visually include a virtual representation of the first user's body (e.g., the first user's virtual position relative to the three-dimensional environment is reflected by the currently displayed view itself and the corresponding viewpoint). In some embodiments, the currently displayed view of the three-dimensional environment shown via the first display generating component visually includes a virtual representation of a part of the first user's body (e.g., the view includes an outline of the first user at the bottom of the view, a representation of the first user's hands or feet in front of the first user's eyes, and the view includes an avatar of the first user whose position within the three-dimensional environment is determined in a first manner based on the first user's movement and/or current location within the first physical environment and remains stationary relative to the display (e.g., has a fixed spatial relationship with the viewpoint of the currently displayed view of the three-dimensional environment).

方法9000において、コンピュータシステムは、第1の物理的環境内の第1のユーザ(例えば、図7D~図7Fの第1のユーザ7002)の移動(例えば、第1のロケーションから第2のロケーションへの第1の方向(例えば、第1の物理的環境内の前方、後方、左方、右方、上方、下方、2時方向、10時方向など)への第1の距離及び/又は第1の速度での移動)と、第2の物理的環境内の第1のオブジェクト(例えば、図7D~図7Fの第2のユーザ7102又は別の物理的オブジェクトなど)の移動(例えば、第3のロケーションから第4のロケーションへの第2の方向(例えば、前方、後方、左方、右方、上方、下方、3時方向、8時方向など)への第2の距離及び/又は第2の速度での移動)とのうちの少なくとも1つ(例えば、1つのみ、第1のユーザのみ、第1のオブジェクトのみ(例えば、第2のユーザ、動物、飛行中のドローン等)、両者など)とを検出する(9004)。いくつかの実施形態では、第1のユーザの移動を検出することは、第1のユーザ及び第1の表示生成コンポーネントと共に配置されたセンサを使用して直接的に実行され、任意選択的に、第2の物理的環境内の第1のオブジェクトの移動を検出することは、間接的に実行される(例えば、第2の物理的環境内に第1のオブジェクトと共に配置されたセンサを介して、第2の物理的環境で使用される(例えば、第2のユーザ、又は第1及び第2のユーザとは異なる別のユーザによって使用されるなど)コンピュータシステムから送信された第1のユーザインタフェースオブジェクトの更新ポジションの受信を介して、コンピュータシステムは、第1の方式に従って(例えば、予め設定された第1の現実模倣マッピング関係に従って)第1のユーザインタフェースオブジェクトのポジションを更新している。 In method 9000, the computer system records movement (e.g., movement from a first location to a second location in a first direction (e.g., forward, backward, left, right, up, down, 2 o'clock, 10 o'clock, etc., in the first physical environment) at a first distance and/or a first velocity) of a first user (e.g., first user 7002 of FIGS. 7D-7F) in a first physical environment and a first object (e.g., second object 7003 of FIGS. 7D-7F) in a second physical environment. and (9004) detecting at least one of (e.g., only one, only the first user, only the first object (e.g., a second user, an animal, a flying drone, etc.), both, etc.) movement of a second user 7102 or another physical object (e.g., movement in a second direction (e.g., forward, backward, left, right, up, down, 3 o'clock, 8 o'clock, etc.) from a third location to a fourth location at a second distance and/or a second speed). In some embodiments, detecting the movement of the first user is performed directly using sensors disposed with the first user and the first display generating component, and optionally detecting the movement of the first object in the second physical environment is performed indirectly (e.g., via a sensor disposed with the first object in the second physical environment, via receiving an updated position of the first user interface object transmitted from a computer system used in the second physical environment (e.g., used by the second user or another user different from the first and second users), which computer system updates the position of the first user interface object according to a first manner (e.g., according to a first preset reality-mimicking mapping relationship).

方法9000では、第1の物理的環境内の第1のユーザの移動及び第2の物理的環境内の第1のオブジェクトの移動のうちの少なくとも1つを検出したこと(9006)に応じて(例えば、第1のユーザの移動のみを検出したことに応じて、第1のオブジェクトの移動のみを検出したことに応じて、ユーザ又はオブジェクトの移動のいずれか1つを検出したことに応じて、ユーザの移動及びオブジェクトの移動の両方を検出したことに応じてなど)、コンピュータシステムは、第2の視点(例えば、図7Eのビュー7304-a’、図7Fのビュー7304-a’’など)に対応する三次元環境の第2のビューを表示する(9008)(例えば、第1のユーザが第1の物理的環境内に移動していない場合、第2の視点は第1の視点と同じであり、第1のユーザが第1の物理的環境内に移動した場合、第2の視点は第1の視点と異なる(例えば、物理的環境内の第1のユーザの移動は、三次元環境内の第1のユーザの移動にマッピングされ、第1のユーザに対して表示される三次元環境の第1のユーザのビューの視点のシフトを引き起こす)。コンピュータシステムは、三次元環境の第2のビュー(例えば、図7Eのビュー7304-a’、図7Fのビュー7304-a’’など)に第1のユーザインタフェースオブジェクト(例えば、図7E及び図7Fの表現7102’-a)を表示する(9010)。第1のユーザインタフェースオブジェクトを表示することは、第1の方式で(例えば、現実模倣方式に従って判定される、予め設定された第1のマッピング関係など)第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のユーザインタフェースオブジェクトが三次元環境において実質的に静止していた場合、三次元環境内の第1のユーザインタフェースオブジェクトの同じ以前のポジション、第1のユーザインタフェースオブジェクトが三次元環境において移動していた場合、三次元環境内の異なるポジション)が、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境の個別のポジションから閾値距離超である(例えば、腕の長さより大きい、三次元環境内の第1のユーザの個人空間の予め設定された半径より大きい、三次元環境(例えば、第1のユーザの表現の仮想面、第1のユーザの仮想ポジションを囲む境界ボックスなど)内の第1のユーザの仮想ポジションを囲む予め設定された境界面の外である)(例えば、個別のポジションは三次元環境内の第1のユーザの仮想ポジションである(例えば、三次元環境の現在表示されているビュー内の可視ポジション、又は不可視ポジション)、個別のポジションが第1のユーザの頭部の仮想ポジション又は三次元環境内の彼/彼女の仮想表現である、個別のポジションが第1のユーザの仮想ポジション又は三次元環境内の彼/彼女の仮想表現を囲む境界面の1つ以上のポジションのうちの1つである)ことに従って、第1のユーザインタフェースオブジェクトを三次元環境の第2のビュー内の第1の表示ポジションに表示すること(9012)を含み、第1の表示ポジションは、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションである。これは、例えば、第2のユーザの表現7102’-aの表示ポジションが、第1の方式に従って計算された表現7102’-aの個別のポジションと同じである、図7Eに示されるシナリオである。例えば、いくつかの実施形態では、第1の表示ポジションは、第2の物理的環境内の第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の現在ロケーション及び/又は移動履歴に基づいて、第1の方式で(例えば、第1の物理的環境内の第1のユーザの現在ロケーション及び/又は移動履歴とは無関係に、第1の予め設定されたマッピング関係に従ってなど)判定される。第1の表示ポジションは、第1のユーザインタフェースオブジェクトが三次元環境の現在表示されているビューの視点に近づきすぎておらず(又は第1のユーザの仮想ポジションに近づきすぎておらず、及び/又は三次元環境内の第1のユーザの仮想表現のポジションに近づきすぎておらず)、第1のユーザの個人空間に対して大きすぎる、不自然である、及び/又は侵襲的であるように見えない場合の第1のユーザインタフェースオブジェクトのポジションである。 In method 9000, in response to detecting at least one of a movement of a first user within the first physical environment and a movement of a first object within the second physical environment (9006) (e.g., in response to detecting only the movement of the first user, in response to detecting only the movement of the first object, in response to detecting one of either the user or the object movement, in response to detecting both the user movement and the object movement, etc.), the computer system displays (9008) a second view of the three-dimensional environment corresponding to a second perspective (e.g., view 7304-a' of FIG. 7E, view 7304-a'' of FIG. 7F, etc.) (e.g., if the first user has not moved within the first physical environment, the second perspective is the same as the first perspective and the first user has moved within the first physical environment). When the first user moves within the three-dimensional environment, the second viewpoint differs from the first viewpoint (e.g., the first user's movement within the physical environment is mapped to the first user's movement within the three-dimensional environment, causing a perspective shift of the first user's view of the three-dimensional environment displayed to the first user). The computer system displays (9010) a first user interface object (e.g., representation 7102'-a of FIGS. 7E and 7F ) in a second view of the three-dimensional environment (e.g., view 7304-a' of FIG. 7E , view 7304-a'' of FIG. 7F , etc.). Displaying the first user interface object includes mapping the individual location of the first object within the second physical environment in a first manner (e.g., a first preset mapping relationship determined according to a reality-mimetic manner, etc.). a distinct position of the first user interface object in the three dimensional environment corresponding to a second viewpoint associated with the second view of the three dimensional environment (e.g., the same previous position of the first user interface object in the three dimensional environment if the first user interface object was substantially stationary in the three dimensional environment, a different position in the three dimensional environment if the first user interface object was moving in the three dimensional environment) is more than a threshold distance (e.g., greater than an arm's length, greater than a pre-set radius of the first user's personal space in the three dimensional environment ... (e.g., a virtual surface of a representation of the first user, a bounding box surrounding the virtual position of the first user, etc.)) from a distinct position of the three dimensional environment corresponding to a second viewpoint associated with the second view of the three dimensional environment. 7A , where the first user interface object is a virtual position of the first user in the three dimensional environment (e.g., a visible position or an invisible position in a currently displayed view of the three dimensional environment), the individual position is a virtual position of the first user's head or a virtual representation of him/her in the three dimensional environment, the individual position is one of one or more positions of a boundary surface surrounding the virtual position of the first user or his/her virtual representation in the three dimensional environment), where the first display position is an individual position of the first user interface object in the three dimensional environment. This is, for example, the scenario shown in FIG. 7E , where the display position of representation 7102′-a of the second user is the same as the individual position of representation 7102′-a calculated according to the first scheme. For example, in some embodiments, the first display position is determined in a first manner (e.g., according to a first pre-defined mapping relationship, independent of the first user's current location and/or movement history within the first physical environment) based on a current location and/or movement history of a first object (e.g., a second user, an animal, a flying drone, etc.) within the second physical environment. The first display position is a position of the first user interface object when the first user interface object is not too close to a viewpoint of a currently displayed view of the three-dimensional environment (or is not too close to a virtual position of the first user and/or is not too close to a position of a virtual representation of the first user within the three-dimensional environment) and does not appear too large, unnatural, and/or invasive relative to the first user's personal space.

第1のユーザインタフェースオブジェクトを表示することは、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションから閾値距離未満であるという判定に従って、第1のユーザインタフェースオブジェクトを三次元環境の第2のビュー内の第2の表示ポジションに表示すること(9014)を更に含み、第2の表示ポジションは、個別のポジションからオフセットされ(例えば、側方にシフトされる、閾値距離を超えて個別の方向(例えば、側方、上方、下方など)にシフトされる、三次元環境の現在表示されているビューに対して側方(例えば、左方、右方など)に閾値距離を超えてシフトされる、三次元環境内の第1のユーザインタフェースオブジェクトの三次元環境の現在表示されているビューに対して、上方に閾値距離を超えてシフトされるなど)(例えば、第2の表示ポジションは、第2の物理的環境内の第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の現在ロケーション及び/又は移動履歴だけでなく、第1の物理的環境内の第1のユーザの現在ロケーション及び/又は移動履歴にも基づいて判定され、第2の表示ポジションは、第1の方式とは異なる第2の方式に従って判定され、第2の表示ポジションは、第1のユーザインタフェースオブジェクトが三次元環境の現在表示されているビューの視点に近づきすぎた場合、第1のユーザインタフェースオブジェクトが大きくなりすぎず、不自然になりすぎず、及び/又は第1のユーザの個人空間に対して侵入的に見えないように、第1のユーザインタフェースオブジェクトのデフォルトポジションからシフトされる。これは、例えば、第2のユーザの表現7102’-aの表示ポジションが、第1の方式に従って計算された表現7102’-aの個別のポジションからオフセットされ、第2の方式に従って計算される、図7Fに示されるシナリオである。 Displaying the first user interface object further includes displaying the first user interface object at a second display position within the second view of the three dimensional environment in accordance with a determination that a respective position of the first user interface object within the three dimensional environment that corresponds to a respective location of the first object within the second physical environment in a first manner is less than a threshold distance from a respective position within the three dimensional environment that corresponds to a second perspective associated with the second view of the three dimensional environment (9014), wherein the second display position is offset from the respective position (e.g., shifted laterally, shifted in a respective direction (e.g., sideways, upward, downward, etc.) by more than a threshold distance, shifted laterally (e.g., left, right, etc.) by more than a threshold distance relative to the currently displayed view of the three dimensional environment, shifted upward by more than a threshold distance relative to the currently displayed view of the three dimensional environment of the first user interface object within the three dimensional environment, etc.). For example, the second display position is determined based on the current location and/or movement history of the first user within the first physical environment as well as the current location and/or movement history of the first object (e.g., the second user, an animal, a flying drone, etc.) within the second physical environment, the second display position is determined according to a second scheme different from the first scheme, and the second display position is shifted from the default position of the first user interface object if the first user interface object moves too close to the viewpoint of the currently displayed view of the three-dimensional environment such that the first user interface object does not appear too large, unnatural, and/or intrusive with respect to the personal space of the first user. This is, for example, the scenario shown in FIG. 7F, where the display position of the representation 7102'-a of the second user is offset from the individual position of the representation 7102'-a calculated according to the first scheme and calculated according to the second scheme.

いくつかの実施形態では、第1の方式とは異なる第2の方式に従って第1のユーザインタフェースオブジェクトのポジションを判定するために、第2の物理的環境内の第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動距離及び移動方向は、第2の予め設定されたオブジェクトマッピング関係(例えば、非線形マッピング関係、三次元環境の現在表示されているビューの視点(例えば、第1のユーザの視点、三次元環境内の第1のユーザの仮想ポジションなど)に対応す個別のポジションの現在ポジション、移動距離、及び/又は移動方向、及び/又は三次元環境内の第1のユーザインタフェースオブジェクトの現在ポジション、移動距離、及び/又は移動方向に基づく追加の線形又は非線形オフセット量を有する線形マッピング関係)に従って、三次元環境内の第1のユーザインタフェースオブジェクトの移動距離及び移動方向にそれぞれマッピングされる。いくつかの実施形態では、第2の方式における対応は、第1のユーザインタフェースオブジェクトが三次元環境の第1のユーザのビュー内で近すぎるように見えることを回避する目的で(例えば、視覚的衝突回避対応)、現実世界における運動及びロケーションと三次元環境内の運動及びロケーションとの間のデフォルト対応関係(例えば、現実模倣対応関係)に対する修正を含む。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの第2の表示ポジションがデフォルト表示ポジション(例えば、現実模倣対応関係に従って、第1の予め設定されたマッピング関係などに従って判定されるポジション)からシフト又はオフセットされる方向及び量は、第1のオブジェクトのサイズ及び/又は形状、及び/又は第1のユーザのサイズ及び/又は形状、第1のユーザに関連付けられた境界ボックスのサイズ及び/又は形状、第1のオブジェクトの境界ボックスに関連付けられたサイズ及び/又は形状、及び/又は三次元環境内の第1のユーザの仮想表現のサイズ及び/又は形状などに従って判定される。第1の例では、いくつかの実施形態では、第1のオブジェクトは第2のユーザであり、第1のユーザ及び/又は第2のユーザが、(第1の現実を模倣するマッピング関係に従って計算された)三次元環境の現在表示されているビュー内の第2のユーザの仮想表現の個別のポジションが、現在表示されているビューに対応する視点の閾値距離を超えるようにそれぞれの物理的環境内を歩くとき、第2のユーザの仮想表現は、(例えば、第1の物理的環境内の第1のユーザの現在ロケーション及び移動履歴を考慮することなく、第2の物理的環境内の第2のユーザの現在ロケーション及び移動履歴に基づいて)三次元環境の現在表示されているビュー内の第1の現実模倣マッピング関係に従って計算された個別のポジションに表示される。しかしながら、第1の現実感模倣マッピング関係に従って計算された三次元環境の現在表示されているビュー内の第2のユーザの仮想表現の個別のポジションが、現在表示されているビューに対応する視点の閾値距離内に入るように、第1のユーザ及び/又は第2のユーザが個別の物理的環境内を歩くとき、第2のユーザの仮想表現の表示ポジションは、第2のユーザの仮想表現が第1のユーザに衝突して見えないように、及び/又は第1のユーザの視点から第1のユーザのビューを圧倒しないように、及び/又は三次元環境内の第1のユーザの仮想表現(可視の仮想表現、又は三次元環境の現在表示されているビュー内で不可視である仮想表現など)と重ならないように、個別のポジション(例えば、第1の物理的環境内の第1のユーザの現在ロケーション及び移動履歴を考慮せずに第2の物理的環境内の第2のユーザの現在ロケーション及び移動履歴に基づいて計算されたポジション)からシフトされる。いくつかの実施形態では、第2のユーザの表現の表示ポジションが三次元環境のビュー内でシフトされたとしても、三次元環境内の第2のユーザの表現の個別のポジションはシフトされない(第1のユーザに対して示される三次元環境の表示ビュー内に視覚的に反映されないだけである)。いくつかの実施形態による上記の特徴は、例えば、図7D~図7Fに示されている。図7Eでは、例えば、第1のユーザ7102に示されるビュー7304-a’において、第2のユーザ7002の表現7102’-aの表示ポジションは、三次元環境内のポジションと第2のユーザ7102の第2の物理的環境内のロケーションとの間の第1のタイプの対応関係に従って計算された表現7102’-aの個別のポジションと同じである。これは通常のシナリオであり、第2のユーザ7102の表現7102’-aは、第1のユーザ7002に示される第1のビュー7304-aの視点の閾値距離内にない(図7Eの左のビュー)。図7Fでは、例えば、第1のユーザ7002に示されるビュー7034-a’’において、表現7102’-aの表示ポジションは、第1のタイプの対応関係に従って計算された表現7102’-aの個別のポジションからオフセットされる。これは、個別のポジションが、第2のユーザの表現7102’-aを、第1のユーザ7002に示される第1のビュー7304-a’’の視点に近すぎるように配置するからである。したがって、図7Fに示すシナリオでは、第2のユーザの表現7102’-aの個別のポジションが実際には第1のビュー7304-a’’内の表現7002’-aの真正面にあっても、表現7102’-aは第1のユーザ7002の表現7002’-aの右側にあるように示されている。 In some embodiments, to determine the position of the first user interface object according to a second manner different from the first manner, the movement distance and movement direction of the first object (e.g., a second user, an animal, a flying drone, etc.) in the second physical environment is mapped to the movement distance and movement direction of the first user interface object in the three dimensional environment, respectively, according to a second pre-defined object mapping relationship (e.g., a non-linear mapping relationship, a linear mapping relationship with an additional linear or non-linear offset amount based on the current position, movement distance, and/or movement direction of an individual position corresponding to a viewpoint of a currently displayed view of the three dimensional environment (e.g., a viewpoint of the first user, a virtual position of the first user in the three dimensional environment, etc.) and/or the current position, movement distance, and/or movement direction of the first user interface object in the three dimensional environment). In some embodiments, the correspondence in the second manner includes a modification to a default correspondence (e.g., a reality-mimetic correspondence) between movements and locations in the real world and in the three-dimensional environment in order to avoid the first user interface object appearing too close in the first user's view of the three-dimensional environment (e.g., visual collision avoidance correspondence). In some embodiments, the direction and amount by which the second display position of the first user interface object is shifted or offset from the default display position (e.g., a position determined according to the reality-mimetic correspondence, according to a first pre-set mapping relationship, etc.) is determined according to a size and/or shape of the first object, and/or a size and/or shape of the first user, a size and/or shape of a bounding box associated with the first user, a size and/or shape associated with a bounding box of the first object, and/or a size and/or shape of a virtual representation of the first user in the three-dimensional environment, etc. In a first example, in some embodiments, the first object is a second user, and when the first user and/or the second user walk within their respective physical environments such that a respective position of the virtual representation of the second user within the currently displayed view of the three-dimensional environment (calculated according to the first reality-mimicking mapping relationship) exceeds a threshold distance of a viewpoint corresponding to the currently displayed view, the virtual representation of the second user is displayed at a respective position calculated according to the first reality-mimicking mapping relationship within the currently displayed view of the three-dimensional environment (e.g., based on the second user's current location and movement history within the second physical environment without taking into account the first user's current location and movement history within the first physical environment). However, as the first user and/or the second user walk within their respective physical environments, the display position of the virtual representation of the second user is shifted from its respective position (e.g., a position calculated based on the second user's current location and movement history in the second physical environment without taking into account the first user's current location and movement history in the first physical environment) so that the virtual representation of the second user does not appear to collide with the first user and/or does not overwhelm the first user's view from the first user's perspective and/or does not overlap with the first user's virtual representation in the three dimensional environment (e.g., a virtual representation that is visible or a virtual representation that is invisible in the currently displayed view of the three dimensional environment) such that the respective position of the second user's virtual representation in the currently displayed view of the three dimensional environment calculated according to the first realism-mimetic mapping relationship falls within a threshold distance of a viewpoint corresponding to the currently displayed view. In some embodiments, even if the display position of the representation of the second user is shifted in the view of the three-dimensional environment, the individual position of the representation of the second user in the three-dimensional environment is not shifted (it is just not visually reflected in the display view of the three-dimensional environment shown to the first user). The above features according to some embodiments are illustrated, for example, in Figures 7D-7F. In Figure 7E, for example, in the view 7304-a' shown to the first user 7102, the display position of the representation 7102'-a of the second user 7002 is the same as the individual position of the representation 7102'-a calculated according to the first type of correspondence between the position in the three-dimensional environment and the location in the second physical environment of the second user 7102. This is a normal scenario, where the representation 7102'-a of the second user 7102 is not within a threshold distance of the viewpoint of the first view 7304-a shown to the first user 7002 (left view of Figure 7E). In FIG. 7F, for example, in the view 7034-a'' shown to the first user 7002, the display position of the representation 7102'-a is offset from the individual position of the representation 7102'-a calculated according to the first type of correspondence. This is because the individual position places the second user's representation 7102'-a too close to the viewpoint of the first view 7304-a'' shown to the first user 7002. Thus, in the scenario shown in FIG. 7F, the representation 7102'-a is shown to the right of the representation 7002'-a of the first user 7002, even though the individual position of the second user's representation 7102'-a is actually directly in front of the representation 7002'-a in the first view 7304-a''.

いくつかの実施形態では、第1の物理的環境(例えば、図7D~図7Fのシーン105-a、又は別のシーンなど)内の第1のユーザ(例えば、図7D~図7Fのユーザ7002、又は別のユーザなど)の移動、及び第2の物理的環境(例えば、図7D~図7Fのシーン105-b、又は別のシーンなど)内の第1のオブジェクト(例えば、図7D~図7Fのユーザ7102、又は別の人若しくはオブジェクトなど)の移動のうちの少なくとも1つを検出することは、第1のオブジェクト(例えば、図7D~図7Fのユーザ7102、又は別の人若しくはオブジェクトなど)が第2の物理的環境内に静止している間、第1の物理的環境内の第1のユーザ(例えば、図7D~図7Fのユーザ7002、又は別のユーザなど)の第1の移動を検出することを含む。第1の物理的環境内の第1のユーザの第1の移動中(例えば、三次元環境内の静止した第2のユーザ又は仮想オブジェクトの表現に向かって視点の移動を引き起こす第1のユーザ全体の移動中)、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のユーザの第1の移動中の第2の物理的環境内の第1のオブジェクトの静止ロケーションに対応する、三次元環境内の静止ポジション)が、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離よりも大きい(例えば、第2のユーザ又は仮想オブジェクトの表現が、三次元環境内の第1のユーザの視点又は仮想ポジションの閾値範囲外にある)という判定に従って、第1のユーザインタフェースオブジェクトは、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内のユーザインタフェースオブジェクトの個別のポジションに表示される(例えば、第1のユーザインタフェースオブジェクトの外観及びロケーションは、視点の変化により第1のユーザに視覚的に変化し得る(例えば、第1のユーザの視野の異なるサイズ又は異なる部分に現れる)が、三次元環境内の第1のユーザインタフェースオブジェクトの個別の三次元ポジションは変化しない)。第1の物理的環境内の第1のユーザの第1の移動の間(例えば、三次元環境内の静止した第2のユーザ又は仮想オブジェクトの表現に向かって視点の移動を引き起こす第1のユーザ全体の移動の間)、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のユーザの第1の移動の間の第2の物理的環境内の第1のオブジェクトの静止ロケーションに対応する、三次元環境内の静止ポジション)が、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下(例えば、等しい、未満など)であるという判定に従って(例えば、第2のユーザ又は仮想オブジェクトの表現は、三次元環境内の第1のユーザの視点又は仮想ポジションの閾値範囲内にあり、他の方法でシフトされない場合)、第1のユーザインタフェースオブジェクトは、第1のオブジェクトが第2の物理的環境内に静止している、三次元環境内の調整されたポジション(例えば、現実模倣マッピング関係に基づいて判定される個別のポジションからオフセットされたポジション、第1のユーザの仮想表現又は三次元環境の現在表示されているビューの視点から閾値距離外にあるポジションなど)に表示され、三次元環境内の調整されたポジションは、第1の方式とは異なる第2の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する。例えば、いくつかの実施形態では、第1のオブジェクトが第2の物理的環境内に静止したままであっても、第1のユーザインタフェースオブジェクトは、第1のユーザの移動(例えば、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションに向かう第1のユーザの視点又は仮想表現の移動に対応する第1の物理的環境内の移動)に応じて、三次元環境の現在表示されているビュー内で自律的な移動をするように見える。より具体的な例では、第1のユーザが、三次元環境内の第2のユーザ又は仮想オブジェクトの表現に向かう第1のユーザの仮想表現の移動に対応する第1の物理的環境内の移動を行うとき、第1のユーザの仮想表現が第2のユーザ又は仮想オブジェクトの表現の閾値距離内に到達する場合、第2のユーザ又は仮想オブジェクトが第2の物理的環境内で静止したままであっても、第2のユーザ又は仮想オブジェクトの表現は、第1のユーザの仮想表現から自動的に邪魔にならないように移動して、第1のユーザの仮想表現にぶつかることを回避する。第2のユーザ及び仮想オブジェクトの表現は、衝突回避オフセットをトリガするための条件がもはや満たされなくなった後、デフォルトの現実模倣マッピング関係を使用して計算されたそれらのデフォルトポジションに復元される。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、第1のユーザと仮想電話会議をしている第2のユーザを表すアバターである。第1のユーザが、第2のユーザのアバターに向かう三次元環境内の移動に対応する方向に歩くとき、第2のユーザのアバターは、アバターが第1のユーザの仮想ポジションに近づきすぎるにつれて、邪魔にならないように移動する。これは、第2のユーザが自身の環境内で移動していなくても行われる。 In some embodiments, detecting at least one of a movement of a first user (e.g., user 7002 of FIGS. 7D-7F, or another user, etc.) within a first physical environment (e.g., scene 105-a of FIGS. 7D-7F, or another scene, etc.) and a movement of a first object (e.g., user 7102 of FIGS. 7D-7F, or another person or object, etc.) within a second physical environment (e.g., scene 105-b of FIGS. 7D-7F, or another scene, etc.) includes detecting a first movement of the first user (e.g., user 7002 of FIGS. 7D-7F, or another user, etc.) within the first physical environment while the first object (e.g., user 7102 of FIGS. 7D-7F, or another person or object, etc.) is stationary in the second physical environment. During a first movement of the first user within the first physical environment (e.g., during a movement of the entire first user that causes a movement of the viewpoint towards a representation of a stationary second user or virtual object within the three dimensional environment), a distinct position of the first user interface object within the three dimensional environment that corresponds to a distinct location of the first object within the second physical environment in a first manner (e.g., a stationary position within the three dimensional environment that corresponds to a stationary location of the first object within the second physical environment during the first movement of the first user) is greater than a threshold distance from a distinct position within the three dimensional environment that corresponds to a stationary location of the first object within the second physical environment during the first movement of the first user (e.g., a stationary position within the three dimensional environment that corresponds to a stationary location of the first object within the second physical environment during the first movement of the first user) that corresponds to a stationary location of the first object within the three dimensional environment that corresponds to a stationary location of the first object within the second physical environment during the first movement of the first user, the stationary location of the first object within the three dimensional environment that corresponds to a stationary location of the first object within the second physical environment during the first movement of the first user) that corresponds to a stationary location of the first object within the three dimensional environment ... In accordance with a determination that the representation of the first user or virtual object is outside a threshold range of the first user's viewpoint or virtual position within the three dimensional environment, the first user interface object is displayed in a first manner at a respective position of the user interface object within the three dimensional environment that corresponds to the respective location of the first object in the second physical environment (e.g., the appearance and location of the first user interface object may visually change to the first user due to the change in viewpoint (e.g., appearing to be a different size or in a different portion of the first user's field of view), but the respective three dimensional position of the first user interface object within the three dimensional environment does not change). pursuant to a determination that during a first movement of the first user within the first physical environment (e.g., during a movement of the entire first user that causes a movement of the viewpoint towards a representation of a stationary second user or virtual object within the three dimensional environment), a respective position of the first user interface object within the three dimensional environment that corresponds to a respective location of the first object within the second physical environment in a first manner (e.g., a resting position within the three dimensional environment that corresponds to a resting location of the first object within the second physical environment during the first movement of the first user) is less than or equal to a threshold distance (e.g., equal to, less than, etc.) from a respective position within the three dimensional environment that corresponds to a viewpoint associated with a currently displayed view of the three dimensional environment. (e.g., when the representation of the second user or virtual object is within a threshold range of the first user's viewpoint or virtual position within the three dimensional environment and is not otherwise shifted), the first user interface object is displayed at an adjusted position within the three dimensional environment (e.g., a position offset from a distinct position determined based on the reality-mimicking mapping relationship, a position that is outside a threshold distance from the viewpoint of the first user's virtual representation or currently displayed view of the three dimensional environment) where the first object is stationary within the second physical environment, the adjusted position within the three dimensional environment corresponding to the distinct location of the first object within the second physical environment in a second manner that is different from the first manner. For example, in some embodiments, the first user interface object appears to move autonomously within the currently displayed view of the three dimensional environment in response to movement of the first user (e.g., movement within the first physical environment corresponding to movement of the first user's viewpoint or virtual representation towards the distinct position of the first user interface object within the three dimensional environment) even though the first object remains stationary in the second physical environment. In a more specific example, when a first user makes a movement in a first physical environment corresponding to a movement of the virtual representation of the first user towards a representation of a second user or virtual object in the three-dimensional environment, if the virtual representation of the first user arrives within a threshold distance of the representation of the second user or virtual object, the representation of the second user or virtual object automatically moves out of the way from the virtual representation of the first user to avoid colliding with the virtual representation of the first user, even if the second user or virtual object remains stationary in the second physical environment. The representations of the second user and virtual object are restored to their default positions calculated using the default reality-mimicking mapping relationship after the conditions for triggering the collision avoidance offset are no longer met. In some embodiments, the first user interface object is an avatar representing a second user having a virtual conference call with the first user. When the first user walks in a direction corresponding to a movement in the three-dimensional environment towards the avatar of the second user, the avatar of the second user moves out of the way as the avatar gets too close to the virtual position of the first user. This occurs even if the second user is not moving around in their environment.

第1のオブジェクトが第2の物理的環境内で静止している間に第1の物理的環境内で第1のユーザの第1の移動を検出し、第1の方式での第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離超であるという判定に従って、第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境の第1のユーザインタフェースオブジェクトの個別のポジションに第1の方式で第1のユーザインタフェースオブジェクトを表示し、第1のオブジェクトが第2の物理的環境内で静止している間、第1の方式での第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下であるという判定に従って、第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の調整されたポジションに第1のユーザインタフェースオブジェクトを第1の方式とは異なる第2の方式で三次元環境内に表示することは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整する更なるユーザ入力)を必要とすることなく条件のセットが満たされたときに、適切なポジションで第1のユーザインタフェースオブジェクトを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Detecting a first movement of a first user within the first physical environment while the first object is stationary within the second physical environment, displaying a first user interface object in a first manner at an individual position of the first user interface object in the three dimensional environment corresponding to the individual location of the first object in the second physical environment in accordance with a determination that an individual position of the first user interface object in the three dimensional environment corresponding to the individual location of the first object in the second physical environment in accordance with a determination that the individual position of the first user interface object in the three dimensional environment corresponding to a viewpoint associated with a currently displayed view of the three dimensional environment is more than a threshold distance from an individual position in the three dimensional environment corresponding to a viewpoint associated with a currently displayed view of the three dimensional environment, and displaying a first user interface object in a first manner at an individual position of the first user interface object in the three dimensional environment corresponding to the individual location of the first object in the second physical environment in accordance with a determination that the individual position of the first user interface object in the three dimensional environment corresponding to a viewpoint associated with a currently displayed view of the three dimensional ... threshold distance from Displaying the first user interface object in the three dimensional environment in a second manner different from the first manner at an adjusted position in the three dimensional environment corresponding to the individual location of the first object in the second physical environment according to a determination that the individual position of the first user interface object corresponding to the individual location of the first object in the environment is less than or equal to a threshold distance from the individual position in the three dimensional environment corresponding to a viewpoint associated with the currently displayed view of the three dimensional environment displays the first user interface object in an appropriate position when a set of conditions are met without requiring further user input (e.g., further user input adjusting the position of the first user interface object). Performing an action when a set of conditions are met without requiring further user input enhances operability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の物理的環境(例えば、図7D~図7Fのシーン105-a、又は別のシーンなど)内の第1のユーザ(例えば、図7D~図7Fのユーザ7002、又は別のユーザなど)の移動、及び第2の物理的環境(例えば、シーン105-b、又は別のシーンなど)内の第1のオブジェクト(例えば、図7D~図7Fのユーザ7102、又は別の人若しくはオブジェクトなど)の移動のうちの少なくとも1つを検出することは、第1のユーザが第1の物理的環境内に静止している間、第2の物理的環境内の第1のオブジェクトの第2の移動を検出することを含む。第2の物理的環境内の第1のオブジェクトの第2の移動中(例えば、三次元環境において第1のユーザインタフェースオブジェクトを移動させる全体としての第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動中に)、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のオブジェクトの第2の移動中、第2の物理的環境内の第1のオブジェクトの新たなロケーションに対応する、三次元環境内の新たなポジション)が、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離超である(例えば、第2のユーザ又は仮想オブジェクトの表現は第1のユーザの視点又は三次元環境内の仮想ポジションの閾値範囲外にある)という判定に従って、第1のユーザインタフェースオブジェクトは、(例えば、三次元環境の現在表示されているビューの視点が静止している間)三次元環境内の更新ポジション(例えば、現実模倣関係に基づいて判定される個別のポジションであるポジション、第1のユーザの仮想表現又は三次元環境の現在表示されているビューの視点から閾値距離外のポジションなど)に表示され(例えば、第1のユーザインタフェースオブジェクトはそこに移動するように示され)、三次元環境内の更新ポジションは、第1の方式での第2の移動の結果として、第2の物理的環境内の第1のオブジェクトの更新ロケーションに対応する(例えば、第1のユーザインタフェースオブジェクトの外観及び表示ポジションは、現在表示されているビューの視点が維持されている間、三次元環境内の第1のユーザインタフェースオブジェクトの個別の三次元ポジションの変化に起因して変化する)。第2の物理的環境内の第1のオブジェクトの第2の移動の間(例えば、三次元環境内の第1のユーザインタフェースオブジェクトの移動を全体として引き起こす第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動の間)、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のオブジェクトの第2の移動の間の第2の物理的環境内の第1のオブジェクトの新たなロケーションに対応する、三次元環境内の新たなポジション)が、三次元環境の現在表示されているビューに関連付けられる視点に対応する三次元環境内の個別のポジションから閾値距離以下である(例えば、等しい、未満であるなど)(例えば、第2のユーザ又は仮想オブジェクトの表現は、離れてシフトされてなければ、第1のユーザの視点又は三次元環境内の仮想ポジションの閾値範囲内にある)という判定に従って、第1のユーザインタフェースオブジェクトは、第1のオブジェクトが第2の物理的環境で静止している間、三次元環境内の調整された更新ポジション(現実模倣マッピング関係に基づいて判定される個別のポジションからオフセットされたポジション、第1のユーザの仮想表現又は三次元環境の現在表示されているビューの視点から閾値距離外にあるポジションなど)に表示され(例えば、第1のユーザインタフェースオブジェクトはそこに移動するように示され)、三次元環境内の調整された更新ポジションは、第1の方式とは異なる第2の方式で第2の物理的環境内の第1のオブジェクトの更新ロケーションに対応する。例えば、いくつかの実施形態では、第2のユーザ又は仮想オブジェクトが、現在表示されているビューの視点又は三次元環境内の第1のユーザの仮想ポジションに向かう移動に対応する第2の物理的環境内の方向に移動するとき、第1のユーザインタフェースオブジェクトは、第2のユーザ又は仮想オブジェクトの表現が三次元環境内の第1のユーザの視点又は仮想ポジションの閾値距離を超えようとしているときに、第1のユーザの視点又は仮想ポジションから離れるように押す、及び/又は第1のユーザの視点又は仮想ポジションに近づきすぎるのを防ぐ磁気又は静電反発力などのシミュレートされた物理力の影響下にあるように見える。第2のユーザ及び仮想オブジェクトの表現は、視覚的衝突回避オフセットをトリガするための条件がもはや満たされなくなった後、デフォルトの現実模倣マッピング関係を使用して計算されたそれらの元の移動経路に復元される。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、第1のユーザとの仮想会議通話中の第2のユーザを表す浮動会話アバターである。第2のユーザが、第1のユーザの仮想ポジションに向かう三次元環境内の移動に対応する方向に歩くとき、第2のユーザの浮動会話アバターは、第1のユーザの仮想ポジションの仮想ポジションの周りを移動し、第1のユーザの仮想ポジションに近づきすぎることはない。これは、第2の物理的環境内の第2のユーザの移動と三次元環境内の第2のユーザのアバターの移動との間のデフォルトのマッピング関係に基づいて計算された通常の移動に加えて実行される修正である。 In some embodiments, detecting at least one of a movement of a first user (e.g., user 7002 of Figures 7D-7F, or another user) in a first physical environment (e.g., scene 105-a of Figures 7D-7F, or another scene) and a movement of a first object (e.g., user 7102 of Figures 7D-7F, or another person or object) in a second physical environment (e.g., scene 105-b, or another scene) includes detecting a second movement of the first object in the second physical environment while the first user is stationary in the first physical environment. During a second movement of the first object within the second physical environment (e.g., during a movement of the first object (e.g., a second user, an animal, a flying drone, etc.) as a whole that moves the first user interface object in the three dimensional environment), pursuant to a determination that a respective position of the first user interface object within the three dimensional environment that corresponds to a respective location of the first object within the second physical environment in a first manner (e.g., a new position within the three dimensional environment that corresponds to a new location of the first object within the second physical environment during the second movement of the first object) is more than a threshold distance from a respective position within the three dimensional environment that corresponds to a viewpoint associated with a currently displayed view of the three dimensional environment (e.g., a representation of the second user or virtual object is outside a threshold range of the first user's viewpoint or virtual position within the three dimensional environment). Then, the first user interface object is displayed (e.g., the first user interface object is shown moving to) at an updated position within the three dimensional environment (e.g., a position that is an individual position determined based on a reality-mimicking relationship, a position that is outside a threshold distance from the virtual representation of the first user or the viewpoint of the currently displayed view of the three dimensional environment, etc.) (e.g., while the viewpoint of the currently displayed view of the three dimensional environment is stationary), where the updated position within the three dimensional environment corresponds to an updated location of the first object in the second physical environment as a result of the second movement in the first manner (e.g., the appearance and display position of the first user interface object changes due to the change in the individual three dimensional position of the first user interface object within the three dimensional environment while the viewpoint of the currently displayed view is maintained). During a second movement of the first object within the second physical environment (e.g., during a movement of the first object (e.g., a second user, an animal, a flying drone, etc.) that collectively causes a movement of the first user interface object within the three dimensional environment), individual positions of the first user interface object within the three dimensional environment that correspond to individual locations of the first object within the second physical environment in a first manner (e.g., new positions within the three dimensional environment that correspond to new locations of the first object within the second physical environment during the second movement of the first object) are less than or equal to (e.g., equal to, less than, etc.) a threshold distance from individual positions within the three dimensional environment that correspond to a viewpoint associated with a currently displayed view of the three dimensional environment (e.g., a viewpoint associated with a viewpoint of the second user or In accordance with a determination that the representation of the virtual object is within a threshold range of the first user's viewpoint or virtual position in the three dimensional environment, unless shifted away, the first user interface object is displayed (e.g., the first user interface object is shown moving to) at an adjusted updated position in the three dimensional environment (e.g., a position offset from the individual position determined based on the reality-mimicking mapping relationship, a position that is outside a threshold distance from the viewpoint of the first user's virtual representation or currently displayed view of the three dimensional environment, etc.) while the first object is stationary in the second physical environment, and the adjusted updated position in the three dimensional environment corresponds to the updated location of the first object in the second physical environment in a second manner that is different from the first manner. For example, in some embodiments, when the second user or virtual object moves in a direction in the second physical environment corresponding to movement towards the currently displayed view's viewpoint or the first user's virtual position in the three-dimensional environment, the first user interface object appears to be under the influence of simulated physical forces, such as magnetic or electrostatic repulsion, that push it away from the first user's viewpoint or virtual position and/or prevent it from getting too close to the first user's viewpoint or virtual position when the representation of the second user or virtual object is about to exceed a threshold distance of the first user's viewpoint or virtual position in the three-dimensional environment. The representations of the second user and virtual object are restored to their original movement paths, calculated using the default reality-mimicking mapping relationship, after the conditions for triggering the visual collision avoidance offset are no longer met. In some embodiments, the first user interface object is a floating conversational avatar representing the second user in a virtual conference call with the first user. When the second user walks in a direction corresponding to the movement in the three-dimensional environment towards the virtual position of the first user, the floating conversational avatar of the second user moves around the virtual position of the first user and does not get too close to the virtual position of the first user. This is a modification performed in addition to the normal movement calculated based on the default mapping relationship between the movement of the second user in the second physical environment and the movement of the second user's avatar in the three-dimensional environment.

第1のユーザが第1の物理的環境内で静止している間に第2の物理的環境内の第1のオブジェクトの第2の移動を検出し、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離を超えるという判定に従って、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションに第1のユーザインタフェースオブジェクトを表示し、第1のユーザが第2の物理的環境内で静止している間、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下であるという判定に従って、第1の方式とは異なる第2の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の調整されたポジションに第1のユーザインタフェースオブジェクトを表示することは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整する更なるユーザ入力)を必要とすることなく条件のセットが満たされたときに、適切なポジションに第1のユーザインタフェースオブジェクトを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Detecting a second movement of the first object in the second physical environment while the first user is stationary in the first physical environment, and displaying the first user interface object at a respective position of the first user interface object in the three dimensional environment that corresponds to the respective location of the first object in the second physical environment in the first manner in accordance with a determination that a respective position of the first user interface object in the three dimensional environment that corresponds to the respective location of the first object in the second physical environment in the first manner exceeds a threshold distance from a respective position in the three dimensional environment that corresponds to a viewpoint associated with a currently displayed view of the three dimensional environment, and displaying the first user interface object at a respective position of the first user interface object in the three dimensional environment that corresponds to the respective location of the first object in the second physical environment in the first manner in accordance with a determination that a respective position of the first user interface object in the three dimensional environment that exceeds a threshold distance from a respective position in the three dimensional environment that corresponds to a viewpoint associated with a currently displayed view of the three dimensional environment in the first manner while the first user is stationary in the second physical environment. Displaying the first user interface object at an adjusted position in the three dimensional environment corresponding to the individual location of the first object in the second physical environment in a second manner different from the first manner in accordance with a determination that the individual position of the first user interface object in the three dimensional environment is less than or equal to a threshold distance from the individual position in the three dimensional environment corresponding to the viewpoint associated with the currently displayed view of the three dimensional environment displays the first user interface object in an appropriate position when a set of conditions is met without requiring further user input (e.g., further user input adjusting the position of the first user interface object). Performing an action when a set of conditions is met without requiring further user input enhances operability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の物理的環境(例えば、図7D~図7Fのシーン105又は別のシーンなど)内の第1のユーザ(例えば、図7D~図7Fのユーザ7002又は別のユーザなど)の移動及び第2の物理的環境(例えば、シーン105-b又は別のシーンなど)内の第1のオブジェクト(例えば、図7D~図7Fのユーザ7102又は別の人若しくはオブジェクトなど)の移動のうちの少なくとも1つを検出することは、第1の物理的環境内の第1のユーザの第3の移動(例えば、図7D~図7Fの経路7300に沿った第1のユーザ7002の移動又は別の経路に沿った移動など)及び第2の物理的環境内の第1のオブジェクトの第4の移動(例えば、図7D~図7Fの経路7302に沿った第2のユーザ7102又は7102によって表されるオブジェクトの移動又は別の経路に沿った移動など)を同時に検出することを含む。いくつかの実施形態では、第1の物理的環境内の第1のユーザの第3の移動を検出することは、第1のユーザと並べて配置されたセンサを使用して実行され、第1のオブジェクトの第4の移動を検出することは、任意選択的に、第1のオブジェクトと並べて配置されたセンサを使用して、及び/又は別のコンピュータシステムから受信された第1のユーザインタフェースオブジェクトの未調整の更新ポジションに従って実行される。第1の物理的環境内の第1のユーザの第3の移動及び第2の物理的環境内の第1のオブジェクトの第4の移動の少なくとも一方の間(例えば、三次元環境内の第1のユーザインタフェースオブジェクトの移動を全体として引き起こす第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動と、三次元環境の現在表示されているビューの視点の移動及び/又は三次元環境内の第1のユーザの仮想ポジションの移動を全体として引き起こす第1のユーザの移動の間)、第1の方式で第2の物理的環境内の第1のオブジェクトのロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のオブジェクトの第4の移動中、第2の物理的環境内の第1のオブジェクトの新たなロケーションに対応する、三次元環境内の新たなポジション)が、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジション(例えば、現実模倣関係に従って、第1の物理的環境内の第1のユーザの第3の移動により更新された)から閾値距離を超えている(例えば、第2のユーザ又は仮想オブジェクトの表現が、第1のユーザの第3の移動により更新されている第1のユーザの視点又は三次元環境内の仮想ポジションの閾値範囲外である)という判定に従って、第1のユーザインタフェースオブジェクトは、(例えば、三次元環境の現在表示されているビューの視点が、第1のユーザの第3の移動に従って更新されている間)三次元環境内の更新ポジション(例えば、現実模倣関係に基づいて判定される個別のポジションであるポジション、第1のユーザの仮想表現又は三次元環境の現在表示されているビューの視点からの閾値距離外にあるポジション、など)に表示され(例えば、そこに移動するように示され)、三次元環境内の更新ポジションは、第1の方式での第4の移動の結果として第2の物理的環境内の第1のオブジェクトの更新ロケーションに対応する(例えば、現在表示されているビューの視点が第1のユーザの第3の移動に従って更新される間、第1のユーザインタフェースオブジェクトの外観及びロケーションは、三次元環境内の第1のユーザインタフェースオブジェクトの個別の三次元ポジションの変化により第1のユーザに視覚的に変化する)。第1の物理的環境内の第1のユーザの第3の移動及び第2の物理的環境内の第1のオブジェクトの第4の移動の少なくとも一方の間(例えば、三次元環境内の第1のユーザインタフェースオブジェクトの移動を全体として引き起こす第1のオブジェクト(例えば、第2のユーザ、動物、飛行ドローンなど)の移動と、三次元環境の現在表示されているビューの視点の移動及び/又は三次元環境内の第1のユーザの仮想ポジションの移動を全体として引き起こす第1のユーザの移動の間)、第1の方式の第2の物理的環境内の第1のオブジェクトのロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジション(例えば、第1のオブジェクトの第2の移動中、第2の物理的環境内の第1のオブジェクトの新たなロケーションに対応する、三次元環境内の新たなポジション)が(例えば、現実模倣関係に従って第1の物理的環境内の第1のユーザの第3の移動に従って更新された)三次元環境の現在表示されているビューに関連する視点に対応する三次元環境内の個別のポジションからの閾値距離を超えない(例えば、等しい、未満であるなど)(例えば、第2のユーザ又は仮想オブジェクトの表現が、離れてシフトされていない場合、三次元環境内の第1のユーザの視点又は仮想ポジションの閾値範囲内にある)という判定に従って、第1のユーザインタフェースオブジェクトは、三次元環境内の調整された更新ポジション(例えば、現実模倣関係に基づいて判定される個別のポジションからオフセットされるポジション、第1のユーザの仮想表現又は三次元環境の現在表示されているビューの視点からの閾値距離外にあるポジションなど)で表示され(例えば、そこに移動するように示され)、三次元環境内の更新ポジションは、第1の方式(及び、任意選択的に、第2の方式)と異なる第3の方式(例えば、第1のオブジェクトの第4の移動と第1のユーザの第3の移動の両方を考慮に入れて)で第2の物理的環境内の第1のオブジェクトのロケーションに対応する。例えば、いくつかの実施形態では、第2のユーザ又は仮想オブジェクトが、現在表示されているビューの視点又は三次元環境内の第1のユーザの仮想ポジションに向かう移動に対応する第2の物理的環境内の方向に移動し、及び/又は第1のユーザが、三次元環境内の第2のユーザ又は仮想オブジェクトの表現に向かう移動に対応する第1の物理的環境内の方向に移動するとき、第1のユーザインタフェースオブジェクトは、第2のユーザ又は仮想オブジェクトの表現が三次元環境内の第1のユーザの変化する視点又は仮想ポジションの閾値距離を超えようとしているときに、第1のユーザの視点又は仮想ポジションから離れるように押す、及び/又は第1のユーザの視点又は仮想ポジションに近づきすぎるのを防ぐ別の力の影響下にあるように見える。第2のユーザ及び仮想オブジェクトの表現は、衝突回避オフセットをトリガするための条件がもはや満たされなくなった後、デフォルトの現実模倣マッピング関係を使用して計算されたそれらの元の移動経路に復元される。いくつかの実施形態では、第1のユーザの仮想ポジション又は三次元環境の現在表示されているビューの視点は、第2の物理的環境内の第2のユーザ又は仮想オブジェクトの移動及び現在ロケーションにかかわらず、第1の方式(例えば、現実模倣方式、予め設定された第1のマッピング関係など)で第1の物理的環境内の第1のユーザのロケーションに対応する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、第1のユーザとの仮想会議通話中の第2のユーザを表す浮動会話アバターであり、第1のユーザ及び第2のユーザがそれぞれそれらの物理的環境内を歩くとき、三次元環境内の第1のユーザ及び第2のユーザの仮想ポジションは、第1のユーザ及び第2のユーザにそれぞれ適用されるいくつかの予め設定されたデフォルトマッピング関係に従って、第1のユーザ及び第2のユーザの移動に基づいて判定される。例えば、第1のユーザ及び第2のユーザの仮想ポジションは、第1のユーザ又は第2のユーザがそれぞれの物理的環境内でかなりの移動距離を実行した場合であっても、同じ共通仮想空間に限定される。デフォルトマッピングが、三次元環境内の第1のユーザ及び第2のユーザの仮想ポジションの視覚的衝突をもたらす場合、(第1のユーザによって第1の表示生成コンポーネントを介して見られるとき)第2のユーザの浮動会話アバターは、浮動会話アバターが第1のユーザの仮想ポジションに近づきすぎるにつれて、邪魔にならないように移動する。同時に、第1のユーザの浮動会話アバターは(第2のユーザによって第2の表示生成コンポーネントを介して見られるとき)、浮動会話アバターが第2のユーザの仮想ポジションに近づきすぎるにつれて、邪魔にならないように移動する。 In some embodiments, detecting at least one of a movement of a first user (e.g., user 7002 of FIGS. 7D-7F or another user) in a first physical environment (e.g., scene 105 of FIGS. 7D-7F or another scene) and a movement of a first object (e.g., user 7102 of FIGS. 7D-7F or another person or object) in a second physical environment (e.g., scene 105-b or another scene) includes simultaneously detecting a third movement of the first user in the first physical environment (e.g., movement of the first user 7002 along path 7300 of FIGS. 7D-7F or movement along another path) and a fourth movement of the first object in the second physical environment (e.g., movement of the second user 7102 or an object represented by 7102 along path 7302 of FIGS. 7D-7F or movement along another path). In some embodiments, detecting a third movement of the first user within the first physical environment is performed using a sensor positioned in-line with the first user, and detecting a fourth movement of the first object is, optionally, performed using a sensor positioned in-line with the first object and/or according to an unadjusted updated position of the first user interface object received from another computer system. During at least one of the third movement of the first user within the first physical environment and the fourth movement of the first object within the second physical environment (e.g., during a movement of the first object (e.g., a second user, an animal, a flying drone, etc.) that collectively causes a movement of the first user interface object within the three dimensional environment and a movement of the first user that collectively causes a movement of a viewpoint of the currently displayed view of the three dimensional environment and/or a movement of a virtual position of the first user within the three dimensional environment), a respective position of the first user interface object within the three dimensional environment that corresponds to a location of the first object within the second physical environment in a first manner (e.g., during the fourth movement of the first object, a new position within the three dimensional environment that corresponds to a new location of the first object within the second physical environment) is more than a threshold distance away from a respective position within the three dimensional environment that corresponds to a viewpoint associated with the currently displayed view of the three dimensional environment (e.g., updated due to the third movement of the first user within the first physical environment in accordance with a reality-mimicking relationship). In accordance with a determination that the representation of the virtual object is outside a threshold range of the first user's viewpoint or virtual position within the three dimensional environment being updated due to the third movement of the first user, the first user interface object is displayed (e.g., shown to move to) at an updated position within the three dimensional environment (e.g., a position that is a discrete position determined based on the reality-mimicking relationship, a position that is outside a threshold distance from the viewpoint of the virtual representation of the first user or the currently displayed view of the three dimensional environment, etc.) (e.g., while the viewpoint of the currently displayed view of the three dimensional environment is updated according to the third movement of the first user), where the updated position within the three dimensional environment corresponds to an updated location of the first object in the second physical environment as a result of the fourth movement in the first manner (e.g., an appearance and location of the first user interface object visually changes to the first user due to a change in the first user's discrete three dimensional position within the three dimensional environment while the viewpoint of the currently displayed view is updated according to the third movement of the first user). During at least one of a third movement of the first user within the first physical environment and a fourth movement of the first object within the second physical environment (e.g., during a movement of the first object (e.g., a second user, an animal, a flying drone, etc.) that collectively causes a movement of the first user interface object within the three dimensional environment and a movement of the first user that collectively causes a movement of a viewpoint of the currently displayed view of the three dimensional environment and/or a movement of a virtual position of the first user within the three dimensional environment), a respective position of the first user interface object within the three dimensional environment that corresponds to a location of the first object within the second physical environment in the first manner (e.g., a new position within the three dimensional environment that corresponds to a new location of the first object within the second physical environment during the second movement of the first object) is updated (e.g., updated in accordance with the third movement of the first user within the first physical environment in accordance with a reality-mimicking relationship) in the currently displayed view of the three dimensional environment. pursuant to a determination that the first user interface object is not more than (e.g., equal to, less than, etc.) a threshold distance from a respective position in the three dimensional environment corresponding to a viewpoint associated with the first user (e.g., within a threshold range of the first user's viewpoint or virtual position in the three dimensional environment if the representation of the second user or virtual object has not been shifted away), the first user interface object is displayed (e.g., shown to move to) at an adjusted updated position in the three dimensional environment (e.g., a position that is offset from the respective position determined based on the reality-mimicking relationship, a position that is outside the threshold distance from the viewpoint of the virtual representation of the first user or the currently displayed view of the three dimensional environment, etc.), where the updated position in the three dimensional environment corresponds to the location of the first object in the second physical environment in a third manner (e.g., taking into account both the fourth movement of the first object and the third movement of the first user) different from the first manner (and, optionally, the second manner). For example, in some embodiments, when a second user or virtual object moves in a direction in the second physical environment corresponding to movement towards the currently displayed view's viewpoint or the first user's virtual position in the three-dimensional environment and/or the first user moves in a direction in the first physical environment corresponding to movement towards a representation of the second user or virtual object in the three-dimensional environment, the first user interface object appears to be under the influence of another force that pushes it away from the first user's viewpoint or virtual position and/or prevents it from getting too close to the first user's viewpoint or virtual position when the representation of the second user or virtual object is about to cross a threshold distance of the first user's changing viewpoint or virtual position in the three-dimensional environment. The representations of the second user and virtual object are restored to their original movement paths calculated using the default reality-mimetic mapping relationships after the conditions for triggering the collision avoidance offsets are no longer met. In some embodiments, the virtual position of the first user or the viewpoint of the currently displayed view of the three-dimensional environment corresponds to the location of the first user in the first physical environment in a first manner (e.g., a reality-mimicking manner, a first preset mapping relationship, etc.), regardless of the movement and current location of the second user or virtual object in the second physical environment. In some embodiments, the first user interface object is a floating conversation avatar representing the second user in a virtual conference call with the first user, and when the first user and the second user walk in their physical environment, respectively, the virtual positions of the first user and the second user in the three-dimensional environment are determined based on the movements of the first user and the second user according to some preset default mapping relationship applied to the first user and the second user, respectively. For example, the virtual positions of the first user and the second user are confined to the same common virtual space even if the first user or the second user performs a significant movement distance in their respective physical environments. If the default mapping results in a visual collision of the first and second user's virtual positions within the three-dimensional environment, the second user's floating conversation avatar (as viewed by the first user via the first display generation component) moves out of the way as the floating conversation avatar gets too close to the first user's virtual position. At the same time, the first user's floating conversation avatar (as viewed by the second user via the second display generation component) moves out of the way as the floating conversation avatar gets too close to the second user's virtual position.

第1の物理的環境内の第1のユーザの第3の移動と第2の物理的環境内の第1のオブジェクトの第4の移動を同時に検出し、第1の方式での第2の物理的環境内の第1のオブジェクトのロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離超であるという判定に従って、第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境の第1のユーザインタフェースオブジェクトの個別のポジションに第1の方式で第1のユーザインタフェースオブジェクトを表示し、第2の物理的環境内の第1のオブジェクトのロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離を超えないという判定に従って、第2の物理的環境内の第1のオブジェクトの個別のロケーションに第1の方式で対応する三次元環境内の調整されたポジションに第1のユーザインタフェースオブジェクトを第1の方式とは異なる第3の方式で表示することは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整する更なるユーザ入力)を必要とすることなく条件のセットが満たされたときに、適切なポジションで第1のユーザインタフェースオブジェクトを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Concurrently detecting a third movement of the first user within the first physical environment and a fourth movement of the first object within the second physical environment, and displaying the first user interface object in the first manner at a respective position of the first user interface object in the three dimensional environment corresponding to the respective location of the first object in the second physical environment in accordance with a determination that the respective position of the first user interface object in the three dimensional environment corresponding to the respective location of the first object in the second physical environment in accordance with a determination that the respective position of the first user interface object in the three dimensional environment corresponding to the respective position ... Displaying the first user interface object in a third manner different from the first manner at an adjusted position in the three-dimensional environment that corresponds in the first manner to a respective location of the first object in the second physical environment in accordance with a determination that the respective position of the first user interface object in the three-dimensional environment corresponding to the respective position in the three-dimensional environment corresponding to the viewpoint associated with the currently displayed view of the three-dimensional environment is not more than a threshold distance from the respective position in the three-dimensional environment corresponding to the viewpoint associated with the currently displayed view of the three-dimensional environment, displays the first user interface object in an appropriate position when a set of conditions is met without requiring further user input (e.g., further user input adjusting the position of the first user interface object). Performing an action when a set of conditions is met without requiring further user input improves operability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のオブジェクトは、第2の物理的環境(例えば、図7D~図7Fのシーン105-b)内に位置する第2のユーザ(例えば、図7D~図7Fの第2のユーザ7102、又は別のユーザなど)であり、第1のユーザ(例えば、第1のユーザ7002)及び第2のユーザ(例えば、第2のユーザ7102)は、三次元環境(例えば、図7D~図7Fの表示生成コンポーネント7100及び7200を介して見られる環境)を少なくとも部分的に共有する(例えば、両方のユーザが同時に三次元環境の少なくとも一部を見る、少なくとも一部にアクセスする、及び/又は少なくとも一部と相互作用することができる)。例えば、第2のユーザには、第2のコンピュータシステムと通信している第2の表示生成コンポーネントを介して三次元環境のビューが提供される。第2の物理的環境内の第2のユーザのロケーションは、第2のコンピュータシステムと通信している1つ以上のセンサによって検出される。いくつかの実施形態では、第2のコンピュータシステムは、第2の物理的環境を表すデータを送信し、第1のコンピュータシステムは、第2の物理的環境を表すデータを受信し、第1のコンピュータシステム及び第2のコンピュータシステムは両方とも、第2の物理的環境の表現(例えば、第2の物理的環境のカメラビュー又はパススルービュー)を表示する。いくつかの実施形態では、第1のコンピュータシステムは、第1の物理的環境を表すデータを送信し、第2のコンピュータシステムは、第1の物理的環境を表すデータを受信し、第1のコンピュータシステム及び第2のコンピュータシステムは両方とも、第1の物理的環境の表現(例えば、第1の物理的環境のカメラビュー又はパススルービュー)を表示する。いくつかの実施形態では、第1のコンピュータシステム及び第2のコンピュータシステムは両方とも、仮想環境(例えば、仮想会議室、ゲーム世界など)の表現、又は第1の物理的環境及び第2の物理的環境とは異なる第3の物理的環境(例えば、第1のユーザ及び第2のユーザとは異なり、第1のユーザ及び第2のユーザと三次元環境を共有している第3のユーザの物理的環境など)の表現を表示する。いくつかの実施形態では、第1の表示生成コンポーネントを介して第1のユーザに提供される三次元環境のビュー内で、第2のユーザの表示ポジションが視覚的衝突回避シフト/オフセットで(例えば、第2の方式で、第2の衝突回避マッピング関係でなどで)修正されるとき、第2の表示生成コンポーネントを介して第2のユーザに提供される三次元環境のビューは、代わりに、第1のユーザの表示ポジションが視覚的衝突回避シフト/オフセットで修正されるが、第2のユーザのロケーションに基づく三次元環境の視点はそのようなシフト又はオフセットを有さないことを示す。 In some embodiments, the first object is a second user (e.g., second user 7102 of FIGS. 7D-7F, or another user, etc.) located in a second physical environment (e.g., scene 105-b of FIGS. 7D-7F), and the first user (e.g., first user 7002) and the second user (e.g., second user 7102) at least partially share (e.g., both users can simultaneously view, access, and/or interact with at least a portion of) the three-dimensional environment (e.g., the environment as viewed via display generation components 7100 and 7200 of FIGS. 7D-7F). For example, the second user is provided with a view of the three-dimensional environment via a second display generation component in communication with the second computer system. The location of the second user in the second physical environment is detected by one or more sensors in communication with the second computer system. In some embodiments, the second computer system transmits data representing the second physical environment, the first computer system receives the data representing the second physical environment, and both the first computer system and the second computer system display a representation of the second physical environment (e.g., a camera view or a pass-through view of the second physical environment). In some embodiments, the first computer system transmits data representing the first physical environment, the second computer system receives the data representing the first physical environment, and both the first computer system and the second computer system display a representation of the first physical environment (e.g., a camera view or a pass-through view of the first physical environment). In some embodiments, both the first computer system and the second computer system display a representation of a virtual environment (e.g., a virtual conference room, a game world, etc.) or a representation of a third physical environment that is different from the first physical environment and the second physical environment (e.g., a physical environment of a third user that is different from the first user and the second user and that shares a three-dimensional environment with the first user and the second user, etc.). In some embodiments, when a second user's viewing position is modified with a visual collision avoidance shift/offset (e.g., in a second manner, with a second collision avoidance mapping relationship, etc.) within a view of the three-dimensional environment provided to a first user via a first display generation component, a view of the three-dimensional environment provided to a second user via a second display generation component instead indicates that the first user's viewing position is modified with a visual collision avoidance shift/offset, but that a viewpoint of the three-dimensional environment based on the second user's location has no such shift or offset.

第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下という判定に従って、第1のユーザインタフェースオブジェクトを三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションに表示し、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離を超えるという判定に従って、第1のユーザインタフェースオブジェクトを三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションからオフセットされている三次元環境の第2のビュー内の第2の表示ポジションに表示し、第1のオブジェクトは、第2の物理的環境に位置する第2のユーザであり、第1のユーザ及び第2のユーザは、三次元環境を少なくとも部分的に共有することは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整する更なるユーザ入力)を必要とすることなく条件のセットが満たされたときに、適切なポジションで第1のユーザインタフェースオブジェクトを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 displaying the first user interface object at the individual position of the first user interface object in the three dimensional environment in accordance with a determination that the individual position of the first user interface object in the three dimensional environment, which corresponds to the individual location of the first object in the second physical environment in a first manner, is within a threshold distance from the individual position in the three dimensional environment corresponding to a viewpoint associated with the currently displayed view of the three dimensional environment; and In accordance with the determination that the first user interface object exceeds a threshold distance from the respective position in the three-dimensional environment, displaying the first user interface object at a second display position in a second view of the three-dimensional environment that is offset from the respective position of the first user interface object in the three-dimensional environment, the first object being a second user located in the second physical environment, and the first user and the second user at least partially sharing the three-dimensional environment displaying the first user interface object in an appropriate position when a set of conditions is met without requiring further user input (e.g., further user input adjusting the position of the first user interface object). Performing an action when a set of conditions is met without requiring further user input improves usability of the device, as well as reducing power usage and improving battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第2の表示生成コンポーネント(例えば、表示生成コンポーネント7200、又は別の表示生成コンポーネントなど)を介して第2のユーザ(例えば、ユーザ7102、又は別のユーザなど)に表示される三次元環境の第3のビュー(例えば、図7F(B)に示すビュー7304-b)において、第1の方式(例えば、例えば、現実模倣方式に従って判定される、予め設定された第1のマッピング関係など)で第1の物理的環境(例えば、図7D~図7Fのシーン105-a)内の第1のユーザ(例えば、図7D~図7Fのユーザ7002、別のユーザなど)の個別のロケーションに対応する、三次元環境内の第2のユーザインタフェースオブジェクト(例えば、図7Fの表現7002’-b、別の表現など)(例えば、第1のユーザのアバター、第1のユーザを表すトーキングヘッドなど)の個別のポジションが、三次元環境の第3のビューに関連付けられる第3の視点に対応する三次元環境内の個別のポジション(例えば、三次元環境内の第2のユーザの仮想ポジション)からの閾値距離を超えないという反対に従って、コンピュータシステムは、三次元環境の第3のビュー内の修正されたポジションで第2のユーザインタフェースオブジェクト(例えば、第1のユーザ7002の表現7002’-b)を表示し、修正されるポジションは、第1の方式(例えば、現実模倣方式に従って判定される、予め設定された第1のマッピング関係など)で第1の物理的環境内の第1のユーザの個別のロケーションに対応する、三次元環境内の第2のユーザインタフェースオブジェクトの個別のポジションからオフセットされる(例えば、図7F(B)に示されるように、第1のユーザ7002の表現7102’-bのポジションがビュー7304-b’’内の表現7102’-bの真正面にあるはずであっても、第1のユーザ7002の表現7002’-bは、第2のユーザ7102に示されるビュー7304-b’’内の表現7102’-bの右側に表示される)。 In some embodiments, in a third view (e.g., view 7304-b shown in FIG. 7F(B)) of the three-dimensional environment displayed to a second user (e.g., user 7102, or another user, etc.) via a second display generation component (e.g., display generation component 7200, or another display generation component, etc.), individual positions of a second user interface object (e.g., representation 7002'-b of FIG. 7F, another representation, etc.) in the three-dimensional environment (e.g., an avatar of the first user, a talking head representing the first user, etc.) that corresponds to an individual location of the first user (e.g., user 7002 of FIG. 7D-FIG. 7F, another user, etc.) in the first physical environment (e.g., scene 105-a of FIG. 7D-FIG. 7F) in a first manner (e.g., a first predetermined mapping relationship, determined, for example, according to a reality-mimetic manner) are displayed in the three-dimensional environment corresponding to a third viewpoint associated with the third view of the three-dimensional environment ( For example, in accordance with the objection of not exceeding a threshold distance from the virtual position of the second user in the three-dimensional environment), the computer system displays the second user interface object (e.g., the representation 7002'-b of the first user 7002) at a modified position in the third view of the three-dimensional environment, the modified position being offset from the respective position of the second user interface object in the three-dimensional environment that corresponds to the respective location of the first user in the first physical environment in a first manner (e.g., a first pre-set mapping relationship determined according to a reality-mimicking manner, etc.) (e.g., as shown in FIG. 7F(B), the representation 7002'-b of the first user 7002 is displayed to the right of the representation 7102'-b in the view 7304-b'' shown to the second user 7102, even though the position of the representation 7102'-b of the first user 7002 should be directly in front of the representation 7102'-b in the view 7304-b'').

第1の方式で第1の物理的環境内の第1のユーザの個別のロケーションに対応する、三次元環境内の第2のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第3のビューに関連付けられた第3の視点に対応する三次元環境内の個別のポジションから閾値距離を超えないという判定に従って、第1の方式で第1の物理的環境内の第1のユーザの個別のロケーションに対応する、三次元環境内の第2のユーザインタフェースオブジェクトの個別のポジションからオフセットされた三次元環境の第3のビュー内の修正ポジションに第2のユーザインタフェースオブジェクトを表示することは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整するための更なるユーザ入力)を必要とせずに条件のセットが満たされたときに、適切なポジションに第1のユーザインタフェースオブジェクトを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the second user interface object at a modified position in the third view of the three dimensional environment offset from the individual position of the second user interface object in the three dimensional environment corresponding to the individual location of the first user in the first physical environment in a first manner in accordance with a determination that the individual position of the second user interface object in the three dimensional environment corresponding to the third viewpoint associated with the third view of the three dimensional environment in a first manner does not exceed a threshold distance from the individual position in the three dimensional environment corresponding to the third viewpoint associated with the third view of the three dimensional environment displays the first user interface object at an appropriate position when a set of conditions is met without requiring further user input (e.g., further user input to adjust the position of the first user interface object). Performing an action when a set of conditions is met without requiring further user input improves operability of the device, as well as reducing power usage and improving battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のオブジェクトは、第2の物理的環境に位置する物理的オブジェクトである(例えば、図7D~図7Fのユーザ7102は、いくつかの実施形態では、表示生成コンポーネント7200を使用する別のユーザではない物理的オブジェクトを表すことができる)。いくつかの実施形態では、三次元環境は、三次元環境を見る人とは異なる物理的環境内の他の物理的オブジェクトの表現を含む。例えば、いくつかの実施形態では、三次元環境は、任意選択的に、第1のユーザのためのハイキングコース上のシミュレートされた自然歩行の一部であり、第1のユーザの物理的環境とは異なる物理的ロケーションにおけるハイキングコース上の物理的環境のリアルタイムカメラフィード又は記録されたビデオを含む。第1のユーザが第1の物理的環境内で歩いており、ハイキングコースからの物理的環境のビューでシミュレートされた自然歩行を体験しているとき、野鳥、飛行ドローン、又は別のハイカーなどの物理的オブジェクトも、物理的オブジェクトの個別のポジションが第1のユーザの仮想ポジション(例えば、第1のユーザに現在示されているハイキングコースのビューの視点に対応するポジション、又はビュー内の第1のユーザの仮想表現のポジションなど)と視覚的衝突回避調整なしに重なるか、又はその閾値距離内にあるように、ハイキングコースを取り囲む物理的環境内で移動している場合、第1のユーザの体験は視覚的衝突によって妨害される(例えば、第1のユーザは、物理的オブジェクトが自分の頭又は体を通って走ったように感じる、及び/又はそのような感覚又は体験が生じるのを恐れるなど)。視覚的衝突が回避されるように、そのようなシナリオにおいて物理的オブジェクトの表現の表示ポジションを自動的に調整することによって、第1のユーザは、シミュレートされた自然歩行をより快適かつ円滑に体験することができる。別の例では、第1のオブジェクトは、ハイキングコース上の大きな岩、又はハイキングコースの中央に座っている人などの静止オブジェクトである。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、第1のユーザの仮想ポジションがハイキングコースのビュー内の大きな岩又は座っている人のポジションに近づくと、(例えば、デジタル画像編集手段を通じて)自動的に邪魔にならないように移動される。いくつかの実施形態では、第1のオブジェクトが(例えば、体験全体を通じて)静止した物理的オブジェクトであるという判定に従って、第1のコンピュータシステムは、任意選択的に、第1のユーザインタフェースオブジェクトが三次元環境の現在表示されているビュー内の第1のユーザの仮想ポジションに近すぎるとき、第1のユーザインタフェースオブジェクトを短時間表示することを停止する。 In some embodiments, the first object is a physical object located in a second physical environment (e.g., user 7102 of FIGS. 7D-7F may represent a physical object that is not another user using display generation component 7200 in some embodiments). In some embodiments, the three-dimensional environment includes representations of other physical objects in a different physical environment than the person viewing the three-dimensional environment. For example, in some embodiments, the three-dimensional environment is optionally part of a simulated natural walk on a hiking trail for the first user and includes a real-time camera feed or recorded video of the physical environment on the hiking trail in a different physical location than the first user's physical environment. When a first user is walking in a first physical environment and experiencing a simulated natural walk with a view of the physical environment from a hiking trail, if a physical object, such as a wild bird, a flying drone, or another hiker, is also moving in the physical environment surrounding the hiking trail such that the individual position of the physical object overlaps or is within a threshold distance of the virtual position of the first user (e.g., a position corresponding to the viewpoint of the view of the hiking trail currently shown to the first user, or the position of the virtual representation of the first user in the view, etc.) without visual collision avoidance adjustment, the first user's experience is disturbed by a visual collision (e.g., the first user feels that the physical object has run through his/her head or body and/or is afraid that such a sensation or experience will occur, etc.). By automatically adjusting the display position of the representation of the physical object in such a scenario so that visual collision is avoided, the first user can experience the simulated natural walk more comfortably and smoothly. In another example, the first object is a stationary object, such as a large rock on a hiking trail, or a person sitting in the middle of the hiking trail. In some embodiments, the first user interface object is automatically moved out of the way (e.g., through digital image editing means) when the first user's virtual position approaches a large rock or a seated person's position in the view of the hiking trail. In some embodiments, following a determination that the first object is a stationary physical object (e.g., throughout the experience), the first computer system optionally stops displaying the first user interface object for a short period of time when the first user interface object is too close to the first user's virtual position in the currently displayed view of the three-dimensional environment.

第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離を超えるという判定に従って、三次元環境内の第1のユーザインタフェースオブジェクトを三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションに表示し、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下という判定に従って、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションからオフセットされた三次元環境の第2のビュー内の第2の表示ポジションに第1のユーザインタフェースオブジェクトを表示し、第1のオブジェクトは第2の物理的環境に位置する物理的オブジェクトであり、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、第1のユーザインタフェースオブジェクトを適切なポジションに表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In accordance with a determination that an individual position of a first user interface object in the three dimensional environment, which corresponds to an individual location of a first object in the second physical environment in a first manner, exceeds a threshold distance from an individual position in the three dimensional environment corresponding to a viewpoint associated with a currently displayed view of the three dimensional environment, displaying the first user interface object in the three dimensional environment at an individual position of the first user interface object in the three dimensional environment; in accordance with a determination that an individual position of the first user interface object in the three dimensional environment, which corresponds to an individual location of the first object in the second physical environment in a first manner, is less than or equal to a threshold distance from an individual position in the three dimensional environment corresponding to a viewpoint associated with a currently displayed view of the three dimensional environment, displaying the first user interface object in a second display position in a second view of the three dimensional environment offset from the individual position of the first user interface object in the three dimensional environment, the first object being a physical object located in the second physical environment; and displaying the first user interface object in an appropriate position when a set of conditions is met without requiring further user input (e.g., further user input to adjust the position of the first user interface object). Executing an action when a set of conditions is met without requiring further user input improves the usability of the device, as well as reducing power usage and improving the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザインタフェースオブジェクト(例えば、図7D~図7Fにおける第2のユーザ7102の表現7102’-a)は、三次元環境において浮いている(例えば、別のオブジェクト又は表面に付着していない及び/又は接触している)オブジェクト(例えば、第2のユーザの浮動会話アバター、飛んでいる鳥の表現、飛んでいるドローンの表現など)である。いくつかの実施形態では、三次元環境の現在表示されているビュー内の無生物オブジェクトの表現も、同じようにして対応する視覚的衝突回避動作を有する。第1のユーザが移動して、三次元環境の現在表示されているビューの視点に対応する仮想ポジションを浮動仮想ランタン又はデジタルアシスタントの仮想表現に接近させると、浮動仮想ランタン又はデジタルアシスタントの仮想表現は、三次元環境の現在表示されているビュー内で自動的に側方に邪魔にならないように移動する。第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離を超えるという判定に従って、第1のユーザインタフェースオブジェクトを三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションに表示し、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた視点に対応する三次元環境内の個別のポジションから閾値距離以下という判定に従って、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションからオフセットされた三次元環境の第2のビュー内の第2の表示ポジションに第1のユーザインタフェースオブジェクトを表示し、第1のユーザインタフェースオブジェクトが、三次元環境内に浮動しているオブジェクトである、ことは、更なるユーザ入力(例えば、第1のユーザインタフェースオブジェクトのポジションを調整するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、第1のユーザインタフェースオブジェクトを適切なポジションに表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first user interface object (e.g., the representation 7102'-a of the second user 7102 in Figures 7D-7F) is an object (e.g., a floating conversational avatar of the second user, a flying bird representation, a flying drone representation, etc.) that floats in the three-dimensional environment (e.g., not attached to and/or in contact with another object or surface). In some embodiments, the representation of an inanimate object in the currently displayed view of the three-dimensional environment also has a corresponding visual collision avoidance behavior in the same manner. When the first user moves to bring a virtual position corresponding to the viewpoint of the currently displayed view of the three-dimensional environment closer to the floating virtual lantern or virtual representation of the digital assistant, the virtual representation of the floating virtual lantern or digital assistant automatically moves out of the way to the side in the currently displayed view of the three-dimensional environment. displaying the first user interface object at the first user interface object's individual position in the three dimensional environment in accordance with a determination that the individual position of the first user interface object in the three dimensional environment corresponding to the individual location of the first object in the second physical environment in a first manner exceeds a threshold distance from the individual position in the three dimensional environment corresponding to a viewpoint associated with the currently displayed view of the three dimensional environment; displaying the first user interface object at a second display position in the second view of the three dimensional environment offset from the individual position of the first user interface object in the three dimensional environment in accordance with a determination that the individual position of the first user interface object in the three dimensional environment corresponding to the individual location of the first object in the second physical environment in a first manner is not more than a threshold distance from the individual position in the three dimensional environment corresponding to a viewpoint associated with the currently displayed view of the three dimensional environment, wherein the first user interface object is an object floating in the three dimensional environment, displaying the first user interface object in the appropriate position when a set of conditions is satisfied without requiring further user input (e.g., further user input to adjust the position of the first user interface object). Executing an action when a set of conditions is met without requiring further user input improves the usability of the device, as well as reducing power usage and improving the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、三次元環境が第1の現実感レベルで表示されているという判定に従って、第1のユーザインタフェースオブジェクト(例えば、図7D~図7Fの第2のユーザ7102の表現7102’-a)は、第1の現実感レベルに対応する第1のセットの表示特性(例えば、第1の解像度、第1の次元数、第1の鮮明度、第1のカラーパレット、照明効果なしなど)で表示され、三次元環境が第1の現実感レベルとは異なる(例えば、より高い、より低いなど)第2の現実感レベルの現実感で表示されているという判定に従って、第1のユーザインタフェースオブジェクトは、第2の現実感レベルに対応する第2のセットの表示特性(例えば、第2の解像度、第2の次元数、第2の鮮明度、第2のカラーパレット、照明効果ありなど)で表示され、第2のセットの表示特性は、第1のセットの表示特性とは異なる(例えば、例えば、より高い、より低い、加算する、減算するなど)。例えば、いくつかの実施形態では、三次元環境が仮想三次元環境である場合、第1のユーザインタフェースオブジェクトは、固定された会話アニメーションを有する第2のユーザの三次元仮想モデルであり、三次元環境が拡張現実環境である場合、第1のユーザインタフェースオブジェクトは、第2のユーザのリアルタイムビデオ画像に従って生成される表情及び会話アニメーションを有する第2のユーザのより現実的な三次元モデルである。いくつかの実施形態では、コンピュータシステムは、共有体験の仮想モードから拡張現実モードに切り替えるユーザ(例えば、第1のユーザ、第2のユーザなど)の要求に応じて、三次元環境の表示を第1の現実感レベルから第2の現実感レベルに切り替える。いくつかの実施形態では、第1のユーザインタフェースオブジェクトは、三次元環境が単純で平坦で不透明な表面を有する場合、三次元環境内に浮動している第2のユーザの二次元画像であり、第1のユーザインタフェースオブジェクトは、三次元環境が物理的環境のより現実的な仮想レンダリングに切り替えられる場合、より精巧な顔の特徴及び照明効果を有する第2のユーザの三次元モデルになる。いくつかの実施形態では、第1のユーザインタフェースオブジェクトの現実感レベル及び/又は第1のユーザインタフェースオブジェクトが三次元環境においてどのようにレンダリングされるかを、三次元環境の現実感レベル及び/又は三次元環境がどのようにレンダリングされるかに自動的に一致させることは、第1のユーザインタフェースオブジェクトを三次元環境の自然で邪魔にならない部分に見せ、それによって第1のユーザの視聴体験を改善する。 In some embodiments, in accordance with a determination that the three-dimensional environment is displayed at a first level of reality, a first user interface object (e.g., representation 7102'-a of second user 7102 in FIGS. 7D-7F) is displayed with a first set of display characteristics corresponding to the first level of reality (e.g., a first resolution, a first number of dimensions, a first sharpness, a first color palette, no lighting effects, etc.), and in accordance with a determination that the three-dimensional environment is displayed at a second level of reality different (e.g., higher, lower, etc.) from the first level of reality, the first user interface object is displayed with a second set of display characteristics corresponding to the second level of reality (e.g., a second resolution, a second number of dimensions, a second sharpness, a second color palette, with lighting effects, etc.), and the second set of display characteristics differ from the first set of display characteristics (e.g., higher, lower, adding, subtracting, etc.). For example, in some embodiments, the first user interface object is a three-dimensional virtual model of the second user with fixed conversational animation when the three-dimensional environment is a virtual three-dimensional environment, and the first user interface object is a more realistic three-dimensional model of the second user with facial expressions and conversational animation generated according to a real-time video image of the second user when the three-dimensional environment is an augmented reality environment. In some embodiments, the computer system switches the display of the three-dimensional environment from a first reality level to a second reality level in response to a request of a user (e.g., the first user, the second user, etc.) switching from a virtual mode to an augmented reality mode of the shared experience. In some embodiments, the first user interface object is a two-dimensional image of the second user floating within the three-dimensional environment when the three-dimensional environment has simple, flat, opaque surfaces, and the first user interface object becomes a three-dimensional model of the second user with more elaborate facial features and lighting effects when the three-dimensional environment is switched to a more realistic virtual rendering of the physical environment. In some embodiments, automatically matching the level of realism of the first user interface object and/or how the first user interface object is rendered in the three-dimensional environment to the level of realism of the three-dimensional environment and/or how the three-dimensional environment is rendered makes the first user interface object appear a natural and unobtrusive part of the three-dimensional environment, thereby improving the viewing experience of the first user.

三次元環境が第1の現実感レベルで表示されているという判定に従って、第1の現実感レベルに対応する第1セットの表示特性で第1ユーザインタフェースオブジェクトを表示し、三次元環境が第1の現実感レベルとは異なる第2の現実感レベルで表示されているという判定に従って、第2の現実感レベルに対応する第1セットの表示特性とは異なる第2セットの表示特性で第1ユーザインタフェースオブジェクトを表示することは、ユーザに改善された視覚的フィードバック(例えば、三次元環境がどの現実感レベルで表示されているかに関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first user interface object with a first set of display characteristics corresponding to the first level of reality in accordance with a determination that the three-dimensional environment is displayed at a first level of reality, and displaying the first user interface object with a second set of display characteristics different from the first set of display characteristics corresponding to the second level of reality in accordance with a determination that the three-dimensional environment is displayed at a second level of reality different from the first level of reality provides improved visual feedback to the user (e.g., improved visual feedback regarding at which level of reality the three-dimensional environment is displayed). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、三次元環境の第2のビュー内の第2の表示ポジション(例えば、第1のユーザ7002に示されるビュー7304-a’’内の第2のユーザ7102の表現7102’-aの表示ポジション)は、第2の物理的環境(例えば、シーン105-b又は別のシーンなど)内の第1のオブジェクト(例えば、図7Fの第2のユーザ7102又は別のオブジェクトなど)の個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクト(例えば、第2のユーザ7102の表現7102’-a)の個別のポジションから第1の変位量だけ第1の方式で変位され、第1の変位量(例えば、第1の方向及び/又は第1の大きさなどを有する)は、第2の物理的環境内の第1のオブジェクトの第1の方式で移動(例えば、図7D~図7Fの経路7302に沿った移動、又は別の経路に沿った移動)に対応しない。いくつかの実施形態では、第1の変位量は、第2の物理的環境内の第1のオブジェクトの移動に全く対応しないか、又は第1の変位量は、第1の方式とは異なる個別の方式で第2の物理的環境内の第1のオブジェクトの移動に対応する。 In some embodiments, the second display position within the second view of the three-dimensional environment (e.g., the display position of the representation 7102'-a of the second user 7102 within view 7304-a'' shown to the first user 7002) is displaced in a first manner by a first displacement amount from a respective position of the first user interface object (e.g., the representation 7102'-a of the second user 7102) within the three-dimensional environment corresponding to a respective location of the first object (e.g., the second user 7102 or another object in FIG. 7F) within the second physical environment (e.g., scene 105-b or another scene), and the first displacement amount (e.g., having a first direction and/or a first magnitude, etc.) does not correspond to a movement in a first manner (e.g., movement along the path 7302 of FIGS. 7D-7F or movement along another path) of the first object in the second physical environment. In some embodiments, the first amount of displacement does not correspond to a movement of the first object in the second physical environment at all, or the first amount of displacement corresponds to a movement of the first object in the second physical environment in a separate manner that is different from the first manner.

第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションから閾値距離未満であるという判定に従って、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションから、第1の方式で第2の物理的環境内の第1のオブジェクトの移動に対応しない第1の変位量だけ変位する三次元環境の第2のビュー内の第2の表示ポジションに第1のユーザインタフェースオブジェクトを表示することは、ユーザに改良された視覚的フィードバックを提供する(例えば、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションから閾値距離未満であるという改良された視覚的フィードバック)。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In accordance with a determination that an individual position of the first user interface object in the three dimensional environment corresponding to an individual location of the first object in the second physical environment in a first manner is less than a threshold distance from an individual position in the three dimensional environment corresponding to a second viewpoint associated with the second view of the three dimensional environment, displaying the first user interface object at a second display position in the second view of the three dimensional environment that is displaced from the individual position of the first user interface object in the three dimensional environment corresponding to the individual location of the first object in the second physical environment in the first manner by a first displacement amount that does not correspond to a movement of the first object in the second physical environment in the first manner provides improved visual feedback to the user (e.g., improved visual feedback that the individual position of the first user interface object in the three dimensional environment corresponding to the individual location of the first object in the second physical environment in the first manner is less than a threshold distance from an individual position in the three dimensional environment corresponding to the second viewpoint associated with the second view of the three dimensional environment). Providing improved feedback improves the usability of the device, as well as reducing power usage and improving the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の変位量は、三次元環境の現在表示されているビューの視点(例えば、図7Fのビュー7304-a’’の視点)と、第2の物理的環境(例えば、シーン105-b、又は別のシーンなど)内の第1のオブジェクト(例えば、図7D~図7Fの第2のユーザ7102、又は別のユーザ若しくはオブジェクトなど)の個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクト(例えば、図7Fの第2のユーザ7102の表現7102’-a、又は別の表現など)の個別のポジションとの間の空間関係(例えば、距離及び相対ポジションなど)に従って第1の方式で判定される方向を有する。 In some embodiments, the first displacement amount has a direction that is determined in a first manner according to a spatial relationship (e.g., distance and relative position, etc.) between a viewpoint of a currently displayed view of the three-dimensional environment (e.g., the viewpoint of view 7304-a'' in FIG. 7F) and a respective position of a first user interface object (e.g., representation 7102'-a of second user 7102 in FIG. 7F, or another representation, etc.) in the three-dimensional environment that corresponds to a respective location of the first object (e.g., second user 7102 in FIG. 7D-FIG. 7F, or another user or object, etc.) in the second physical environment (e.g., scene 105-b, or another scene, etc.).

第1のユーザインタフェースオブジェクトを三次元環境の第2のビュー内の第2の表示ポジションであって、三次元環境の第2のビュー内の第2の表示ポジションが、三次元環境の現在表示されているビューの視点と第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションとの間の空間関係に従って第1の方式で判定される方向を有する第1の変位量だけ第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションから変位される、三次元環境の第2のビュー内の第2の表示ポジションに表示することは、ユーザに改善された視覚的フィードバック(例えば、現在表示されているビューの視点と第1のユーザインタフェースオブジェクトの個別のポジションとの間の空間関係に関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first user interface object at a second display position in the second view of the three-dimensional environment, where the second display position in the second view of the three-dimensional environment is displaced from a respective position of the first user interface object in the three-dimensional environment that corresponds to a respective location of the first object in the second physical environment in a first manner by a first displacement amount having a direction determined in a first manner according to a spatial relationship between a viewpoint of the currently displayed view of the three-dimensional environment and the respective position of the first user interface object in the three-dimensional environment that corresponds to the respective location of the first object in the second physical environment, provides the user with improved visual feedback (e.g., improved visual feedback regarding the spatial relationship between the viewpoint of the currently displayed view and the respective position of the first user interface object). Providing the improved feedback improves usability of the device, as well as reducing power usage and improving battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、三次元環境の第2のビュー(例えば、図7F(A)のビュー7304-a’’、又は別のビューなど)内の第2の表示ポジションは、第2の物理的環境(例えば、シーン105-b、別のシーンなど)内の第1のオブジェクト(例えば、第2のユーザ7102、別のユーザ又はオブジェクトなど)の個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクト(例えば、第2のユーザの表現7102’-a、別の表現など)の個別のポジションから第1の方式で第2の変位量(例えば、第1の変位量と同じ、第1の変位量とは異なるなど)だけ変位され、第2の変位量は、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションに向かう順方向とは異なる方向(例えば、垂直又は直交、左、右、上を指すなど)を有する(例えば、図7F(A)に示されるように、表現7102’-aは、そのポジションが第1のユーザ7002に示されるビュー7304-a’’内の視点の真正面にあるべきであっても、視点の側にシフトされる)。例えば、いくつかの実施形態では、第1のユーザインタフェースオブジェクトがどの方向から三次元環境の現在表示されているビュー(例えば、第2のビュー、又は後に表示される別のビューなど)に関連付けられた視点に対応する個別のポジションに近づいて到達しているかにかかわらず、第1のユーザインタフェースオブジェクトは、現在表示されているビューに関連付けられた視点に対応する個別のポジションの側方又は上方に偏向され、その結果、第1のユーザインタフェースオブジェクトの表示ポジションは、デフォルトの未調整方式(例えば、第1の方式、現実模倣方式、第1の予め設定されたマッピング関係など)に従ってそれぞれの物理的環境内の第1のユーザ及び/又は第1のオブジェクトの移動に基づいて計算された第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューに関連付けられた個別の視点に更に近づくか又は通過する場合であっても、視点に対応する個別のポジションを囲む制限された空間に入らない。いくつかの実施形態では、三次元環境の現在表示されているビューの視点に対応する個別のポジションの前の閾値距離に不可視ガラス壁があるかのように、第1の方式で第1のユーザ及び第1のオブジェクトの現在ロケーション及び移動履歴に基づいて計算された第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューの視点に対応する個別のポジションの閾値距離内になくなるまで、第1のユーザインタフェースオブジェクトを不可視ガラス壁に沿って側方又は上方にスライドさせる。この実装形態は、第1のユーザインタフェースオブジェクトが第1のユーザの視点又は第1のユーザの顔の仮想表現を横切ることを回避するのに役立つ。 In some embodiments, the second display position in a second view of the three-dimensional environment (e.g., view 7304-a'' in FIG. 7F(A), or another view, etc.) is calculated in a first manner from a distinct position of a first user interface object (e.g., representation 7102'-a of a second user, another representation, etc.) in the three-dimensional environment that corresponds to a distinct location of a first object (e.g., second user 7102, another user or object, etc.) in a second physical environment (e.g., scene 105-b, another scene, etc.). The representation 7102'-a is displaced by a second displacement amount (e.g., the same as the first displacement amount, different from the first displacement amount, etc.), the second displacement amount having a direction different from the forward direction (e.g., vertical or orthogonal, pointing left, right, up, etc.) toward a respective position in the three-dimensional environment corresponding to a second viewpoint associated with the second view of the three-dimensional environment (e.g., as shown in FIG. 7F(A), the representation 7102'-a is shifted toward the viewpoint even though its position should be directly in front of the viewpoint in the view 7304-a'' shown to the first user 7002). For example, in some embodiments, regardless of from which direction the first user interface object is approaching or reaching the individual position corresponding to the viewpoint associated with the currently displayed view of the three dimensional environment (e.g., the second view, or another view that is subsequently displayed, etc.), the first user interface object is biased to the side or above the individual position corresponding to the viewpoint associated with the currently displayed view, such that the displayed position of the first user interface object does not enter into the bounded space surrounding the individual position corresponding to the viewpoint, even if the individual position of the first user interface object calculated based on the movement of the first user and/or first object within the respective physical environment according to a default, unadjusted manner (e.g., the first manner, the reality-mimicking manner, the first pre-set mapping relationship, etc.) approaches further toward or passes through the individual viewpoint associated with the currently displayed view of the three dimensional environment. In some embodiments, the first user interface object is slid sideways or upwards along the invisible glass wall as if the invisible glass wall were at a threshold distance in front of the respective position corresponding to the viewpoint of the currently displayed view of the three-dimensional environment until the respective position of the first user interface object calculated in a first manner based on the current location and movement history of the first user and the first object is no longer within the threshold distance of the respective position corresponding to the viewpoint of the currently displayed view of the three-dimensional environment. This implementation helps to avoid the first user interface object crossing the viewpoint of the first user or the virtual representation of the first user's face.

第1のユーザインタフェースオブジェクトを三次元環境の第2のビュー内の第2の表示ポジションであって、三次元環境の第2のビュー内の第2の表示ポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションに向かう順方向とは異なる方向を有する第2の変位量だけ、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションから変位させる、三次元環境の第2のビュー内の第2の表示ポジションに表示することは、ユーザに改善された視覚的フィードバック(例えば、改善された視覚的フィードバック、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションから閾値距離未満であるという改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first user interface object at a second display position in the second view of the three-dimensional environment, where the second display position in the second view of the three-dimensional environment is displaced from a respective position of the first user interface object in the three-dimensional environment that corresponds to a respective location of the first object in the second physical environment in the first manner by a second displacement amount having a direction different from a forward direction toward the respective position in the three-dimensional environment that corresponds to a second viewpoint associated with the second view of the three-dimensional environment, provides the user with improved visual feedback (e.g., improved visual feedback that the respective position of the first user interface object in the three-dimensional environment that corresponds to a respective location of the first object in the second physical environment in the first manner is less than a threshold distance from the respective position in the three-dimensional environment that corresponds to a second viewpoint associated with the second view of the three-dimensional environment). Providing the improved feedback improves operability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、三次元環境の第2のビュー(例えば、図7Fのビュー7304-a’’)内の第2の表示ポジションは、第2の物理的環境(例えば、シーン105-b、又は別のシーンなど)内の第1のオブジェクト(例えば、図7Fのユーザ7102、別のユーザ又はオブジェクトなど)の個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクト(例えば、第2のユーザの表現7102’-a、別の表現など)の個別のポジションから、第1の方式で第3の変位量(例えば、第1の変位量と同じ、第1の変位量と異なるなど)だけ変位され、第3の変位量は、第1のユーザインタフェースオブジェクトと、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションとの間の接近方向(例えば、共通の中心を指す)とは異なる(例えば、垂直又は直交する、左に、右に、上方を指すなど)方向を有する(例えば、図7F(A)に示すように、表現7102’-aは、第1のユーザ7002に示されるビュー7304-a’’内の視点を通って直線的に移動すべきであっても、視点の側にシフトされる)。例えば、いくつかの実施形態では、第1のユーザインタフェースオブジェクトがどの方向から三次元環境の現在表示されているビュー(例えば、第2のビュー、又は後に表示される別のビューなど)に関連付けられた視点に対応する個別のポジションに接近して到達しているかに応じて、第3の変位量は、第1のユーザインタフェースオブジェクトをその接近方向から現在表示されているビューに関連付けられた視点に対応する個別のポジションの側方又は上方に逸らせ、その結果、第1のユーザインタフェースオブジェクトの表示ポジションは、それぞれの物理的環境内の第1のユーザ及び/又は第1のオブジェクトの移動に基づいて計算された第1のユーザインタフェースオブジェクトの個別のポジションが三次元環境の現在表示されているビューに関連付けられた個別の視点に更に近づくか又は通過しても、視点に対応する個別のポジションを囲む制限された空間に入らない。いくつかの実施形態では、三次元環境の現在表示されているビューの視点に対応する個別のポジションを取り囲む不可視ガラスドームが存在するかのように、第1のユーザ及び第1のオブジェクトの現在ロケーション及び移動履歴に基づいて計算された第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の現在表示されているビューの視点に対応する個別のポジションの閾値距離内になくなるまで、第1のユーザインタフェースオブジェクトを不可視ガラスドームに沿って側方又は上方にスライドさせる。この実装形態は、第1のユーザインタフェースオブジェクトが、第1のユーザの視点又は第1のユーザの仮想表現を任意の方向から(例えば、正面から、側面からなど)横切ることを回避するのに役立つ。 In some embodiments, the second display position in the second view of the three-dimensional environment (e.g., view 7304-a'' in FIG. 7F) is displaced in a first manner by a third amount of displacement (e.g., the same as the first amount of displacement, from a distinct position of the first user interface object (e.g., representation 7102'-a of the second user, another representation, etc.) in the three-dimensional environment that corresponds to a distinct location of the first object (e.g., user 7102, another user or object, etc., in FIG. 7F) in the second physical environment (e.g., scene 105-b, or another scene, etc.). the first user interface object 7102'-a is displaced by a distance (e.g., different from the first displacement amount) and the third displacement amount has a direction (e.g., perpendicular or orthogonal, pointing left, right, upward, etc.) different from the approach direction (e.g., pointing to a common center) between the first user interface object and the respective position in the three dimensional environment corresponding to a second viewpoint associated with the second view of the three dimensional environment (e.g., as shown in FIG. 7F(A), representation 7102'-a is shifted toward the viewpoint even though it should move linearly through the viewpoint in view 7304-a'' shown to the first user 7002). For example, in some embodiments, depending on from which direction the first user interface object is approaching and reaching the individual position corresponding to the viewpoint associated with the currently displayed view of the three dimensional environment (e.g., the second view, or another view that is subsequently displayed, etc.), the third displacement amount causes the first user interface object to deviate from its approach direction to the side or above the individual position corresponding to the viewpoint associated with the currently displayed view, such that the displayed position of the first user interface object does not enter a bounded space surrounding the individual position corresponding to the viewpoint even though the individual position of the first user interface object calculated based on the movements of the first user and/or first object within the respective physical environments approaches further or passes through the individual viewpoint associated with the currently displayed view of the three dimensional environment. In some embodiments, the first user interface object is slid to the side or above along the invisible glass dome as if there were an invisible glass dome surrounding the individual position corresponding to the viewpoint of the currently displayed view of the three dimensional environment until the individual position of the first user interface object calculated based on the current location and movement history of the first user and the first object is no longer within a threshold distance of the individual position corresponding to the viewpoint of the currently displayed view of the three dimensional environment. This implementation helps to prevent the first user interface object from crossing the first user's viewpoint or the first user's virtual representation from any direction (e.g., from the front, from the side, etc.).

三次元環境の第2のビュー内の第2の表示ポジションであって、三次元環境の第2のビュー内の第2の表示ポジションが、第1のユーザインタフェースオブジェクトと三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションとの間の接近方向とは異なる方向を有する第3の変位量だけ、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションから変位される、三次元環境の第2のビュー内の第2の表示ポジションに第1のユーザインタフェースオブジェクトを表示することは、ユーザに改善された視覚的フィードバック(例えば、改善された視覚的フィードバック、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションが、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションから閾値距離未満であるという改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first user interface object at a second display position within the second view of the three-dimensional environment, where the second display position within the second view of the three-dimensional environment is displaced from a respective position of the first user interface object within the three-dimensional environment that corresponds to a respective location of the first object within the second physical environment in the first manner by a third displacement amount having a direction different from an approach direction between the first user interface object and the respective position within the three-dimensional environment that corresponds to a second viewpoint associated with the second view of the three-dimensional environment, provides the user with improved visual feedback (e.g., improved visual feedback that the respective position of the first user interface object within the three-dimensional environment that corresponds to a respective location of the first object within the second physical environment in the first manner is less than a threshold distance from the respective position within the three-dimensional environment that corresponds to a second viewpoint associated with the second view of the three-dimensional environment). Providing the improved feedback improves operability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、三次元環境の第2のビュー(例えば、図7Fのビュー7304-a’’、又は別のビューなど)内の第2の表示ポジションと、第1の方式で第2の物理的環境内の第1のオブジェクト(例えば、図7Fのユーザ7102、又は別のユーザ若しくはオブジェクトなど)の個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクト(例えば、図7Fの表現7102’-a、又は別の表現)の個別のポジションとの間の変位の大きさ及び方向のうちの少なくとも1つは、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションと、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションとの間の空間関係(例えば、相対方向及び/又は距離など)に基づく(例えば、変位は、大きさ及び/又は方向の変化の大きさ及び/又は方向に従って、又は大きさ及び/又は方向の絶対値に従って、方向及び/又は大きさが動的に調整される)。 In some embodiments, at least one of the magnitude and direction of the displacement between the second display position in the second view of the three-dimensional environment (e.g., view 7304-a'' in FIG. 7F, or another view) and the respective position of the first user interface object in the three-dimensional environment (e.g., representation 7102'-a in FIG. 7F, or another representation) that corresponds in the first manner to the respective location of the first object in the second physical environment (e.g., user 7102 in FIG. 7F, or another user or object) is based on a spatial relationship (e.g., relative direction and/or distance, etc.) between the respective position of the first user interface object in the three-dimensional environment that corresponds in the first manner to the respective location of the first object in the second physical environment and the respective position in the three-dimensional environment that corresponds to the second viewpoint associated with the second view of the three-dimensional environment (e.g., the displacement is dynamically adjusted in direction and/or magnitude according to the magnitude and/or direction of the change in magnitude and/or direction, or according to the absolute value of the magnitude and/or direction).

三次元環境の第2のビュー内の第2の表示ポジションに第1のユーザインタフェースオブジェクトを表示し、三次元環境の第2のビュー内の第2の表示ポジションと、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションとの間の変位の大きさ及び方向のうちの少なくとも1つが、第1の方式で第2の物理的環境内の第1のオブジェクトの個別のロケーションに対応する、三次元環境内の第1のユーザインタフェースオブジェクトの個別のポジションと、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションとの間の空間関係に基づくことは、ユーザに改善された視覚的フィードバック(例えば、第1のユーザインタフェースオブジェクトの個別のポジションと、三次元環境の第2のビューに関連付けられた第2の視点に対応する三次元環境内の個別のポジションとの間の空間関係に関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first user interface object at a second display position within the second view of the three-dimensional environment, where at least one of the magnitude and direction of displacement between the second display position within the second view of the three-dimensional environment and the individual position of the first user interface object within the three-dimensional environment corresponding to the individual location of the first object within the second physical environment in a first manner is based on a spatial relationship between the individual position of the first user interface object within the three-dimensional environment corresponding to the individual location of the first object within the second physical environment in a first manner and the individual position within the three-dimensional environment corresponding to a second viewpoint associated with the second view of the three-dimensional environment, provides the user with improved visual feedback (e.g., improved visual feedback regarding the spatial relationship between the individual position of the first user interface object and the individual position within the three-dimensional environment corresponding to the second viewpoint associated with the second view of the three-dimensional environment). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

図9A~図9Bにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、10000、11000、及び12000)に関して本明細書で記載されている他のプロセスの詳細は、また、図9A~図9Bに関連して上述されている方法9000に類似の方式で適用可能であることも留意されたい。例えば、方法9000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法8000、10000、11000、及び12000)を参照して本明細書に記載されるジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。 It should be understood that the particular order described for the operations in Figures 9A-9B is merely an example, and that the order described is not intended to indicate the only order in which the operations may be performed. Those skilled in the art will recognize various ways to reorder the operations described herein. In addition, it should be noted that other process details described herein with respect to other methods described herein (e.g., methods 8000, 10000, 11000, and 12000) are also applicable in a similar manner to method 9000 described above in connection with Figures 9A-9B. For example, the gestures, gaze inputs, physical objects, user interface objects, controls, movements, references, three-dimensional environments, display generating components, surfaces, representations of physical objects, virtual objects, and/or animations described above with reference to method 9000 may optionally have one or more of the characteristics of the gestures, gaze inputs, physical objects, user interface objects, controls, movements, references, three-dimensional environments, display generating components, surfaces, representations of physical objects, virtual objects, and/or animations described herein with reference to other methods described herein (e.g., methods 8000, 10000, 11000, and 12000), the details of which are not repeated here for the sake of brevity.

図10は、いくつかの実施形態による、コンピュータシステムによって受信されるユーザのバイオメトリックデータの変化に従って、コンピュータ生成体験の環境を表示する没入レベルを変更する方法のフローチャートである。 Figure 10 is a flowchart of a method for varying the immersion level of displaying an environment of a computer-generated experience according to changes in biometric data of a user received by a computer system, according to some embodiments.

いくつかの実施形態では、方法10000は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法10000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法10000の一部の動作は、任意選択的に組み合わされ、及び/又は一部の動作の順序は、任意選択的に変更される。 In some embodiments, the method 10000 is performed on a computer system (e.g., computer system 101 of FIG. 1) including a display generating component (e.g., display generating component 120 of FIGS. 1, 3, and 4) (e.g., a heads-up display, a display, a touch screen, a projector, etc.) and one or more cameras (e.g., a camera (e.g., a color sensor, an infrared sensor, and other depth-sensing camera)) facing forward from a user's hand or a user's head. In some embodiments, the method 10000 is performed by instructions stored in a non-transitory computer-readable storage medium and executed by one or more processors of the computer system, such as one or more processors 202 of the computer system 101 (e.g., control unit 110 of FIG. 1A). Some operations of the method 10000 are optionally combined and/or the order of some operations is optionally changed.

いくつかの実施形態では、方法10000は、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120、表示生成コンポーネント7100など)(例えば、ヘッドアップディスプレイ、HMD、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタンなど)と通信しているコンピュータシステム(例えば、図1のコンピュータシステム101)において実行される。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。 In some embodiments, the method 10000 is executed in a computer system (e.g., computer system 101 of FIG. 1) in communication with a display generation component (e.g., display generation component 120, display generation component 7100, etc., of FIGS. 1, 3, and 4) (e.g., a heads-up display, HMD, display, touch screen, projector, etc.) and one or more input devices (e.g., a camera, controller, touch-sensitive surface, joystick, buttons, etc.). In some embodiments, the computer system is an integrated device having one or more processors and memory enclosed in the same housing as the display generation component and at least some of the one or more input devices. In some embodiments, the computer system includes a computing component including one or more processors and memory that are separate from the display generation component and/or the one or more input devices. In some embodiments, the display generation component and the one or more input devices are integrated within and enclosed in the same housing.

方法10000では、コンピュータシステムは、第1のコンピュータ生成体験(例えば、アプリケーションユーザインタフェース、仮想体験、拡張現実体験、複合現実体験など)を第1の没入レベルで表示する(10002)(例えば、二次元アプリケーションユーザインタフェースを表示する、三次元環境の二次元ビューを表示する、ユーザの視野の小さい第1の部分を占有する三次元環境にウィンドウ又は視点を表示する、非空間音声を有するコンピュータ生成体験を表示するなど)(例えば、図7Gに示すように、コンピュータ生成体験の最小量の仮想コンテンツが表示され、物理的環境の表現がビュー7316を支配する)。第1の没入レベルで第1のコンピュータ生成体験を表示している間、コンピュータシステムは、第1のユーザ(例えば、図7G~図7Jのユーザ7002)に対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータを(例えば、リアルタイムで、第1のユーザに接続された、又は向けられた1つ以上のバイオメトリックセンサ(例えば、様々な適切な医療デバイス、振動センサ、カメラ、熱センサ、化学センサなど)を通じて、など)受信する(10004)。いくつかの実施形態では、バイオメトリックデータは、平均的なユーザがコンピュータ生成体験に関与している期間にわたって典型的には変化しない、人間の非一次的特徴(例えば、指紋、虹彩パターン及び色、顔特徴、声紋など)を含まない。いくつかの実施形態では、バイオメトリックデータは、心拍数、呼吸数、体温、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値、ユーザがコンピュータ生成体験に関与している間に経時的に変化し得る1つ以上のタイプのバイオメトリックデータ、ユーザがコンピュータ生成体験に関与している間にユーザ自身のアクション(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又は制御との直接相互作用とは対照的に、瞑想、呼吸パターン変化、エクササイズなど)を通じて変化し得る1つ以上のタイプのバイオメトリックデータ、ユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックを含む。第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、周期的に受信されたデータ、又は連続的に受信されたデータなど)を受信したこと(10006)に応じて、かつ、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、直近に受信されたバイオメトリックデータ、予め設定された期間の直近の期間にわたって受信されたバイオメトリックデータなど)が第1の基準を満たすという判定に従って、コンピュータシステムは、第1のコンピュータ生成体験を第2の没入レベルで表示し(10008)(例えば、第2の没入レベルは第1の没入レベルよりも没入感の高い体験を提供し、第2の没入レベルは第1の没入レベルよりも没入感の低い体験を提供するなど)、第2の没入レベルで表示された第1のコンピュータ生成体験は、第1の没入レベルで表示された第1のコンピュータ生成体験よりも第1のユーザの視野のより大きな部分(例えば、横方向により広い角度範囲、縦方向により広い角度範囲、より大きい視野サイズなど)を占有する(例えば、第1のユーザの視野のより大きな部分を占有する第1のコンピュータ生成体験は、任意選択的に、第1のコンピュータ生成体験が第1のユーザの視野のより小さな部分を占有する場合よりも没入感の高い体験を第1のユーザに提供する)。いくつかの実施形態では、第1の基準は、第1のユーザが精神的及び感情的に没入感の高い体験に入る準備ができていることを示すための予め設定された基準、第1のユーザがあまり没入感の高くない体験に出る準備ができていることを示すための予め設定された基準などを含む。これは図7Jに示されており、ビュー7334は、例えば、図7Gに示されるビュー7316よりも大きな空間範囲を占有するコンピュータ生成体験の仮想コンテンツを含む。いくつかの実施形態では、コンピュータシステムは、心拍数が第1の閾値心拍数よりも低く、呼吸数が第1の閾値呼吸数よりも低く、血圧が第1の閾値血圧よりも低く、ユーザの移動が閾値時間量の間に第1の閾値移動量よりも小さい、ユーザの体温が第1の閾値体温よりも低い、ストレスレベルのメトリックが第1の閾値ストレスレベルよりも低い、ユーザの気分に対応するメトリックがユーザがリラックスして幸せであることを示すなどの判定に従って、バイオメトリックデータが予め設定基準を満たすと判定する。いくつかの実施形態では、第1の没入レベル及び第2の没入レベルは、任意選択的に、コンピュータ生成体験のユーザのビューに存在する仮想要素の量、コンピュータ生成体験において可視のままである物理的表面の数、コンピュータ生成体験の音響効果を再生するために使用される音声出力モード、コンピュータ生成体験によって描写される現実感レベル、コンピュータ生成体験によって描写される次元数、及び/又はコンピュータ生成体験において利用可能にされる機能及び相互作用の数などが異なる。方法10000において、第1のユーザに対応するバイオメトリックデータを受信したことに応じて、かつ第1のユーザに対応するバイオメトリックデータが第1の基準を満たさない(例えば、心拍数が第1の閾値心拍数よりも多い、血圧が第1の閾値血圧よりも高い、ユーザの移動が閾値時間量の間に第1の閾値移動量よりも大きい、ユーザの体温が第1の閾値体温よりも高い、ストレスレベルのメトリックが第1の閾値ストレスレベルを上回る、ユーザの気分に対応するメトリックがユーザが動揺して不満であることを示すなど)という判定に従って、コンピュータシステムは、第1の没入レベルで第1のコンピュータ生成体験を表示し続ける(10010)。これは図7Gに示されており、図7Gでは、バイオメトリックデータが閾値インジケータ7326を下回って変動する場合があり、ビュー7316が維持される。いくつかの実施形態では、任意選択的に、第1のコンピュータ生成体験は、第1のユーザから受信される対応するバイオメトリックデータが第1の基準を満たすであろう状態に第1のユーザが入ることを支援する視覚及び音声ガイダンス(例えば、音楽、風景、鼓舞メッセージ、投薬記録の案内、視覚、音声、又は口頭での呼吸指示など)を含む。これらの特徴は、例えば、図7G~図7Jに示されており、仮想コンテンツと物理的環境の表現との間の視覚的バランスは、ユーザ7002に対応するバイオメトリックデータの変化に従って徐々に及び/又は急に変化する。仮想コンテンツと物理的環境の表現との間の視覚的バランス及び相対的な視覚的プロミネンスは、コンピュータ生成体験をユーザに提供する没入レベルを表す。 In method 10000, the computer system displays (10002) a first computer-generated experience (e.g., an application user interface, a virtual experience, an augmented reality experience, a mixed reality experience, etc.) at a first level of immersion (e.g., displaying a two-dimensional application user interface, displaying a two-dimensional view of a three-dimensional environment, displaying a window or viewpoint into the three-dimensional environment that occupies a small first portion of the user's field of view, displaying a computer-generated experience having non-spatial audio, etc.) (e.g., as shown in FIG. 7G, a minimal amount of the virtual content of the computer-generated experience is displayed and a representation of the physical environment dominates view 7316). While displaying the first computer-generated experience at the first immersion level, the computer system receives (10004) biometric data (e.g., through one or more biometric sensors (e.g., various suitable medical devices, vibration sensors, cameras, thermal sensors, chemical sensors, etc.) connected to or directed at the first user (e.g., in real time, etc.) corresponding to a first user (e.g., user 7002 of FIGS. 7G-7J) (e.g., corresponding to the first user's physiological state at a first time or time period). In some embodiments, the biometric data does not include non-primary human characteristics (e.g., fingerprints, iris patterns and colors, facial features, voice prints, etc.) that typically do not change over the period that an average user is engaged with the computer-generated experience. In some embodiments, the biometric data includes heart rate, respiration rate, body temperature, serum concentrations of certain chemicals, drugs, hormones, etc., blood pressure, brain waves, concentration, pupil size, metabolic rate, blood glucose levels, one or more types of biometric data that may change over time while a user is engaged in the computer-generated experience, one or more types of biometric data that may change through the user's own actions while the user is engaged in the computer-generated experience (e.g., meditating, changing breathing patterns, exercising, etc., as opposed to direct interaction with user interface elements or controls provided by a computer system), one or more types of composite metrics of multiple types of biometric data corresponding to a user's mood, happiness, and/or stress level, etc. In response to receiving 10006 biometric data (e.g., periodically received data, continuously received data, etc.) corresponding to the first user (e.g., corresponding to a physiological state of the first user at a first time or time period) and in accordance with a determination that the biometric data (e.g., most recently received biometric data, biometric data received over a most recent period of a pre-set time period, etc.) corresponding to the first user (e.g., corresponding to a physiological state of the first user at the first time or time period) satisfies a first criterion, the computer system displays 10008 the first computer-generated experience at a second immersive level (e.g., , the second immersion level provides a more immersive experience than the first immersion level, the second immersion level provides a less immersive experience than the first immersion level, etc.), the first computer-generated experience displayed at the second immersion level occupies a larger portion of the first user's field of view (e.g., a wider angular range horizontally, a wider angular range vertically, a larger field of view size, etc.) than the first computer-generated experience displayed at the first immersion level (e.g., the first computer-generated experience occupying a larger portion of the first user's field of view, optionally providing the first user with a more immersive experience than if the first computer-generated experience occupies a smaller portion of the first user's field of view). In some embodiments, the first criterion includes a preset criterion for indicating that the first user is mentally and emotionally ready to enter a more immersive experience, a preset criterion for indicating that the first user is ready to exit to a less immersive experience, etc. This is shown in Figure 7J, where view 7334 includes virtual content of the computer-generated experience that occupies a larger spatial extent than view 7316 shown in Figure 7G, for example. In some embodiments, the computer system determines that the biometric data meets the pre-set criteria according to a determination that the heart rate is lower than a first threshold heart rate, the respiration rate is lower than a first threshold respiration rate, the blood pressure is lower than a first threshold blood pressure, the user's movement is less than a first threshold movement amount for a threshold amount of time, the user's body temperature is lower than a first threshold body temperature, a stress level metric is lower than a first threshold stress level, a metric corresponding to the user's mood indicates that the user is relaxed and happy, etc. In some embodiments, the first and second immersion levels optionally differ in the amount of virtual elements present in the user's view of the computer-generated experience, the number of physical surfaces that remain visible in the computer-generated experience, the audio output mode used to play sound effects of the computer-generated experience, the level of realism depicted by the computer-generated experience, the number of dimensions depicted by the computer-generated experience, and/or the number of features and interactions made available in the computer-generated experience, etc. In method 10000, in response to receiving biometric data corresponding to the first user, and following a determination that the biometric data corresponding to the first user does not meet a first criterion (e.g., a heart rate greater than a first threshold heart rate, a blood pressure greater than a first threshold blood pressure, user movement greater than a first threshold movement amount for a threshold amount of time, a user body temperature greater than a first threshold body temperature, a stress level metric above a first threshold stress level, a metric corresponding to the user's mood indicating the user is upset and frustrated, etc.), the computer system continues to display (10010) the first computer-generated experience at the first immersion level. This is illustrated in FIG. 7G, where the biometric data may fluctuate below threshold indicator 7326 and view 7316 is maintained. In some embodiments, optionally, the first computer-generated experience includes visual and audio guidance (e.g., music, scenery, motivational messages, medication record guidance, visual, audio, or verbal breathing instructions, etc.) to assist the first user in entering a state where corresponding biometric data received from the first user would meet the first criteria. These features are illustrated, for example, in FIGS. 7G-7J, where the visual balance between the virtual content and the representation of the physical environment changes gradually and/or abruptly in accordance with changes in the biometric data corresponding to the user 7002. The visual balance and relative visual prominence between the virtual content and the representation of the physical environment represents a level of immersion that the computer-generated experience provides to the user.

いくつかの実施形態では、第2の没入レベルで第1のコンピュータ生成体験を表示している、コンピュータシステムは、第1のユーザに対応する(例えば、コンピュータシステムが第2の没入レベルで第1のコンピュータ生成体験の表示に遷移した後の、第1の時点又は期間よりも後の第2の時点又は期間における第1のユーザの生理学的状態に対応する)第1の更新されたバイオメトリックデータを(例えば、リアルタイムで、第1のユーザに接続された又は向けられた1つ以上のバイオメトリックセンサ(例えば、様々な好適な医療デバイス、振動センサ、カメラ、熱センサ、化学センサなど)を通じて)受信する。いくつかの実施形態では、第1の更新されたバイオメトリックデータは、心拍数、呼吸数、体温、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値の第1の更新された値、ユーザがコンピュータ生成体験に関与している間に経時的に変化し得る1つ以上のタイプのバイオメトリックデータ、ユーザがコンピュータ生成体験に関与している間にユーザ自身のアクション(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又はコントロールとの直接相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)を通じて変化し得る1つ以上のタイプのバイオメトリックデータ、ある期間後に受信されるユーザの気分、喜び、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックを含む。方法10000において、コンピュータシステムは、第1のユーザに対応する(例えば、第1の時点又は期間よりも後の第2の時点又は期間における第1のユーザの生理学的状態に対応する)第1の更新されたバイオメトリックデータを受信したことに応じて、かつ第1のユーザに対応する(例えば、第1の時点又は期間よりも後の第2の時点又は期間における第1のユーザの生理学的状態に対応する)第1の更新されたバイオメトリックデータが第1の基準とは異なる(例えば、より制限的な、より満たすことが困難な)第2の基準を満たすという判定に従って、第1のコンピュータ生成体験を第3の没入レベルで表示し(例えば、第3の没入レベルは第2の没入レベルよりも没入感の高い体験を提供する第3の没入レベルは第2の没入レベルよりも没入感の低い体験を提供する、など)、第3の没入レベルで表示された第1のコンピュータ生成体験は、第2の没入レベルで表示された第1のコンピュータ生成体験よりも第1のユーザの視野のより大きな部分を占有する(例えば、第1のユーザの視野のより大きな部分を占有する第1のコンピュータ生成体験は、任意選択的に、第1のコンピュータ生成体験が第1のユーザの視野のより小さな部分を占有する場合よりも没入感の高い体験を第1のユーザに提供する)。いくつかの実施形態では、第1の没入レベル、第2の没入レベル、及び第3の没入レベルは、任意選択的に、コンピュータ生成体験のユーザのビューに存在する仮想要素の量、コンピュータ生成体験において可視のままである物理的表面の数、コンピュータ生成体験の音響効果を再生するために使用される音声出力モード、コンピュータ生成体験によって描写される現実感レベル、コンピュータ生成体験によって表される次元数、及び/又はコンピュータ生成体験において利用可能にされる機能及び相互作用の数などが異なる。方法10000では、第1のユーザに対応する第1の更新されたバイオメトリックデータを受信したことに応じて、かつ第1のユーザに対応する第1の更新されたバイオメトリックデータが第1の基準を満たし、第2の基準を満たさない(例えば、心拍数が第1の閾値心拍数未満であるが第2の閾値心拍数よりも多い、血圧が第1の閾値血圧未満であるが第2の閾値血圧よりも高い、閾値時間の間のユーザの移動が第1の閾値移動量未満であるが第2の閾値移動量よりも大きい、ユーザの体温が第1の閾値体温未満であるが第2の閾値温度よりも高い、ストレスレベルのメトリックが閾値ストレスレベルよりも低いが第2の閾値ストレスレベルよりも高い、ユーザの気分に対応するメトリックが、ユーザがリラックスして幸せであるが、まだ集中しておらず安らかではないなどを示す)という判定に従って、コンピュータシステムは、第2の没入レベルで第1のコンピュータ生成体験を表示し続ける。いくつかの実施形態では、任意選択的に、第1のコンピュータ生成体験は、第1のユーザから受信される対応するバイオメトリックデータが第2の基準を満たすであろう状態に第1のユーザが入ることを支援する視覚及び音声ガイダンス(例えば、音楽、風景、鼓舞メッセージ、投薬記録の案内、視覚、音声、又は口頭での呼吸指示など)を含む。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、コンピュータ生成環境内に存在する仮想コンテンツの量を増加させること、及び/又はコンピュータ生成環境内に存在する周囲の物理的環境の表現の量を減少させることに対応する。いくつかの実施形態では、第1、第2、及び第3の没入レベルは、コンピュータ生成コンテンツの増加した画像忠実度及び/又は空間範囲(例えば、角度範囲、空間深度など)、並びに周囲の物理的環境の表現の減少した画像忠実度及び/又は空間範囲を有する、コンテンツ表示の異なるモードに対応する。いくつかの実施形態では、第1の没入レベルは、物理的環境が第1の表示生成コンポーネントを介して(例えば、物理的環境のカメラビューとして、又は第1の表示生成コンポーネントの透明部分を介して)ユーザに完全に可視なパススルーモードであり、コンピュータ生成環境は、物理的環境のビューとして同時に可視な最小量の仮想要素を有する、又は物理的環境のユーザのビューの周辺の仮想要素(例えば、ディスプレイの周辺領域に表示されたインジケータ及びコントロール)を含む、物理的環境のパススルービューを含む。いくつかの実施形態では、第2の没入レベルは、物理的環境のパススルービューがコンピューティングシステムによって生成された仮想要素で拡張され、かつ、物理的環境のユーザのビューの中央部分に対応するコンピュータ生成環境内のポジションを有し、かつ/又は物理的環境内のロケーション及びオブジェクトに対応するコンピュータ生成環境内のポジションを有する(例えば、仮想コンテンツがコンピュータ生成環境のビュー内の物理的環境と統合される)複合現実モードである。いくつかの実施形態では、物理的環境のそのユーザのビューが第1の表示生成コンポーネントによって提供される仮想コンテンツのビューによって完全に置換される又は遮断される、仮想現実モードの第3の没入レベル。いくつかの実施形態では、異なる4つの没入レベルが存在し、第1の没入レベルは、第1の表示生成コンポーネントのパススルーモードに対応し、第2の没入レベルは、第1の表示生成コンポーネントの2つの別個のサブモードに対応する2つのサブレベルA及びB(例えば、物理的環境のパススルービューがユーザインタフェース又はユーザインタフェースオブジェクトの背景に表示されている間にユーザインタフェース又はユーザインタフェースオブジェクトがユーザの視野の主要部分に表示されている第2のレベル-A、及び仮想要素が物理的環境の拡張現実ビュー内の物理的環境内の物理的オブジェクトの表現と統合される第2のレベル-B)を含み、第3の没入レベルは、第1の表示生成コンポーネントの仮想現実モードに対応する。 In some embodiments, a computer system, displaying the first computer-generated experience at the second immersive level, receives first updated biometric data (e.g., in real time, through one or more biometric sensors (e.g., various suitable medical devices, vibration sensors, cameras, thermal sensors, chemical sensors, etc.) connected to or directed at the first user) corresponding to the first user (e.g., corresponding to the physiological state of the first user at a second time or time period after the computer system transitions to displaying the first computer-generated experience at the second immersive level). In some embodiments, the first updated biometric data includes first updated values of heart rate, respiration rate, body temperature, serum concentrations of certain chemicals, drugs, hormones, etc., blood pressure, brain waves, concentration, pupil size, metabolic rate, blood glucose level, one or more types of biometric data that may change over time while the user is engaged in the computer-generated experience, one or more types of biometric data that may change through the user's own actions while the user is engaged in the computer-generated experience (e.g., meditating, changing breathing patterns, exercising, etc., as opposed to direct interaction with user interface elements or controls provided by the computer system), one or more types of composite metrics of multiple types of biometric data corresponding to the user's mood, joy, and/or stress level received after a period of time, and the like. In method 10000, the computer system, in response to receiving first updated biometric data corresponding to the first user (e.g., corresponding to a physiological state of the first user at a second time point or time period after the first time point or time period) and in accordance with a determination that the first updated biometric data corresponding to the first user (e.g., corresponding to a physiological state of the first user at a second time point or time period after the first time point or time period) satisfies a second criterion different (e.g., more restrictive, more difficult to meet) than the first criterion, updates the first computer-generated experience to a third immersive level. a third immersion level that provides a more immersive experience than the second immersion level, the third immersion level that provides a less immersive experience than the second immersion level, etc.), and the first computer-generated experience displayed at the third immersion level occupies a larger portion of the first user's field of view than the first computer-generated experience displayed at the second immersion level (e.g., the first computer-generated experience occupying a larger portion of the first user's field of view, optionally providing the first user with a more immersive experience than if the first computer-generated experience occupies a smaller portion of the first user's field of view). In some embodiments, the first immersion level, the second immersion level, and the third immersion level optionally differ in the amount of virtual elements present in the user's view of the computer-generated experience, the number of physical surfaces that remain visible in the computer-generated experience, the audio output mode used to reproduce sound effects in the computer-generated experience, the level of realism portrayed by the computer-generated experience, the number of dimensions represented by the computer-generated experience, and/or the number of features and interactions made available in the computer-generated experience, etc. In method 10000, in response to receiving first updated biometric data corresponding to the first user and in accordance with a determination that the first updated biometric data corresponding to the first user meets a first criterion and does not meet a second criterion (e.g., a heart rate less than a first threshold heart rate but greater than a second threshold heart rate, a blood pressure less than a first threshold blood pressure but greater than a second threshold blood pressure, a user's movement during a threshold time less than a first threshold movement amount but greater than a second threshold movement amount, a user's body temperature less than a first threshold body temperature but greater than a second threshold temperature, a stress level metric less than a threshold stress level but greater than a second threshold stress level, a metric corresponding to the user's mood indicating that the user is relaxed and happy, but not yet focused and restful, etc.), the computer system continues to display the first computer-generated experience at a second immersion level. In some embodiments, optionally, the first computer-generated experience includes visual and audio guidance (e.g., music, scenery, motivational messages, medication record guidance, visual, audio, or verbal breathing instructions, etc.) that assist the first user in entering a state in which corresponding biometric data received from the first user would satisfy the second criterion. In some embodiments, the first, second, and third immersion levels correspond to increasing amounts of virtual content present in the computer-generated environment and/or decreasing amounts of representations of the surrounding physical environment present in the computer-generated environment. In some embodiments, the first, second, and third immersion levels correspond to different modes of content display having increased image fidelity and/or spatial extent (e.g., angular extent, spatial depth, etc.) of the computer-generated content and decreased image fidelity and/or spatial extent of the representations of the surrounding physical environment. In some embodiments, the first level of immersion is a pass-through mode in which the physical environment is fully visible to the user through the first display generation component (e.g., as a camera view of the physical environment or through a transparent portion of the first display generation component) and the computer-generated environment includes a pass-through view of the physical environment that has a minimal amount of virtual elements simultaneously visible as the view of the physical environment or includes virtual elements on the periphery of the user's view of the physical environment (e.g., indicators and controls displayed in a peripheral area of the display). In some embodiments, the second level of immersion is a mixed reality mode in which the pass-through view of the physical environment is augmented with virtual elements generated by the computing system and has positions in the computer-generated environment that correspond to a central portion of the user's view of the physical environment and/or has positions in the computer-generated environment that correspond to locations and objects in the physical environment (e.g., virtual content is integrated with the physical environment in the view of the computer-generated environment). In some embodiments, a third level of immersion in the virtual reality mode in which the user's view of the physical environment is completely replaced or occluded by a view of the virtual content provided by the first display generation component. In some embodiments, there are four different immersion levels, the first immersion level corresponds to a pass-through mode of the first display generating component, the second immersion level includes two sub-levels A and B corresponding to two distinct sub-modes of the first display generating component (e.g., second level-A, where the user interface or user interface objects are displayed in a main part of the user's field of view while a pass-through view of the physical environment is displayed in the background of the user interface or user interface objects, and second level-B, where virtual elements are integrated with representations of physical objects in the physical environment in the augmented reality view of the physical environment), and the third immersion level corresponds to a virtual reality mode of the first display generating component.

第1のユーザに対応する第1の更新されたバイオメトリックデータが第1の基準とは異なる第2の基準を満たすという判定に従って、第2の没入レベルで表示される第1のコンピュータ生成体験よりも第1のユーザの視野のより大きな部分を占有する第3の没入レベルで第1のコンピュータ生成体験を表示し、第1のユーザに対応する第1の更新されたバイオメトリックデータが第1の基準を満たし、第2の基準を満たさないという判定に従って、第2の没入レベルで第1のコンピュータ生成体験を表示し続けることは、更なるユーザ入力(例えば、没入レベルを変更するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたとき、第3の没入レベルで第1のコンピュータ生成体験を表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first computer-generated experience at a third immersion level occupying a larger portion of the first user's field of view than the first computer-generated experience displayed at the second immersion level in accordance with a determination that the first updated biometric data corresponding to the first user satisfies a second criterion different from the first criterion, and continuing to display the first computer-generated experience at the second immersion level in accordance with a determination that the first updated biometric data corresponding to the first user satisfies the first criterion and does not satisfy the second criterion, displaying the first computer-generated experience at the third immersion level when a set of conditions is met without requiring further user input (e.g., further user input to change the immersion level). Performing an action when a set of conditions is met without requiring further user input enhances operability of the device, as well as reducing power usage and improving battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、個別の没入レベル(例えば、第2の没入レベル、第3の没入レベルなど)で第1のコンピュータ生成体験を表示している、コンピュータシステムは、第1のユーザに対応する(例えば、コンピュータシステムは、低い没入レベルから個別の没入レベルで第1のコンピュータ生成体験の表示に遷移した後、第1の時点若しくは期間及び/又は第2の時点若しくは期間よりも後の第3の時点若しくは期間における第1のユーザの生理学的状態に対応する)第2の更新されたバイオメトリックデータを受信し、個別の没入レベルで表示される第1のコンピュータ生成体験は、第1の没入レベルよりも第1のユーザの視野のより大きな部分を占有する(例えば、個別の没入レベルは第2の没入レベル又は第3の没入レベルである)。いくつかの実施形態では、第2の更新されたバイオメトリックデータは、心拍数、呼吸数、体温、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値、ユーザがコンピュータ生成体験に関与している間に経時的に変化し得る1つ以上のタイプのバイオメトリックデータ、ユーザがコンピュータ生成体験に関与している間にユーザ自身のアクション(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又は制御との直接相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)を通じて変化し得る1つ以上のタイプのバイオメトリックデータ、ある期間後に受信されるユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックに関する第2の更新された値を含む。第1のユーザに対応する(例えば、第1の時点若しくは期間及び/又は第2の時点若しくは期間よりも後の第3の時点若しくは期間における第1のユーザの生理学的状態に対応する)第2の更新されたバイオメトリックデータを受信したことに応じて、かつ第1のユーザに対応する(例えば、第1の時点若しくは期間よりも後の第2の時点若しくは期間における第1のユーザの生理学的状態に対応する)第2の更新されたバイオメトリックデータが、個別の没入レベル(例えば、第2の没入レベル、第3の没入レベルなど)を有する第1のコンピュータ生成体験の表示に遷移するために満たされた個別の基準(例えば、第1の基準、第2の基準など)を満たさないという判定に従って、コンピュータシステムは、個別の没入レベル(例えば、第2の没入レベル、第3の没入レベルなど)を有する第1のコンピュータ生成体験を表示する前に使用されるより低い没入レベル(例えば、第1の没入レベル、第2の没入レベルなど)を有する第1のコンピュータ生成体験を表示する。いくつかの実施形態では、第1の表示生成コンポーネントを介して表示されるコンピュータ生成環境の没入レベルを変更することは、現在受信されているバイオメトリックデータがもはや第2の基準を満たさないが、依然として第1の基準を満たすという判定に従って、第3の没入レベル(例えば、仮想現実モード)を有するコンピュータ生成環境の表示から、第2の没入レベル(例えば、複合現実モード、又は任意選択的に仮想現実コンテンツの同時表示を伴う一時的パススルーモード)を有するコンピュータ生成環境の表示に切り替えることを含む。いくつかの実施形態では、コンピュータ生成環境が第2の没入レベルで現在表示されており、かつ、コンピュータシステムが、現在のバイオメトリックデータがもはや第1の基準を満たさず、第2の基準を満たさないことを検出したときに、コンピューティングシステムは、コンピュータ生成環境を第1の没入レベルで表示することからコンピュータ生成環境を第2の没入レベルで表示することに切り替える(例えば、完全なパススルーモードから複合現実モード(例えば、複合現実モードのサブモードA)に切り替える、又はグラフィカルユーザインタフェース(例えば、ホーム画面、アプリケーション起動ユーザインタフェース)若しくはユーザインタフェースオブジェクト(例えば、アプリケーション起動アイコン、コンテンツアイテム及び体験の表現など)の表示をユーザの視野の主要部分に表示させる)。例えば、図7Jにおいて、いくつかの実施形態によれば、バイオメトリックデータ7312がインジケータ7326によって示される予め設定された閾値を満たすことに応じて、コンピュータ生成体験が高い没入レベルで表示された後、バイオメトリックデータが予め設定された閾値をもはや満たさないとき、コンピュータシステムは、任意選択的に、図7G~7Iに示される状態のいずれかに戻る。 In some embodiments, a computer system is displaying a first computer-generated experience at a discrete immersion level (e.g., a second immersion level, a third immersion level, etc.), receives second updated biometric data corresponding to a first user (e.g., the computer system receives second updated biometric data corresponding to a physiological state of the first user at the first time or time period and/or a third time or time period later than the second time or time period after transitioning from a lower immersion level to displaying the first computer-generated experience at the discrete immersion level), and the first computer-generated experience displayed at the discrete immersion level occupies a larger portion of the first user's field of view than at the first immersion level (e.g., the discrete immersion level is the second immersion level or the third immersion level). In some embodiments, the second updated biometric data includes second updated values for one or more types of composite metrics of multiple types of biometric data corresponding to heart rate, respiration rate, body temperature, serum concentrations of certain chemicals, drugs, hormones, etc., blood pressure, brain waves, concentration, pupil size, metabolic rate, blood glucose levels, one or more types of biometric data that may change over time while the user is engaged in the computer-generated experience, one or more types of biometric data that may change through the user's own actions while the user is engaged in the computer-generated experience (e.g., meditating, changing breathing patterns, exercising, etc., as opposed to direct interaction with user interface elements or controls provided by the computer system), the user's mood, happiness, and/or stress level received after a period of time, and the like. In response to receiving second updated biometric data corresponding to the first user (e.g., corresponding to a physiological state of the first user at the first time or time period and/or a third time point or time period later than the second time point or time period), and in accordance with a determination that the second updated biometric data corresponding to the first user (e.g., corresponding to a physiological state of the first user at the second time point or time period later than the first time point or time period) does not satisfy the individual criteria (e.g., the first criterion, the second criterion, etc.) met for transitioning to displaying a first computer-generated experience having an individual immersion level (e.g., the second immersion level, the third immersion level, etc.), the computer system displays a first computer-generated experience having a lower immersion level (e.g., the first immersion level, the second immersion level, etc.) to be used before displaying the first computer-generated experience having the individual immersion level (e.g., the second immersion level, the third immersion level, etc.). In some embodiments, changing the immersion level of the computer-generated environment displayed via the first display generation component includes switching from displaying the computer-generated environment having a third immersion level (e.g., virtual reality mode) to displaying the computer-generated environment having a second immersion level (e.g., mixed reality mode, or temporary pass-through mode, optionally with simultaneous display of virtual reality content) in accordance with a determination that the currently received biometric data no longer meets the second criterion but still meets the first criterion. In some embodiments, when the computer-generated environment is currently displayed at the second immersion level and the computing system detects that the current biometric data no longer meets the first criterion and does not meet the second criterion, the computing system switches from displaying the computer-generated environment at the first immersion level to displaying the computer-generated environment at the second immersion level (e.g., switching from a full pass-through mode to a mixed reality mode (e.g., sub-mode A of the mixed reality mode), or causing display of a graphical user interface (e.g., a home screen, an application launching user interface) or user interface objects (e.g., application launching icons, representations of content items and experiences, etc.) to be displayed in a major portion of the user's field of view). For example, in FIG. 7J, according to some embodiments, after the computer-generated experience is displayed at a high level of immersion in response to the biometric data 7312 meeting a preset threshold as indicated by indicator 7326, when the biometric data no longer meets the preset threshold, the computer system optionally reverts to any of the states shown in FIGS. 7G-7I.

第1のユーザに対応する第2の更新されたバイオメトリックデータが、個別の没入レベルで第1のコンピュータ生成体験を表示することに遷移するために満たされた個別の基準を満たさないという判定に従って、個別の没入レベルで第1のコンピュータ生成体験を表示する前に使用されるよりも低い没入レベルで第1のコンピュータ生成体験を表示することは、更なるユーザ入力(例えば、没入レベルを選択するための更なるユーザ入力)を必要とせずに条件のセットが満たされたときに、適切な没入レベルで第1のコンピュータ生成体験を表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first computer-generated experience at a lower immersion level than used prior to displaying the first computer-generated experience at the individual immersion level pursuant to a determination that the second updated biometric data corresponding to the first user does not satisfy the individual criteria satisfied for transitioning to displaying the first computer-generated experience at the individual immersion level displays the first computer-generated experience at an appropriate immersion level when a set of conditions are satisfied without requiring further user input (e.g., further user input to select the immersion level). Performing an action when a set of conditions are satisfied without requiring further user input enhances usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、バイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312)は、第1のユーザの呼吸速度を含み、第1の基準は、第1の基準が満たされるために第1のユーザの呼吸速度が第1の閾値呼吸速度未満であるときに満たされる基準を含む。いくつかの実施形態では、呼吸速度などのバイオメトリックデータは、第1のユーザが、コンピュータシステムによって提供されるより深い没入型体験に入り、第1のユーザを取り囲む物理的環境からより少ない刺激を受ける準備ができているかどうかのインジケーションとして使用される。いくつかの実施形態では、より少ない呼吸速度は、任意選択的に、他のタイプのバイオメトリックデータと組み合わせて、ユーザがコンピュータ生成体験によって提供される誘導型瞑想の次の段階に移動する準備ができていることを示すために使用される。いくつかの実施形態では、バイオメトリックデータは、他のタイプの生理学的データを含み、第1の基準は、他のタイプの生理学的データのそれぞれのデータに対するそれぞれの閾値を含む。いくつかの実施形態では、少なくとも閾値数のバイオメトリックデータタイプについてのそれぞれの閾値は、第1の基準が満たされるように満たされなければならない。いくつかの実施形態では、第2の基準は、第2の基準が満たされるために、第1のユーザの呼吸速度が、第1の呼吸速度よりも低い第2の閾値呼吸速度を下回るときに満たされる基準を含む。いくつかの実施形態では、異なるタイプのバイオメトリックデータのための異なる(必ずしもより低いとは限らない)値が、第2の基準の閾値のために使用される。 In some embodiments, the biometric data (e.g., biometric data 7312 of FIGS. 7G-7J) includes a respiration rate of the first user, and the first criterion includes a criterion that is met when the respiration rate of the first user is less than a first threshold respiration rate for the first criterion to be met. In some embodiments, the biometric data, such as the respiration rate, is used as an indication of whether the first user is ready to enter a deeper immersive experience provided by the computer system and receive less stimulation from the physical environment surrounding the first user. In some embodiments, the lesser respiration rate, optionally in combination with other types of biometric data, is used to indicate that the user is ready to move to the next stage of the guided meditation provided by the computer-generated experience. In some embodiments, the biometric data includes other types of physiological data, and the first criterion includes respective threshold values for each of the other types of physiological data. In some embodiments, the respective threshold values for at least a threshold number of biometric data types must be met for the first criterion to be met. In some embodiments, the second criterion includes a criterion that is met when the respiration rate of the first user falls below a second threshold respiration rate that is lower than the first respiration rate for the second criterion to be met. In some embodiments, different (not necessarily lower) values for different types of biometric data are used for the threshold of the second criterion.

第1のユーザの呼吸速度を含む、第1のユーザに対応するバイオメトリックデータが、第1のユーザの呼吸速度が第1の閾値呼吸速度未満であることを必要とする第1の基準を満たさないという判定に従って、第2の没入レベルで第1のコンピュータ生成体験を表示し、第1のユーザの呼吸速度を含む、第1のユーザに対応するバイオメトリックデータが、第1のユーザの呼吸速度が第1の閾値呼吸速度未満であることを必要とする第1の基準を満たさないという判定に従って、第1の没入レベルで第1のコンピュータ生成体験を表示し続けることは、更なるユーザ入力(例えば、没入レベルを選択するための更なるユーザ入力)を必要とせずに条件のセットが満たされたとき、適切な没入レベルで第1のコンピュータ生成体験を表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first computer-generated experience at a second immersion level in accordance with a determination that the biometric data corresponding to the first user, including the first user's respiration rate, does not satisfy a first criterion requiring the first user's respiration rate to be less than a first threshold respiration rate, and continuing to display the first computer-generated experience at the first immersion level in accordance with a determination that the biometric data corresponding to the first user, including the first user's respiration rate, does not satisfy a first criterion requiring the first user's respiration rate to be less than a first threshold respiration rate, displays the first computer-generated experience at an appropriate immersion level when a set of conditions is met without requiring further user input (e.g., further user input to select an immersion level). Performing an action when a set of conditions is met without requiring further user input enhances operability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の基準は、バイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312、他のバイオメトリックデータなど)が、第1の基準が満たされるために、少なくとも閾値時間量の、1つ以上の予め設定された閾値(例えば、インジケータ7326によって示される閾値、他の閾値など)を満たすという要件を含む。例えば、いくつかの実施形態では、バイオメトリックデータは、第1のユーザの呼吸速度及び/又は第1のユーザの心拍数を含み、第1の基準は、第1のユーザの平均呼吸速度が少なくとも3分間にわたって15呼吸/分未満のままである、及び/又は第1のユーザの平均心拍数が少なくとも5分間にわたって65拍動/分未満のままであるときに満たされる。別の例では、バイオメトリックデータは、第1のユーザの血圧及び/又は第1のユーザの酸素濃度を含み、第1の基準は、第1のユーザの平均血圧が、少なくとも10分、120/80の第1の範囲(例えば、+/-10)のままであり、及び/又は第1のユーザの酸素濃度が、少なくとも3分間、99.9%を上回ったままであるときに満たされる。 In some embodiments, the first criterion includes a requirement that the biometric data (e.g., biometric data 7312 of FIGS. 7G-7J, other biometric data, etc.) meet one or more pre-set thresholds (e.g., the threshold indicated by indicator 7326, other thresholds, etc.) for at least a threshold amount of time in order for the first criterion to be met. For example, in some embodiments, the biometric data includes the first user's respiration rate and/or the first user's heart rate, and the first criterion is met when the first user's average respiration rate remains below 15 breaths/minute for at least three minutes and/or the first user's average heart rate remains below 65 beats/minute for at least five minutes. In another example, the biometric data includes the first user's blood pressure and/or the first user's oxygen level, and the first criterion is met when the first user's average blood pressure remains within a first range of 120/80 (e.g., +/- 10) for at least 10 minutes and/or the first user's oxygen level remains above 99.9% for at least 3 minutes.

第1のユーザに対応するバイオメトリックデータが、少なくとも閾値時間量必要とする第1の基準を満たすという判定に従って、第2の没入レベルで第1のコンピュータ生成体験を表示し、第1のユーザに対応する、第1のユーザの呼吸速度を含むバイオメトリックデータが、少なくとも閾値時間にわたって、1つ以上の予め設定された閾値を満たすことを必要とする第1の基準を満たさないという判定に従って、第1の没入レベルで第1のコンピュータ生成体験を表示し続けることは、更なるユーザ入力(例えば、没入レベルを選択するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、適切な没入レベルで第1のコンピュータ生成体験を表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first computer-generated experience at a second immersion level in accordance with a determination that the biometric data corresponding to the first user satisfies a first criterion requiring at least a threshold amount of time, and continuing to display the first computer-generated experience at the first immersion level in accordance with a determination that the biometric data corresponding to the first user, including the first user's respiration rate, does not satisfy a first criterion requiring one or more pre-set thresholds to be satisfied for at least the threshold amount of time, displays the first computer-generated experience at an appropriate immersion level when a set of conditions is met without requiring further user input (e.g., further user input to select an immersion level). Performing an action when a set of conditions is met without requiring further user input enhances operability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の1つ以上の第1の部分のロケーションに対応するそれぞれの第1のポジションに仮想コンテンツ(例えば、任意選択的に経時的に変化している第1のコンピュータ生成体験の仮想コンテンツ)を表示することを含む(例えば、仮想コンテンツは、仮想コンテンツが表示されなかった場合にユーザの視野内にあったはずの物理的環境の第1の部分(例えば、単一の連続部分、又は複数の別個のばらばらの部分など)の表現に重なる、その表現の表示を置換する、又はその表現のビューを遮断するなど)(例えば、物理的環境の1つ以上の第2の部分(第1の部分とは異なる)の表現の表示(例えば、それぞれの第2のポジションで)を維持している間(例えば、物理的環境の部分は、表示生成コンポーネントを介してユーザに対して(例えば、仮想コンテンツに隣接して、仮想コンテンツの周囲背景としてなど)可視のままである)、物理的環境の拡張現実ビューを表示する、又はいくつかのユーザインタフェースオブジェクトを有する物理的環境の完全なパススルービューを表示する)。いくつかの実施形態では、第1の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の表現(例えば、カメラビュー、透明ディスプレイを通じたパススルービューなど)に重ねられる、物理的環境の表現の表示を置換する、又は物理的環境の表現のビューを遮断する、仮想ウィンドウ又は画面内に仮想コンテンツを表示することを含む。いくつかの実施形態では、第1の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境内の第1の物理的表面(例えば、現実の窓、壁、テーブル上面など)又は第1の数の(例えば、全てよりも少ない)物理的表面(例えば、天井及び床ではなく全ての壁、家具ではなく全ての壁、天井及び床、壁ではなくテーブル上面など)のロケーションに対応するポジションに仮想コンテンツを表示することを含む。第2の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の1つ以上の第1の部分(例えば、ユーザの視野の中心付近の部分)のロケーションに対応するそれぞれの第1のポジション、及び物理的環境の1つ以上の第2の部分(例えば、ユーザの視野の中心からより離れた部分)の少なくとも一部に対応するそれぞれの第2のポジションに仮想コンテンツ(例えば、任意選択的に経時的に変化している第1のコンピュータ生成体験の仮想コンテンツ)を表示することを含む(例えば、第2の没入レベルでは、表示生成コンポーネントを通じてユーザに可視のままである物理的環境の部分がより少ない)。いくつかの実施形態では、第2の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の表現(例えば、カメラビュー、透明ディスプレイを通じたパススルービューなど)のより多くの又はより広い部分上に重ねられる、その表示を置換する、又はそのビューを遮断するなどの仮想オブジェクトを有する三次元環境内に仮想コンテンツを表示することを含む。いくつかの実施形態では、第2の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境内のより多くの物理的表面及び/又はより多くのタイプの物理的表面(例えば、現実の窓、壁、テーブル上面、家具など)のロケーションに対応するポジションに仮想コンテンツを表示することを含む。いくつかの実施形態では、第3の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の任意の部分の表現を表示することなく仮想環境を表示すること(例えば、仮想現実環境を表示すること)を含む。いくつかの実施形態では、仮想環境は依然として物理的環境に対応し、例えば、仮想環境内の仮想オブジェクト及び表面のロケーション及び空間関係は依然として、物理的環境内の少なくともいくつかの物理的オブジェクト及び表面のロケーション及び空間関係に対応する。いくつかの実施形態では、仮想環境は、最小限の範囲(例えば、重力の方向及び床の向きなど)を除いて、物理的環境に対応しない。いくつかの実施形態では、第1の没入レベルで表示される第1のコンピュータ生成体験は拡張現実体験であり、第2の没入レベルで表示される第1のコンピュータ生成体験は仮想体験である。 In some embodiments, displaying the first computer-generated experience at the first immersion level includes displaying virtual content (e.g., the virtual content of the first computer-generated experience, optionally changing over time) at respective first positions corresponding to the locations of one or more first portions of the physical environment (e.g., the virtual content overlays, replaces the display of, or blocks the view of a representation of the first portion of the physical environment (e.g., a single contiguous portion, or multiple separate disjoint portions, etc.) that would have been within the user's field of view if the virtual content had not been displayed) while maintaining the display (e.g., at respective second positions) of a representation of one or more second portions (different from the first portion) of the physical environment (e.g., the portions of the physical environment remain visible to the user via the display generation component (e.g., adjacent to the virtual content, as an ambient background of the virtual content, etc.)), displaying an augmented reality view of the physical environment, or displaying a complete pass-through view of the physical environment with some user interface objects). In some embodiments, displaying the first computer-generated experience at the first immersive level includes displaying virtual content in a virtual window or screen that is overlaid on, replaces the display of, or blocks a view of the representation of the physical environment (e.g., a camera view, a pass-through view through a transparent display, etc.). In some embodiments, displaying the first computer-generated experience at the first immersive level includes displaying the virtual content in a position that corresponds to the location of a first physical surface (e.g., a real window, wall, tabletop, etc.) or a first number (e.g., less than all) of physical surfaces (e.g., all walls but the ceiling and floor, all walls but the furniture, the ceiling and floor, the tabletop but the walls, etc.) in the physical environment. Displaying the first computer-generated experience at the second immersion level includes displaying virtual content (e.g., the virtual content of the first computer-generated experience, optionally changing over time) at respective first positions corresponding to locations of one or more first portions of the physical environment (e.g., portions near the center of the user's field of view) and at respective second positions corresponding to at least a portion of one or more second portions of the physical environment (e.g., portions further from the center of the user's field of view) (e.g., at the second immersion level, fewer portions of the physical environment remain visible to the user through the display generation component). In some embodiments, displaying the first computer-generated experience at the second immersion level includes displaying the virtual content within the three-dimensional environment with virtual objects overlaid on, replacing, or blocking a view of more or a larger portion of the representation of the physical environment (e.g., a camera view, a pass-through view through a transparent display, etc.). In some embodiments, displaying the first computer-generated experience at the second immersion level includes displaying virtual content in positions that correspond to the locations of more physical surfaces and/or more types of physical surfaces (e.g., real windows, walls, tabletops, furniture, etc.) in the physical environment. In some embodiments, displaying the first computer-generated experience at the third immersion level includes displaying a virtual environment (e.g., displaying a virtual reality environment) without displaying a representation of any portion of the physical environment. In some embodiments, the virtual environment still corresponds to the physical environment, e.g., the locations and spatial relationships of virtual objects and surfaces in the virtual environment still correspond to the locations and spatial relationships of at least some physical objects and surfaces in the physical environment. In some embodiments, the virtual environment does not correspond to the physical environment, except to a minimal extent (e.g., the direction of gravity and the orientation of the floor, etc.). In some embodiments, the first computer-generated experience displayed at the first immersion level is an augmented reality experience and the first computer-generated experience displayed at the second immersion level is a virtual experience.

物理的環境の1つ以上の第2の部分の表現の表示を維持している間、物理的環境の1つ以上の第1の部分のロケーションに対応するそれぞれの第1のポジションに仮想コンテンツを表示することを含む、第1の没入レベルで第1のコンピュータ生成体験を表示することと、物理的環境の1つ以上の第1の部分のロケーションに対応するそれぞれの第1のポジション及び物理的環境の1つ以上の第2の部分の少なくともいくつかに対応するそれぞれの第2のポジションに仮想コンテンツを表示することを含む、第2の没入レベルで第1のコンピュータ生成体験を表示することとは、ユーザに改善された視覚的フィードバック(例えば、現在の没入レベルに関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first computer-generated experience at a first immersion level, including displaying virtual content at respective first positions corresponding to locations of the one or more first portions of the physical environment while maintaining display of a representation of the one or more second portions of the physical environment, and displaying the first computer-generated experience at a second immersion level, including displaying virtual content at respective first positions corresponding to locations of the one or more first portions of the physical environment and respective second positions corresponding to at least some of the one or more second portions of the physical environment, provide the user with improved visual feedback (e.g., improved visual feedback regarding a current immersion level). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312、又は他のバイオメトリックデータ)(例えば、周期的に受信されたデータ、又は連続的に受信されたデータなど)を受信したことに応じて、かつ第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、直近に受信されたバイオメトリックデータ、予め設定された持続時間の直近の期間にわたって受信されたバイオメトリックデータなど)の変化が第1の基準を満たすように進行している(例えば、心拍数が第1の閾値心拍数に近づくように減速している、呼吸数が第1の閾値呼吸数に近づくように減速している、体温が第1の閾値体温に近づくように減少している、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値、及びコンピュータ生成体験へのユーザの関与中に経時的に変動し得る1つ以上のタイプのバイオメトリックデータ、コンピュータ生成体験へのユーザの関与中にユーザ自身のアクションを通じて変動し得る1つ以上のタイプのバイオメトリックデータ(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又はコントロールとの直接的相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)、ユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックが、継続すると第1の基準が満たされる傾向を伴って変化している)という判定に従って、コンピュータシステムは、第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して可視であった物理的環境の表現の少なくとも一部の視覚的強調を徐々に低減し(例えば、ぼかす、暗くする、遮断する、置換する、オーバーレイなど)、第2の没入レベルで第1のコンピュータ生成体験を表示することは、物理的環境の表現の一部が第1の表示生成コンポーネントを介して可視であることを停止するように、物理的環境の表現の一部に対応するポジションに第1のコンピュータ生成体験の仮想コンテンツを表示することを含む。例えば、いくつかの実施形態では、第1のコンピュータ生成体験が第1の没入レベルで表示されるとき、第1のユーザに面する物理的な壁の表現(例えば、壁のパススルービュー又はカメラビュー)は、仮想壁(例えば、仮想壁紙を有する)、仮想窓(例えば、仮想ビューを有する)、仮想風景(例えば、開放海洋ビュー、開放風景など)、仮想デスクトップ、仮想映画スクリーンなどによって遮断される、置換される、又は重ねられるが、室内の他の物理的な壁、天井、床、家具は、表示生成コンポーネントを通じてユーザに対して依然として可視である。第1のユーザから受信されたバイオメトリックデータが第1の基準を満たすとき、コンピュータシステムは、依然として可視である物理的環境の表現の部分を徐々にぼやかし、及び/又は暗くし、それらを仮想コンテンツで置換する(例えば、既存の仮想コンテンツを拡張する、新しい仮想コンテンツを追加するなど)。いくつかの実施形態では、コンピュータシステムは、仮想壁紙、仮想部屋装飾、仮想風景、仮想映画スクリーン、仮想デスクトップなどの仮想コンテンツを表示し、これは、物理的環境の表現のぼやけた部分及び/又は暗くなった部分を徐々に置換する(例えば、物理的環境の表現の部分の後ろからフェードインする、又は物理的環境の表現の部分の周囲領域からクリープインするなど)。遷移が完了すると、第1のコンピュータ生成体験のユーザの視野は拡大されており、表示生成コンポーネントを介して見える物理的環境が少なくなる。 In some embodiments, in response to receiving biometric data (e.g., biometric data 7312 of FIGS. 7G-7J, or other biometric data) corresponding to a first user (e.g., corresponding to a physiological state of the first user at a first time or time period) (e.g., periodically received data, continuously received data, etc.), and determining that a change in the biometric data (e.g., most recently received biometric data, biometric data received over a most recent period of a pre-set duration, etc.) corresponding to the first user (e.g., corresponding to a physiological state of the first user at a first time or time period) is progressing to meet a first criterion (e.g., heart rate slowing to approach a first threshold heart rate, respiration rate slowing to approach a first threshold respiration rate, body temperature decreasing to approach a first threshold body temperature, serum concentrations of certain chemicals, drugs, hormones, etc., blood pressure, brain waves, concentration level, pupil size, metabolic rate, blood glucose level, and one or more types of biometric data that may vary over time during a user's engagement in the computer-generated experience, computer-generated body In accordance with a determination that one or more types of biometric data that may vary through the user's own actions during the user's engagement with the experience (e.g., meditating, changing breathing patterns, exercising, etc., as opposed to direct interaction with user interface elements or controls provided by the computer system), one or more types of composite metrics of the multiple types of biometric data corresponding to the user's mood, happiness, and/or stress level, etc., are changing with a trend toward the first criterion being met upon continuation), the computer system gradually reduces (e.g., blurring, darkening, blocking, replacing, overlaying, etc.) a visual emphasis of at least a portion of the representation of the physical environment that was visible through the first display generation component while the first computer-generated experience was displayed at the first immersion level, and displaying the first computer-generated experience at the second immersion level includes displaying virtual content of the first computer-generated experience in a position corresponding to the portion of the representation of the physical environment such that the portion of the representation of the physical environment ceases to be visible through the first display generation component. For example, in some embodiments, when the first computer-generated experience is displayed at the first immersion level, a representation of a physical wall facing the first user (e.g., a pass-through view or a camera view of the wall) is occluded, replaced, or overlaid by a virtual wall (e.g., having a virtual wallpaper), a virtual window (e.g., having a virtual view), a virtual scenery (e.g., an open ocean view, an open scenery, etc.), a virtual desktop, a virtual movie screen, etc., while other physical walls, ceilings, floors, furniture in the room are still visible to the user through the display generation components. When the biometric data received from the first user meets a first criterion, the computer system gradually blurs and/or darkens portions of the representation of the physical environment that are still visible and replaces them with virtual content (e.g., augmenting existing virtual content, adding new virtual content, etc.). In some embodiments, the computer system displays virtual content, such as virtual wallpaper, virtual room decor, virtual scenery, a virtual movie screen, a virtual desktop, etc., that gradually replaces the blurred and/or darkened portions of the representation of the physical environment (e.g., fading in from behind portions of the representation of the physical environment, creeping in from surrounding areas of portions of the representation of the physical environment, etc.). When the transition is complete, the user's field of view of the first computer-generated experience has expanded and less of the physical environment is visible through the display generation component.

第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して視認可能であった物理的環境の表現の少なくとも一部の視覚的強調を徐々に低減することと、第2の没入レベルで第1のコンピュータ生成体験を表示することとは、第1のユーザに対応するバイオメトリックデータの変化が第1の基準を満たすことに向かって進行しているという判定に従って、物理的環境の表現の一部が第1の表示生成コンポーネントを介して視認可能であることを停止するように物理的環境の表現の一部に対応するポジションに第1のコンピュータ生成体験の仮想コンテンツを表示することを含み、ユーザに改善された視覚的フィードバック(例えば、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かって進行しているという改善された視覚的フィードバック、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かう相対的な進行に関する視覚的フィードバックなど)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Gradually reducing visual emphasis of at least a portion of the representation of the physical environment that was viewable via the first display generation component while the first computer-generated experience was displayed at the first immersion level and displaying the first computer-generated experience at the second immersion level includes displaying virtual content of the first computer-generated experience at a position corresponding to the portion of the representation of the physical environment such that the portion of the representation of the physical environment ceases to be viewable via the first display generation component in accordance with a determination that a change in the biometric data corresponding to the first user is progressing toward satisfying the first criterion, providing improved visual feedback to the user (e.g., improved visual feedback that the biometric data corresponding to the first user is progressing toward satisfying the first criterion, visual feedback regarding the relative progress of the biometric data corresponding to the first user toward satisfying the first criterion, etc.). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312、又は他のバイオメトリックデータ)(例えば、周期的に受信されたデータ、又は連続的に受信されたデータなど)を受信したことに応じて、かつ第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、直近に受信されたバイオメトリックデータ、予め設定された持続時間の直近の期間にわたって受信されたバイオメトリックデータなど)の変化が第1の基準を満たすように進行している(例えば、心拍数が第1の閾値心拍数に近づくように減速している、呼吸数が第1の閾値呼吸数に近づくように減速している、体温が第1の閾値体温に近づくように減少している、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値、及びコンピュータ生成体験へのユーザの関与中に経時的に変動し得る1つ以上のタイプのバイオメトリックデータ、コンピュータ生成体験へのユーザの関与中にユーザ自身のアクションを通じて変動し得る1つ以上のタイプのバイオメトリックデータ(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又はコントロールとの直接相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)、ユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックが、継続すると第1の基準が満たされる傾向を伴って変化している)という判定に従って、コンピュータシステムは、第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して可視であった物理的環境の表現の少なくとも一部の視覚的特性を、第1のユーザに対応するバイオメトリックデータの変化に対応する量だけ変更する(例えば、ぼかす、暗くする、遮断する、置換する、重ね合わせるなど)。例えば、いくつかの実施形態では、第1のコンピュータ生成体験が第1の没入レベルで表示されるとき、第1のユーザに面する物理的な壁の表現(例えば、壁のパススルービュー又はカメラビュー)は、仮想壁(例えば、仮想壁紙を有する)、仮想窓(例えば、仮想ビューを有する)、仮想風景(例えば、開放海洋ビュー、開放風景など)、仮想デスクトップ、仮想映画スクリーンなどによって遮断される、置換される、又は重ねられるが、室内の他の物理的な壁、天井、床、家具は、表示生成コンポーネントを通じてユーザに対して依然として可視である。第1のユーザから受信されたバイオメトリックデータが、第1の基準を満たす傾向を伴って変化するとき、コンピュータシステムは、仮想コンテンツによってまだ覆われていないユーザの視野のエリアに適用されるぼかし及び/又は暗化の量を徐々に強化する。任意選択的に、バイオメトリックデータが反対の傾向で変化する場合、ぼかし及び/又は暗化の量は徐々に低減され、それらのエリア内の物理的環境のビューの鮮明度は再び改善する。 In some embodiments, in response to receiving biometric data (e.g., biometric data 7312 of FIGS. 7G-7J, or other biometric data) corresponding to a first user (e.g., corresponding to a physiological state of the first user at a first time or time period) (e.g., periodically received data, continuously received data, etc.), and determining that a change in the biometric data (e.g., most recently received biometric data, biometric data received over a most recent period of a pre-set duration, etc.) corresponding to the first user (e.g., corresponding to a physiological state of the first user at a first time or time period) is progressing to meet a first criterion (e.g., heart rate slowing to approach a first threshold heart rate, respiration rate slowing to approach a first threshold respiration rate, body temperature decreasing to approach a first threshold body temperature, serum concentrations of certain chemicals, drugs, hormones, etc., blood pressure, brain waves, concentration, pupil size, metabolic rate, blood glucose level, and computer-generated body temperature). In accordance with a determination that one or more types of biometric data that may vary over time during the user's engagement with the experience, one or more types of biometric data that may vary through the user's own actions during the user's engagement with the computer-generated experience (e.g., meditating, changing breathing patterns, exercising, etc., as opposed to direct interaction with user interface elements or controls provided by the computer system), one or more types of composite metrics of the multiple types of biometric data corresponding to the user's mood, happiness, and/or stress level, etc., are changing with a trend that, over time, a first criterion will be met, the computer system alters (e.g., blurs, darkens, blocks, replaces, overlays, etc.) visual characteristics of at least a portion of a representation of the physical environment that was visible via the first display generation component while the first computer-generated experience was displayed at the first immersion level in an amount corresponding to the change in the biometric data corresponding to the first user. For example, in some embodiments, when the first computer-generated experience is displayed at the first immersion level, a representation of a physical wall facing the first user (e.g., a pass-through view or a camera view of the wall) is occluded, replaced, or overlaid by a virtual wall (e.g., with a virtual wallpaper), a virtual window (e.g., with a virtual view), a virtual scenery (e.g., an open ocean view, an open scenery, etc.), a virtual desktop, a virtual movie screen, etc., while other physical walls, ceilings, floors, furniture in the room remain visible to the user through the display generation component. When the biometric data received from the first user changes with a trend toward meeting the first criterion, the computer system gradually increases the amount of blurring and/or darkening applied to areas of the user's field of view that are not yet covered by the virtual content. Optionally, when the biometric data changes with an opposite trend, the amount of blurring and/or darkening is gradually reduced, and the clarity of the view of the physical environment in those areas improves again.

第1のユーザに対応するバイオメトリックデータの変化が第1の基準を満たすことに向かって進行しているという判定に従って、第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して視認可能であった物理的環境の表現の少なくとも一部の視覚的特性を、第1のユーザに対応するバイオメトリックデータの変化に対応する量だけ変化させることは、ユーザに改善された視覚的フィードバック(例えば、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かって進行しているという改善された視覚的フィードバック、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かう相対的な進行に関する改善された視覚的フィードバックなど)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Pursuant to a determination that the change in the biometric data corresponding to the first user is progressing toward satisfying the first criterion, altering visual characteristics of at least a portion of the representation of the physical environment that was viewable through the first display generation component while the first computer-generated experience was displayed at the first immersion level by an amount corresponding to the change in the biometric data corresponding to the first user provides the user with improved visual feedback (e.g., improved visual feedback that the biometric data corresponding to the first user is progressing toward satisfying the first criterion, improved visual feedback regarding the relative progress of the biometric data corresponding to the first user toward satisfying the first criterion, etc.). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

くつかの実施形態では、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312、又は他のバイオメトリックデータ)(例えば、周期的に受信されたデータ、又は連続的に受信されたデータなど)を受信したことに応じて、かつ第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、直近に受信されたバイオメトリックデータ、予め設定された持続時間の直近の期間にわたって受信されたバイオメトリックデータなど)の変化が第1の基準を満たすように進行している(例えば、心拍数が第1の閾値心拍数に近づくように減速している、呼吸数が第1の閾値呼吸数に近づくように減速している、体温が第1の閾値体温に近づくように減少している、特定の化学物質、薬剤、ホルモンなどの血清濃度、血圧、脳波、集中度、瞳孔サイズ、代謝率、血糖値、及びコンピュータ生成体験へのユーザの関与中に経時的に変動し得る1つ以上のタイプのバイオメトリックデータ、コンピュータ生成体験へのユーザの関与中にユーザ自身のアクションを通じて変動し得る1つ以上のタイプのバイオメトリックデータ(例えば、コンピュータシステムによって提供されるユーザインタフェース要素又はコントロールとの直接相互作用とは対照的に、瞑想、呼吸パターンの変化、エクササイズなど)、ユーザの気分、幸福度、及び/又はストレスレベルなどに対応する複数のタイプのバイオメトリックデータの1つ以上のタイプの複合メトリックが、継続すると第1の基準が満たされる傾向を伴って変化している)という判定に従って、コンピュータシステムは、第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して可視であった物理的環境の表現の少なくとも一部に、第1のユーザに対応するバイオメトリックデータの変化の量だけ仮想コンテンツの表示を拡張する(例えば、遮断する、置換する、重ね合わせるなど)。例えば、いくつかの実施形態では、第1のコンピュータ生成体験が第1の没入レベルで表示されるとき、第1のユーザに面する物理的な壁の表現(例えば、壁のパススルービュー又はカメラビュー)は、仮想壁(例えば、仮想壁紙を有する)、仮想窓(例えば、仮想ビューを有する)、仮想風景(例えば、開放海洋ビュー、開放風景など)、仮想デスクトップ、仮想映画スクリーンなどによって遮断される、置換される、又は重ねられるが、室内の他の物理的な壁、天井、床、家具の表現は、依然として表示生成コンポーネントを介してユーザに対して表示される。第1のユーザから受信されたバイオメトリックデータが、第1の基準を満たす傾向を伴って変化するとき、コンピュータシステムは、仮想コンテンツによって覆われるユーザの視野の面積を徐々に拡大し、周囲の物理的環境のビューのより多くを遮断する。任意選択的に、バイオメトリックデータが反対の傾向で変化する場合、以前に遮断された/覆われたエリアは徐々に復元され、それらのエリア内の物理的環境のビューを再び明らかにする。 In some embodiments, in response to receiving biometric data (e.g., biometric data 7312 of FIGS. 7G-7J, or other biometric data) corresponding to a first user (e.g., corresponding to a physiological state of the first user at a first time or time period) (e.g., periodically received data, continuously received data, etc.), and determining that a change in the biometric data (e.g., most recently received biometric data, biometric data received over a most recent period of a preset duration, etc.) corresponding to the first user (e.g., corresponding to a physiological state of the first user at a first time or time period) is progressing to meet a first criterion (e.g., heart rate slowing to approach a first threshold heart rate, respiration rate slowing to approach a first threshold respiration rate, body temperature decreasing to approach a first threshold body temperature, serum concentrations of certain chemicals, drugs, hormones, etc., blood pressure, brain waves, concentration, pupil size, metabolic rate, blood glucose level, and computer In accordance with a determination that one or more types of biometric data that may vary over time during the user's engagement with the generated experience, one or more types of biometric data that may vary through the user's own actions during the user's engagement with the computer-generated experience (e.g., meditating, changing breathing patterns, exercising, etc., as opposed to direct interaction with user interface elements or controls provided by the computer system), one or more types of composite metrics of the multiple types of biometric data corresponding to the user's mood, happiness, and/or stress level, etc., are changing with a trend toward a first criterion being met over time, the computer system extends (e.g., occludes, replaces, overlays, etc.) the display of the virtual content over at least a portion of the representation of the physical environment that was visible through the first display generation component while the first computer-generated experience was displayed at the first immersion level by an amount of the change in the biometric data corresponding to the first user. For example, in some embodiments, when the first computer-generated experience is displayed at the first immersion level, a representation of a physical wall facing the first user (e.g., a pass-through view of the wall or a camera view) is occluded, replaced, or overlaid by a virtual wall (e.g., with a virtual wallpaper), a virtual window (e.g., with a virtual view), a virtual landscape (e.g., an open ocean view, an open landscape, etc.), a virtual desktop, a virtual movie screen, etc., while representations of other physical walls, ceilings, floors, furniture in the room are still displayed to the user via the display generation component. When the biometric data received from the first user changes with a trend toward meeting the first criterion, the computer system gradually expands the area of the user's field of view that is covered by the virtual content, occluding more of the view of the surrounding physical environment. Optionally, when the biometric data changes with an opposite trend, the previously occluded/covered areas are gradually restored, again revealing a view of the physical environment in those areas.

第1のユーザに対応するバイオメトリックデータの変化が第1の基準を満たすことに向かって進行しているという判定に従って、第1のコンピュータ生成体験が第1の没入レベルで表示されている間に第1の表示生成コンポーネントを介して可視であった物理的環境の表現の少なくとも一部分上への仮想コンテンツの表示を、第1のユーザに対応するバイオメトリックデータの変化に対応する量だけ拡大することは、ユーザに改善された視覚的フィードバック(例えば、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かって進行しているという改善された視覚的フィードバック、第1のユーザに対応するバイオメトリックデータが第1の基準を満たすことに向かう相対的な進行に関する改善された視覚的フィードバックなど)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In accordance with a determination that the change in the biometric data corresponding to the first user is progressing toward satisfying the first criterion, expanding the display of the virtual content onto at least a portion of the representation of the physical environment that was visible through the first display generation component while the first computer-generated experience was displayed at the first immersion level by an amount corresponding to the change in the biometric data corresponding to the first user provides the user with improved visual feedback (e.g., improved visual feedback that the biometric data corresponding to the first user is progressing toward satisfying the first criterion, improved visual feedback regarding the relative progress of the biometric data corresponding to the first user toward satisfying the first criterion, etc.). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の基準は、第1の基準が満たされるためにバイオメトリックデータ(例えば、図7G~図7Jのバイオメトリックデータ7312、又は他のバイオメトリックデータなど)が受信されているときに、第1のユーザ(例えば、図7G~図7Jのユーザ7002、又は別のユーザなど)が第1のタイプの閾値移動量未満(例えば、閾値時間量の間の第1のタイプの予め設定された閾値移動量未満、第1のタイプの閾値累積移動量未満、第1のタイプの移動の絶対量未満など)を行うという基準を含む(例えば、第1のタイプの移動は、頭部の移動、身体の中心の移動、四肢の移動、及び/又は目の移動などを含む)。例えば、いくつかの実施形態では、受信されるバイオメトリックデータが有効であることを確実にするために、及び/又は第1のユーザが落ち着いてコンピュータ生成体験のより高い没入レベルに入ることを確実にするために、第1のユーザは、バイオメトリックデータが受信及び評価されるとき、実質的に静止したままであること必要がある。いくつかの実施形態では、閾値時間量の間に第1のユーザの閾値移動量を超える移動が検出された場合、コンピュータシステムは、バイオメトリックデータが第1の基準においてバイオメトリックデータに対して指定された要件(例えば、呼吸数、心拍数などに対する閾値)を満たす場合であっても、第2の没入レベル(又は別の次の没入レベル)を有する第1のコンピュータ生成体験の表示を(例えば、取りやめる、停止する、反転させるなど)。 In some embodiments, the first criterion includes a criterion that the first user (e.g., user 7002 of FIGS. 7G-7J, or another user, etc.) makes less than a threshold amount of movement of a first type (e.g., less than a preset threshold amount of movement of the first type for a threshold amount of time, less than a threshold cumulative amount of movement of the first type, less than an absolute amount of movement of the first type, etc.) when the biometric data (e.g., biometric data 7312 of FIGS. 7G-7J, or other biometric data, etc.) is being received for the first criterion to be met (e.g., the first type of movement includes head movement, center of body movement, limb movement, and/or eye movement, etc.). For example, in some embodiments, the first user is required to remain substantially stationary when the biometric data is received and evaluated to ensure that the biometric data received is valid and/or to ensure that the first user settles into a higher immersion level of the computer-generated experience. In some embodiments, if movement of the first user that exceeds a threshold amount of movement is detected for a threshold amount of time, the computer system may (e.g., cancel, stop, reverse, etc.) the display of the first computer-generated experience having the second immersion level (or another subsequent immersion level) even if the biometric data meets requirements specified for the biometric data in the first criteria (e.g., thresholds for breathing rate, heart rate, etc.).

第1のユーザに対応するバイオメトリックデータが、バイオメトリックデータが受信されているときに第1のユーザが第1のタイプの閾値移動量未満の移動をすることを必要とする第1の基準を満たすという判定に従って、第2の没入レベルで第1のコンピュータ生成体験を表示し、第1のユーザに対応する、第1のユーザの呼吸速度を含むバイオメトリックデータが、バイオメトリックデータが受信されているときに第1のユーザが第1のタイプの閾値移動量未満の移動をすることを必要とする第1の基準を満たさないという判定に従って、第1の没入レベルで第1のコンピュータ生成体験を表示し続けることは、更なるユーザ入力(例えば、没入レベルを選択するための更なるユーザ入力)を必要とせずに、条件のセットが満たされたときに、適切な没入レベルで第1のコンピュータ生成体験を表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first computer-generated experience at a second immersion level in accordance with a determination that the biometric data corresponding to the first user satisfies a first criterion requiring the first user to move less than a threshold amount of movement of a first type when the biometric data is received, and continuing to display the first computer-generated experience at the first immersion level in accordance with a determination that the biometric data corresponding to the first user, including the first user's respiration rate, does not satisfy the first criterion requiring the first user to move less than a threshold amount of movement of a first type when the biometric data is received, displays the first computer-generated experience at an appropriate immersion level when a set of conditions is met without requiring further user input (e.g., further user input to select an immersion level). Performing an action when a set of conditions is met without requiring further user input enhances operability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第2の没入レベルで第1のコンピュータ生成体験を表示している間、コンピュータシステムは、第1のユーザ(例えば、図7G~図7Jのユーザ7002、別のユーザなど)によって実行されている第1のタイプの移動(例えば、頭部の移動、身体の中心の移動、四肢の移動、目の移動など)を検出する。第1のユーザによって実行されている第1のタイプの移動を検出したことに応じて、かつ第1のタイプの移動が予め設定された閾値移動量を超える(例えば、閾値時間中の予め設定された閾値移動量を超える、累積移動量を超える、絶対移動量を超えるなど)という判定に従って、コンピュータシステムは、第1の没入レベルで第1のコンピュータ生成体験を再表示する。例えば、いくつかの実施形態では、第1のユーザから受信されたバイオメトリックデータが第1の基準を満たした後、第1のコンピュータ生成体験が第2の没入レベルで表示されている間、第1のユーザが1つ以上の予め設定された方法(例えば、第1のユーザが立った、頭を動かした、腕を伸ばした、視線を動かしたなど)で閾値量を超えて移動した場合、コンピュータシステムは、第1のユーザの移動を、より没入レベルの高い体験を終了する意図として解釈し、以前に表示されたより没入レベルの低いコンピュータ生成体験に戻る。この特徴は、第1のユーザが瞑想又は睡眠のためにコンピュータ生成体験を使用しているときに有用であり、第1のユーザの移動は、ユーザが正常状態に戻ることを可能にする。いくつかの実施形態では、受信されるバイオメトリックデータが有効であることを確実にするために、及び/又は第1のユーザがコンピュータ生成体験のより没入型のレベルに入るように落ち着きたいことを確実にするために、第1のユーザは、バイオメトリックデータが受信及び評価されるとき、実質的に静止したままであることを必要とされる。いくつかの実施形態では、閾値時間中に第1のユーザの閾値移動量を超える移動が検出された場合、コンピュータシステムは、バイオメトリックデータが第1の基準においてバイオメトリックデータに対して指定された要件(例えば、呼吸数、心拍数などに対する閾値)を依然として満たすかどうかにかかわらず、第2の没入レベル(又は次の没入レベルが何であれ)を有する第1のコンピュータ生成体験の表示を停止又は反転させる。 In some embodiments, while displaying the first computer-generated experience at the second immersion level, the computer system detects a first type of movement (e.g., head movement, body center movement, limb movement, eye movement, etc.) being performed by a first user (e.g., user 7002 of FIGS. 7G-7J, another user, etc.). In response to detecting the first type of movement being performed by the first user, and in accordance with a determination that the first type of movement exceeds a preset threshold amount of movement (e.g., exceeding a preset threshold amount of movement during a threshold time, exceeding an accumulated amount of movement, exceeding an absolute amount of movement, etc.), the computer system re-displays the first computer-generated experience at the first immersion level. For example, in some embodiments, after the biometric data received from the first user meets a first criterion, if the first user moves in one or more pre-defined ways (e.g., the first user stands, moves his/her head, stretches his/her arms, moves his/her gaze, etc.) more than a threshold amount while the first computer-generated experience is displayed at the second immersive level, the computer system interprets the first user's movement as an intent to exit the more immersive level experience and return to the less immersive level computer-generated experience previously displayed. This feature is useful when the first user is using the computer-generated experience for meditation or sleep, and the first user's movement allows the user to return to a normal state. In some embodiments, to ensure that the biometric data received is valid and/or to ensure that the first user wants to settle in to enter a more immersive level of the computer-generated experience, the first user is required to remain substantially still when the biometric data is received and evaluated. In some embodiments, if movement of the first user that exceeds a threshold amount of movement is detected during the threshold time, the computer system stops or reverses the display of the first computer-generated experience having the second immersion level (or whatever the next immersion level is), regardless of whether the biometric data still meets the requirements specified for the biometric data in the first criteria (e.g., thresholds for respiration rate, heart rate, etc.).

第1のユーザによって実行されている第1のタイプの移動を検出したことに応じて、かつ第1のタイプの移動が予め設定された閾値移動量を超えるという判定に従って、第1の没入レベルで第1のコンピュータ生成体験を再表示することは、更なるユーザ入力(例えば、第1の没入レベルを選択するための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、第1の没入レベルで第1のコンピュータ生成体験を再表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first type of movement being performed by a first user and in accordance with a determination that the first type of movement exceeds a preset threshold amount of movement, redisplaying the first computer-generated experience at the first immersion level when a set of conditions are met without requiring further user input (e.g., further user input to select the first immersion level). Performing an action when a set of conditions are met without requiring further user input enhances usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、(例えば、図7Jに示すように)第2の没入レベルで第1のコンピュータ生成体験を表示している間、コンピュータシステムは、第1のユーザ(例えば、図7Jのユーザ7002)によって行われている第1のタイプの移動(例えば、頭部の移動、身体の中心の移動、四肢の移動、目の移動など)を検出する。第1のユーザによって実行されている第1のタイプの移動を検出したことに応じて、かつ第1のタイプの移動が予め設定された閾値移動量を超える(例えば、閾値時間量の間の予め設定された閾値移動量を超える、蓄量な移動を超える、絶対的な移動量を超えるなど)という判定に従って、コンピュータシステムは、第1の視点で第2の没入レベルで第1のコンピュータ生成体験を表示することから、第1の視点とは異なる第2の視点で第2の没入レベルで第1のコンピュータ生成体験を表示することに切り替える(例えば、第2の没入レベルで第1のコンピュータ生成体験の視点の変化は、第1のユーザによって実行される第1のタイプの移動に対応する)。例えば、バイオメトリックデータの変化によってより没入的な体験がトリガされると、第1のユーザは、仮想環境のビューが表示される視点を変更するために、物理的環境内で動き回る、自分の頭を回転させる、又は異なる方向を見ることができる。 In some embodiments, while displaying the first computer-generated experience at the second immersion level (e.g., as shown in FIG. 7J), the computer system detects a first type of movement (e.g., head movement, body center movement, limb movement, eye movement, etc.) being performed by a first user (e.g., user 7002 of FIG. 7J). In response to detecting the first type of movement being performed by the first user, and in accordance with a determination that the first type of movement exceeds a preset threshold amount of movement (e.g., exceeds a preset threshold amount of movement for a threshold amount of time, exceeds an accumulated amount of movement, exceeds an absolute amount of movement, etc.), the computer system switches from displaying the first computer-generated experience at the second immersion level at a first perspective to displaying the first computer-generated experience at the second immersion level at a second perspective different from the first perspective (e.g., a change in perspective of the first computer-generated experience at the second immersion level corresponds to the first type of movement performed by the first user). For example, when a more immersive experience is triggered by a change in biometric data, the first user may move around in the physical environment, turn their head, or look in different directions to change the perspective from which the view of the virtual environment is displayed.

第1のユーザによって実行されている第1のタイプの移動を検出したことに応じて、かつ第1のタイプの移動が予め設定された閾値移動量を超えるという判定に従って、第1の視点で第2の没入レベルで第1のコンピュータ生成体験を表示することから、第1の視点とは異なる第2の視点で第2の没入レベルで第1のコンピュータ生成体験を表示することへ切り替えることは、更なるユーザ入力(例えば、第1の視点から第2の視点に変更するための更なるユーザ入力)を必要とせずに、条件のセットが満たされたときに表示される視点を切り替える。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Switching from displaying the first computer-generated experience at a second immersion level in a first perspective to displaying the first computer-generated experience at a second immersion level in a second perspective different from the first perspective in response to detecting a first type of movement being performed by a first user and in accordance with a determination that the first type of movement exceeds a preset threshold amount of movement switches the displayed perspective when a set of conditions are met without requiring further user input (e.g., further user input to change from the first perspective to the second perspective). Performing an action when a set of conditions are met without requiring further user input improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のコンピュータ生成体験(例えば、図7G~図7Jの第1の表示生成コンポーネント7100を介して示されるコンピュータ生成体験、別のコンピュータ生成体験など)を第1の没入レベルで表示することから、第1のコンピュータ生成体験を第2の没入レベルで表示することへの遷移は、第1の基準が満たされた時間に対応する時点で行われる不連続の遷移(例えば、徐々にぼやけたりフェードインしたりすることなく、物理的表面に対応するポジションを横切る1つ以上の方向に沿って増分的に変化することなく、仮想コンテンツを有する物理的環境の表現の大部分を同時に置換したり、その部分のビューを遮断したり、及び/又はその部分に重ね合わされる急激な変化)である。例えば、いくつかの実施形態では、第1のコンピュータ生成体験は、第1の基準が満たされる前に、延長された期間にわたって第1の没入レベルで表示され、第1の基準がバイオメトリックデータによって満たされると、第2の没入レベルで表示された第1のコンピュータ生成体験が、第1の没入レベルで表示された第1のコンピュータ生成体験を置換するときに示される明確かつ突然の視覚的変化が生じる。 In some embodiments, the transition from displaying a first computer-generated experience (e.g., a computer-generated experience shown via the first display generation component 7100 of FIG. 7G-7J, another computer-generated experience, etc.) at a first immersion level to displaying the first computer-generated experience at a second immersion level is a discontinuous transition (e.g., an abrupt change that simultaneously replaces, blocks view of, and/or is superimposed on a large portion of the representation of the physical environment with the virtual content without gradually blurring or fading in, or incrementally changing along one or more directions across a position corresponding to the physical surface) that occurs at a time corresponding to the time the first criterion is met. For example, in some embodiments, the first computer-generated experience is displayed at the first immersion level for an extended period of time before the first criterion is met, and once the first criterion is met by the biometric data, a clear and sudden visual change occurs that is shown as the first computer-generated experience displayed at the second immersion level replaces the first computer-generated experience displayed at the first immersion level.

第1の没入レベルでの第1のコンピュータ生成体験の表示から第2の没入レベルでの第1のコンピュータ生成体験の表示への遷移は、第1の基準が満たされる時間に対応する時点で行われる不連続の遷移によって、改善された視覚的フィードバック(例えば、コンピュータシステムが第1の没入レベルから第2の没入レベルに遷移したという改善された視覚的フィードバック、第1の基準が満たされたという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 The transition from displaying the first computer-generated experience at the first immersion level to displaying the first computer-generated experience at the second immersion level provides the user with improved visual feedback (e.g., improved visual feedback that the computer system has transitioned from the first immersion level to the second immersion level, improved visual feedback that the first criterion has been met, etc.) with a discontinuous transition that occurs at a time corresponding to the time the first criterion is met. Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の没入レベルで表示される第1のコンピュータ生成体験は、第1の仮想環境を描写し、第2の没入レベルで表示される第1のコンピュータ生成体験は、第1の仮想環境よりも大きい仮想深度を有する第2の仮想環境を描写する(例えば、第1の仮想環境は、平坦な2次元表面上に仮想コンテンツを有し、第2の仮想環境は、第1のユーザの視点とは異なる深度に仮想コンテンツを有する)。第1の仮想環境を描写する第1の没入レベルで第1のコンピュータ生成体験を表示し、第1の仮想環境よりも大きい仮想深度を有する第2の仮想環境を描写する第2の没入レベルで第1のコンピュータ生成体験を表示することは、ユーザに改善された視覚的フィードバック(例えば、コンピュータシステムが第1又は第2の没入レベルを表示しているかどうかに関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a first computer-generated experience displayed at a first immersion level depicts a first virtual environment and a first computer-generated experience displayed at a second immersion level depicts a second virtual environment having a greater virtual depth than the first virtual environment (e.g., the first virtual environment has virtual content on a flat two-dimensional surface and the second virtual environment has virtual content at a different depth than the first user's viewpoint). Displaying the first computer-generated experience at a first immersion level depicting the first virtual environment and displaying the first computer-generated experience at a second immersion level depicting the second virtual environment having a greater virtual depth than the first virtual environment provides improved visual feedback to the user (e.g., improved visual feedback regarding whether the computer system is displaying the first or second immersion level). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の没入レベルで第1のコンピュータ生成体験を表示することは、第1の没入レベルで第1のコンピュータ生成体験を表示している間に受信されたバイオメトリックデータの変化に従って変化する少なくとも第1の視覚的特性(例えば、第1の仮想オブジェクトの移動、照明の変化など)で第1のコンピュータ生成体験を表示することを含み、第2の没入レベルで第1のコンピュータ生成体験を表示することは、第2の没入レベルで第1のコンピュータ生成体験を表示している間に受信されたバイオメトリックデータの変化に従って変化する少なくとも第2の視覚的特性(例えば、第1の仮想オブジェクトの移動、照明の変化など)で第1のコンピュータ生成体験を表示することを含む。例えば、いくつかの実施形態では、第1の没入レベルで表示される第1のコンピュータ生成体験は、仮想森林の夜間シーンへの表示域を示し、仮想木は、暗い仮想空上の月及び星によって薄暗く照らされる。呼吸数の減少及び/又は酸素濃度の増加など、第1のユーザから受信されたバイオメトリックデータの変化に従って、仮想森林に示される照明レベルはそれに応じて上昇し、仮想の暗い空は徐々に明るく赤くなり、夜明けの到来をシミュレートする。第1の基準がバイオメトリックデータによって満たされるとき、第2没入レベルで表示される第1のコンピュータ生成体験は、仮想森林によって占有されているユーザの視野内の拡張されたエリアを示し(例えば、仮想森林は、ユーザの周囲に拡張し、三次元環境の現在表示されているビューに対応する視点を取り囲む)、仮想地平線上で太陽の縁が可視な状態で仮想シーン内で夜が明ける。呼吸数の継続的な減少(例えば、閾値レベルまでの低下)及び/又は酸素濃度の継続的な増加(例えば、閾値レベルまでの上昇)など、第1のユーザから受信されたバイオメトリックデータの更なる変化に従って、仮想森林に示される照明レベルはそれに応じて増加し続け、仮想空は徐々に明るくなり、昼間の到来をシミュレートする。別の例では、第1の没入レベルで表示される第1のコンピュータ生成体験は、第1のユーザの正面の第1の物理的壁面のロケーションに対応する拡張現実環境内のポジションにおける衝突波を伴う仮想海洋ビューを示す。呼吸数の減少及び/又は心拍数の減少など、第1のユーザから受信されたバイオメトリックデータの変化に従って、海洋の波の頻度及び/又は大きさはそれに応じて減少する。第1の基準がバイオメトリックデータによって満たされるとき、第2の没入レベルで表示される第1のコンピュータ生成体験は、ユーザの視野内の拡張されたエリアが海洋シーンによって占有されていることを示す(例えば、仮想海洋ビューは、2つの側壁のロケーションに対応するポジションにも拡張する)。呼吸数の継続的な減少(例えば、閾値レベルまでの低下)及び/又は心拍数の継続的な減少(例えば、閾値レベルまでの低下)などの、第1のユーザから受信されたバイオメトリックデータの更なる変化に従って、仮想海洋の波の頻度及び/又は大きさは、それに応じて減少し続ける。 In some embodiments, displaying the first computer-generated experience at the first immersion level includes displaying the first computer-generated experience with at least a first visual characteristic (e.g., a movement of a first virtual object, a change in lighting, etc.) that changes according to changes in the biometric data received while displaying the first computer-generated experience at the first immersion level, and displaying the first computer-generated experience at the second immersion level includes displaying the first computer-generated experience with at least a second visual characteristic (e.g., a movement of a first virtual object, a change in lighting, etc.) that changes according to changes in the biometric data received while displaying the first computer-generated experience at the second immersion level. For example, in some embodiments, the first computer-generated experience displayed at the first immersion level shows a viewport into a virtual forest nighttime scene, with the virtual trees dimly lit by a moon and stars on a dark virtual sky. In accordance with changes in the biometric data received from the first user, such as a decrease in breathing rate and/or an increase in oxygen concentration, the lighting level shown in the virtual forest increases accordingly and the virtual dark sky gradually becomes brighter and redder, simulating the onset of dawn. When the first criterion is met by the biometric data, the first computer-generated experience displayed at the second immersion level shows an expanded area in the user's field of view occupied by the virtual forest (e.g., the virtual forest expands around the user to encompass a viewpoint corresponding to the currently displayed view of the three-dimensional environment) and night falls in the virtual scene with the edge of the sun visible on the virtual horizon. In accordance with further changes in the biometric data received from the first user, such as a continued decrease in breathing rate (e.g., dropping to a threshold level) and/or a continued increase in oxygen concentration (e.g., rising to a threshold level), the lighting level shown in the virtual forest continues to increase accordingly and the virtual sky gradually becomes brighter, simulating the onset of daylight. In another example, the first computer-generated experience displayed at the first immersion level shows a virtual ocean view with crashing waves at a position in the augmented reality environment corresponding to the location of a first physical wall in front of the first user. In accordance with changes in the biometric data received from the first user, such as a decrease in breathing rate and/or a decrease in heart rate, the frequency and/or size of the ocean waves decreases accordingly. When the first criterion is met by the biometric data, the first computer-generated experience displayed at the second immersion level shows an expanded area in the user's field of view being occupied by the ocean scene (e.g., the virtual ocean view also expands to positions corresponding to the locations of the two side walls). In accordance with further changes in the biometric data received from the first user, such as a continued decrease in breathing rate (e.g., down to a threshold level) and/or a continued decrease in heart rate (e.g., down to a threshold level), the frequency and/or size of the virtual ocean waves continues to decrease accordingly.

第1の没入レベルで第1のコンピュータ生成体験を表示することは、第1の没入レベルで第1のコンピュータ生成体験を表示している間に受信されたバイオメトリックデータの変化に従って変化する少なくとも第1の視覚的特性で第1のコンピュータ生成体験を表示することを含み、第2の没入レベルで第1のコンピュータ生成体験を表示することは、第2の没入レベルで第1のコンピュータ生成体験を表示している間に受信されたバイオメトリックデータの変化に従って変化する少なくとも第2の視覚的特性で第1のコンピュータ生成体験を表示することを含み、ユーザに改善された視覚的フィードバック(例えば、コンピュータシステムが第1又は第2の没入レベルを表示しているかどうかに関する改善された視覚的フィードバック、第1のユーザに対応するバイオメトリックデータの変化に関する改善された視覚的フィードバックなど)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying the first computer-generated experience at the first immersion level includes displaying the first computer-generated experience with at least a first visual characteristic that changes according to changes in the biometric data received while displaying the first computer-generated experience at the first immersion level, and displaying the first computer-generated experience at the second immersion level includes displaying the first computer-generated experience with at least a second visual characteristic that changes according to changes in the biometric data received while displaying the first computer-generated experience at the second immersion level, providing improved visual feedback to the user (e.g., improved visual feedback regarding whether the computer system is displaying the first or second immersion level, improved visual feedback regarding changes in the biometric data corresponding to the first user, etc.). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザ(例えば、図7G~7Jのユーザ7002、別のユーザなど)の生理学的状態に対応する)バイオメトリックデータ(例えば、図7G~7Jのバイオメトリックデータ7312、他のバイオメトリックデータなど)(例えば、周期的に受信されたデータ、又は連続的に受信されたデータなど)を受信したことに応じて、第1のユーザに対応する(例えば、第1の時点又は期間における第1のユーザの生理学的状態に対応する)バイオメトリックデータ(例えば、直近に受信されたバイオメトリックデータ、予め設定された期間の直近の期間にわたって受信されたバイオメトリックデータなど)が第1の基準を満たす(例えば、図7Jに示すように、バイオメトリックデータがインジケータ7326によって示される閾値を満たす)という判定に従って、コンピュータシステムは、音声出力モードを第1の音声出力モードから第2の音声出力モードに(例えば、ステレオサウンドからサラウンドサウンドに、ヘッドロック音声から空間音声になど)変更し、第1の音声出力モードは、第2の音声出力モードよりも少ない計算制御変数(例えば、各音源の音量、各音源の位相、音源の数、利用可能な音源の作動シーケンスなど)を有する。 In some embodiments, in response to receiving biometric data (e.g., biometric data 7312 of FIGS. 7G-7J, other biometric data, etc.) corresponding to a first user (e.g., corresponding to a physiological state of a first user (e.g., user 7002 of FIGS. 7G-7J, another user, etc.) at a first time point or time period) (e.g., periodically received data, continuously received data, etc.), biometric data (e.g., most recently received biometric data, pre-set biometric data, etc.) corresponding to a first user (e.g., corresponding to a physiological state of a first user (e.g., user 7002 of FIGS. 7G-7J, another user, etc.) at a first time point or time period) corresponding to the first user (e.g., corresponding to a physiological state of a first user at a first time point or time period) (e.g., recently received biometric data, pre-set biometric data, etc.) corresponding to a ... periodically received data, continuously received data, etc.) Pursuant to a determination that the biometric data received over a period immediately preceding the period of time that was received satisfies a first criterion (e.g., the biometric data meets a threshold indicated by indicator 7326 as shown in FIG. 7J), the computer system changes the audio output mode from the first audio output mode to a second audio output mode (e.g., from stereo sound to surround sound, from headlocked audio to spatial audio, etc.), the first audio output mode having fewer computational control variables (e.g., volume of each audio source, phase of each audio source, number of audio sources, activation sequence of available audio sources, etc.) than the second audio output mode.

第1のユーザに対応するバイオメトリックデータが第1の基準を満たすという判定に従って、音声出力モードを第1の音声出力モードから、第1の音声出力モードよりも多くの計算制御変数を有する第2の音声出力モードに変更することは、改善された音声フィードバック(例えば、コンピュータシステムが第1の没入レベルから第2の没入レベルに遷移したという改善された音声フィードバック、第1のユーザに対応するバイオメトリックデータが第1の基準を満たしたという改善された音声フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Changing the audio output mode from the first audio output mode to a second audio output mode having more computational control variables than the first audio output mode in accordance with a determination that the biometric data corresponding to the first user meets the first criterion provides improved audio feedback to the user (e.g., improved audio feedback that the computer system has transitioned from the first immersion level to the second immersion level, improved audio feedback that the biometric data corresponding to the first user met the first criterion, etc.). Providing improved feedback improves operability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

図10における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、9000、11000、及び12000)に関して本明細書で記載した他のプロセスの詳細はまた、図10に関連して上述した方法10000に類似の方式で適用可能であることに留意されたい。例えば、方法10000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法8000、9000、11000、及び12000)を参照して本明細書に記載されるジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。 It should be understood that the particular order described for the operations in FIG. 10 is merely an example, and that the described order is not intended to indicate that the operations are the only order in which they may be performed. Those skilled in the art will recognize various ways to reorder the operations described herein. In addition, it should be noted that other process details described herein with respect to other methods described herein (e.g., methods 8000, 9000, 11000, and 12000) are also applicable in a similar manner to method 10000 described above in connection with FIG. 10. For example, the gestures, gaze inputs, physical objects, user interface objects, controls, movements, references, three-dimensional environments, display generating components, surfaces, representations of physical objects, virtual objects, and/or animations described above with reference to method 10000 may optionally have one or more of the characteristics of the gestures, gaze inputs, physical objects, user interface objects, controls, movements, references, three-dimensional environments, display generating components, surfaces, representations of physical objects, virtual objects, and/or animations described herein with reference to other methods described herein (e.g., methods 8000, 9000, 11000, and 12000), the details of which are not repeated here for the sake of brevity.

図11は、いくつかの実施形態による、物理的環境の表現を含む環境のビューを表示するときにコンピュータシステムによって提供される複数のタイプの感覚調整の効果を集約する方法のフローチャートである。 Figure 11 is a flowchart of a method for aggregating the effects of multiple types of sensory modulation provided by a computer system when displaying a view of an environment that includes a representation of a physical environment, according to some embodiments.

いくつかの実施形態では、方法11000は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法11000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法11000の一部の動作は、任意選択的に組み合わされ、及び/又は一部の動作の順序は、任意選択的に変更される。 In some embodiments, the method 11000 is performed on a computer system (e.g., computer system 101 of FIG. 1) including a display generating component (e.g., display generating component 120 of FIGS. 1, 3, and 4) (e.g., a heads-up display, a display, a touch screen, a projector, etc.) and one or more cameras (e.g., a camera (e.g., a color sensor, an infrared sensor, and other depth-sensing camera)) facing forward from a user's hand or a user's head. In some embodiments, the method 11000 is performed by instructions stored in a non-transitory computer-readable storage medium and executed by one or more processors of the computer system, such as one or more processors 202 of the computer system 101 (e.g., control unit 110 of FIG. 1A). Some operations of the method 11000 are optionally combined and/or the order of some operations is optionally changed.

いくつかの実施形態では、方法11000は、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120、表示生成コンポーネント7100など)(例えば、ヘッドアップディスプレイ、HMD、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタンなど)と通信しているコンピュータシステム(例えば、図1のコンピュータシステム101)において実行される。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。 In some embodiments, the method 11000 is executed in a computer system (e.g., computer system 101 of FIG. 1 ) in communication with a display generation component (e.g., display generation component 120, display generation component 7100, etc., of FIGS. 1, 3, and 4) (e.g., a heads-up display, HMD, display, touch screen, projector, etc.) and one or more input devices (e.g., a camera, controller, touch-sensitive surface, joystick, buttons, etc.). In some embodiments, the computer system is an integrated device having one or more processors and memory enclosed in the same housing as the display generation component and at least some of the one or more input devices. In some embodiments, the computer system includes a computing component including one or more processors and memory that are separate from the display generation component and/or the one or more input devices. In some embodiments, the display generation component and the one or more input devices are integrated within and enclosed in the same housing.

コンピュータシステムは、物理的環境の第1のビュー(例えば、図7Kのビュー7340、又は別のビューなど)を表示し(11002)、物理的環境の第1のビューは、物理的環境の第1の部分の第1の表現(例えば、図7Kの表現7350’、7348’など)を含む(例えば、第1の表現は、物理的環境の第1の部分の通常のカラー又はB/Wカメラビュー、表示生成コンポーネントのパススルー部分を通じた物理的環境のビューなどである)(例えば、第1の表現は、1つ以上のタイプのコンピュータ生成感覚増強なしに表示されるベースライン表現である)。物理的環境の第1のビューを表示している間、コンピュータシステムは、2つ以上のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、熱視、顕微鏡視、暗視、スーパーヒアリングなど)のうちの第1のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、熱視、顕微鏡など)を作動させる要求に対応する第1のユーザ入力(例えば、第1のユーザインタフェースコントロールの選択、第1の方式での第1のハードウェアボタンの作動、第1の所定のジェスチャ入力の実行、第1の予め設定された音声コマンドの発話など)を検出する(11004)。第1のユーザ入力を検出したことに応じて、コンピュータシステムは、物理的環境の第2のビュー(例えば、図7Lに示す第2のビュー7361、又は別のビューなど)を表示し(11006)、物理的環境の第2のビューは、物理的環境の第1の部分の第2の表現(例えば、図7Lの表現7350’’、7348’’など)を含み、物理的環境の第1の部分の第2の表現は、第1のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、熱視、暗視など)に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)を有する。いくつかの実施形態では、物理的環境の第1の部分の表現は、適用される感覚調整による光及び/又は色スペクトルの異なる部分の増強及び/又は抑制に起因して、表現内にキャプチャされた主題のサイズ、解像度、焦点距離、倍率、並びに色及び光強度の分布に関して、ベースライン表現に対して変更される。図7K~図7Lに示される例では、表現7350’’及び7348’’は、ビュー7340内の表現7350’及び7348’と比較して、拡大される及び/又はビュー7361の視点のより近くに移動される。物理的環境の第2のビュー(例えば、図7Lのビュー7361、又は別のビューなど)を表示している間、コンピュータシステムは、2つ以上のタイプのコンピュータ生成感覚調整のうちの第2のタイプのコンピュータ生成感覚調整を作動させる要求に対応する第2のユーザ入力(例えば、第2のユーザインタフェースコントロールの選択、第2の方式での第1のハードウェアボタンの作動、第1の方式での第2のハードウェアボタンの作動、第2の所定のジェスチャ入力の実行、第1の予め設定された音声コマンドの発話など)を検出し(11008)、第2のタイプのコンピュータ生成感覚調整は、第1のタイプのコンピュータ生成感覚調整とは異なる。第2のユーザ入力を検出したことに応じて、コンピュータシステムは、物理的環境の第3のビュー(例えば、ビュー7364、又は別のビューなど)を表示し(11010)、物理的環境の第3のビューは、物理的環境の第1の部分の第3の表現(例えば、表現7350’’’、7348’’’など)を含み、物理的環境の第1の部分の第3の表現は、第1のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視など)に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)と、第2のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視、カラーフィルタなど)に従って物理的環境の第2の表現に対して調整された第2の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)とを含む(例えば、第2の表示特性は、第1のタイプ及び第2のタイプの感覚増強のいくつかの組み合わせにおいて第1の表現及び第2の表現において同じ値を有し、第2の表示特性は、第1のタイプ及び第2のタイプの感覚増強のいくつかの組み合わせにおいて第1の表現及び第2の表現において異なる値を有する)。図7K~図7Mに示される例では、表現7350’’及び7348’’は、ビュー7361内の表現7350’及び7348’と比較して拡大され、及び/又はビュー7340の視点より近くに移動され、表現7350’’’及び7348’’’は、表現7350’’及び7348’’と比較して色及び強度が変更される。 The computer system displays (11002) a first view of the physical environment (e.g., view 7340 of FIG. 7K, or another view), where the first view of the physical environment includes a first representation (e.g., representation 7350', 7348' of FIG. 7K, etc.) of a first portion of the physical environment (e.g., the first representation is a normal color or B/W camera view of the first portion of the physical environment, a view of the physical environment through a pass-through portion of the display generation component, etc.) (e.g., the first representation is a baseline representation displayed without one or more types of computer-generated sensory augmentation). While displaying the first view of the physical environment, the computer system detects a first user input (e.g., selecting a first user interface control, activating a first hardware button in a first manner, performing a first predefined gesture input, speaking a first preset voice command, etc.) corresponding to a request to activate a first type of computer-generated sensory accommodation (e.g., binocular vision, heat vision, microscopic vision, night vision, super hearing, etc.) of two or more types of computer-generated sensory accommodation (e.g., binocular vision, heat vision, microscopic vision, night vision, super hearing, etc.) (11004). In response to detecting the first user input, the computer system displays (11006) a second view of the physical environment (e.g., second view 7361 shown in FIG. 7L , or another view, etc.), where the second view of the physical environment includes a second representation of the first portion of the physical environment (e.g., representations 7350", 7348", etc. of FIG. 7L ), where the second representation of the first portion of the physical environment has first display characteristics (e.g., resolution, zoom level, magnification, color distribution, intensity distribution, focal length, etc.) that are adjusted for the first representation of the first portion of the physical environment according to a first type of computer-generated sensory accommodation (e.g., binocular vision, microscopic vision, thermal vision, night vision, etc.). In some embodiments, the representation of the first portion of the physical environment is altered relative to the baseline representation with respect to size, resolution, focal length, magnification, and color and light intensity distribution of subject matter captured within the representation due to enhancement and/or suppression of different portions of the light and/or color spectrum due to the applied sensory accommodation. In the example shown in Figures 7K-7L, representations 7350" and 7348" are enlarged and/or moved closer to the viewpoint of view 7361 as compared to representations 7350' and 7348' in view 7340. While displaying a second view of the physical environment (e.g., view 7361 of Figure 7L, or another view, etc.), the computer system detects (11008) a second user input (e.g., selecting a second user interface control, activating a first hardware button in a second manner, activating a second hardware button in the first manner, performing a second predefined gesture input, speaking a first preset voice command, etc.) corresponding to a request to activate a second type of computer-generated sensory adjustment of the two or more types of computer-generated sensory adjustment, where the second type of computer-generated sensory adjustment is different from the first type of computer-generated sensory adjustment. In response to detecting the second user input, the computer system displays (11010) a third view of the physical environment (e.g., view 7364, or another view, etc.), where the third view of the physical environment includes a third representation of the first portion of the physical environment (e.g., representation 7350''', 7348''', etc.), where the third representation of the first portion of the physical environment has first display characteristics (e.g., resolution, zoom level, magnification, color distribution, intensity distribution, focus, etc.) adjusted for the first representation of the first portion of the physical environment according to a first type of computer-generated sensory adjustment (e.g., binocular vision, microscopic vision, night vision, thermal vision, etc.). and second display characteristics (e.g., resolution, zoom level, magnification, color distribution, intensity distribution, focal length, etc.) adjusted for the second representation of the physical environment according to a second type of computer-generated sensory adjustment (e.g., binocular vision, microscopic vision, night vision, thermal vision, color filters, etc.) (e.g., the second display characteristics have the same values in the first and second representations in some combinations of the first and second types of sensory enhancements, and the second display characteristics have different values in the first and second representations in some combinations of the first and second types of sensory enhancements). In the example shown in Figures 7K-7M, representations 7350" and 7348" are enlarged and/or moved closer to the viewpoint of view 7340 compared to representations 7350' and 7348' in view 7361, and representations 7350"" and 7348"" are altered in color and intensity compared to representations 7350" and 7348".

いくつかの実施形態では、物理的環境の第3のビュー(例えば、図7Mのビュー7364、又は別のビューなど)を表示している間、コンピュータシステムは、2つ以上のタイプのコンピュータ生成感覚調整のうちの、第1のタイプのコンピュータ生成感覚調整及び第2のタイプのコンピュータ生成感覚調整とは異なる第3のタイプのコンピュータ生成感覚調整(例えば、図7Mのアフォーダンス7358に対応する調整機能、まだ作動されていない別の調整機能など)(例えば、両眼視、顕微鏡視、暗視、熱視、カラーフィルタなど)を作動させる要求に対応する第3のユーザ入力を検出し、第3のユーザ入力の検出に応じて、コンピュータシステムは、物理的環境の第4のビューを表示し、物理的環境の第4のビューは物理的環境の第1の部分の第4の表現を含み、物理的環境の第1の部分の第4の表現は、第1のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視、カラーフィルタなど)に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)と、第2のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視、カラーフィルタなど)に従って物理的環境の第2の表現に対して調整される第2の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)と、第3のタイプのコンピュータ生成感覚調整(例えば、双眼鏡視、顕微鏡視、暗視、熱視、カラーフィルタなど)に従って物理的環境の第3の表現に対して調整される第3の表示特性(例えば、解像度、ズームレベル、倍率、色分布、強度分布、焦点距離など)とを有する。 In some embodiments, while displaying a third view of the physical environment (e.g., view 7364 of FIG. 7M, or another view, etc.), the computer system detects a third user input corresponding to a request to activate a third type of computer-generated sensory adjustment (e.g., an adjustment function corresponding to affordance 7358 of FIG. 7M, another adjustment function not yet activated, etc.) of the two or more types of computer-generated sensory adjustments that is different from the first type of computer-generated sensory adjustments and the second type of computer-generated sensory adjustments (e.g., binocular vision, microscopic vision, night vision, thermal vision, color filters, etc.), and in response to detecting the third user input, the computer system displays a fourth view of the physical environment, the fourth view of the physical environment including a fourth representation of the first portion of the physical environment, A first display characteristic (e.g., resolution, zoom level, magnification, color distribution, intensity distribution, focal length, etc.) that is adjusted for a first representation of a first portion of a physical environment according to a first type of computer-generated sensory adjustment (e.g., binocular vision, microscopic vision, night vision, thermal vision, color filters, etc.), a second display characteristic (e.g., resolution, zoom level, magnification, color distribution, intensity distribution, focal length, etc.) that is adjusted for a second representation of the physical environment according to a second type of computer-generated sensory adjustment (e.g., binocular vision, microscopic vision, night vision, thermal vision, color filters, etc.), and a third display characteristic (e.g., resolution, zoom level, magnification, color distribution, intensity distribution, focal length, etc.) that is adjusted for a third representation of the physical environment according to a third type of computer-generated sensory adjustment (e.g., binocular vision, microscopic vision, night vision, thermal vision, color filters, etc.).

2つ以上のタイプのコンピュータ生成感覚調整のうちの第3のタイプのコンピュータ生成感覚調整を作動させる要求に対応する第3のユーザ入力を検出したことに応じて、第1のタイプのコンピュータ生成感覚調整に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する物理的環境の第1の部分の第4の表現を含む物理的環境の第4のビューを表示することは、追加の表示されるコントロール(例えば、第1、第2、又は第3のタイプのコンピュータ生成感覚調整を選択及び/又は作動させるための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a third user input corresponding to a request to activate a third type of computer-generated sensory adjustments of the two or more types of computer-generated sensory adjustments, displaying a fourth view of the physical environment including a fourth representation of the first portion of the physical environment having first display characteristics adjusted relative to the first representation of the first portion of the physical environment according to the first type of computer-generated sensory adjustments provides additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting and/or activating the first, second, or third types of computer-generated sensory adjustments). Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、(例えば、図7K~図7Lに示される)遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、双眼鏡視、単眼鏡視、望遠鏡視など)(例えば、ユーザにより近く見えるようにオブジェクトの焦点距離を低減すること)を含み、第2のタイプのコンピュータ生成感覚調整は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、物理的環境内の遠隔の物理的オブジェクトのロケーションに対応する第1の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内のその仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第1の表現はまた、遠隔の物理的オブジェクトが物理的環境内に現れるので、物理的環境の第1の表現内で遠くに現れる。物理的環境の第2の表現を表示することは、第1の仮想ポジションよりもユーザの視点又は仮想ポジションに近い第2の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内の第2の仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第2の表現は、物理的環境の第2の表現においてさほど遠くには現れず、物理的環境の第2の表現のユーザの視野のより大きな部分を占有する。物理的環境の第3の表現を表示することは、任意選択的に第2の仮想ポジションよりもユーザの視点又は仮想ポジションに更に近い第3の仮想ポジションに、遠隔の物理的オブジェクトの第2の表現のサイズに対して正の倍率(例えば、100倍、20倍など)で、遠隔の物理的オブジェクトの表現を表示することを含む(例えば、遠隔の物理的オブジェクトは、第2又は第3の仮想ポジションで拡大されるように見える)。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、第1の距離(例えば、30メートル、50メートルなど)離れた木のカメラビューを表示し、次いで、望遠鏡ビューが作動された状態で、表示生成コンポーネントは、物理的環境の現在表示されている表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)離れた仮想ポジションに木の望遠鏡ビューを表示し、望遠鏡ビュー及び顕微鏡ビューの両方が作動された状態で、表示生成コンポーネントは(例えば、5メートル、10メートルなど)離れた現在の仮想ポジションに木の少なくとも一部の拡大ビュー(例えば、30倍、100倍など)を表示する。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び顕微鏡ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。 In some embodiments, the first type of computer-generated sensory adjustment includes simulated telescopic viewing (e.g., binocular viewing, monocular viewing, telescopic viewing, etc.) to view a distant physical object (e.g., as shown in Figures 7K-7L) (e.g., reducing the focal length of the object so that it appears closer to the user), and the second type of computer-generated sensory adjustment includes simulated microscopic viewing to magnify a nearby physical object. In some embodiments, displaying the first representation of the physical environment includes displaying a representation of the distant physical object at a first virtual position corresponding to the location of the distant physical object in the physical environment (e.g., at a size and display resolution corresponding to that virtual position in the three-dimensional environment displayed via the first display generation component). For example, the first representation of the remote physical object also appears distant in the first representation of the physical environment as the remote physical object appears in the physical environment. Displaying the second representation of the physical environment includes displaying a representation of the remote physical object at a second virtual position (e.g., at a size and display resolution corresponding to the second virtual position within the three-dimensional environment displayed via the first display generation component) that is closer to the user's viewpoint or virtual position than the first virtual position. For example, the second representation of the remote physical object appears less far away in the second representation of the physical environment and occupies a larger portion of the user's field of view of the second representation of the physical environment. Displaying the third representation of the physical environment includes displaying a representation of the remote physical object at a third virtual position, optionally closer to the user's viewpoint or virtual position than the second virtual position, and at a positive magnification factor (e.g., 100x, 20x, etc.) relative to the size of the second representation of the remote physical object (e.g., the remote physical object appears enlarged in the second or third virtual position). In an exemplary usage scenario, the display generation component first displays a camera view of a tree at a first distance (e.g., 30 meters, 50 meters, etc.) away, then with the telescope view activated, the display generation component displays the telescope view of the tree at a virtual position at a second distance (e.g., 5 meters, 10 meters, etc.) away from a viewpoint corresponding to the currently displayed representation of the physical environment, and with both the telescope view and the microscopic view activated, the display generation component displays a magnified view (e.g., 30x, 100x, etc.) of at least a portion of the tree at the current virtual position (e.g., 5 meters, 10 meters, etc.) away. In some embodiments, the camera view, telescope view, and microscopic view of the same portion of a physical object are optionally captured by different cameras and/or sensors, or are optionally enhanced using computational techniques.

第1のユーザ入力を検出したことに応じて、遠くの物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、第2のユーザ入力を検出したことに応じて、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、遠くのオブジェクトを見るためのシミュレートされた望遠鏡視と近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視との間で選択又は切換を行う追加の表示されるコントロールでUIを雑然とさせることなく、追加の表示された制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to a simulated telescopic view for viewing distant physical objects, and in response to detecting a second user input, displaying a third view of the physical environment including a third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to a simulated telescopic view for viewing distant physical objects and second display characteristics adjusted for the second representation of the physical environment according to a simulated microscopic view for magnifying nearby physical objects, provides additional displayed control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting or switching between a simulated telescopic view for viewing distant objects and a simulated microscopic view for magnifying nearby physical objects). Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、7K~7Lに示される)(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含み、第2のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下での高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、物理的環境内の遠隔の物理的オブジェクトのロケーションに対応する第1の仮想ポジション(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内のその仮想ポジションに対応するサイズ及び表示解像度で)に、依然として低光量条件下で遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第1の表現はまた、遠隔の物理的オブジェクトが物理的環境内に現れ、物理的環境の第1の表現が暗く見え、物理的環境の低光量条件に起因してオブジェクトが明確に識別できないので、物理的環境の第1の表現内で遠くに現れる。物理的環境の第2の表現を表示することは、第1の仮想ポジションよりもユーザの視点又は仮想ポジションに近い第2の仮想ポジション(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内の第2の仮想ポジションに対応するサイズ及び表示解像度で)だが、依然として低光量条件下で、遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第2の表現は、物理的環境の第2の表現においてより遠くに見えず、物理的環境の第2の表現のユーザの視野のより大きな部分を占有するが、物理的環境の第2の表現は依然として暗く見え、物理的環境の低光量条件のためにオブジェクトは明確に識別できない。物理的環境の第3の表現を表示することは、増強された輝度及び/又はコントラストで(例えば、低光量カメラからの画像で向上されて、又は複数の写真を組み合わせること及び/又は機械学習を使用することなどによってデジタル的に向上されて)、第2の仮想ポジションにおける遠隔の物理的オブジェクトの表現を表示することを含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間に第1の変位量(例えば、30メートル、50メートルなど)離れた木のカメラビューを表示し、次いで、望遠鏡ビューが作動された状態で、表示生成コンポーネントは、現在表示されている物理的環境の表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)だけ離れた仮想ポジションに木の望遠鏡ビューを表示するが、シーン全体は、夜間の低光量条件のために依然として暗く、望遠鏡ビュー及び暗視の両方が作動された状態で、表示生成コンポーネントは、(例えば、5メートル、10メートルなど)離れた現在の仮想ポジションに木の明るく高コントラストの画像を表示する。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び暗視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。 In some embodiments, the first type of computer-generated sensory adjustment includes simulated telescopic vision (e.g., as shown in 7K-7L) for viewing the remote physical object (e.g., reducing the focal length of the object so that the object appears closer to the user), and the second type of computer-generated sensory adjustment includes simulated night vision for viewing the physical object under low light conditions (e.g., high sensitivity in low light conditions, the brightness of the object is visually enhanced, small variations in brightness are magnified, etc.). In some embodiments, displaying the first representation of the physical environment includes displaying the representation of the remote physical object under low light conditions at a first virtual position (e.g., at a size and display resolution corresponding to that virtual position in the three-dimensional environment displayed via the first display generation component) corresponding to the location of the remote physical object in the physical environment. For example, the first representation of the remote physical object also appears far away in the first representation of the physical environment as the remote physical object appears in the physical environment, the first representation of the physical environment appears dark, and the object cannot be clearly identified due to the low light conditions of the physical environment. Displaying the second representation of the physical environment includes displaying representations of the remote physical objects in a second virtual position (e.g., at a size and display resolution corresponding to the second virtual position within the three-dimensional environment displayed via the first display generation component) that is closer to the user's viewpoint or virtual position than the first virtual position, but still under low light conditions. For example, the second representation of the remote physical objects may appear less distant in the second representation of the physical environment and occupy a larger portion of the user's field of view of the second representation of the physical environment, but the second representation of the physical environment still appears dark and the objects are not clearly discernible due to the low light conditions of the physical environment. Displaying the third representation of the physical environment includes displaying representations of the remote physical objects in the second virtual position with enhanced brightness and/or contrast (e.g., enhanced with images from a low-light camera or digitally enhanced, such as by combining multiple photographs and/or using machine learning). In an exemplary usage scenario, the display generation component first displays a camera view of a tree at night at a first displacement (e.g., 30 meters, 50 meters, etc.), then with the telescope view activated, the display generation component displays the telescope view of the tree at a virtual position at a second distance (e.g., 5 meters, 10 meters, etc.) away from the viewpoint corresponding to the currently displayed representation of the physical environment, but the entire scene is still dark due to low light conditions at night, and with both the telescope view and night vision activated, the display generation component displays a bright, high contrast image of the tree at the current virtual position (e.g., 5 meters, 10 meters, etc.) away. In some embodiments, the camera view, telescope view, and night vision view of the same portion of the physical object are optionally captured by different cameras and/or sensors, or are optionally enhanced using computational techniques.

第1のユーザ入力を検出したことに応じて、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、遠隔のオブジェクトを見るためのシミュレートされた望遠鏡視と、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の表示された制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to a simulated telescopic view for viewing remote physical objects, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to a simulated telescopic view for viewing remote physical objects and second display characteristics adjusted for the second representation of the physical environment according to a simulated night vision for viewing physical objects under low light conditions provides additional displayed control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting or switching between the simulated telescopic view for viewing remote objects and the simulated night vision for viewing physical objects under low light conditions). It improves usability of the device by providing additional control options without cluttering the UI with additional displayed controls, and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、7K~7Lに示される)(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含み、第2のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、7L~7Mに示される)(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、物理的環境内の遠隔の物理的オブジェクトのロケーションに対応する第1の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内のその仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第1の表現はまた、遠隔の物理的オブジェクトが物理的環境内に現れるので、物理的環境の第1の表現内で遠くに現れる。物理的環境の第2の表現を表示することは、第1の仮想ポジションよりもユーザの視点又は仮想ポジションに近い第2の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内の第2の仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第2の表現は、物理的環境の第2の表現においてさほど遠くには現れず、物理的環境の第2の表現のユーザの視野のより大きな部分を占有する。物理的環境の第3の表現を表示することは、第2の仮想ポジションにおける遠隔の物理的オブジェクトの表現を、その熱放射プロファイル又は温度マップと共に表示することを含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、第1の距離(例えば、30メートル、50メートルなど)だけ離れた木のカメラビューを表示し、次いで、望遠鏡ビューが作動された状態で、表示生成コンポーネントは、物理的環境の現在表示されている表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)だけ離れた仮想ポジションに木の望遠鏡ビューを表示し、望遠鏡ビューと熱視の両方が作動された状態で、表示生成コンポーネントは、(例えば、5メートル、10メートルなど離れた)現在の仮想ポジションに、木の葉の間に隠れたリスの明るいプロファイルを示す木のヒートマップを表示する。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。 In some embodiments, a first type of computer-generated sensory modulation includes simulated telescopic vision (e.g., as shown in 7K-7L) for viewing remote physical objects (e.g., reducing the focal length of the object so that the object appears closer to the user), and a second type of computer-generated sensory modulation includes simulated thermal vision (e.g., as shown in 7L-7M) for viewing physical objects having various thermal emission profiles (e.g., high sensitivity to temperature variations, presenting variations in color and/or intensity according to variations in temperature and/or thermal emission, etc.). In some embodiments, displaying the first representation of the physical environment includes displaying a representation of the remote physical object at a first virtual position corresponding to the location of the remote physical object in the physical environment (e.g., at a size and display resolution corresponding to that virtual position in the three-dimensional environment displayed via the first display generation component). For example, the first representation of the remote physical object also appears distant within the first representation of the physical environment as the remote physical object appears in the physical environment. Displaying the second representation of the physical environment includes displaying a representation of the remote physical object at a second virtual position (e.g., at a size and display resolution corresponding to the second virtual position in the three-dimensional environment displayed via the first display generation component) that is closer to the user's viewpoint or virtual position than the first virtual position. For example, the second representation of the remote physical object appears less far away in the second representation of the physical environment and occupies a larger portion of the user's field of view of the second representation of the physical environment. Displaying the third representation of the physical environment includes displaying a representation of the remote physical object at the second virtual position along with its thermal radiation profile or temperature map. In an exemplary usage scenario, the display generation component first displays a camera view of a tree a first distance away (e.g., 30 meters, 50 meters, etc.), then with the telescope view activated, the display generation component displays the telescope view of the tree at a virtual position a second distance away (e.g., 5 meters, 10 meters, etc.) from the viewpoint corresponding to the currently displayed representation of the physical environment, and with both the telescope view and thermal vision activated, the display generation component displays a heat map of the tree showing the luminous profile of a squirrel hidden among the leaves at the current virtual position (e.g., 5 meters, 10 meters, etc. away). In some embodiments, the camera view, telescope view, and thermal vision views of the same portion of a physical object are optionally captured by different cameras and/or sensors, or are optionally enhanced using computational techniques.

第1のユーザ入力を検出したことに応じて、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、遠隔のオブジェクトを見るためのシミュレートされた望遠鏡視と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視との間で選択又は切換を行うための追加の表示されるコントロールでUIを雑然とさせることなく、追加の表示された制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to a simulated telescopic view for viewing remote physical objects, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to a simulated telescopic view for viewing remote physical objects and second display characteristics adjusted for the second representation of the physical environment according to a simulated thermal view for viewing physical objects having various thermal radiation profiles, provides additional displayed control options without cluttering the UI with additional displayed controls (e.g., for selecting or switching between the simulated telescopic view for viewing remote objects and the simulated thermal view for viewing physical objects having various thermal radiation profiles. Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device and, in addition, reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、(例えば、7K~7Lに示される)遠隔の物理的オブジェクトを見るためにシミュレートされた望遠鏡視(例えば、オブジェクトがユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含み、第2のタイプのコンピュータ生成感覚調整は、フィルタ(例えば、カラーフィルタ、光周波数フィルタ、強度フィルタ、運動フィルタなど)を用いて物理的オブジェクトのビューを修正することを含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、物理的環境内の遠隔の物理的オブジェクトのロケーションに対応する第1の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内のその仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第1の表現はまた、遠隔の物理的オブジェクトが物理的環境内に現れるので、物理的環境の第1の表現内で遠くに現れる。物理的環境の第2の表現を表示することは、第1の仮想ポジションよりもユーザの視点又は仮想ポジションに近い第2の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内の第2の仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第2の表現は、物理的環境の第2の表現においてさほど遠くには現れず、物理的環境の第2の表現のユーザの視野のより大きな部分を占有する。物理的環境の第3の表現を表示することは、色及び/又は強度などの一部がフィルタリングして、第2の仮想ポジションに遠隔の物理的オブジェクトの表現を表示することを含む。いくつかの実施形態では、運動フィルタが適用されると、運動を有さない物理的環境の第2の表現の部分がフィルタリングされ、運動(例えば、葉、動物、人などの移動)を有する部分が強調表示される。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、第1の距離(例えば、30メートル、50メートルなど)の木のカメラビューを表示する。望遠鏡ビューが作動されると、表示生成コンポーネントは、物理的環境の現在表示されている表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)離れた仮想ポジションに木の望遠鏡ビューを表示し、望遠鏡ビューフィルタ及び色/強度/運動フィルタの両方が作動されると、表示生成コンポーネントは、現在の仮想ポジション(例えば、5メートル、10メートルなど)に木のフィルタ処理された画像を表示する。現在の仮想ポジション(例えば、5メートル、10メートルなど)における木の不鮮明な彩度の減少した画像(カラーフィルタが適用されている)又は木のフィルタリングされた画像の上に明るいオレンジ色の帽子及び安全ベストを示す)木の不鮮明な彩度の減少した画像上を移動するカモフラージュされた昆虫の視覚的強調表示を示す。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー及び望遠鏡ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。 In some embodiments, a first type of computer-generated sensory adjustment includes simulated telescopic viewing (e.g., reducing the focal length of an object so that the object appears closer to the user) to view a remote physical object (e.g., as shown in 7K-7L), and a second type of computer-generated sensory adjustment includes modifying the view of the physical object with a filter (e.g., a color filter, a light frequency filter, an intensity filter, a motion filter, etc.). In some embodiments, displaying the first representation of the physical environment includes displaying a representation of the remote physical object at a first virtual position corresponding to the location of the remote physical object in the physical environment (e.g., at a size and display resolution corresponding to that virtual position in the three-dimensional environment displayed via the first display generation component). For example, the first representation of the remote physical object also appears distant in the first representation of the physical environment as the remote physical object appears in the physical environment. Displaying the second representation of the physical environment includes displaying a representation of the remote physical object (e.g., at a size and display resolution corresponding to the second virtual position in the three-dimensional environment displayed via the first display generation component) at a second virtual position that is closer to the user's viewpoint or virtual position than the first virtual position. For example, the second representation of the remote physical object appears less far away in the second representation of the physical environment and occupies a larger portion of the user's field of view of the second representation of the physical environment. Displaying the third representation of the physical environment includes displaying the representation of the remote physical object at the second virtual position with some filtering, such as color and/or intensity. In some embodiments, a motion filter is applied to filter portions of the second representation of the physical environment that do not have motion and highlight portions that have motion (e.g., moving leaves, animals, people, etc.). In an exemplary usage scenario, the display generation component initially displays a camera view of a tree at a first distance (e.g., 30 meters, 50 meters, etc.). When the telescope view is activated, the display generation component displays a telescope view of the tree at a virtual position a second distance (e.g., 5 meters, 10 meters, etc.) away from the viewpoint corresponding to the currently displayed representation of the physical environment, and when both the telescope view filter and the color/intensity/motion filter are activated, the display generation component displays a filtered image of the tree at the current virtual position (e.g., 5 meters, 10 meters, etc.). A blurred, desaturated image of the tree (with a color filter applied) at the current virtual position (e.g., 5 meters, 10 meters, etc.) or a bright orange hat and safety vest over the filtered image of the tree) showing visual highlighting of a camouflaged insect moving over the blurred, desaturated image of the tree. In some embodiments, the camera view and the telescope view of the same portion of the physical object are, optionally, captured by different cameras and/or sensors, or, optionally, enhanced using computational techniques.

第1のユーザ入力を検出したことに応じて、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、物理的オブジェクトのビューを修正するフィルタに従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、遠隔のオブジェクトを見るためのシミュレートされた望遠鏡視と物理的オブジェクトのビューを修正するフィルタとの間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の表示される制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to a simulated telescopic view for viewing a remote physical object, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to a simulated telescopic view for viewing a remote physical object and second display characteristics adjusted for the second representation of the physical environment according to a filter that modifies the view of the physical object, provides additional displayed control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting or switching between the simulated telescopic view for viewing a remote object and a filter that modifies the view of the physical object). Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、7K~7Lに示される)(例えば、オブジェクトがユーザにより近く見えるように、オブジェクトの焦点距離を低減する)を含み、第2のタイプのコンピュータ生成感覚調整は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音のための選択的音声増強(例えば、音量を増強する、ある音周波数を選択的に増強/抑制するなど)を含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、物理的環境内の遠隔の物理的オブジェクトのロケーションに対応する第1の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内のその仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第1の表現はまた、遠隔の物理的オブジェクトが物理的環境内に現れるので、物理的環境の第1の表現内で遠くに現れる。物理的環境の第2の表現を表示することは、第1の仮想ポジションよりもユーザの視点又は仮想ポジションに近い第2の仮想ポジションに(例えば、第1の表示生成コンポーネントを介して表示される三次元環境内の第2の仮想ポジションに対応するサイズ及び表示解像度で)遠隔の物理的オブジェクトの表現を表示することを含む。例えば、遠隔の物理的オブジェクトの第2の表現は、物理的環境の第2の表現においてさほど遠くには現れず、物理的環境の第2の表現のユーザの視野のより大きな部分を占有する。物理的環境の第3の表現を表示することは、第2の仮想ポジションにおける遠隔の物理的オブジェクトの表現を、遠隔の物理的オブジェクトの表現上又はその近傍の物理的環境内の局所化された音源の視覚的識別と共に表示することを含み、局所化された音源からの音に対応する増強された音声出力は、物理的環境の第3の表現の表示と共に出力される。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間に第1の距離(例えば、30メートル、50メートルなど)だけ離れた木のカメラビューを表示し、次いで、望遠鏡ビューが作動された状態で、表示生成コンポーネントは、物理的環境の現在表示されている表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)だけ離れた仮想ポジションに木の望遠鏡ビューを表示し、望遠鏡ビュー及び増強された聴覚の両方が作動された状態で、表示生成コンポーネントは、木の中で歌っている鳥のポジションを示す現在の仮想ポジション(例えば、5メートル離れた、3メートル離れたなど)に木の画像上に重ねられた円を表示する。鳥からの局所化されたチャープ音は、視点から第2の距離(例えば、5メートル、10メートルなど)離れた3つのビューと共に、任意選択的に空間音声出力モードで再生される。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び局所化された音は、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。 In some embodiments, a first type of computer-generated sensory adjustment includes simulated telescopic viewing (e.g., as shown in 7K-7L) to view a remote physical object (e.g., reducing the focal length of the object so that the object appears closer to the user), and a second type of computer-generated sensory adjustment includes selective sound enhancement (e.g., enhancing the volume, selectively enhancing/suppressing certain sound frequencies, etc.) for sounds corresponding to a subset of physical objects in the physical environment (e.g., a selected subset of all sound-generating physical objects, a physical object that is centered in the current field of view, etc.). In some embodiments, displaying the first representation of the physical environment includes displaying a representation of the remote physical object at a first virtual position corresponding to the location of the remote physical object in the physical environment (e.g., at a size and display resolution corresponding to that virtual position in the three-dimensional environment displayed via the first display generation component). For example, the first representation of the remote physical object also appears distant in the first representation of the physical environment as the remote physical object appears in the physical environment. Displaying the second representation of the physical environment includes displaying a representation of the remote physical object at a second virtual position (e.g., at a size and display resolution corresponding to the second virtual position in the three-dimensional environment displayed via the first display generation component) that is closer to the user's viewpoint or virtual position than the first virtual position. For example, the second representation of the remote physical object may appear less distant in the second representation of the physical environment and occupy a larger portion of the user's field of view of the second representation of the physical environment. Displaying the third representation of the physical environment includes displaying the representation of the remote physical object at the second virtual position along with a visual identification of a localized sound source in the physical environment on or near the representation of the remote physical object, where an enhanced audio output corresponding to sound from the localized sound source is output along with the display of the third representation of the physical environment. In an exemplary usage scenario, the display generation component first displays a camera view of a tree at night a first distance away (e.g., 30 meters, 50 meters, etc.), then with the telescope view activated, the display generation component displays the telescope view of the tree at a virtual position a second distance away (e.g., 5 meters, 10 meters, etc.) from the viewpoint corresponding to the currently displayed representation of the physical environment, and with both the telescope view and the enhanced hearing activated, the display generation component displays a circle superimposed on the image of the tree at the current virtual position (e.g., 5 meters away, 3 meters away, etc.) indicating the position of a singing bird in the tree. A localized chirp from the bird is played, optionally in a spatial audio output mode, along with the three views at the second distance away (e.g., 5 meters, 10 meters, etc.) from the viewpoint. In some embodiments, the camera view, telescope view, and localized sound of the same part of the physical object are optionally captured by different cameras and/or sensors, or are optionally enhanced using computational techniques.

第1のユーザ入力を検出したことに応じて、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、物理的環境内の物理的オブジェクトのサブセットに対応する音に対する選択的音声調整に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、遠隔のオブジェクトを見るためのシミュレートされた望遠鏡視と、物理的環境内の物理的オブジェクトのサブセットに対応する音に対する選択的音声調整との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の表示される制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to a simulated telescopic view for viewing remote physical objects, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to the simulated telescopic view for viewing remote physical objects and second display characteristics adjusted for the second representation of the physical environment according to selective audio adjustments for sounds corresponding to a subset of the physical objects in the physical environment provides additional displayed control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting or switching between the simulated telescopic view for viewing remote objects and selective audio adjustments for sounds corresponding to a subset of the physical objects in the physical environment). It improves usability of the device by providing additional control options without cluttering the UI with additional displayed controls, and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、物理的環境の第3の表現(例えば、図7Mに示される表現、又は別の表現など)を表示すると同時に、コンピュータシステムは、物理的環境の第3の表現において可視である物理的環境の第1の部分(例えば、図7Mの部分7366’’及び7368’’、又は別の部分など)に対応する音を出力し、音は、物理的環境の第1の部分の外側の音源からの音に対して選択的に増強される(例えば、音量が増強される、いくつかの選択された周波数の振幅に対する修正を伴うなど)。例示的なシナリオでは、2つの木が、物理的環境全体からキャプチャされた音の音声出力と共に物理的環境の第1の表現において可視であり、第1の木が望遠鏡ビューで見られ、増強された聴覚が作動されているとき、第1の木における鳥の鳴き声は、第2の木におけるリスの鳴き声に対して増強され(例えば、より大きくされ)、第1の木の仮想ポジションに対応する仮想ポジションを有するように空間音声で再生される。物理的環境の第3の表現を表示するのと同時に、物理的環境の第2の表現において可視である物理的環境の第1の部分に対応する音であって、物理的環境の第1の部分の外側の音源からの音に対して選択的に増強される音を出力することは、改善された音声フィードバック(例えば、物理的環境の第1の部分に関する改善された音声フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, while displaying a third representation of the physical environment (e.g., the representation shown in FIG. 7M, or another representation, etc.), the computer system outputs sounds corresponding to the first portion of the physical environment that is visible in the third representation of the physical environment (e.g., portions 7366″ and 7368″ of FIG. 7M, or another portion, etc.), the sounds being selectively enhanced (e.g., enhanced in volume, with modifications to the amplitude of some selected frequencies, etc.) relative to sounds from sources outside the first portion of the physical environment. In an exemplary scenario, when two trees are visible in the first representation of the physical environment with audio output of sounds captured from the entire physical environment, and the first tree is seen in a telescope view and enhanced hearing is activated, the bird call in the first tree is enhanced (e.g., made louder) relative to the squirrel call in the second tree and played in spatial audio to have a virtual position corresponding to the virtual position of the first tree. Concurrently displaying a third representation of the physical environment and outputting a sound corresponding to a first portion of the physical environment that is visible in the second representation of the physical environment, the sound being selectively enhanced relative to sounds from a sound source outside the first portion of the physical environment, provides improved audio feedback to the user (e.g., improved audio feedback regarding the first portion of the physical environment). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、物理的環境の第3の表現を表示するのと同時に、コンピュータシステムは、物理的環境の第2の表現及び第3の表現の両方において可視である物理的環境の第1の部分(例えば、図7Mの部分7366’’及び7368’’、又は別の部分など)から発せられる発話に対応するテキスト出力を表示し、発話は、物理的環境の第1の部分の外側の音源からの音に対して選択的に強調される。例示的なシナリオでは、木及び家屋が、物理的環境全体からキャプチャされた音の音声出力と共に物理的環境の第1の表現において可視であり、家屋が望遠鏡ビューで見られ、増強された聴覚が作動されているとき、家屋からの発話の音は、木における鳥の鳴き声の音に対して増強され(例えば、より大きく、より鮮明にされるなど)、字幕、書き起こし、翻訳などのテキスト出力が表示される。いくつかの実施形態では、発話の音は、対応する音声翻訳で置換される。物理的環境の第2の表現及び第3の表現の両方において可視である物理的環境の第1の部分から発せられる発話に対応するテキスト出力を表示することは、物理的環境の第3の表現を表示することと同時に、発話が物理的環境の第1の部分の外側の音源からの音に対して選択的に強調され、ユーザに改善された視覚的フィードバック(例えば、物理的環境の第1の部分から発せられる発話に関する改善された視覚的フィードバック)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, simultaneously with displaying the third representation of the physical environment, the computer system displays text output corresponding to speech emanating from a first portion of the physical environment that is visible in both the second and third representations of the physical environment (e.g., portions 7366'' and 7368'', or another portion, of FIG. 7M), where the speech is selectively emphasized relative to sounds from sources outside the first portion of the physical environment. In an exemplary scenario, when trees and a house are visible in the first representation of the physical environment along with audio output of sounds captured from the entire physical environment, the house is viewed in a telescope view, and enhanced hearing is activated, the sounds of the speech from the house are enhanced (e.g., made louder, clearer, etc.) relative to sounds of birds singing in the trees, and text output, such as subtitles, a transcript, a translation, etc., is displayed. In some embodiments, the sounds of the speech are replaced with a corresponding audio translation. Displaying a text output corresponding to speech emanating from a first portion of the physical environment that is visible in both the second and third representations of the physical environment, while simultaneously displaying the third representation of the physical environment, selectively highlights the speech relative to sounds from sources outside the first portion of the physical environment, providing improved visual feedback to the user (e.g., improved visual feedback regarding the speech emanating from the first portion of the physical environment). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含み、第2のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度の変動に対する高感度、温度及び/又は熱放射の変動に従って色及び/又は強度の変動を提示することなど)を含む。例示的な使用シナリオは、表示生成コンポーネントは、最初に、携帯電話内のマイクロチップのカメラビューを表示し、次いで、顕微鏡ビューが作動された状態で、表示生成コンポーネントは、マイクロチップの拡大ビューを表示し、顕微鏡ビュー及び熱視の両方が作動された状態で、表示生成コンポーネントは、現在の拡大レベルでマイクロチップのヒートマップを表示し、マイクロチップ上の低温領域に対して高温領域を示す。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、顕微鏡ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。第1のユーザ入力を検出したことに応じて、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視との間で選択又は切換を行うための追加の表示されるコントロールでUIを雑然とさせることなく、追加の表示される制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, a first type of computer-generated sensory modulation includes simulated microscopic vision to magnify nearby physical objects, and a second type of computer-generated sensory modulation includes simulated thermal vision (e.g., as shown in Figs. 7L-7M) to view physical objects having various thermal radiation profiles (e.g., high sensitivity to temperature variations, presenting variations in color and/or intensity according to temperature and/or thermal radiation variations, etc.). An exemplary usage scenario is where the display generation component first displays a camera view of a microchip in a mobile phone, then with the microscopic view activated, the display generation component displays a magnified view of the microchip, and with both the microscopic view and thermal vision activated, the display generation component displays a heat map of the microchip at the current magnification level, showing hot versus cold areas on the microchip. In some embodiments, the camera view, microscopic view, and thermal vision views of the same portion of a physical object are optionally captured by different cameras and/or sensors, or are optionally enhanced using computational techniques. In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to a simulated microscopic view to magnify nearby physical objects, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to a simulated microscopic view to magnify nearby physical objects and second display characteristics adjusted for the second representation of the physical environment according to a simulated thermal view to view physical objects having different thermal emission profiles, provides additional displayed control options without cluttering the UI with additional displayed controls (e.g., for selecting or switching between the simulated microscopic view to magnify nearby physical objects and the simulated thermal view to view physical objects having different thermal emission profiles). Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを視認するためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2のタイプのコンピュータ生成感覚調整は、遠隔の物理的オブジェクトを視認するためのシミュレートされた望遠鏡視(例えば、図7K~図7Lに示される)(例えば、ユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間に第1の距離(例えば、30メートル、60メートルなど)離れた木のカメラビューを表示し、木の詳細は、低光量条件のためにほとんど見えず、次いで、暗視が作動された状態で、表示生成コンポーネントは、第1の距離(例えば、30メートル、60メートルなど)離れた木を示すカメラビューの明るく高コントラストの画像を表示し、暗視及び望遠鏡ビューの両方が作動された状態で、表示生成コンポーネントは、5メートル離れた仮想ポジションに木の明るく高コントラストの画像を表示する。 In some embodiments, a first type of computer-generated sensory adjustment includes simulated night vision for viewing physical objects under low light conditions (e.g., high sensitivity in low light conditions, the brightness of the object is visually enhanced, small variations in brightness are magnified, etc.), and a second type of computer-generated sensory adjustment includes simulated telescopic vision for viewing remote physical objects (e.g., as shown in Figures 7K-7L) (e.g., reducing the focal length of the object so that it appears closer to the user). In an exemplary usage scenario, the display generation component first displays a camera view of a tree at night at a first distance (e.g., 30 meters, 60 meters, etc.) away, with little detail of the tree visible due to low light conditions, then with night vision activated, the display generation component displays a bright, high-contrast image of the camera view showing the tree at the first distance (e.g., 30 meters, 60 meters, etc.) away, and with both night vision and telescopic view activated, the display generation component displays a bright, high-contrast image of the tree in a virtual position 5 meters away.

第1のユーザ入力を検出したことに応じて、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視と、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to simulated night vision for viewing physical objects under low light conditions, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to simulated night vision for viewing physical objects under low light conditions and second display characteristics adjusted for the second representation of the physical environment according to simulated telescopic vision for viewing remote physical objects, provides additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting or switching between simulated night vision for viewing physical objects under low light conditions and simulated telescopic vision for viewing remote physical objects). Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2のタイプのコンピュータ生成感覚調整は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、暗い部屋のテーブル上面のカメラビューを表示する。部屋の詳細は、低光量条件のためにほとんど見えず、暗視が作動されると、表示生成コンポーネントは、テーブルの上にいくつかの硬貨を示す明るく高コントラストの部屋の画像を表示し、暗視及び顕微鏡ビューの両方が作動されると、表示生成コンポーネントは、硬貨の詳細を示す、明るく高コントラストの硬貨の画像を拡大して表示する。いくつかの実施形態では、硬貨の顕微鏡画像は、任意選択的に、暗視画像のものとは異なる時間、及び/又はテーブル上面のカメラビューからキャプチャされる。異なるタイプのセンサ及びカメラからの情報は、物理的環境の第3の表現を生成するために組み合わされる。いくつかの実施形態では、物理的環境の第1の表現及び/又は第2の表現から抽出された情報(例えば、硬貨のサイズ、硬貨上の画像の特性など)を、(例えば、オンラインソース、画像データベースなどから)をベースとして使用して、物理的環境の詳細に関する追加情報(例えば、硬貨のタイプ、硬貨の年、硬貨の材料など)を取得し、物理的環境の第3の表現を生成する(例えば、第1の表現及び第2の表現によってキャプチャされない硬貨の更なる詳細を示す)。 In some embodiments, the first type of computer-generated sensory adjustment includes simulated night vision for viewing physical objects under low light conditions (e.g., high sensitivity in low light conditions, object brightness is visually enhanced, small variations in brightness are magnified, etc.), and the second type of computer-generated sensory adjustment includes simulated microscopic vision for magnifying nearby physical objects. In an exemplary usage scenario, the display generation component first displays a camera view of a tabletop in a dark room. Room details are barely visible due to the low light conditions, and when night vision is activated, the display generation component displays a bright, high-contrast image of the room showing several coins on the table, and when both night vision and the microscopic view are activated, the display generation component displays a bright, high-contrast image of the coins magnified, showing the coin details. In some embodiments, the microscopic image of the coins is optionally captured at a different time and/or from a camera view of the tabletop than that of the night vision image. Information from the different types of sensors and cameras is combined to generate a third representation of the physical environment. In some embodiments, information extracted from the first and/or second representations of the physical environment (e.g., size of the coin, characteristics of the image on the coin, etc.) is used as a basis (e.g., from online sources, image databases, etc.) to obtain additional information about details of the physical environment (e.g., type of coin, year of coin, material of coin, etc.) and generate a third representation of the physical environment (e.g., showing further details of the coin not captured by the first and second representations).

第1のユーザ入力を検出したことに応じて、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する第1の物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視と近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to simulated night vision for viewing physical objects under low light conditions, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to simulated night vision for viewing physical objects under low light conditions and second display characteristics adjusted for the second representation of the physical environment according to simulated microscopic vision for magnifying nearby physical objects, provides additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting or switching between simulated night vision for viewing physical objects under low light conditions and simulated microscopic vision for magnifying nearby physical objects). Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度の変動に対する高感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間の木のカメラビューを表示する。木の詳細は、低光量条件のためにほとんど見えない。暗視が作動されると、表示生成コンポーネントは、2つの巣を示す木の明るくされた高コントラスト画像を表示し、暗視及び熱視の両方が作動されると、表示生成コンポーネントは、巣の明るくされた高コントラスト画像を表示し、一方の巣は、他方の巣とは異なる色及び/又は光強度を有し、一方の巣には動物が最近住んでおり、他方の巣には住んでいないことを示す。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、暗視ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。 In some embodiments, a first type of computer-generated sensory modulation includes simulated night vision for viewing physical objects under low light conditions (e.g., high sensitivity in low light conditions, the brightness of the object is visually enhanced, small variations in brightness are magnified, etc.), and a second type of computer-generated sensory modulation includes simulated heat vision (e.g., as shown in Figures 7L-7M) for viewing physical objects having various thermal radiation profiles (e.g., high sensitivity to variations in temperature, presenting variations in color and/or intensity according to variations in temperature and/or thermal radiation, etc.). In an exemplary usage scenario, the display generation component first displays a camera view of a tree at night. The details of the tree are barely visible due to the low light conditions. When night vision is activated, the display generation component displays a brightened, high-contrast image of the tree showing two nests, and when both night vision and heat vision are activated, the display generation component displays a brightened, high-contrast image of the nests, one nest having a different color and/or light intensity than the other nest, indicating that one nest has recently been inhabited by an animal and the other has not. In some embodiments, the camera view, night vision view, and thermal vision view of the same portion of a physical object are, optionally, captured by different cameras and/or sensors, or, optionally, enhanced using computational techniques.

第1のユーザ入力の検出に応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現に応じて、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視と、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment, the second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to simulated night vision for viewing physical objects under low light conditions in response to the second representation of the first portion of the physical environment, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment, the third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to simulated night vision for viewing physical objects under low light conditions and second display characteristics adjusted for the second representation of the physical environment according to simulated thermal vision for viewing physical objects having various thermal radiation profiles provide additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting or switching between simulated night vision for viewing physical objects under low light conditions and simulated thermal vision for viewing physical objects having various thermal radiation profiles). It improves usability of the device by providing additional control options without cluttering the UI with additional displayed controls, and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視覚的に増強される、輝度の小さな変動が拡大されるなど)を含み、第2のタイプのコンピュータ生成感覚調整は、第2のタイプのコンピュータ生成感覚調整は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音に対する選択的音声増強(例えば、音量を増強する、ある音周波数を選択的に増強/抑制するなど)を含む。いくつかの実施形態では、物理的環境の第1の表現を表示することは、低光量条件下で物理的オブジェクトの表現を表示することを含む。物理的環境の第2の表現を表示することは、部屋全体からキャプチャされた音の通常の音声出力と共に暗い部屋の明るい高コントラスト画像を表示することを含む。物理的環境の第3の表現を表示することは、局所化された音源が画像内で識別され、視覚的に増強され、局所化された音源からの音に対応する増強された音声出力を伴って、暗い部屋の同じ明るい高コントラスト画像を表示することを含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、識別可能な音のない暗い部屋のカメラビューを表示し、次いで、暗視が作動された状態で、表示生成コンポーネントは、部屋の中の家具及び器具を示す暗い部屋の高輝度及び高コントラストビューを表示し、暗視及び高聴覚の両方が作動された状態で、表示生成コンポーネントは、低周波数振動音が聞こえる冷蔵庫のポジションを示す、暗い部屋の明るい高コントラストの画像上に重ねられた円を表示する。冷蔵庫からの局所化された音は、増強され、部屋の暗視ビューと共に再生され、任意選択的に、空間音声出力モードと共に、冷蔵庫の振動における周波数の増強と共に再生される。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び局所化された音は、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。いくつかの実施形態では、増強された音声が要求される音源を選択するユーザ入力(例えば、暗視ビュー内の冷蔵庫のタップ、別の音源を選択する別の入力など)が検出される。 In some embodiments, the first type of computer-generated sensory modulation includes simulated night vision for viewing physical objects under low light conditions (e.g., high sensitivity in low light conditions, brightness of objects is visually enhanced, small variations in brightness are magnified, etc.), and the second type of computer-generated sensory modulation includes selective audio enhancement (e.g., enhancing volume, selectively enhancing/suppressing certain sound frequencies, etc.) for sounds corresponding to a subset of physical objects in the physical environment (e.g., a selected subset of all sound-producing physical objects, a physical object that is centered in the current field of view, etc.). In some embodiments, displaying the first representation of the physical environment includes displaying a representation of the physical objects under low light conditions. Displaying the second representation of the physical environment includes displaying a bright, high-contrast image of a dark room with normal audio output of sounds captured from throughout the room. Displaying the third representation of the physical environment includes displaying the same bright, high-contrast image of a dark room with localized sound sources identified and visually enhanced in the image, and with enhanced audio output corresponding to sounds from the localized sound sources. In an exemplary usage scenario, the display generation component first displays a camera view of a dark room with no discernible sounds, then with night vision activated, the display generation component displays a high brightness and high contrast view of the dark room showing the furniture and appliances in the room, and with both night vision and high hearing activated, the display generation component displays a circle overlaid on a bright, high contrast image of the dark room showing the position of the refrigerator where a low frequency vibration sound is heard. The localized sound from the refrigerator is enhanced and played along with the night vision view of the room, and optionally with a spatial audio output mode, along with an enhancement of the frequencies in the vibration of the refrigerator. In some embodiments, the camera view, telescopic view, and localized sound of the same portion of the physical object are optionally captured by different cameras and/or sensors, or are optionally enhanced using computational techniques. In some embodiments, a user input is detected that selects a sound source for which enhanced sound is desired (e.g., a tap on the refrigerator in the night vision view, another input selecting a different sound source, etc.).

第1のユーザ入力の検出に応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、物理的環境内の物理的オブジェクトのサブセットに対応する音に対する選択的音声調整に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視と物理的環境内の物理的オブジェクトのサブセットに対応する音に対する選択的音声調整との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment, the second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment in accordance with simulated night vision for viewing physical objects under low light conditions, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment, the third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment in accordance with simulated night vision for viewing physical objects under low light conditions and second display characteristics adjusted for the second representation of the physical environment in accordance with selective sound adjustments for sounds corresponding to a subset of the physical objects in the physical environment provide additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting or switching between simulated night vision for viewing physical objects under low light conditions and selective sound adjustments for sounds corresponding to a subset of the physical objects in the physical environment). It improves usability of the device by providing additional control options without cluttering the UI with additional displayed controls, and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従って色及び/又は強度の変動を提示することなど)を含み、第2のタイプのコンピュータ生成感覚調整は、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視(例えば、図7K~図7Lに示される)(例えば、ユーザにより近く見えるようにオブジェクトの焦点距離を低減する)を含む。例示的使用シナリオでは、表示生成コンポーネントは、最初に森林のカメラビューを表示し、次いで、熱視が作動されると、熱視ビュー内の森林の1つのエリアは、熱視ビュー内の森林の他のエリアよりも高い温度を有するように見え、より高い温度を有する森林のエリアは、熱視ビュー内で第1の距離(例えば、50メートル、100メートルなど)離れている。熱視ビュー及び望遠鏡ビューの両方が作動されると、表示生成コンポーネントは、物理的環境の現在表示されている表現に対応する視点から第2の距離(例えば、5メートル、10メートルなど)離れた仮想ポジションにおいて、より高い温度を有するエリアの望遠鏡ビューを表示する。第2の距離(例えば、5メートル、10メートルなど)離れた仮想ポジションに表示されたより高い温度を有するエリアのヒートマップは、くすぶっている死んだ木の幹の表現を示す。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。 In some embodiments, a first type of computer-generated sensory modulation includes simulated heat vision (e.g., as shown in FIGS. 7L-7M) for viewing physical objects having various thermal radiation profiles (e.g., high sensitivity to temperature variations, presenting variations in color and/or intensity according to temperature and/or thermal radiation variations, etc.), and a second type of computer-generated sensory modulation includes simulated telescopic vision (e.g., as shown in FIGS. 7K-7L) for viewing remote physical objects (e.g., reducing the focal length of the object so that it appears closer to the user). In an exemplary usage scenario, the display generation component first displays a camera view of a forest, and then, when heat vision is activated, one area of the forest in the heat vision view appears to have a higher temperature than other areas of the forest in the heat vision view, with the area of the forest having the higher temperature being a first distance away in the heat vision view (e.g., 50 meters, 100 meters, etc.). When both the thermal and telescopic views are activated, the display generation component displays a telescopic view of the area having a higher temperature at a virtual position that is a second distance (e.g., 5 meters, 10 meters, etc.) away from the viewpoint that corresponds to the currently displayed representation of the physical environment. A heat map of the area having a higher temperature displayed at the virtual position that is a second distance (e.g., 5 meters, 10 meters, etc.) away shows a representation of a smoldering dead tree trunk. In some embodiments, the camera view, telescopic view, and thermal view of the same portion of the physical object are optionally captured by different cameras and/or sensors, or are optionally enhanced using computational techniques.

第1のユーザ入力の検出に応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視と、遠隔の物理的オブジェクトを見るためのシミュレートされた望遠鏡視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment, the second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to simulated thermal vision for viewing physical objects having varying thermal emission profiles, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment, the third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to simulated thermal vision for viewing physical objects having varying thermal emission profiles and second display characteristics adjusted for the second representation of the physical environment according to simulated telescopic vision for viewing remote physical objects, provides additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting or switching between simulated thermal vision for viewing physical objects having varying thermal emission profiles and simulated telescopic vision for viewing remote physical objects). It improves usability of the device by providing additional control options without cluttering the UI with additional displayed controls, and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度変動に対する高い感度、温度及び/又は熱放射変動に従う色及び/又は強度変動の提示など)を含み、第2のタイプのコンピュータ生成感覚調整は、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、モバイルデバイスの内部構造のカメラビューを表示する。次いで、熱視が作動されると、モバイルデバイスの内部構造の1つのエリアは、熱視ビュー内で構造の他のエリアよりも高い温度を有するように見え、より高い温度を有する構造のエリアは、修正された色で示される。熱視ビュー及び顕微鏡ビューの両方が作動されると、表示生成コンポーネントは、より高い温度を有するエリアの拡大ビューを表示する。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、望遠鏡ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。 In some embodiments, a first type of computer-generated sensory modulation includes simulated thermal vision (e.g., as shown in Figs. 7L-7M) for viewing physical objects with various thermal radiation profiles (e.g., high sensitivity to temperature variations, presentation of color and/or intensity variations according to temperature and/or thermal radiation variations, etc.), and a second type of computer-generated sensory modulation includes simulated microscopic vision for magnifying nearby physical objects. In an exemplary usage scenario, the display generation component first displays a camera view of the internal structure of the mobile device. Then, when the thermal vision is activated, one area of the internal structure of the mobile device appears to have a higher temperature in the thermal vision view than other areas of the structure, and the area of the structure having the higher temperature is shown in a modified color. When both the thermal vision view and the microscopic view are activated, the display generation component displays a magnified view of the area having the higher temperature. In some embodiments, the camera view, the telescopic view, and the thermal vision view of the same portion of the physical object are optionally captured by different cameras and/or sensors, or are optionally enhanced using computational techniques.

第1のユーザ入力の検出に応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整された第1の表示特性と、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視に従って物理的環境の第2の表現に対して調整された第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視と、近傍の物理的オブジェクトを拡大するためのシミュレートされた顕微鏡視との間で選択又は切換を行うための追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment, the second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to simulated thermal vision for viewing physical objects having varying thermal emission profiles, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment, the third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment according to simulated thermal vision for viewing physical objects having varying thermal emission profiles and second display characteristics adjusted for the second representation of the physical environment according to simulated microscopic vision for magnifying nearby physical objects, provides additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting or switching between simulated thermal vision for viewing physical objects having varying thermal emission profiles and simulated microscopic vision for magnifying nearby physical objects). It improves usability of the device by providing additional control options without cluttering the UI with additional displayed controls, and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度の変動に対する高感度、温度及び/又は熱放射の変動に従った色及び/又は強度の変動を提示することなど)を含み、第2のタイプのコンピュータ生成感覚調整は、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視(例えば、低光量条件下の高感度、オブジェクトの輝度が視的に増強される、明るさの小さな変動が拡大されるなど)を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間の家屋のカメラビューを表示する。家屋の詳細は、低光量条件のためにほとんど見えない。熱視が作動された状態では、表示生成コンポーネントは、熱視ビューの1つの領域が熱視ビューの他の領域よりも高い温度を有するように表示するが、家屋のどの構造部分が高温領域をホストしているかかは不明であり、暗視及び熱視が作動された状態では、表示生成コンポーネントは、家屋の明るくコントラストの高い画像を表示し、家屋の前側を下る縦樋内の高温領域を示す。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、暗視ビュー、及び熱視ビューは、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて向上される。 In some embodiments, a first type of computer-generated sensory modulation includes simulated heat vision (e.g., as shown in Figures 7L-7M) for viewing physical objects having various thermal radiation profiles (e.g., high sensitivity to variations in temperature, presenting variations in color and/or intensity according to variations in temperature and/or thermal radiation, etc.), and a second type of computer-generated sensory modulation includes simulated night vision for viewing physical objects under low light conditions (e.g., high sensitivity in low light conditions, luminance of objects is visually enhanced, small variations in brightness are magnified, etc.). In an exemplary usage scenario, the display generation component first displays a camera view of a house at night. Details of the house are barely visible due to the low light conditions. With thermal vision activated, the display generation component displays one area of the thermal view as having a higher temperature than other areas of the thermal view, but it is unclear which structural portion of the house hosts the hot area; with night vision and thermal vision activated, the display generation component displays a bright, high contrast image of the house, showing the hot area in the downspout down the front side of the house. In some embodiments, the camera view, night vision view, and thermal vision view of the same portion of a physical object are optionally captured by different cameras and/or sensors, or are optionally enhanced using computational techniques.

第1のユーザ入力の検出に応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示されるコントロール(例えば、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視と、低光量条件下で物理的オブジェクトを見るためのシミュレートされた暗視との間で選択又は切換を行うための追加の表示される追加の表示されるコントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting a first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment, the second representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment in accordance with simulated thermal vision for viewing physical objects having varying thermal emission profiles, and displaying a third view of the physical environment including a third representation of the first portion of the physical environment, the third representation of the first portion of the physical environment having first display characteristics adjusted for the first representation of the first portion of the physical environment in accordance with simulated thermal vision for viewing physical objects having varying thermal emission profiles and second display characteristics adjusted for the second representation of the physical environment in accordance with simulated night vision for viewing physical objects under low light conditions provides additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for selecting or switching between simulated thermal vision for viewing physical objects having varying thermal emission profiles and simulated night vision for viewing physical objects under low light conditions). It improves usability of the device by providing additional control options without cluttering the UI with additional displayed controls, and also reduces power usage and improves the battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのコンピュータ生成感覚調整は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視(例えば、図7L~図7Mに示される)(例えば、温度の変動に対する高い感度、温度及び/又は熱放射の変動に従った色及び/又は強度変動を提示することなど)を含み、第2のタイプのコンピュータ生成感覚調整は、物理的環境内の物理的オブジェクトのサブセット(例えば、全ての音生成物理的オブジェクトの選択されたサブセット、現在の視野の中心にある物理的オブジェクトなど)に対応する音のための選択的音声増強(例えば、音量を増強すること、ある音周波数を選択的に増強/抑制することなど)を含む。例示的な使用シナリオでは、表示生成コンポーネントは、最初に、夜間の家屋のカメラビューを表示する。家屋の詳細は、低光量条件のためにほとんど見えず、次いで、熱視が作動されると、表示生成コンポーネントは、熱視ビューの1つの領域が熱視ビューの他の部分よりも高い温度を有するように見えるが、家屋のどの構造部分が高温領域をホストするかが不明瞭であることを表示し、暗視及び熱視の両方が作動されると、表示生成コンポーネントは、家屋の明るく高コントラストの画像を表示して、家屋の前側を下る縦樋の内側の高温領域を示し、暗視及び増強された聴覚の両方が作動されると、表示生成コンポーネントは、音源(例えば、いびきをかくげっ歯類の巣)のポジションを示す円を高温領域に重ねて表示する。強調表示された音源からの局所化された音は増強され、家屋の熱視ビューと共に、任意選択的に、空間音声出力モード及び音源からの音の増強と共に再生される。いくつかの実施形態では、物理的オブジェクトの同じ部分のカメラビュー、熱視ビュー、及び局所化された音は、任意選択的に、異なるカメラ及び/又はセンサによってキャプチャされるか、又は任意選択的に、計算技術を用いて強化される。いくつかの実施形態では、増強された音声が要求される音源(例えば、暗視ビュー内のホットスポット上のタップ)を選択するユーザ入力が検出される。 In some embodiments, a first type of computer-generated sensory modulation includes simulated heat vision (e.g., as shown in Figures 7L-7M) for viewing physical objects having various thermal emission profiles (e.g., high sensitivity to variations in temperature, presenting color and/or intensity variations according to variations in temperature and/or thermal emission, etc.), and a second type of computer-generated sensory modulation includes selective sound enhancement (e.g., enhancing volume, selectively enhancing/suppressing certain sound frequencies, etc.) for sounds corresponding to a subset of physical objects in the physical environment (e.g., a selected subset of all sound-generating physical objects, a physical object that is centered in the current field of view, etc.). In an exemplary usage scenario, the display generation component initially displays a camera view of a house at night. Details of the house are barely visible due to low light conditions, then when thermal vision is activated the display generation component displays that one area of the thermal view appears to have a higher temperature than other parts of the thermal view, but it is unclear which structural part of the house hosts the hot area, when both night vision and thermal vision are activated the display generation component displays a bright, high contrast image of the house showing the hot area inside the downspout down the front side of the house, when both night vision and enhanced hearing are activated the display generation component displays a circle overlaid on the hot area indicating the position of a sound source (e.g., a nest of snoring rodents). Localized sounds from the highlighted sound source are enhanced and played along with the thermal view of the house, optionally with spatial audio output mode and enhancement of sounds from the sound source. In some embodiments the camera view, thermal view, and localized sounds of the same part of the physical object are optionally captured by different cameras and/or sensors, or optionally enhanced using computational techniques. In some embodiments, a user input is detected that selects the source for which enhanced audio is desired (e.g., a tap on a hotspot in the night vision view).

第1のユーザ入力を検出したことに応じて、物理的環境の第1の部分の第2の表現であって、物理的環境の第1の部分の第2の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性を有する、物理的環境の第1の部分の第2の表現を含む物理的環境の第2のビューを表示することと、物理的環境の第1の部分の第3の表現であって、物理的環境の第1の部分の第3の表現は、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視に従って物理的環境の第1の部分の第1の表現に対して調整される第1の表示特性と、物理的環境内の物理的オブジェクトのサブセットに対応する音の選択的音声調整に従って物理的環境の第2の表現に対して調整される第2の表示特性とを有する、物理的環境の第1の部分の第3の表現を含む物理的環境の第3のビューを表示することとは、追加の表示コントロール(例えば、様々な熱放射プロファイルを有する物理的オブジェクトを見るためのシミュレートされた熱視と、物理的環境内の物理的オブジェクトのサブセットに対応する音の選択的音声調整との間で選択又は切換を行うための追加の表示コントロール)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In response to detecting the first user input, displaying a second view of the physical environment including a second representation of the first portion of the physical environment, the second representation of the first portion of the physical environment having a first display characteristic that is adjusted for the first representation of the first portion of the physical environment according to simulated thermal vision for viewing physical objects having different thermal emission profiles; and a third representation of the first portion of the physical environment, the third representation of the first portion of the physical environment having a first display characteristic that is adjusted for the first representation of the first portion of the physical environment according to simulated thermal vision for viewing physical objects having different thermal emission profiles. Displaying a third view of the physical environment including a third representation of the first portion of the physical environment having first display characteristics adjusted for the current view and second display characteristics adjusted for the second representation of the physical environment according to selective sound adjustments of sounds corresponding to a subset of the physical objects in the physical environment provides additional control options without cluttering the UI with additional display controls (e.g., additional display controls for selecting or switching between simulated heat vision to view physical objects having different thermal emission profiles and selective sound adjustments of sounds corresponding to a subset of the physical objects in the physical environment). Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

図11における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、9000、10000、及び12000)に関して本明細書で記載した他のプロセスの詳細はまた、図11に関連して上述した方法11000に類似の方式で適用可能であることに留意されたい。例えば、方法11000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法8000、9000、10000、及び12000)を参照して本明細書に記載されるジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。 It should be understood that the particular order described for the operations in FIG. 11 is merely an example, and that the described order is not intended to indicate that the operations are the only order in which they may be performed. Those skilled in the art will recognize various ways to reorder the operations described herein. In addition, it should be noted that other process details described herein with respect to other methods described herein (e.g., methods 8000, 9000, 10000, and 12000) are also applicable in a similar manner to method 11000 described above in connection with FIG. 11. For example, the gestures, gaze inputs, physical objects, user interface objects, controls, movements, references, three-dimensional environments, display generating components, surfaces, representations of physical objects, virtual objects, and/or animations described above with reference to method 11000 may optionally have one or more of the characteristics of the gestures, gaze inputs, physical objects, user interface objects, controls, movements, references, three-dimensional environments, display generating components, surfaces, representations of physical objects, virtual objects, and/or animations described herein with reference to other methods described herein (e.g., methods 8000, 9000, 10000, and 12000), the details of which are not repeated here for the sake of brevity.

図12は、いくつかの実施形態による、三次元環境のビュー内の物理的環境の部分が個別のタイプのエクササイズに対応するという判定に従って、三次元環境のビュー内に個別のタイプのエクササイズに対応する仮想コンテンツを選択的に表示する方法のフローチャートである。 FIG. 12 is a flowchart of a method for selectively displaying virtual content corresponding to a distinct type of exercise within a view of a three-dimensional environment pursuant to a determination that a portion of a physical environment within the view of the three-dimensional environment corresponds to a distinct type of exercise, according to some embodiments.

いくつかの実施形態では、方法12000は、コンピュータシステム(例えば、図1のコンピュータシステム101)で実行される。表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120)を含む(例えば、ヘッドアップディスプレイ、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上のカメラ(例えば、カメラ(例えば、カラーセンサ、赤外線センサ、及び他の深度感知カメラ))は、ユーザの手又はユーザの頭部から前方に向くカメラである。いくつかの実施形態では、方法12000は、非一時的コンピュータ可読記憶媒体に記憶され、コンピュータシステム101の1つ以上のプロセッサ202(例えば、図1Aの制御ユニット110)など、コンピュータシステムの1つ以上のプロセッサによって実行される命令によって実行される。方法12000の一部の動作は、任意選択的に組み合わされ、及び/又は一部の動作の順序は、任意選択的に変更される。 In some embodiments, the method 12000 is performed on a computer system (e.g., computer system 101 of FIG. 1) including a display generating component (e.g., display generating component 120 of FIGS. 1, 3, and 4) (e.g., a heads-up display, a display, a touch screen, a projector, etc.) and one or more cameras (e.g., a camera (e.g., a color sensor, an infrared sensor, and other depth-sensing camera)) facing forward from a user's hand or a user's head. In some embodiments, the method 12000 is performed by instructions stored in a non-transitory computer-readable storage medium and executed by one or more processors of the computer system, such as one or more processors 202 of the computer system 101 (e.g., control unit 110 of FIG. 1A). Some operations of the method 12000 are optionally combined and/or the order of some operations is optionally changed.

いくつかの実施形態では、方法12000は、表示生成コンポーネント(例えば、図1、図3、及び図4の表示生成コンポーネント120、表示生成コンポーネント7100など)(例えば、ヘッドアップディスプレイ、HMD、ディスプレイ、タッチスクリーン、プロジェクタなど)及び1つ以上の入力デバイス(例えば、カメラ、コントローラ、タッチ感知面、ジョイスティック、ボタンなど)と通信しているコンピュータシステム(例えば、図1のコンピュータシステム101)において実行される。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネントと同じハウジングに囲まれた1つ以上のプロセッサ及びメモリと、1つ以上の入力デバイスのうちの少なくともいくつかと、を有する統合デバイスである。いくつかの実施形態では、コンピュータシステムは、表示生成コンポーネント及び/又は1つ以上の入力デバイスとは別個の1つ以上のプロセッサ及びメモリを含むコンピューティングコンポーネントを含む。いくつかの実施形態では、表示生成コンポーネント及び1つ以上の入力デバイスは、同じハウジング内に統合され、かつ同じハウジングに囲まれている。 In some embodiments, the method 12000 is executed in a computer system (e.g., computer system 101 of FIG. 1 ) in communication with a display generation component (e.g., display generation component 120, display generation component 7100, etc., of FIGS. 1, 3, and 4) (e.g., a heads-up display, HMD, display, touch screen, projector, etc.) and one or more input devices (e.g., a camera, controller, touch-sensitive surface, joystick, buttons, etc.). In some embodiments, the computer system is an integrated device having one or more processors and memory enclosed in the same housing as the display generation component and at least some of the one or more input devices. In some embodiments, the computer system includes a computing component including one or more processors and memory that are separate from the display generation component and/or the one or more input devices. In some embodiments, the display generation component and the one or more input devices are integrated within and enclosed in the same housing.

コンピュータシステムは、三次元環境(例えば、図7N(A)のシーン105、別の物理的環境など)の第1のビュー(例えば、図7N(B)のビュー7405、別のビューなど)(例えば、仮想要素を有さないか又は最小限の仮想要素を有する現実ビュー、コンピュータシステムの基本機能を制御するためのユーザインタフェースオブジェクト(例えば、異なるコンピュータ生成体験を起動するためのアプリケーションアイコン、表示設定、音声制御など)を有する現実ビュー、低い没入レベルで表示される拡張現実ビュー(例えば、ユーザの視野の小さな割合(例えば、10%未満、20%未満など)しか占有しないか又は制限された浮動ウィンドウなどに表示されるユーザインタフェースオブジェクト(例えば、アプリケーション起動パッド、ウェルカムユーザインタフェース、設定ユーザインタフェース)などを表示する)を表示し(12002)、三次元環境の第1のビューは、物理的環境の第1の部分の第1の表現を含む(例えば、第1の表現は、第1の表示生成コンポーネントを介して三次元環境を見るために第1の表示生成コンポーネントと物理的空間関係にあるユーザを囲む物理的環境の第1の部分の通常のカメラビュー、第1の表示生成コンポーネントのパススルー部分を通じた物理的環境のビューなど)。物理的環境の第1の部分の第1の表現を含む三次元環境の第1のビューを表示している間、コンピュータシステムは、物理的環境の第1のロケーション(例えば、図7N(A)のユーザ7002のロケーション、別のロケーションなど)から第2のロケーション(例えば、図7O(A)のユーザ7002のロケーション、図7P(A)のユーザ7002のロケーション、別のロケーションなど)への第1のユーザ(例えば、図7N~7Pのユーザ7002、別のユーザなど)の移動(例えば、第1の表示生成コンポーネントとして機能するHMDを装着している間の第1のユーザ全体の移動(例えば、歩く、登るなど)、第1の表示生成コンポーネントとして機能するディスプレイ又はプロジェクタを有するモバイルデバイスを携帯している第1のユーザの第1の物理的環境内の第1のロケーションから第2のロケーションへの移動(例えば、モバイルデバイス及びディスプレイの移動を引き起こすユーザの腕の移動、ディスプレイを有するモバイルデバイスを携帯しているユーザ全体の移動)など)を検出する(12004)。第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したこと(12006)に応じて、かつ第2のロケーションへの移動が第1の基準を満たし、第1の基準は、第1の基準が満たされるために、第2のロケーションが第1のタイプのエクササイズに関連付けられたロケーション(例えば、ロケーションが第1のタイプのエクササイズ器具(例えば、ローイングマシン、階段、トレッドミル、クライミングウォール、ステーショナリーバイク、ウェイトトレーニングマシン、パンチバックなど)を有する)に対応するという第1の要件を含み、ロケーションは、(例えば、適切な床面、マット、プール、壁、構造などを有して)第1のタイプのエクササイズ(例えば、水泳、ローイング、瞑想、ヨガ、リフティング、キック、ウォーキング、ランニング、ダンス、クライミング、テニス、バスケットボール、体操など)に合わせて設計されるロケーションである、という判定に従って、コンピュータシステムは、三次元環境の第2のビュー(例えば、図7O(B)のビュー7408又は別のビューなど)(例えば、現在ロケーションに対応する第1の特定のコンピュータ生成体験に対応するより多くの仮想要素を備えた拡張現実ビュー、現在ロケーションに対応する第1のコンピュータ生成体験のプレビュー又は開始を示す拡張現実ビュー、より高い没入レベルで表示された拡張現実ビュー)を表示し(12008)(例えば、総合してユーザの視野の相当の割合(例えば、60%超、90%超など)を占有する、又は三次元仮想又は拡張現実環境に表示される第1の特定のアプリケーション体験(例えば、仮想ハイキングコース、仮想風景、スコアボード、エクササイズ統計、エクササイズパラメータの変更コントロールなど)の一部であるユーザインタフェースオブジェクトを表示する)、三次元環境の第2のビューは、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツ(例えば、図7O(B)の仮想開放水域7406、他の仮想コンテンツなど)(例えば、トレッドミルエクササイズプログラム用のハイキングコース風景、ローイングマシンエクササイズ用の湖シーン、キックボクシング用のアリーナ、クライミングウォールエクササイズ用の仮想崖側面、仮想テニスゲーム用の仮想テニスコート、及び/又は第1のタイプのエクササイズについてのユーザインタフェースコントロール、スコア、統計など)を含み、第1のセットの仮想コンテンツは、物理的環境の第2の部分の第2の表現の少なくとも一部を置換し(例えば、図7O(A)のユーザ7002のロケーション、別のロケーションなど)(例えば、第1のタイプのエクササイズに対応する仮想コンテンツは、第2のロケーションを含む物理的環境の部分の表現(例えば、第1のタイプのエクササイズの実際の器具又は第1のタイプのエクササイズに合わせて設計された部屋のビューなど)に重ねて、その表現のビューを遮断して、その部分の表示を置換して表示されるなど)。いくつかの実施形態では、上記の要件は、第1の基準が満たされる唯一の要件である。いくつかの実施形態では、上記の要件は、第1の基準が満たされるために全てが満たされる必要はない第1の基準における1つ以上の他の要件の代替要件である。いくつかの実施形態では、上記の要件は、第1の基準が満たされるために全てが満たされなければならない第1の基準における1つ以上の他の要件の追加要件である。いくつかの実施形態では、代替条件(又は追加条件)として、ユーザは、第1の基準が満たされるために、エクササイズに関連付けられたアクション、例えば、特徴的な移動を開始すること(例えば、トレッドミル上で歩き始めること、階段ステッパー上で歩くこと、楕円上で脚を前後に動かすこと、又はローイングマシン上でローイングを開始すること、又はエクササイズ器具の上に乗る/座ること)を実行しなければならない。方法12000では、第1のユーザの第1のロケーションから第2のロケーションへの移動を検出したことに応じて、第2のロケーションへの移動が第1の基準と異なる第2の基準を満たし、第2の基準は、第2の基準が満たされるために、第2のロケーションが第2のタイプのエクササイズに関連付けられたロケーションに対応するという第2の要件を含み(例えば、ロケーションは第2のタイプのエクササイズ器具(例えば、ローイングマシン、階段、トレッドミル、クライミングウォール、ウェイトトレーニングマシン、パンチバックなど)を有し、ロケーションは(例えば、適切な床面、マット、プール、壁、構造などを有して)第2のタイプのエクササイズ(例えば、水泳、ローイング、瞑想、ヨガ、リフティング、キック、ウォーキング、ランニング、ダンス、クライミング、テニス、バスケットボール、体操など)など)に合わせて設計されたロケーションであり、第2のタイプのエクササイズは第1のタイプのエクササイズと異なる、という判定に従って、コンピュータシステムは、三次元環境の第3のビュー(例えば、図7P(B)のビュー7410又は別のビューなど)(例えば、現在ロケーションに対応する第2の特定のコンピュータ生成体験に対応するより多くの仮想要素を備えた拡張現実ビュー、現在ロケーションに対応する第2のコンピュータ生成体験のプレビュー又は開始を示す拡張現実ビュー、より高い没入レベルで表示された拡張現実ビュー)を表示し(12010)(例えば、総合してユーザの視野の相当割合(例えば、60%超、90%超など)を占有する、又は三次元仮想又は拡張現実環境などに表示される)第2の特定のアプリケーション体験(例えば、仮想ハイキングコース、仮想風景、スコアボード、エクササイズ統計、エクササイズパラメータの変更コントロールなど)の一部であるユーザインタフェースオブジェクトを表示する)、三次元環境の第3のビューは、第2のタイプのエクササイズ(例えば、トレッドミルエクササイズプログラム用のハイキングコース風景、ローイングマシンエクササイズ用の湖シーン、キックボクシング用のアリーナ、クライミングウォールエクササイズ用の仮想崖側面、仮想テニスゲーム用の仮想テニスコート、及び/又は第2のタイプのエクササイズについてのユーザインタフェースコントロール、スコア、統計など)に対応する第2のセットの仮想コンテンツを含み、第2のセットの仮想コンテンツは第1のセットの仮想コンテンツ(例えば、仮想ハイキングコース対仮想湖シーン;仮想テニスコート対仮想ボクシングリング;瞑想用の仮想草原対ダンス用の仮想ステージなど)と異なり、第2のセットの仮想コンテンツ(例えば、図7P(B)の仮想ハイキングコース7412、他の仮想コンテンツなど)は、物理的環境の第3の部分の第3の表現の少なくとも一部を置換する(例えば、第2のタイプのエクササイズに対応する仮想コンテンツは、第2のロケーション(例えば、図7P(A)のユーザ7002のロケーション、別のロケーションなど)を含む物理的環境(例えば、第1のタイプのエクササイズの実際の器具又は第1のタイプのエクササイズに合わせて設計された部屋などのビュー)の部分の表現に重ねて、その表現のビューを遮断して、その表現の表示を置換するなどして表示される)。いくつかの実施形態では、上記の要件は、第1の基準が満たされる唯一の要件である。いくつかの実施形態では、上記の要件は、第1の基準が満たされるために全てが満たされる必要はない第1の基準における1つ以上の他の要件の代替要件である。いくつかの実施形態では、上記の要件は、第1の基準が満たされるために全てが満たされなければならない第1の基準における1つ以上の他の要件の追加要件である。いくつかの実施形態では、代替条件(又は追加条件)として、ユーザは、第1の基準が満たされるために、エクササイズに関連付けられたアクション、例えば、特徴的な移動を開始すること(例えば、トレッドミル上で歩き始めること、階段ステッパー上で歩くこと、楕円上で脚を前後に動かすこと、又はローイングマシン上でローイングを開始すること、又はエクササイズ器具の上に乗る/座ること)を実行しなければならない。これらの特徴は図7N~図7Pに示されており、ユーザ7002がロケーションを移動するとき、ユーザ7002の現在ロケーションに応じて、コンピュータシステムは、どのタイプのエクササイズがユーザ7002の現在ロケーションに関連付けられているかを判定する。現在ロケーションが第1のタイプのエクササイズ(例えば、オブジェクト7404を含むロケーション)に関連付けられている場合、コンピュータシステムは、第1のタイプのエクササイズ(例えば、ローイング、ボート漕ぎなど)に対応する仮想コンテンツ7408(図7O)を表示する。現在ロケーションが第2のタイプのエクササイズ(例えば、オブジェクト7402を含むロケーション)に関連付けられている場合、コンピュータシステムは、第2のタイプのエクササイズ(例えば、ハイキング、ウォーキングなど)に対応する仮想コンテンツ7410(図7P)を表示する。 The computer system displays a first view (e.g., view 7405 in FIG. 7N(B), another view, etc.) of a three-dimensional environment (e.g., scene 105 in FIG. 7N(A), another physical environment, etc.) (e.g., a reality view with no or minimal virtual elements, a reality view with user interface objects for controlling basic functions of the computer system (e.g., application icons for launching different computer-generated experiences, display settings, audio controls, etc.), an augmented reality view displayed at a low level of immersion (e.g., displaying user interface objects (e.g., application launch pad, welcome user interface, settings user interface), etc.) that occupy only a small percentage (e.g., less than 10%, less than 20%) of the user's field of view or that are displayed in a limited floating window, etc.) (12002), where the first view of the three-dimensional environment includes a first representation of a first portion of the physical environment (e.g., the first representation includes a normal cover of the first portion of the physical environment surrounding the user in a physical spatial relationship with the first display generation component to view the three-dimensional environment through the first display generation component). While displaying the first view of the three-dimensional environment including the first representation of the first portion of the physical environment, the computer system detects a movement of a first user (e.g., user 7002 of FIGS. 7N-7P, another user, etc.) from a first location (e.g., location of user 7002 of FIG. 7N(A), another location, etc.) in the physical environment to a second location (e.g., location of user 7002 of FIG. 7O(A), location of user 7002 of FIG. 7P(A), another location, etc.) (e.g., movement of the first user's entire body while wearing an HMD functioning as the first display generating component (e.g., walking, climbing, etc.), movement of the first user carrying a mobile device having a display or projector functioning as the first display generating component from a first location to a second location in the first physical environment (e.g., movement of the user's arm causing the mobile device and display to move, movement of the entire user carrying the mobile device having the display), etc.) (12004). In response to detecting movement of the first user from a first location to a second location (12006), and the movement to the second location satisfies a first criterion, the first criterion including a first requirement that, for the first criterion to be satisfied, the second location corresponds to a location associated with a first type of exercise (e.g., the location has a first type of exercise equipment (e.g., a rowing machine, stairs, a treadmill, a climbing wall, a stationary bike, a weight training machine, a punch bag, etc.)), and the location is suitable for the first type of exercise (e.g., having a suitable floor surface, mat, pool, walls, structure, etc.) In accordance with a determination that the current location is a location designed for a particular sport (e.g., walking, meditation, yoga, lifting, kicking, walking, running, dancing, climbing, tennis, basketball, gymnastics, etc.), the computer system displays (12008) a second view of the three-dimensional environment (e.g., view 7408 of FIG. 7O(B) or another view) (e.g., an augmented reality view with more virtual elements corresponding to a first particular computer-generated experience corresponding to the current location, an augmented reality view showing a preview or start of the first computer-generated experience corresponding to the current location, an augmented reality view displayed at a higher immersion level) (e.g., collectively covering a significant proportion of the user's field of view (e.g., 60%, more than 90%, etc.) or displays user interface objects that are part of a first particular application experience (e.g., virtual hiking trails, virtual scenery, scoreboards, exercise statistics, controls to change exercise parameters, etc.) displayed in the three-dimensional virtual or augmented reality environment), while a second view of the three-dimensional environment displays a first set of virtual content (e.g., virtual open water body 7406 of FIG. 7O(B) , other virtual content, etc.) corresponding to a first type of exercise (e.g., hiking trail scenery for a treadmill exercise program, a lake scene for a rowing machine exercise, an arena for kickboxing, a climbing wall for a climbing wall exercise, etc.) corresponding to a first type of exercise. a virtual cliff side, a virtual tennis court for a virtual tennis game, and/or user interface controls, scores, statistics, etc. for the first type of exercise, and the first set of virtual content replaces at least a portion of a second representation of a second portion of the physical environment (e.g., the location of the user 7002 in FIG. 7O(A), another location, etc.) (e.g., the virtual content corresponding to the first type of exercise is displayed overlaying a representation of the portion of the physical environment including the second location (e.g., a view of actual equipment for the first type of exercise or a room designed for the first type of exercise, etc.), blocking a view of that representation, replacing the view of that portion, etc.). In some embodiments, the above requirements are the only requirements for the first criterion to be met. In some embodiments, the above requirements are alternative requirements to one or more other requirements in the first criterion that do not all need to be met for the first criterion to be met. In some embodiments, the above requirements are in addition to one or more other requirements in the first criterion that all must be met for the first criterion to be met. In some embodiments, as an alternative (or additional) condition, the user must perform an action associated with the exercise, such as initiating a characteristic movement (e.g., starting to walk on a treadmill, walking on a stair stepper, moving legs back and forth on an elliptical, or starting rowing on a rowing machine, or standing/sitting on the exercise equipment) for the first criterion to be met. In method 12000, in response to detecting movement of the first user from the first location to a second location, the movement to the second location satisfies a second criterion different from the first criterion, the second criterion including a second requirement that for the second criterion to be satisfied, the second location corresponds to a location associated with a second type of exercise (e.g., the location has a second type of exercise equipment (e.g., a rowing machine, stairs, a treadmill, a climbing wall, a weight training machine, a punch bag, etc.), the location corresponds to a location associated with a second type of exercise (e.g., swimming, rowing, meditation, yoga, lifting, kicking, walking, running, dancing, etc.) (e.g., having a suitable floor surface, mat, pool, wall, structure, etc.) Pursuant to a determination that the location is a location designed for a particular sport (e.g., climbing, tennis, basketball, gymnastics, etc.) and the second type of exercise is different from the first type of exercise, the computer system displays (12010) a third view of the three dimensional environment (e.g., view 7410 of FIG. 7P(B) or another view) (e.g., an augmented reality view with more virtual elements corresponding to a second particular computer-generated experience corresponding to the current location, an augmented reality view showing a preview or start of the second computer-generated experience corresponding to the current location, an augmented reality view displayed at a higher immersion level) (e.g., views that collectively occupy a substantial proportion (e.g., more than 60%, more than 90%, etc.) of the user's field of view or that are displayed in a three dimensional virtual or augmented reality environment, etc.). a virtual tennis court for a virtual tennis game, a virtual tennis court for a virtual tennis match, a virtual tennis court for a virtual tennis match, and/or a virtual tennis court for a virtual tennis match; a virtual tennis court for a virtual tennis match, ... (e.g., a virtual hiking trail vs. a virtual lake scene; a virtual tennis court vs. a virtual boxing ring; a virtual grass field for meditation vs. a virtual stage for dancing, etc.), the second set of virtual content (e.g., the virtual hiking trail 7412 of FIG. 7P(B), other virtual content, etc.) replaces at least a portion of a third representation of a third portion of the physical environment (e.g., the virtual content corresponding to the second type of exercise is displayed overlaying a representation of a portion of the physical environment (e.g., a view of actual equipment for the first type of exercise or a room designed for the first type of exercise, etc.) that includes the second location (e.g., the location of the user 7002 of FIG. 7P(A), another location, etc.), blocking the view of that representation, replacing the display of that representation, etc.). In some embodiments, the above requirements are the only requirements for the first criterion to be met. In some embodiments, the above requirements are alternative requirements to one or more other requirements in the first criterion that do not all need to be met for the first criterion to be met. In some embodiments, the above requirements are in addition to one or more other requirements in the first criterion that must all be met for the first criterion to be met. In some embodiments, as an alternative condition (or additional condition), the user must perform an action associated with the exercise, such as starting a characteristic movement (e.g., starting to walk on a treadmill, walking on a stair stepper, moving legs back and forth on an elliptical, or starting rowing on a rowing machine, or standing/sitting on the exercise equipment) for the first criterion to be met. These characteristics are illustrated in Figures 7N-7P, where as the user 7002 moves between locations, depending on the current location of the user 7002, the computer system determines which type of exercise is associated with the current location of the user 7002. If the current location is associated with the first type of exercise (e.g., a location that includes the object 7404), the computer system displays virtual content 7408 (Figure 7O) corresponding to the first type of exercise (e.g., rowing, rowing, etc.). If the current location is associated with a second type of exercise (e.g., a location that includes object 7402), the computer system displays virtual content 7410 (FIG. 7P) that corresponds to the second type of exercise (e.g., hiking, walking, etc.).

いくつかの実施形態では、コンピュータシステムは、第2のロケーションにおける第1のタイプのエクササイズ器具(例えば、図7Oのオブジェクト7404、他の器具など)の検出(例えば、第2のロケーションにおける第1のタイプのエクササイズ器具に対応するRFID信号の検出、第2のロケーションをキャプチャするカメラフィードにおける第2のロケーションにおける第1のタイプのエクササイズ器具の画像の検出、第2のロケーションが第1のタイプのエクササイズ器具の登録されたロケーションに一致することの検出など)に従って、第2のロケーションが第1のタイプのエクササイズに関連付けられたロケーションに対応すると判定する(例えば、第1のタイプのエクササイズ器具は、第2のタイプのエクササイズ器具と異なり、第2のタイプのエクササイズに対応しない)。コンピュータシステムは、第2のロケーションにおける第2のタイプのエクササイズ器具(例えば、図7Pのオブジェクト7402、他の器具など)の検出(例えば、第2のロケーションにおける第2のタイプのエクササイズ器具に対応するRFID信号の検出、第2のロケーションをキャプチャするカメラフィードにおける第2のロケーションにおける第2のタイプのエクササイズ器具の画像の検出、第2のロケーションが第2のタイプのエクササイズ器具の登録されたロケーションであることの検出など)に従って、第2のロケーションが第2のタイプのエクササイズに関連付けられたロケーションに対応することを判定し、第2のタイプのエクササイズ器具は、第1のタイプのエクササイズ器具と異なり、第1のタイプのエクササイズに対応しない。例えば、第1のユーザがトレッドミルの前のロケーションへ歩くとき、HMDは、第1の表示生成コンポーネントを介して提供されるユーザの視野内のトレッドミルの表現を遮断する、その表現の表示を置換する、又はその表現に重なる仮想ハイキングコースを表示し、第1のユーザがローイングマシンの前のロケーションへ歩くとき、HMDは、第1の表示生成コンポーネントを介して提供されるユーザの視野内のローイングマシンの表現を遮断する、その表現の表示を置換する、又はその表現に重なる仮想湖シーンを表示する。いくつかの実施形態では、第1のユーザがロケーションからロケーションへ(例えば、ジムの入口からトレッドミルの前へ、トレッドミルの前からローイングマシンの前へなど)移動するとき、第1の表示生成コンポーネントによって提供される仮想コンテンツは、現実ビュー、異なる仮想シーンを有する異なる拡張現実ビュー、及び/又は異なる仮想環境などの間で自動的に(例えば、ユーザインタフェース要素又は音声コマンドを使用して仮想コンテンツ又はプログラムを具体的に選択するユーザ入力なしに)変更される。 In some embodiments, the computer system determines that the second location corresponds to a location associated with the first type of exercise (e.g., the first type of exercise equipment is different from the second type of exercise equipment and does not correspond to the second type of exercise) following detection of a first type of exercise equipment (e.g., object 7404 in FIG. 7O, other equipment, etc.) at the second location (e.g., detecting an RFID signal corresponding to the first type of exercise equipment at the second location, detecting an image of the first type of exercise equipment at the second location in a camera feed capturing the second location, detecting that the second location matches a registered location of the first type of exercise equipment, etc.). The computer system determines that the second location corresponds to a location associated with the second type of exercise equipment according to detecting a second type of exercise equipment (e.g., object 7402 in FIG. 7P , other equipment, etc.) at the second location (e.g., detecting an RFID signal corresponding to the second type of exercise equipment at the second location, detecting an image of the second type of exercise equipment at the second location in a camera feed capturing the second location, detecting that the second location is a registered location of the second type of exercise equipment, etc.), and the second type of exercise equipment is different from the first type of exercise equipment and does not correspond to the first type of exercise. For example, when the first user walks to a location in front of the treadmill, the HMD displays a virtual hiking trail that occludes, replaces, or overlays a representation of the treadmill in the user's field of view provided via the first display generation component, and when the first user walks to a location in front of the rowing machine, the HMD displays a virtual lake scene that occludes, replaces, or overlays a representation of the rowing machine in the user's field of view provided via the first display generation component. In some embodiments, as the first user moves from location to location (e.g., from the gym entrance to in front of the treadmill, from in front of the treadmill to in front of the rowing machine, etc.), the virtual content provided by the first display generation component is automatically changed (e.g., without user input to specifically select virtual content or programs using user interface elements or voice commands), between a real view, a different augmented reality view with a different virtual scene, and/or a different virtual environment, etc.

コンピュータシステムが、第2のロケーションにおける第1のタイプのエクササイズ器具の検出に従って、第2のロケーションが第1のタイプのエクササイズに関連付けられたロケーションに対応すると判定する、第2のロケーションへの移動が、第2のロケーションが第1のタイプのエクササイズに関連付けられたロケーションに対応することを必要とする第1の基準を満たすという判定に従って、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツを含む三次元環境の第2のビューを表示することと、コンピュータシステムが、第2のロケーションにおける第2のタイプのエクササイズ器具の検出に従って、第2のロケーションが第2のタイプのエクササイズに関連付けられたロケーションに対応することを判定する、第2のロケーションが第2のタイプのエクササイズに関連付けられたロケーションに対応することを必要とする、第1の基準とは異なる、第2のロケーションへの移動が、第2の基準を満たすという判定に従って、第2のタイプのエクササイズに対応する第1のセットの仮想コンテンツとは異なる第2のセットの仮想コンテンツ三次元環境の第3のビューを表示することは、更なるユーザ入力(例えば、第1又は第2のタイプのエクササイズに対応する仮想コンテンツのセットを選択するための更なるユーザ入力)を必要とすることなく条件のセットが満たされたときに適切なセットの仮想コンテンツを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 The computer system, in accordance with detection of the first type of exercise equipment at the second location, determines that the second location corresponds to a location associated with the first type of exercise; displaying a second view of the three-dimensional environment including a first set of virtual content corresponding to the first type of exercise; and, in accordance with detection of the second type of exercise equipment at the second location, the computer system, in accordance with a determination that the second location corresponds to a location associated with the second type of exercise; displaying a third view of the three-dimensional environment including a second set of virtual content corresponding to the second type of exercise, different from the first set of virtual content corresponding to the second type of exercise, in accordance with a determination that the movement to the second location satisfies a second criterion, different from the first criterion, requiring that the second location corresponds to a location associated with the second type of exercise, displaying an appropriate set of virtual content when the set of conditions is met without requiring further user input (e.g., further user input to select the set of virtual content corresponding to the first or second type of exercise). Executing an action when a set of conditions is met without requiring further user input improves the usability of the device, as well as reducing power usage and improving the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、物理的環境内の第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したことに応じて、三次元環境の第2のビュー(例えば、図7Oのビュー7408、又は図7Pのビュー7410、別のビューなど)を表示することは、物理的環境の第2の部分の第2の表現(例えば、図7Oのオブジェクト7404を含むシーン105の部分、及び図7Pのオブジェクト7402を含むシーン105の部分など)を徐々に減少させ(例えば、物理的環境の第2の部分の表現のより多くの部分の表示を停止し、物理的環境の第2の部分の表現をフェードアウトするなど)、物理的環境の第2の部分の第2の表現が徐々に減少した三次元環境の第2のビューの領域において、第1のタイプのエクササイズに対応する仮想コンテンツのプロミネンスを徐々に増加させる(例えば、仮想コンテンツの表示を開始し、仮想コンテンツの可視性を増加させ、仮想コンテンツによって占有されるユーザの視野の割合を増加させ、仮想コンテンツの不透明度又は輝度を上昇させるなど)ことを含む。いくつかの実施形態では、物理的環境内の第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したことに応じて、三次元環境の第3のビューを表示することは、物理的環境の第3の部分の表現を徐々に低減すること(例えば、物理的環境の第3の部分の表現のより多くの部分の表示を停止する、物理的環境の第3の部分の表現をフェードアウトするなど)と、物理的環境の第3の部分の表現が徐々に低減された三次元環境の第3のビューの領域において、第2のタイプのエクササイズに対応する仮想コンテンツを徐々に増加させる(例えば、仮想コンテンツを表示する、仮想コンテンツの可視性を増加させるなど)こととを含む。例えば、いくつかの実施形態では、第1のユーザがトレッドミルの前に立っている、及び/又はトレッドミルに乗っているとき、ユーザの物理的環境のビュー(例えば、トレッドミルのハードウェア制御パネル、ユーザの前の壁、同じ部屋の他のエクササイズマシンなど)が徐々に変更され、物理的環境の表現のより多くの部分が次第に消え、及び/又はトレッドミルエクササイズに対応する仮想コンテンツ(例えば、ハイキングコースの風景、仮想湖の周囲の仮想舗装路など)に置換される。最終的に、ユーザがトレッドミル上で歩き始めると、ユーザの視野全体が、山道又は湖岸路の仮想風景で満たされる。いくつかの実施形態では、仮想コンテンツは、仮想三次元環境であり、ユーザは、トレッドミル上を歩行しながら、自分の頭を回転させるか、又は上下させることによって、仮想三次元環境の異なる部分を見ることができる。 In some embodiments, in response to detecting movement of the first user from a first location to a second location in the physical environment, displaying a second view of the three-dimensional environment (e.g., view 7408 of FIG. 7O, or view 7410 of FIG. 7P, another view, etc.) includes gradually decreasing a second representation of a second portion of the physical environment (e.g., a portion of scene 105 including object 7404 of FIG. 7O and a portion of scene 105 including object 7402 of FIG. 7P, etc.) (e.g., ceasing to display more of the representation of the second portion of the physical environment, fading out the representation of the second portion of the physical environment, etc.) and gradually increasing the prominence of virtual content corresponding to the first type of exercise (e.g., starting to display the virtual content, increasing the visibility of the virtual content, increasing a percentage of the user's field of view occupied by the virtual content, increasing the opacity or brightness of the virtual content, etc.) in an area of the second view of the three-dimensional environment where the second representation of the second portion of the physical environment is gradually decreased. In some embodiments, in response to detecting movement of the first user from the first location to the second location within the physical environment, displaying the third view of the three-dimensional environment includes gradually reducing the representation of the third portion of the physical environment (e.g., ceasing to display more of the representation of the third portion of the physical environment, fading out the representation of the third portion of the physical environment, etc.) and gradually increasing virtual content corresponding to the second type of exercise (e.g., displaying the virtual content, increasing visibility of the virtual content, etc.) in areas of the third view of the three-dimensional environment where the representation of the third portion of the physical environment is gradually reduced. For example, in some embodiments, as the first user stands in front of and/or rides on the treadmill, the user's view of the physical environment (e.g., the hardware control panel of the treadmill, the wall in front of the user, other exercise machines in the same room, etc.) is gradually altered such that more and more of the representation of the physical environment gradually disappears and/or is replaced with virtual content corresponding to the treadmill exercise (e.g., scenery of a hiking trail, a virtual paved path around a virtual lake, etc.). Eventually, as the user begins to walk on the treadmill, the user's entire field of vision is filled with a virtual landscape of a mountain trail or lakefront. In some embodiments, the virtual content is a virtual three-dimensional environment, and the user can view different parts of the virtual three-dimensional environment by turning or tilting their head while walking on the treadmill.

物理的環境の第2の部分の第2の表現を徐々に低減し、物理的環境の第2の部分の第2の表現が徐々に低減された三次元環境の第2のビューの領域において第1のタイプのエクササイズに対応する仮想コンテンツのプロミネンスを徐々に増加させることは、改善された視覚的フィードバック(例えば、コンピュータシステムが物理的環境内の第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したという改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Gradually reducing the second representation of the second portion of the physical environment and gradually increasing the prominence of the virtual content corresponding to the first type of exercise in an area of the second view of the three-dimensional environment in which the second representation of the second portion of the physical environment is gradually reduced provides the user with improved visual feedback (e.g., improved visual feedback that the computer system has detected the first user's movement from a first location to a second location in the physical environment). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1の基準は、第1の基準が満たされるために、第1のユーザの第1のロケーションから第2のロケーションへの移動の後、第1のタイプのエクササイズに対応する第1の所定の移動(例えば、図7Oのオブジェクト7404に座る、図7Pのオブジェクト7402を踏む)(例えば、特徴的な動作を開始する(例えば、トレッドミル上で歩き始める、階段ステッパーを踏む、楕円上で脚を前後に動かす、又はローイングマシンでローイングを開始するなど))、第1のタイプのエクササイズに対応するエクササイズ器具に踏む/座る(例えば、ローイングマシン又はウェイトトレーニングマシンに座るなど)、第1のタイプのエクササイズに対応する準備姿勢になる(例えば、仮想テニスボールを打つ準備姿勢で立つ、瞑想又はヨガを始めるために床に座るなど)など)が続く第3の要件を含む。いくつかの実施形態では、第2の基準は、第1のロケーションから第2のロケーションへの第1のユーザの移動の後、第2のタイプのエクササイズに対応する第2の所定の移動が続くという第4の要件を含み、第2の所定の移動は、第1のタイプの移動とは異なる。いくつかの実施形態では、第2の所定の移動は、第1の所定の移動と同じである。例えば、キックボクシング用の仮想環境を開始するための所定の移動は、任意選択的に、ボクシング用の仮想環境を開始するための所定の移動要件と同じである。例えば、バレエ用の仮想環境を開始するための所定の移動は、任意選択的に、モダンダンス用の仮想環境を開始するための所定の移動要件とは異なる。いくつかの実施形態では、コンピュータシステムは、第1のユーザが第2のロケーションにおり、第2のロケーションが第1のタイプのエクササイズに対応するロケーションであっても、第1のタイプのエクササイズに対応する第1の所定の移動が検出されるまで、第1のタイプのエクササイズに対応する仮想コンテンツの表示を開始しない。いくつかの実施形態では、コンピュータシステムは、第1のユーザが第2のロケーションで検出され、第2のロケーションが第1のタイプのエクササイズに関連付けられたロケーションであるとき、第1のユーザが第1の所定の移動を提供して、第1のタイプのエクササイズに関連付けられた仮想コンテンツの表示をトリガするための視覚的プロンプトを表示する。 In some embodiments, the first criterion includes a third requirement that, for the first criterion to be met, the movement of the first user from the first location to the second location must be followed by a first predetermined movement (e.g., sitting on object 7404 in FIG. 7O, stepping on object 7402 in FIG. 7P) corresponding to a first type of exercise (e.g., initiating a characteristic motion (e.g., starting to walk on a treadmill, stepping on a stair stepper, moving legs back and forth on an elliptical, or starting rowing on a rowing machine, etc.)), stepping/sitting on exercise equipment corresponding to the first type of exercise (e.g., sitting on a rowing machine or weight training machine), assuming a ready position corresponding to the first type of exercise (e.g., standing in a ready position to hit a virtual tennis ball, sitting on the floor to begin meditation or yoga, etc.). In some embodiments, the second criteria includes a fourth requirement that the movement of the first user from the first location to the second location is followed by a second predefined movement corresponding to the second type of exercise, the second predefined movement being different from the first type of movement. In some embodiments, the second predefined movement is the same as the first predefined movement. For example, the predefined movement for initiating a virtual environment for kickboxing is optionally the same as the predefined movement requirement for initiating a virtual environment for boxing. For example, the predefined movement for initiating a virtual environment for ballet is optionally different from the predefined movement requirement for initiating a virtual environment for modern dance. In some embodiments, the computer system does not start displaying the virtual content corresponding to the first type of exercise until the first predefined movement corresponding to the first type of exercise is detected, even if the first user is at the second location and the second location is a location corresponding to the first type of exercise. In some embodiments, when the first user is detected at a second location, the computer system displays a visual prompt for the first user to provide a first predetermined movement to trigger the display of virtual content associated with the first type of exercise when the first user is detected at a second location, the second location being a location associated with the first type of exercise.

第2のロケーションへの移動が第1の基準であって、第1の基準は、第1のユーザの第1のロケーションから第2のロケーションへの移動の後に第1のタイプのエクササイズに対応する第1の所定の移動が続くという第3の要件を含む、第1の基準を満たすという判定に従って、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツを含む三次元環境の第2のビューを表示することは、追加の表示されたコントロール(例えば、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツを表示するための追加の表示されたコントロール、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツの表示を取りやめるための追加の表示されたコントロールなど)でUIを雑然とさせることなく、追加のコントロールオプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying a second view of the three-dimensional environment including a first set of virtual content corresponding to the first type of exercise pursuant to a determination that the movement to the second location satisfies the first criteria, the first criteria including a third requirement that the movement of the first user from the first location to the second location is followed by a first predetermined movement corresponding to the first type of exercise provides additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for displaying the first set of virtual content corresponding to the first type of exercise, additional displayed controls for ceasing to display the first set of virtual content corresponding to the first type of exercise, etc.). Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したことに応じて、かつ第2のロケーションへの移動が第1の基準及び第2の基準とは異なる第3の基準を満たし、第3の基準は、第3の基準が満たされるために、第2のロケーションが第1のタイプのエクササイズ及び第2のタイプのエクササイズとは異なる第3のタイプのエクササイズに関連付らたロケーションに対応するという要件を含み(例えば、第2のロケーションは、任意選択的に、第1のタイプのエクササイズ及び第3のタイプのエクササイズの両方に関連付けられる)、第1のロケーションから第2のロケーションへの第1のユーザの移動の後に、第3のタイプのエクササイズに対応する第3の所定の移動(例えば、特徴的な動作を開始すること(例えば、トレッドミル上で歩くことを開始すること、階段ステッパーを踏むこと、楕円上で脚を前後に動かすこと、又はローイングマシン上でローイングを開始することなど))、個別のタイプのエクササイズに対応するエクササイズ器具を踏む/座ること(例えば、ローイングマシンに座ること、ウェイトトレーニングマシンに座ることなど)、個別のタイプのエクササイズに対応する準備姿勢になること(例えば、仮想テニスボールを打つための準備姿勢で立つこと、瞑想又はヨガを始めるために床に座ることなど)が続き、第3の所定の移動が第1の所定の移動とは異なる、という判定に従って、コンピュータシステムは、三次元環境の第4のビュー(例えば、現在ロケーションに対応する第3の特定のコンピュータ生成体験に対応するより多くの仮想要素を有する拡張現実ビュー、現在ロケーションに対応する第3のコンピュータ生成体験のプレビュー又は開始を示す拡張現実ビュー、より高い没入レベルで表示される拡張現実ビューを表示する(例えば、全体でユーザの視野の相当割合(例えば、60%超、90%超など)を占有する、又は三次元仮想又は拡張現実環境などに表示される第3の特定のアプリケーション体験の一部であるユーザインタフェースオブジェクト(例えば、仮想ハイキングコース、仮想風景、スコアボード、エクササイズ統計、エクササイズパラメータの変更コントロールなど)を表示する)。三次元環境の第4のビューは、第3のタイプのエクササイズに対応する第3のセットの仮想コンテンツ(例えば、トレッドミルエクササイズプログラムのハイキングコース風景、ローイングマシンエクササイズの湖シーン、キックボクシングのアリーナ、クライミングウォールエクササイズの仮想崖側面、仮想テニスゲームの仮想テニスコート、及び/又は第3のタイプのエクササイズのユーザインタフェースコントロール、スコア、統計など)を含む。第3のセットの仮想コンテンツは、第1のセットの仮想コンテンツ及び第2のセットの仮想コンテンツとは異なり、第3のセットの仮想コンテンツは、物理的環境の第2の部分の第2の表現の少なくとも一部を置換する(例えば、第2のロケーションは、第1のタイプのエクササイズ及び第3のタイプのエクササイズの両方に対応し、第1のセットの仮想コンテンツ又は第3のセットの仮想コンテンツが表示されるかどうかは、第1のユーザが第2のロケーションにいる間に第1の所定の移動又は第3の所定の移動が検出されるかどうかに依存する)。 In some embodiments, in response to detecting movement of the first user from a first location to a second location, and the movement to the second location satisfies a third criterion distinct from the first criterion and the second criterion, the third criterion including a requirement that, for the third criterion to be satisfied, the second location corresponds to a location associated with a third type of exercise distinct from the first type of exercise and the second type of exercise (e.g., the second location is optionally associated with both the first type of exercise and the third type of exercise), and After the first user movement, a third predefined movement corresponding to a third type of exercise (e.g., starting a characteristic motion (e.g., starting walking on a treadmill, stepping on a stair stepper, moving legs back and forth on an elliptical, or starting rowing on a rowing machine, etc.)), stepping/sitting on exercise equipment corresponding to the respective type of exercise (e.g., sitting on a rowing machine, sitting on a weight training machine, etc.), assuming a readiness position corresponding to the respective type of exercise (e.g., standing in a readiness position to hit a virtual tennis ball, sitting on the floor to begin meditation or yoga, etc.), pursuant to a determination that the third pre-defined movement is different from the first pre-defined movement, the computer system displays a fourth view of the three dimensional environment (e.g., an augmented reality view having more virtual elements corresponding to a third particular computer-generated experience corresponding to the current location, an augmented reality view showing a preview or start of the third computer-generated experience corresponding to the current location, an augmented reality view displayed at a higher immersion level (e.g., occupying a substantial percentage of the user's field of view (e.g., more than 60%, more than 90%, etc.) in total or displaying user interface objects that are part of a third particular application experience displayed in the three dimensional virtual or augmented reality environment, etc. (e.g., virtual hiking trails, virtual scenery, scoreboard, exercise statistics, controls to change exercise parameters, etc.)). The fourth view of the three dimensional environment includes a third set of virtual content corresponding to the third type of exercise (e.g., hiking trail scenery for a treadmill exercise program, a lake scene for a rowing machine exercise, an arena for a kickboxing program, a virtual cliff side for a climbing wall exercise, a virtual tennis court for a virtual tennis game, and/or user interface controls, scores, statistics for the third type of exercise, etc.). The third set of virtual content is distinct from the first set of virtual content and the second set of virtual content, and the third set of virtual content replaces at least a portion of the second representation of the second portion of the physical environment (e.g., the second location corresponds to both the first type of exercise and the third type of exercise, and whether the first set of virtual content or the third set of virtual content is displayed depends on whether the first predetermined movement or the third predetermined movement is detected while the first user is at the second location).

第2のロケーションへの移動が第1の基準及び第2の基準とは異なる第3の基準を満たし、第2のロケーションが第1のタイプのエクササイズ及び第2のタイプのエクササイズとは異なる第3のタイプのエクササイズに関連付らたロケーションに対応すること、及び第1のロケーションから第2のロケーションへの第1のユーザの移動の後に第3のタイプのエクササイズに対応する第1の所定の移動とは異なる第3の所定の移動が続くことを必要とするという判定に従って、第3のタイプのエクササイズに対応する第1のセットの仮想コンテンツ及び第2のセットの仮想コンテンツとは異なる第3のセットの仮想コンテンツを含む三次元環境の第4のビューを表示することは、追加の表示されるコントロール(例えば、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツを表示するための追加の表示されるコントロール、第3のタイプのエクササイズに対応する第3のセットの仮想コンテンツを表示するための追加の表示されるコントロールなど)でUIを雑然とさせることなく、追加の制御オプションを提供する。追加の表示されるコントロールでUIを雑然とさせることなく追加の制御オプションを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying a fourth view of the three-dimensional environment including the first set of virtual content corresponding to the third type of exercise and the third set of virtual content corresponding to the third type of exercise, different from the second set of virtual content, according to a determination that the movement to the second location satisfies a third criterion different from the first criterion and the second criterion, the second location corresponds to a location associated with the first type of exercise and the third type of exercise, different from the second type of exercise, and the first user's movement from the first location to the second location requires a third predefined movement different from the first predefined movement corresponding to the third type of exercise, provides additional control options without cluttering the UI with additional displayed controls (e.g., additional displayed controls for displaying the first set of virtual content corresponding to the first type of exercise, additional displayed controls for displaying the third set of virtual content corresponding to the third type of exercise, etc.). Providing additional control options without cluttering the UI with additional displayed controls improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、コンピュータシステムは、第2のロケーションに関連付けられた個別のタイプのエクササイズ(例えば、第1のタイプのエクササイズ、第2のタイプのエクササイズ、第3のタイプのエクササイズなど)に対応する所定の移動の進行又は持続時間のうちの少なくとも1つに従って、第1のユーザの視野内(例えば、図7O(B)及び7P(B)などに示されるビュー内)に表示される仮想コンテンツの量を徐々に増加させる。例えば、いくつかの実施形態では、現実世界のビューは徐々に消え、及び/又は表示が停止され、個別のタイプのエクササイズに対応する仮想コンテンツによって徐々に置換される。いくつかの実施形態では、コンピュータシステムは、個別のタイプのエクササイズに対応する個別の仮想環境が第1の表示生成コンポーネントを介して完全に表示されるまで(例えば、三次元環境の第2のビューが第1のタイプのエクササイズに対応する仮想環境を含み、三次元環境の第3のビューが第2のタイプのエクササイズに対応する仮想環境を含むなど)、第1のユーザの視野内に表示される仮想コンテンツの量を徐々に増加させる。例えば、いくつかの実施形態では、開放ジムがヨガとダンスの両方に関連付けられたロケーションであるとき、第1のユーザが開放ジムに到着した後、第1のユーザがナマステポーズで座る場合、コンピュータシステムは、ユーザが仮想ビーチ上でヨガを練習するために、海洋音を伴う仮想海洋ビューを表示し、第1のユーザがダンサーのポーズで立つ場合、コンピュータシステムは、第1のユーザがダンスを練習するために、ダンス音楽を伴う仮想ステージを表示する。 In some embodiments, the computer system gradually increases the amount of virtual content displayed in the first user's field of view (e.g., in the views shown in Figures 7O(B) and 7P(B), etc.) according to at least one of the progression or duration of a predetermined movement corresponding to a distinct type of exercise (e.g., a first type of exercise, a second type of exercise, a third type of exercise, etc.) associated with the second location. For example, in some embodiments, the view of the real world gradually disappears and/or ceases to be displayed and is gradually replaced by the virtual content corresponding to the distinct type of exercise. In some embodiments, the computer system gradually increases the amount of virtual content displayed in the first user's field of view until a distinct virtual environment corresponding to the distinct type of exercise is fully displayed via the first display generation component (e.g., the second view of the three-dimensional environment includes a virtual environment corresponding to the first type of exercise, the third view of the three-dimensional environment includes a virtual environment corresponding to the second type of exercise, etc.). For example, in some embodiments, when the open gym is a location associated with both yoga and dance, after the first user arrives at the open gym, if the first user sits in a namaste pose, the computer system displays a virtual ocean view with ocean sounds for the user to practice yoga on a virtual beach, and if the first user stands in a dancer's pose, the computer system displays a virtual stage with dance music for the first user to practice dance.

第2のロケーションに関連付けられた個別のタイプのエクササイズに対応する所定の移動の進行又は持続時間のうちの少なくとも1つに従って、第1のユーザの視野内に表示される仮想コンテンツの量を徐々に増加させることは、改善された視覚的フィードバック(例えば、第2のロケーションに関連付けられた個別のタイプのエクササイズに対応する所定の移動の進行又は持続時間に関する改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Gradually increasing the amount of virtual content displayed within the field of view of the first user according to at least one of the progress or duration of a predetermined movement corresponding to a distinct type of exercise associated with the second location provides the user with improved visual feedback (e.g., improved visual feedback regarding the progress or duration of a predetermined movement corresponding to a distinct type of exercise associated with the second location). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第2のロケーションに関連付けられた個別のタイプのエクササイズ(例えば、第1のタイプのエクササイズ、第2のタイプのエクササイズ、第3のタイプのエクササイズなど)に対応する三次元環境の個別のビュー(例えば、拡張現実ビュー、仮想現実ビューなど)を表示している間、コンピュータシステムは、第2のロケーションに関連付けられた個別のタイプのエクササイズを終了させる要求に対応する第1のユーザの移動を検出する(例えば、第1のユーザが個別のタイプのエクササイズを中止すること、立ち上がること、l器具から降りること、HMDを外すこと、及び/又は第2のロケーションから歩き去ることなどを検出する)。第2のロケーションに関連付けられた個別のタイプのエクササイズを終了させる要求に対応する第1のユーザの移動を検出したことに応じて、コンピュータシステムは、物理的環境の少なくとも第4の部分の表現を含む三次元環境の第5のビューを検出し、物理的環境の少なくとも第4の部分の表現は、第1のユーザが第2のロケーションにいる間に個別のタイプのエクササイズに対応する個別のセットの仮想コンテンツが表示されていた第1のユーザの視野の一部を占有する。例えば、現在のエクササイズを終了させる要求に対応する第1のユーザの移動が検出されると、現在のエクササイズに対応する仮想シーンは表示が停止され(例えば、次第に消えたり、すぐに表示が停止されるなど)、物理的環境の表現を再び見えるようにする。いくつかの実施形態では、ユーザ7002がオブジェクト7404から離れて移動し、シーン105内のオブジェクト7402に到達していないとき、図7O及び7Pのビュー7408もビュー7410も表示されず、図7Nに示されるような物理的環境の表現が表示される。 In some embodiments, while displaying a separate view (e.g., an augmented reality view, a virtual reality view, etc.) of the three-dimensional environment corresponding to a separate type of exercise (e.g., a first type of exercise, a second type of exercise, a third type of exercise, etc.) associated with the second location, the computer system detects a movement of the first user corresponding to a request to end the separate type of exercise associated with the second location (e.g., detecting the first user ceasing the separate type of exercise, standing up, stepping off the equipment, removing the HMD, and/or walking away from the second location, etc.). In response to detecting the first user's movement corresponding to the request to end the separate type of exercise associated with the second location, the computer system detects a fifth view of the three-dimensional environment including a representation of at least a fourth portion of the physical environment, the representation of at least the fourth portion of the physical environment occupying a portion of the first user's field of view in which the separate set of virtual content corresponding to the separate type of exercise was displayed while the first user was at the second location. For example, when a first user movement corresponding to a request to end the current exercise is detected, the virtual scene corresponding to the current exercise is stopped from being displayed (e.g., faded away, stopped quickly, etc.) and the representation of the physical environment is made visible again. In some embodiments, when the user 7002 moves away from the object 7404 and does not reach the object 7402 in the scene 105, neither the view 7408 nor the view 7410 of Figures 7O and 7P are displayed, and the representation of the physical environment as shown in Figure 7N is displayed.

物理的環境の少なくとも第4の部分の表現であって、物理的環境の少なくとも第4の部分の表現は、第1のユーザが第2のロケーションにいる間に個別のタイプのエクササイズに対応する個別のセットの仮想コンテンツが表示されていた第1のユーザの視野の一部を占有する、第4の部分の表現を含む三次元環境の第5のビューを表示することは、第2のロケーションに関連付けられた個別のタイプのエクササイズを終了させる要求に対応する第1のユーザの移動を検出したことに応じて、更なるユーザ入力(例えば、三次元環境の第5のビューを表示するための更なるユーザ入力)を必要とせずに、条件のセットが満たされたときに三次元環境の第5のビューを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying a fifth view of the three-dimensional environment including a representation of at least a fourth portion of the physical environment, the representation of the fourth portion occupying a portion of the first user's field of view in which a respective set of virtual content corresponding to a respective type of exercise was displayed while the first user was at the second location, displays the fifth view of the three-dimensional environment when a set of conditions are met without requiring further user input (e.g., further user input to display the fifth view of the three-dimensional environment) in response to detecting a movement of the first user corresponding to a request to end the respective type of exercise associated with the second location. Performing an action when a set of conditions are met without requiring further user input improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、コンピュータシステムは、三次元環境の第2のビュー(例えば、図7Oのビュー7408、図7Pのビュー7410、別のビューなど)が表示されるときに、第1のタイプのエクササイズに対応するステータス情報(例えば、現在のセッション中の進行、持続時間、速度、力、身長、ペース、ストライド長、パフォーマンスレベル、スコア、完了した反復回数など、過去の統計、第1のユーザ及び/又は複数のユーザにわたる平均統計、同じタイプのエクササイズを行っている他のユーザのステータスなど)を表示する。いくつかの実施形態では、第1のタイプのエクササイズに対応するステータス情報は、第1のタイプのエクササイズに対応する仮想シーンの一部に重ね合わされる。いくつかの実施形態では、ステータス情報は、第1のタイプのエクササイズに対応する仮想シーンがステータス情報なしで表示されている間に検出される第1のユーザの要求に応じて表示される。いくつかの実施形態では、三次元環境の第2のビューは、第1のユーザによる第1のタイプのエクササイズの実行全体にわたって次第に進展する。いくつかの実施形態では、ステータス情報は、第1のユーザによる第1のタイプのエクササイズの実行全体を通じて連続的に更新される(例えば、三次元環境の変化する第2のビューに重ね合わされる)。いくつかの実施形態では、ステータス情報は、1つ以上の性能パラメータの値が予め設定された閾値を満たした(例えば、目標速度又は距離が達成された、閾値スコアに達したなど)ことの検出に応じて表示される。 In some embodiments, the computer system displays status information corresponding to the first type of exercise (e.g., progress during the current session, duration, speed, force, height, pace, stride length, performance level, score, number of repetitions completed, etc., historical statistics, average statistics for the first user and/or across multiple users, status of other users performing the same type of exercise, etc.) when the second view of the three-dimensional environment is displayed (e.g., view 7408 of FIG. 7O, view 7410 of FIG. 7P, another view, etc.). In some embodiments, the status information corresponding to the first type of exercise is superimposed on a portion of the virtual scene corresponding to the first type of exercise. In some embodiments, the status information is displayed in response to a request of the first user that is detected while the virtual scene corresponding to the first type of exercise is displayed without the status information. In some embodiments, the second view of the three-dimensional environment evolves progressively throughout the first user's performance of the first type of exercise. In some embodiments, the status information is continuously updated (e.g., superimposed on a changing second view of the three-dimensional environment) throughout the first user's performance of the first type of exercise. In some embodiments, the status information is displayed in response to detecting that the value of one or more performance parameters meets a pre-defined threshold (e.g., a target speed or distance is achieved, a threshold score is reached, etc.).

三次元環境の第2のビューが表示されるときに第1のタイプのエクササイズに対応するステータス情報を表示することは、改善された視覚的フィードバック(例えば、第1のタイプのエクササイズに関する改善された視覚的フィードバック、第2のポジションへのユーザの移動が第1の基準を満たすという改善された視覚的フィードバック、コンピュータシステムが三次元環境の第2のビューを表示しているという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。いくつかの実施形態では、コンピュータシステムは、三次元環境の第2のビュー(例えば、図7Oのビュー7408、図7Pのビュー7410、別のビューなど)が表示されるとき、第1のユーザに対応する健康情報(例えば、リアルタイムバイオメトリックデータ(例えば、心拍数、血圧、呼吸数、体温、血糖値など)、体重、BMIなど)を表示する。いくつかの実施形態では、第1のユーザに対応する健康情報は、第1のタイプのエクササイズに対応する仮想シーンの一部に重ね合わされる。いくつかの実施形態では、健康情報は、第1のタイプのエクササイズに対応する仮想シーンが健康情報なしで表示されている間に検出される第1のユーザの要求に応じて表示される。いくつかの実施形態では、三次元環境の第2のビューは、第1のユーザによる第1のタイプのエクササイズの実行全体にわたって次第に進展する。いくつかの実施形態では、健康情報は、第1のユーザによる第1のタイプのエクササイズの実行全体を通じて連続的に更新される(例えば、三次元環境の変化する第2のビューに重ね合わされる)。いくつかの実施形態では、健康情報は、1つ以上の健康パラメータの値が予め設定された閾値を満たした(例えば、目標心拍数が達成された、閾値血圧に達したなど)ことの検出に応じて表示される。 Displaying the status information corresponding to the first type of exercise when the second view of the three-dimensional environment is displayed provides the user with improved visual feedback (e.g., improved visual feedback regarding the first type of exercise, improved visual feedback that the user's movement to the second position meets the first criterion, improved visual feedback that the computer system is displaying the second view of the three-dimensional environment, etc.). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently. In some embodiments, the computer system displays health information corresponding to the first user (e.g., real-time biometric data (e.g., heart rate, blood pressure, respiratory rate, body temperature, blood glucose level, etc.), weight, BMI, etc.) when the second view of the three-dimensional environment (e.g., view 7408 of FIG. 7O, view 7410 of FIG. 7P, another view, etc.) is displayed. In some embodiments, the health information corresponding to the first user is overlaid on a portion of the virtual scene corresponding to the first type of exercise. In some embodiments, the health information is displayed in response to a request of the first user that is detected while the virtual scene corresponding to the first type of exercise is displayed without the health information. In some embodiments, the second view of the three-dimensional environment evolves progressively throughout the first user's performance of the first type of exercise. In some embodiments, the health information is continuously updated (e.g., superimposed on the changing second view of the three-dimensional environment) throughout the first user's performance of the first type of exercise. In some embodiments, the health information is displayed in response to detecting that the value of one or more health parameters meets a preset threshold (e.g., a target heart rate is achieved, a threshold blood pressure is reached, etc.).

三次元環境の第2のビューが表示されるときに第1のユーザに対応する健康情報を表示することは、改善された視覚的フィードバック(例えば、第1のタイプのエクササイズに関する改善された視覚的フィードバック、第2のポジションへのユーザの移動が第1の基準を満たすという改善された視覚的フィードバック、コンピュータシステムが三次元環境の第2のビューを表示しているという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying health information corresponding to the first user when the second view of the three-dimensional environment is displayed provides the user with improved visual feedback (e.g., improved visual feedback regarding the first type of exercise, improved visual feedback that the user's movement to the second position meets the first criterion, improved visual feedback that the computer system is displaying the second view of the three-dimensional environment, etc.). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、コンピュータシステムは、三次元環境の第2のビュー(例えば、図7Oのビュー7408、図7Pのビュー7410、別のビューなど)が表示されるときに、第1のユーザによって行われた第1のタイプのエクササイズの進行情報(例えば、リアルタイムスコア、完了したラップ、残りのラップ、持続時間、歩数、移動距離、完了したポーズなど)を視覚的に提示する。いくつかの実施形態では、進行情報は、第1のユーザに提示される仮想シーンに生じる視覚的変化によって視覚的に表される(例えば、仮想ハイキングコース上の仮想里程標、下りポジションに示される仮想シューティングターゲットの数、仮想ゲーム場の一部としてのスコアボード、達成される深い瞑想度を表す仮想湖上の水の静止など)。いくつかの実施形態では、第1のユーザによる第1のタイプのエクササイズの実行に対応する進行情報は、第1のタイプのエクササイズに対応する仮想シーンの一部に重ねられる。いくつかの実施形態では、進行情報は、第1のタイプのエクササイズに対応する仮想シーンが進行情報なしで表示されている間に検出される第1のユーザの要求に応じて表示される。いくつかの実施形態では、三次元環境の第2のビューは、第1のユーザによる第1のタイプのエクササイズの実行全体にわたって次第に進展する。いくつかの実施形態では、進行情報は、第1のユーザによる第1のタイプのエクササイズの実行全体にわたって連続的に更新される(例えば、三次元環境の変化する第2のビューに重ね合わされる)。いくつかの実施形態において、進行情報は、1つ以上の進行パラメータの値が予め設定された閾値を満たした(例えば、目標距離が達成された、閾値スコアに達した、エクササイズルーチンが完了したなど)ことの検出に応じて表示される。 In some embodiments, the computer system visually presents progress information (e.g., real-time score, laps completed, laps remaining, duration, number of steps, distance traveled, completed poses, etc.) of the first type of exercise performed by the first user when a second view of the three-dimensional environment (e.g., view 7408 of FIG. 7O, view 7410 of FIG. 7P, another view, etc.) is displayed. In some embodiments, the progress information is visually represented by visual changes occurring in the virtual scene presented to the first user (e.g., virtual milestones on a virtual hiking trail, a number of virtual shooting targets shown in a descending position, a leaderboard as part of a virtual game arena, still water on a virtual lake representing a degree of deep meditation achieved, etc.). In some embodiments, the progress information corresponding to the performance of the first type of exercise by the first user is overlaid on a portion of the virtual scene corresponding to the first type of exercise. In some embodiments, the progress information is displayed in response to a request of the first user that is detected while the virtual scene corresponding to the first type of exercise is displayed without the progress information. In some embodiments, the second view of the three-dimensional environment evolves progressively throughout the first user's performance of the first type of exercise. In some embodiments, the progress information is continuously updated (e.g., superimposed on the changing second view of the three-dimensional environment) throughout the first user's performance of the first type of exercise. In some embodiments, the progress information is displayed in response to detecting that the value of one or more progress parameters meets a pre-set threshold (e.g., a target distance is achieved, a threshold score is reached, an exercise routine is completed, etc.).

三次元環境の第2のビューが表示されるときに第1のユーザによって実行される第1のタイプのエクササイズの進行情報を視覚的に提示することは、改善された視覚的フィードバック(例えば、第1のタイプのエクササイズの進行情報に関連する改善された視覚的フィードバック)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Visually presenting progress information of a first type of exercise performed by a first user when a second view of the three-dimensional environment is displayed provides the user with improved visual feedback (e.g., improved visual feedback related to the progress information of the first type of exercise). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のユーザが物理的環境内で第1の方向を向いているという判定に従って、コンピュータシステムは、第1のセットの仮想コンテンツの第2のサブセットを表示することなく、エクササイズの第1のタイプに対応する第1のセットの仮想コンテンツの第1のサブセットを表示し、第1のユーザが物理的環境内で第1の方向と異なる第2の方向(例えば、第1の方向と反対の方向、第1の方向から0でない角度など)を向いているという判定に従って、コンピュータシステムは、第1のセットの仮想コンテンツの第2のサブセットを表示することなく、エクササイズの第1のタイプに対応する第1のセットの仮想コンテンツの第2のサブセット(例えば、図7Oのビュー7408に示されていない仮想開放水域7406、図7Pのビュー7410に示されていない仮想マウンテントレイル7412など)を表示する。例えば、いくつかの実施形態では、三次元環境の第2のビューは、第1のユーザの全周囲の方向に仮想オブジェクトを伴う没入型ビューである(例えば、ユーザの視野よりも広い角度に及ぶため、ユーザが自分の頭を回したとき、仮想環境の様々な部分が見える)。いくつかの実施形態では、コンピュータシステムは、サラウンドサウンドモードなどの没入型音声出力モード、又は仮想環境内の音生成仮想オブジェクト(例えば、応援する群衆、海の波、仮想コーチなど)に対応するポジションに局所化された音を提供する空間音声モードを使用して音響効果を出力する。 In some embodiments, in accordance with a determination that the first user is facing a first direction in the physical environment, the computer system displays a first subset of the first set of virtual content corresponding to the first type of exercise without displaying a second subset of the first set of virtual content, and in accordance with a determination that the first user is facing a second direction in the physical environment that is different from the first direction (e.g., a direction opposite to the first direction, a non-zero angle from the first direction, etc.), the computer system displays a second subset of the first set of virtual content corresponding to the first type of exercise without displaying the second subset of the first set of virtual content (e.g., a virtual open water body 7406 not shown in view 7408 of FIG. 7O, a virtual mountain trail 7412 not shown in view 7410 of FIG. 7P, etc.). For example, in some embodiments, the second view of the three-dimensional environment is an immersive view with virtual objects in a direction all around the first user (e.g., spanning an angle wider than the user's field of view so that different parts of the virtual environment are visible when the user turns his or her head). In some embodiments, the computer system outputs sound effects using an immersive audio output mode, such as a surround sound mode, or a spatial audio mode that provides localized sound to positions corresponding to sound-generating virtual objects in the virtual environment (e.g., a cheering crowd, ocean waves, a virtual coach, etc.).

第1のユーザが物理的環境内で第1の方向を向いているという判定に従って、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツの第1のサブセットを、第1のセットの仮想コンテンツの第2のサブセットを表示せずに表示し、第1のユーザが物理的環境内で第1の方向とは異なる第2の方向であるという判定に従って、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツの第2のサブセットを、第1のセットの仮想コンテンツの第2のサブセットを表示せずに表示することは、更なるユーザ入力(例えば、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツをナビゲートするための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、第1のタイプのエクササイズに対応する第1のセットの仮想コンテンツの適切なサブセットを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 Displaying a first subset of the first set of virtual content corresponding to a first type of exercise without displaying a second subset of the first set of virtual content in accordance with a determination that the first user is oriented in a first direction in the physical environment, and displaying a second subset of the first set of virtual content corresponding to the first type of exercise without displaying the second subset of the first set of virtual content in accordance with a determination that the first user is in a second direction in the physical environment different from the first direction displays an appropriate subset of the first set of virtual content corresponding to the first type of exercise when a set of conditions is met without requiring further user input (e.g., further user input to navigate the first set of virtual content corresponding to the first type of exercise). Performing an action when a set of conditions is met without requiring further user input improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing a user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のタイプのエクササイズは、ローイングエクササイズであり、第2のロケーションは、ローイングエクササイズ器具(例えば、オブジェクト7404、他のローイング器具など)が存在するロケーションであり、三次元環境の第2のビュー(例えば、図7Oのビュー7408)は、開放水域を有する仮想シーン(例えば、図7Oの仮想開放水域7406)を含む。いくつかの実施形態では、第1の基準は更に、第1の基準が満たされるために、(例えば、図7O(A)に示されるように)第1のユーザがローイングエクササイズ器具に座り、彼/彼女の手をローイングエクササイズ器具のオール上に置くという要件を含む。いくつかの実施形態では、第2のタイプのエクササイズはウォーキングエクササイズであり、第2のロケーションは、トレッドミル(例えば、オブジェクト7402、又は他のウォーキング器具など)を伴うロケーションであり、三次元環境の第3のビュー(例えば、図7Pのビュー7410)は、屋外ウォーキング路(例えば、図7Pの仮想コース7412)(例えば、ハイキングコース、湖岸路、都市街路など)を示す仮想シーンを含む。いくつかの実施形態では、第2の基準は、第1のユーザがトレッドミルに乗り、少なくとも1歩進むという要件を更に含む。第1のタイプのエクササイズがローイングエクササイズであり、第2のロケーションがローイングエクササイズ器具が存在するロケーションである、開放水域を有する仮想シーンを含む三次元環境の第2のビューを表示することは、改善された視覚的フィードバック(例えば、第1のタイプのエクササイズがローイングエクササイズであるという改善された視覚的フィードバック、ローイングエクササイズ器具が第2のロケーションに存在するという改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the first type of exercise is a rowing exercise, the second location is a location where a rowing exercise apparatus (e.g., object 7404, other rowing apparatus, etc.) is present, and the second view of the three-dimensional environment (e.g., view 7408 of FIG. 7O) includes a virtual scene having an open body of water (e.g., virtual open body of water 7406 of FIG. 7O). In some embodiments, the first criterion further includes a requirement that the first user be seated at the rowing exercise apparatus and place his/her hands on the oars of the rowing exercise apparatus (e.g., as shown in FIG. 7O(A)) for the first criterion to be met. In some embodiments, the second type of exercise is a walking exercise, the second location is a location involving a treadmill (e.g., object 7402, or other walking equipment, etc.), and the third view of the three-dimensional environment (e.g., view 7410 of FIG. 7P ) includes a virtual scene showing an outdoor walking path (e.g., virtual course 7412 of FIG. 7P ) (e.g., a hiking trail, a lakefront path, a city street, etc.). In some embodiments, the second criterion further includes a requirement that the first user gets on the treadmill and takes at least one step. Displaying the second view of the three-dimensional environment including a virtual scene having an open body of water, where the first type of exercise is a rowing exercise and the second location is a location where a rowing exercise equipment is present, provides the user with improved visual feedback (e.g., improved visual feedback that the first type of exercise is a rowing exercise, improved visual feedback that a rowing exercise equipment is present at the second location, etc.). Providing improved feedback improves the usability of the device, as well as reducing power usage and improving the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、第1のロケーションから第2のロケーションへの第1のユーザ(例えば、図7O~図7Pの7002)の移動を検出したことに応じて、第2のロケーションが第5のタイプのエクササイズ及び第6のタイプのエクササイズに関連付けられたロケーションに対応するという判定に従って、かつ第1のロケーションから第2のロケーションへの第1のユーザの移動の後、第2のロケーションにおける第1のユーザによる第5のタイプのエクササイズに関連付けられた個別のタイプの器具との関与が続くという判定に従って、コンピュータシステムは、三次元環境の第6のビューを表示し、三次元環境の第6のビューは、第5のタイプのエクササイズ(例えば、バレーボール、テニス、楕円形マシンなど)に対応する第5のセットの仮想コンテンツを含み、第5のセットの仮想コンテンツは、第1のセットの仮想コンテンツ及び第2のセットの仮想コンテンツとは異なり、第5のセットの仮想コンテンツは、物理的環境の第5の部分の第5の表現の少なくとも一部を置換する。いくつかの実施形態では、第1のロケーションから第2のロケーションへの第1のユーザの移動を検出したことに応じて、第1のロケーションから第2のロケーションへの第1のユーザの移動の後、第2のロケーションにおける第1のユーザによる第6のタイプのエクササイズに関連付けられた個別のタイプの器具との関与が続くという判定に従って、コンピュータシステムは、三次元環境の第7のビューを表示し、三次元環境の第7のビューは、第6のタイプのエクササイズ(例えば、バスケットボール、フェンシング、エクササイズバイクなど)に対応する第6のセットの仮想コンテンツを含み、第6のセットの仮想コンテンツは、第1のセットの仮想コンテンツ、第2のセットの仮想コンテンツ、及び第5のセットの仮想コンテンツとは異なり、第6のセットの仮想コンテンツは、物理的環境の第5の部分の第5の表現の少なくとも一部を置換する(例えば、物理的環境の第5の部分は、第5のタイプのエクササイズ及び第6のタイプのエクササイズの両方に関連付けられる)。これは図7O及び図7Pに示されており、いくつかの実施形態によれば、ユーザ7002が、第1のタイプのエクササイズ(例えば、ローイング、ボート漕ぎなど)に対応するオブジェクト7404を含む1つのロケーションから、第2のタイプのエクササイズ(例えば、ハイキング、ウォーキングなど)に対応するオブジェクト7402を含む別のロケーションに移動するとき、ビュー7408内の仮想コンテンツ(例えば、仮想開放水域7406、又は他の仮想コンテンツなど)は、ビュー7410内の仮想コンテンツ(例えば、ハイキングコース7412、又は他の仮想コンテンツなど)に置換される。 In some embodiments, in response to detecting movement of a first user (e.g., 7002 in Figures 7O-7P) from a first location to a second location, in accordance with a determination that the second location corresponds to a location associated with a fifth type of exercise and a sixth type of exercise, and in accordance with a determination that the movement of the first user from the first location to the second location is followed by engagement by the first user at the second location with a respective type of equipment associated with the fifth type of exercise, the computer system displays a sixth view of the three-dimensional environment, the sixth view of the three-dimensional environment including a fifth set of virtual content corresponding to the fifth type of exercise (e.g., volleyball, tennis, elliptical machine, etc.), the fifth set of virtual content being different from the first set of virtual content and the second set of virtual content, and the fifth set of virtual content replacing at least a portion of a fifth representation of a fifth portion of the physical environment. In some embodiments, in response to detecting movement of the first user from the first location to the second location and in accordance with a determination that the movement of the first user from the first location to the second location is followed by engagement by the first user at the second location with a particular type of equipment associated with a sixth type of exercise, the computer system displays a seventh view of the three-dimensional environment, the seventh view of the three-dimensional environment including a sixth set of virtual content corresponding to a sixth type of exercise (e.g., basketball, fencing, exercise bike, etc.), the sixth set of virtual content being distinct from the first set of virtual content, the second set of virtual content, and the fifth set of virtual content, and the sixth set of virtual content replacing at least a portion of the fifth representation of the fifth portion of the physical environment (e.g., the fifth portion of the physical environment is associated with both the fifth type of exercise and the sixth type of exercise). This is illustrated in FIGS. 7O and 7P, where, according to some embodiments, when a user 7002 moves from one location that includes an object 7404 corresponding to a first type of exercise (e.g., rowing, boating, etc.) to another location that includes an object 7402 corresponding to a second type of exercise (e.g., hiking, walking, etc.), the virtual content in view 7408 (e.g., a virtual open water body 7406, or other virtual content, etc.) is replaced with virtual content in view 7410 (e.g., a hiking trail 7412, or other virtual content, etc.).

三次元環境の第6のビューであって、三次元環境の第6のビューは、第1のロケーションから第2のロケーションへの第1のユーザの移動の後に、第2のロケーションにおける第1のユーザによる第5のタイプのエクササイズに関連付けられた個別のタイプの器具との関与が続くという判定に従って、第5のタイプのエクササイズに対応する第5のセットの仮想コンテンツを含む、三次元環境の第6のビューが表示されることと、三次元環境の第7のビューであって、三次元環境の第7のビューは、第1のロケーションから第2のロケーションへの第1のユーザの移動の後に、第2のロケーションにおける第1のユーザによる第6のタイプのエクササイズに関連付けられた個別のタイプの器具との関与が続くという判定に従って、第6のタイプのエクササイズに対応する第6のセットの仮想コンテンツを含む、三次元環境の第7のビューが表示されることとは、更なるユーザ入力(例えば、三次元環境のビュー及び/又は個別のタイプのエクササイズに対応する仮想コンテンツのセットを選択又はナビゲートするための更なるユーザ入力)を必要とすることなく、条件のセットが満たされたときに、それぞれのタイプのエクササイズに対応する仮想コンテンツの個別のセットを有する三次元環境の適切なビューを表示する。更なるユーザ入力を必要とすることなく条件のセットが満たされたときに動作を実行することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 A sixth view of the three-dimensional environment is displayed in accordance with a determination that movement of the first user from the first location to the second location is followed by engagement by the first user at the second location with a respective type of equipment associated with the fifth type of exercise, the sixth view of the three-dimensional environment including a fifth set of virtual content corresponding to the fifth type of exercise; and a seventh view of the three-dimensional environment is displayed in accordance with a determination that movement of the first user from the first location to the second location is followed by engagement by the first user at the second location with a respective type of equipment associated with the sixth type of exercise, the seventh view of the three-dimensional environment including a sixth set of virtual content corresponding to the sixth type of exercise, the seventh view of the three-dimensional environment being displayed in accordance with a determination that movement of the first user from the first location to the second location is followed by engagement by the first user at the second location with a respective type of equipment associated with the sixth type of exercise, the seventh view of the three-dimensional environment displaying an appropriate view of the three-dimensional environment having a respective set of virtual content corresponding to the respective type of exercise when a set of conditions is met without requiring further user input (e.g., further user input to select or navigate the view of the three-dimensional environment and/or the set of virtual content corresponding to the respective type of exercise). Improves usability of the device by performing an action when a set of conditions are met without requiring further user input, and also reduces power usage and improves the device's battery life by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、三次元環境の第2のビュー(例えば、図7O~図7Pのビュー7408、ビュー7410など)は、第1のユーザ(例えば、図7N~図7Pのユーザ7002、又は別のユーザなど)の仮想表現を含み、この仮想表現は、第1のユーザと競争して(例えば、第1のユーザの以前の最良記録に基づいて、第1のタイプのエクササイズについて第1のユーザの予め設定された構成に基づいてなど)第1のタイプのエクササイズを実行するように示される。いくつかの実施形態では、三次元環境の第3のビューは、第1のユーザと競争して(例えば、第1のユーザの以前の最良記録に基づいて、第2のタイプのエクササイズについて第1のユーザの予め設定された構成に基づいてなど)第2のタイプのエクササイズを実行するように示される第1のユーザの仮想表現を含む。第1のユーザと競争して第1のタイプのエクササイズを実行するように示される第1のユーザの仮想表現を含む三次元環境の第2のビューを表示することは、ユーザに改善された視覚的フィードバック(例えば、第1のタイプのエクササイズに関する改善された視覚的フィードバック、第1のタイプのエクササイズの第1のユーザの実行の特性に関する改善された視覚的フィードバックなど)を提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the second view of the three-dimensional environment (e.g., view 7408, view 7410, etc., of FIGS. 7O-7P) includes a virtual representation of a first user (e.g., user 7002 of FIGS. 7N-7P, or another user, etc.) that is shown performing a first type of exercise in competition with the first user (e.g., based on the first user's previous best performance, based on the first user's preset configuration for the first type of exercise, etc.). In some embodiments, the third view of the three-dimensional environment includes a virtual representation of the first user that is shown performing a second type of exercise in competition with the first user (e.g., based on the first user's previous best performance, based on the first user's preset configuration for the second type of exercise, etc.). Displaying a second view of the three-dimensional environment including a virtual representation of the first user shown competing against the first user to perform the first type of exercise provides the user with improved visual feedback (e.g., improved visual feedback regarding the first type of exercise, improved visual feedback regarding the characteristics of the first user's performance of the first type of exercise, etc.). Providing improved feedback improves usability of the device, as well as reduces power usage and improves battery life of the device by allowing the user to use the device more quickly and efficiently.

いくつかの実施形態では、三次元環境の第2のビュー(例えば、図7O~図7Pのビュー7408、ビュー7410など)は、第1のユーザと競争して第1のタイプのエクササイズを行うように示される、第1のユーザとは異なる少なくとも第2のユーザ(例えば、図7N~図7Pのユーザ7002、又は別のユーザなど)の仮想表現を含む。いくつかの実施形態では、三次元環境の第3のビューは、第1のユーザと競争して第2のタイプのエクササイズを実行するように示される、第1のユーザとは異なる少なくとも第2のユーザの仮想表現を含む。第1のユーザと競争して第1のタイプのエクササイズを行うように示される、第1のユーザとは異なる少なくとも第2のユーザの仮想表現を含む、三次元環境の第2のビューを表示することは、改善された視覚的フィードバック(例えば、少なくとも第2のユーザも第1のタイプのエクササイズを行っているという改善された視覚的フィードバック、第1のタイプのエクササイズの第2のユーザの実行に対する第1のタイプのエクササイズのユーザの実行に関する改善された視覚的フィードバックなど)をユーザに提供する。改善されたフィードバックを提供することにより、デバイスの操作性を向上させ、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。 In some embodiments, the second view of the three-dimensional environment (e.g., view 7408, view 7410, etc., of FIGS. 7O-7P) includes a virtual representation of at least a second user, different from the first user (e.g., user 7002 of FIGS. 7N-7P, or another user, etc.), shown to be performing the first type of exercise in competition with the first user. In some embodiments, the third view of the three-dimensional environment includes a virtual representation of at least a second user, different from the first user, shown to be performing the second type of exercise in competition with the first user. Displaying the second view of the three-dimensional environment, including a virtual representation of at least a second user, different from the first user, shown to be performing the first type of exercise in competition with the first user, provides the user with improved visual feedback (e.g., improved visual feedback that the at least second user is also performing the first type of exercise, improved visual feedback regarding the user's performance of the first type of exercise relative to the second user's performance of the first type of exercise, etc.). Providing improved feedback improves the usability of the device, as well as reducing power usage and improving the device's battery life by allowing the user to use the device more quickly and efficiently.

図12における動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法8000、9000、10000、及び11000)に関して本明細書で記載した他のプロセスの詳細はまた、図12に関連して上述した方法12000に類似の方式で適用可能であることに留意されたい。例えば、方法12000を参照して上述したジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションは、任意選択的に、本明細書に記載される他の方法(例えば、方法8000、9000、10000、及び11000)を参照して本明細書に記載されるジェスチャ、視線入力、物理的オブジェクト、ユーザインタフェースオブジェクト、コントロール、移動、基準、三次元環境、表示生成コンポーネント、表面、物理的オブジェクトの表現、仮想オブジェクト、及び/又はアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。 It should be understood that the particular order described for the operations in FIG. 12 is merely an example, and that the described order is not intended to indicate that the operations are the only order in which they may be performed. Those skilled in the art will recognize various ways to reorder the operations described herein. In addition, it should be noted that other process details described herein with respect to other methods described herein (e.g., methods 8000, 9000, 10000, and 11000) are also applicable in a similar manner to method 12000 described above in connection with FIG. 12. For example, the gestures, gaze inputs, physical objects, user interface objects, controls, movements, references, three-dimensional environments, display generating components, surfaces, representations of physical objects, virtual objects, and/or animations described above with reference to method 12000 may optionally have one or more of the characteristics of the gestures, gaze inputs, physical objects, user interface objects, controls, movements, references, three-dimensional environments, display generating components, surfaces, representations of physical objects, virtual objects, and/or animations described herein with reference to other methods described herein (e.g., methods 8000, 9000, 10000, and 11000), the details of which are not repeated here for the sake of brevity.

図8、図9A~9B、図10、図11、及び図12を参照して上述した動作は、任意選択的に、図1~図6に示すコンポーネントにより実施される。いくつかの実施形態では、方法8000、9000、10000、11000、及び12000の態様/動作は、これらの方法の間で交換、置換、及び/又は追加されてもよい。簡潔にするために、それらの詳細はここでは繰り返さない。 The operations described above with reference to Figures 8, 9A-9B, 10, 11, and 12 are optionally performed by components shown in Figures 1-6. In some embodiments, aspects/operations of methods 8000, 9000, 10000, 11000, and 12000 may be interchanged, substituted, and/or added between these methods. For the sake of brevity, the details thereof will not be repeated here.

上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、想到される特定の用途に適した様々な変更で本発明及び様々な記載された実施形態を最良の形で使用することを有効化するために、これらの実施形態を選択し記載した。 The foregoing has been described with reference to specific embodiments for purposes of explanation. However, the illustrative discussion above is not intended to be exhaustive or to limit the invention to the precise form disclosed. Many modifications and variations are possible in light of the above teachings. These embodiments have been chosen and described in order to best explain the principles of the invention and its practical application, and thereby enable others skilled in the art to best utilize the invention and the various described embodiments with various modifications suited to the particular uses contemplated.

Claims (20)

方法であって、
第1の表示生成コンポーネント及び1つ以上の第1の入力デバイスと通信しているコンピュータシステムにおいて、
第1の没入レベルで第1のコンピュータ生成体験を表示することと、
前記第1の没入レベルで前記第1のコンピュータ生成体験を表示している間、第1のユーザに対応するバイオメトリックデータを受信することであって、前記第1の没入レベルでの前記第1のコンピュータ生成体験は、仮想コンテンツを含む、ことと、
前記第1のユーザに対応する前記バイオメトリックデータを受信したことに応じて、
前記第1のユーザに対応する前記バイオメトリックデータが第1の基準を満たすという判定に従って、前記第1の没入レベルよりも多くの仮想コンテンツを含む第2の没入レベルで前記第1のコンピュータ生成体験を表示することであって、前記第2の没入レベルで表示される前記第1のコンピュータ生成体験は、前記第1の没入レベルで表示される前記第1のコンピュータ生成体験よりも前記第1のユーザの視野のより大きな部分を占有する、ことと、
前記第1のユーザに対応する前記バイオメトリックデータが前記第1の基準を満たさないという判定に従って、前記第1の没入レベルで前記第1のコンピュータ生成体験を表示し続けることと、
を含む、方法。
1. A method comprising:
A computer system in communication with a first display generation component and one or more first input devices, comprising:
Displaying a first computer-generated experience at a first immersive level;
receiving biometric data corresponding to a first user while displaying the first computer-generated experience at the first immersion level , the first computer-generated experience at the first immersion level including virtual content;
In response to receiving the biometric data corresponding to the first user,
displaying the first computer-generated experience at a second immersion level including more virtual content than the first immersion level in accordance with a determination that the biometric data corresponding to the first user satisfies a first criterion, the first computer-generated experience displayed at the second immersion level occupying a larger portion of the first user's field of view than the first computer-generated experience displayed at the first immersion level;
continuing to display the first computer-generated experience at the first immersion level according to a determination that the biometric data corresponding to the first user does not satisfy the first criterion; and
A method comprising:
前記第2の没入レベルで前記第1のコンピュータ生成体験を表示している間、前記第1のユーザに対応する第1の更新されたバイオメトリックデータを受信することと、
前記第1のユーザに対応する前記第1の更新されたバイオメトリックデータを受信したことに応じて、
前記第1のユーザに対応する前記第1の更新されたバイオメトリックデータが前記第1の基準とは異なる第2の基準を満たすという判定に従って、前記第2の没入レベルよりも多くの仮想コンテンツを含む第3の没入レベルで前記第1のコンピュータ生成体験であって、前記第3の没入レベルで表示される前記第1のコンピュータ生成体験は、前記第2の没入レベルで表示される前記第1のコンピュータ生成体験よりも前記第1のユーザの前記視野のより大きな部分を占有する、第3の没入レベルで前記第1のコンピュータ生成体験を表示することと、
前記第1のユーザに対応する前記第1の更新されたバイオメトリックデータが前記第1の基準を満たし、かつ前記第2の基準を満たさないという判定に従って、前記第2の没入レベルで前記第1のコンピュータ生成体験を表示し続けることと、
を含む、請求項1に記載の方法。
receiving first updated biometric data corresponding to the first user while displaying the first computer-generated experience at the second immersive level;
In response to receiving the first updated biometric data corresponding to the first user,
displaying the first computer-generated experience at a third immersion level including more virtual content than the second immersion level in accordance with a determination that the first updated biometric data corresponding to the first user satisfies a second criterion different from the first criterion, the first computer-generated experience displayed at the third immersion level occupying a larger portion of the field of view of the first user than the first computer-generated experience displayed at the second immersion level;
continuing to display the first computer-generated experience at the second immersion level in accordance with a determination that the first updated biometric data corresponding to the first user satisfies the first criterion and does not satisfy the second criterion; and
The method of claim 1 , comprising:
前記第2の没入レベルで前記第1のコンピュータ生成体験を表示している間、前記第1のユーザに対応する第2の更新されたバイオメトリックデータを受信することと、
前記第1のユーザに対応する前記第2の更新されたバイオメトリックデータを受信したことに応じて、
前記第1のユーザに対応する前記第2の更新されたバイオメトリックデータが、前記第2の没入レベルで前記第1のコンピュータ生成体験を表示することに遷移するために満たされた前記第1の基準を満たさないという判定に従って、前記第1の没入レベルで前記第1のコンピュータ生成体験を表示することと、
を含む、請求項1に記載の方法。
receiving second updated biometric data corresponding to the first user while displaying the first computer-generated experience at the second immersive level;
in response to receiving the second updated biometric data corresponding to the first user,
displaying the first computer-generated experience at the first immersion level in accordance with a determination that the second updated biometric data corresponding to the first user does not satisfy the first criterion satisfied for transitioning to displaying the first computer-generated experience at the second immersion level;
The method of claim 1 , comprising:
前記バイオメトリックデータは前記第1のユーザの呼吸速度を含み、前記第1の基準は、前記第1のユーザの前記呼吸速度が第1の閾値呼吸速度を下回る場合に満たされる基準を含む、請求項1から3のいずれか一項に記載の方法。 4. The method of claim 1, wherein the biometric data includes a respiration rate of the first user, and the first criterion includes a criterion that is met if the respiration rate of the first user is below a first threshold respiration rate. 前記第1の基準は、前記バイオメトリックデータが少なくとも閾値時間にわたって1つ以上の予め設定された閾値を満たす場合に満たされる基準を含む、請求項1から3のいずれか一項に記載の方法。 The method of claim 1 , wherein the first criterion comprises a criterion that is met if the biometric data meets one or more pre-set thresholds for at least a threshold time. 前記第1の没入レベルで前記第1のコンピュータ生成体験を表示することは、物理的環境の1つ以上の第2の部分の表現の表示を維持している間、前記物理的環境の1つ以上の第1の部分のロケーションに対応するそれぞれの第1のポジションに仮想コンテンツを表示することを含み、
前記第2の没入レベルで前記第1のコンピュータ生成体験を表示することは、前記物理的環境の前記1つ以上の第1の部分の前記ロケーションに対応する前記それぞれの第1のポジション、及び前記物理的環境の前記1つ以上の第2の部分の少なくともいくつかに対応するそれぞれの第2のポジションに仮想コンテンツを表示することを含む、請求項1から3のいずれか一項に記載の方法。
Displaying the first computer-generated experience at the first immersive level includes displaying virtual content at respective first positions corresponding to locations of one or more first portions of a physical environment while maintaining display of a representation of one or more second portions of the physical environment;
4. The method of claim 1, wherein displaying the first computer-generated experience at the second immersive level comprises displaying virtual content at the respective first positions corresponding to the locations of the one or more first portions of the physical environment and at respective second positions corresponding to at least some of the one or more second portions of the physical environment.
前記第1のユーザに対応する前記バイオメトリックデータを受信したことに応じて、かつ前記第1のユーザに対応する前記バイオメトリックデータの変化が前記第1の基準を満たすことに向かって進行しているという判定に従って、
前記第1のコンピュータ生成体験が前記第1の没入レベルで表示されている間、前記第1の表示生成コンポーネントを介して可視であった物理的環境の表現の少なくとも一部の視覚的強調を徐々に低減することを含み、前記第2の没入レベルで前記第1のコンピュータ生成体験を表示することは、前記物理的環境の前記表現の前記一部が前記第1の表示生成コンポーネントを介して可視であることを停止するように、前記物理的環境の前記表現の前記一部に対応するポジションに前記第1のコンピュータ生成体験の仮想コンテンツを表示することを含む、請求項1から3のいずれか一項に記載の方法。
in response to receiving the biometric data corresponding to the first user and in accordance with a determination that changes in the biometric data corresponding to the first user are progressing toward satisfying the first criterion;
4. The method of claim 1, further comprising: gradually reducing visual emphasis of at least a portion of a representation of a physical environment that was visible through the first display generation component while the first computer-generated experience is displayed at the first immersion level; and displaying the first computer-generated experience at the second immersion level comprises displaying virtual content of the first computer-generated experience at a position corresponding to the portion of the representation of the physical environment such that the portion of the representation of the physical environment ceases to be visible through the first display generation component.
前記第1のユーザに対応する前記バイオメトリックデータを受信したことに応じて、かつ前記第1のユーザに対応する前記バイオメトリックデータの変化が前記第1の基準を満たすことに向かって進行しているという判定に従って、
前記第1のコンピュータ生成体験が前記第1の没入レベルで表示されている間、前記第1の表示生成コンポーネントを介して可視であった物理的環境の表現の少なくとも一部の視覚的特性を、前記第1のユーザに対応する前記バイオメトリックデータの前記変化に対応する量だけ変更することを含む、請求項1から3のいずれか一項に記載の方法。
in response to receiving the biometric data corresponding to the first user and in accordance with a determination that changes in the biometric data corresponding to the first user are progressing toward satisfying the first criterion;
4. The method of claim 1, further comprising: modifying visual characteristics of at least a portion of a representation of a physical environment that was visible through the first display generation component while the first computer-generated experience was displayed at the first immersive level by an amount corresponding to the change in the biometric data corresponding to the first user.
前記第1のユーザに対応する前記バイオメトリックデータを受信したことに応じて、かつ前記第1のユーザに対応する前記バイオメトリックデータの変化が前記第1の基準を満たすことに向かって進行しているという判定に従って、
前記第1のコンピュータ生成体験が前記第1の没入レベルで、前記第1のユーザに対応する前記バイオメトリックデータの前記変化に対応する量だけ表示されている間、仮想コンテンツの表示を、前記第1の表示生成コンポーネントを介して可視であった物理的環境の表現の少なくとも一部上で拡張することを含む、請求項1から3のいずれか一項に記載の方法。
in response to receiving the biometric data corresponding to the first user and in accordance with a determination that changes in the biometric data corresponding to the first user are progressing toward satisfying the first criterion;
4. The method of claim 1, further comprising: extending a display of virtual content over at least a portion of a representation of a physical environment that was visible through the first display generation component while the first computer-generated experience is displayed at the first immersion level and by an amount corresponding to the change in the biometric data corresponding to the first user.
前記第1の基準は、前記バイオメトリックデータが受信されているときに、前記第1のユーザが第1のタイプの閾値移動量未満の移動を行う場合に満たされる基準を含む、請求項1から3のいずれか一項に記載の方法。 4. The method of claim 1, wherein the first criterion comprises a criterion that is met if the first user performs less than a threshold amount of movement of a first type when the biometric data is being received. 前記第2の没入レベルで前記第1のコンピュータ生成体験を表示している間、前記第1のユーザによって実行されている第1のタイプの移動を検出することと、
前記第1のユーザによって実行されている前記第1のタイプの前記移動を検出したことに応じて、
前記第1のタイプの前記移動が予め設定された閾値移動量を超えるという判定に従って、前記第1の没入レベルで前記第1のコンピュータ生成体験を再表示することと、
を含む、請求項1から3のいずれか一項に記載の方法。
detecting a first type of movement being performed by the first user while displaying the first computer-generated experience at the second immersive level;
in response to detecting the first type of movement being performed by the first user;
re-displaying the first computer-generated experience at the first immersion level in accordance with a determination that the movement of the first type exceeds a preset threshold movement amount;
The method according to any one of claims 1 to 3, comprising:
前記第2の没入レベルで前記第1のコンピュータ生成体験を表示している間、前記第1のユーザによって実行されている第1のタイプの移動を検出することと、
前記第1のユーザによって実行されている前記第1のタイプの前記移動を検出したことに応じて、
前記第1のタイプの前記移動が予め設定された閾値移動量を超えるという判定に従って、第1の視点で前記第2の没入レベルで前記第1のコンピュータ生成体験を表示することから、前記第1の視点とは異なる第2の視点で前記第2の没入レベルで前記第1のコンピュータ生成体験を表示することに切り替えることと、を含む、請求項1から3のいずれか一項に記載の方法。
detecting a first type of movement being performed by the first user while displaying the first computer-generated experience at the second immersive level;
in response to detecting the first type of movement being performed by the first user;
4. The method of claim 1, further comprising: switching from displaying the first computer-generated experience at the second immersive level from a first perspective to displaying the first computer-generated experience at the second immersive level from a second perspective different from the first perspective in accordance with a determination that the first type of movement exceeds a preset threshold movement amount.
前記第1のコンピュータ生成体験を前記第1の没入レベルで表示することから前記第1のコンピュータ生成体験を前記第2の没入レベルで表示することへの遷移は、前記第1の基準が満たされる時間に対応する時点で行われる不連続の遷移である、請求項1から3のいずれか一項に記載の方法。 The method of any one of claims 1 to 3, wherein the transition from displaying the first computer-generated experience at the first immersion level to displaying the first computer-generated experience at the second immersion level is a discontinuous transition that occurs at a time corresponding to a time when the first criterion is met. 前記第1の没入レベルで表示される前記第1のコンピュータ生成体験は、第1の数の次元を有する第1の仮想環境を描写し、前記第2の没入レベルで表示される前記第1のコンピュータ生成体験は、第2の数の次元を有する第2の仮想環境を描写前記第2の数は前記第1の数よりも大きい、請求項1から3のいずれか一項に記載の方法。 4. The method of claim 1, wherein the first computer-generated experience displayed at the first immersion level depicts a first virtual environment having a first number of dimensions , and the first computer-generated experience displayed at the second immersion level depicts a second virtual environment having a second number of dimensions , the second number being greater than the first number . 前記第1の没入レベルで前記第1のコンピュータ生成体験を表示することは、前記第1の没入レベルで前記第1のコンピュータ生成体験を表示している間に受信された前記バイオメトリックデータの変化に従って変化する少なくとも第1の視覚的特性で前記第1のコンピュータ生成体験を表示することを含み、
前記第2の没入レベルで前記第1のコンピュータ生成体験を表示することは、前記第2の没入レベルで前記第1のコンピュータ生成体験を表示している間に受信された前記バイオメトリックデータの変化に従って変化する少なくとも第2の視覚的特性で前記第1のコンピュータ生成体験を表示すること、を含む、請求項1から3のいずれか一項に記載の方法。
Displaying the first computer-generated experience at the first immersive level includes displaying the first computer-generated experience with at least a first visual characteristic that changes in accordance with changes in the biometric data received while displaying the first computer-generated experience at the first immersive level;
4. The method of claim 1, wherein displaying the first computer-generated experience at the second immersive level comprises displaying the first computer-generated experience with at least a second visual characteristic that changes in accordance with changes in the biometric data received while displaying the first computer-generated experience at the second immersive level.
前記第1のユーザに対応する前記バイオメトリックデータを受信したことに応じて、
前記第1のユーザに対応する前記バイオメトリックデータが前記第1の基準を満たすという判定に従って、音声出力モードを第1の音声出力モードから第2の音声出力モードであって、前記第1の音声出力モードは、前記第2の音声出力モードよりも少ない計算制御変数を有する、第1の音声出力モードから第2の音声出力モードに変更することを含む、請求項1から3のいずれか一項に記載の方法。
In response to receiving the biometric data corresponding to the first user,
4. The method of claim 1, further comprising: changing an audio output mode from a first audio output mode to a second audio output mode in accordance with a determination that the biometric data corresponding to the first user satisfies the first criterion, the first audio output mode having fewer computational control variables than the second audio output mode.
コンピュータシステムであって、
第1の表示生成コンポーネントと、
1つ以上の入力デバイスと、
1つ以上のプロセッサと、
1つ以上のプログラムを記憶したメモリと、を備え、前記1つ以上のプログラムが、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムが、
第1の没入レベルで第1のコンピュータ生成体験を表示することと、
前記第1の没入レベルで前記第1のコンピュータ生成体験を表示している間、第1のユーザに対応するバイオメトリックデータを受信することであって、前記第1の没入レベルでの前記第1のコンピュータ生成体験は、仮想コンテンツを含む、ことと、
前記第1のユーザに対応する前記バイオメトリックデータを受信したことに応じて、
前記第1のユーザに対応する前記バイオメトリックデータが第1の基準を満たすという判定に従って、前記第1の没入レベルよりも多くの仮想コンテンツを含む第2の没入レベルで前記第1のコンピュータ生成体験を表示することであって、前記第2の没入レベルで表示される前記第1のコンピュータ生成体験は、前記第1の没入レベルで表示される前記第1のコンピュータ生成体験よりも前記第1のユーザの視野のより大きな部分を占有する、ことと、
前記第1のユーザに対応する前記バイオメトリックデータが前記第1の基準を満たさないという判定に従って、前記第1の没入レベルで前記第1のコンピュータ生成体験を表示し続けることと、
のための命令を含む、コンピュータシステム。
1. A computer system comprising:
A first display generation component;
one or more input devices;
one or more processors;
and a memory storing one or more programs, the one or more programs being configured to be executed by the one or more processors, the one or more programs comprising:
Displaying a first computer-generated experience at a first immersive level;
receiving biometric data corresponding to a first user while displaying the first computer-generated experience at the first immersion level , the first computer-generated experience at the first immersion level including virtual content;
In response to receiving the biometric data corresponding to the first user,
displaying the first computer-generated experience at a second immersion level including more virtual content than the first immersion level in accordance with a determination that the biometric data corresponding to the first user satisfies a first criterion, the first computer-generated experience displayed at the second immersion level occupying a larger portion of the first user's field of view than the first computer-generated experience displayed at the first immersion level;
continuing to display the first computer-generated experience at the first immersion level according to a determination that the biometric data corresponding to the first user does not satisfy the first criterion; and
A computer system comprising instructions for:
前記1つ以上のプログラムが、請求項2から16のいずれか一項に記載の方法を実行する命令を含む、請求項17に記載のコンピュータシステム。 The computer system of claim 17, wherein the one or more programs include instructions for performing the method of any one of claims 2 to 16. 命令を備えるコンピュータプログラムであって、前記命令が、第1の表示生成コンポーネントと、1つ以上の入力デバイスと、を含むコンピュータシステムによって実行されたときに、前記コンピュータシステムに、
第1の没入レベルで第1のコンピュータ生成体験を表示することと、
前記第1の没入レベルで前記第1のコンピュータ生成体験を表示している間、第1のユーザに対応するバイオメトリックデータを受信することであって、前記第1の没入レベルでの前記第1のコンピュータ生成体験は、仮想コンテンツを含む、ことと、
前記第1のユーザに対応する前記バイオメトリックデータを受信したことに応じて、
前記第1のユーザに対応する前記バイオメトリックデータが第1の基準を満たすという判定に従って、前記第1の没入レベルよりも多くの仮想コンテンツを含む第2の没入レベルで前記第1のコンピュータ生成体験を表示することであって、前記第2の没入レベルで表示される前記第1のコンピュータ生成体験は、前記第1の没入レベルで表示される前記第1のコンピュータ生成体験よりも前記第1のユーザの視野のより大きな部分を占有する、ことと、
前記第1のユーザに対応する前記バイオメトリックデータが前記第1の基準を満たさないという判定に従って、前記第1の没入レベルで前記第1のコンピュータ生成体験を表示し続けることと、
を含む動作を実行させる、コンピュータプログラム。
1. A computer program comprising instructions, which when executed by a computer system including a first display generation component and one or more input devices, cause the computer system to:
Displaying a first computer-generated experience at a first immersive level;
receiving biometric data corresponding to a first user while displaying the first computer-generated experience at the first immersion level , the first computer-generated experience at the first immersion level including virtual content;
In response to receiving the biometric data corresponding to the first user,
displaying the first computer-generated experience at a second immersion level including more virtual content than the first immersion level in accordance with a determination that the biometric data corresponding to the first user satisfies a first criterion, the first computer-generated experience displayed at the second immersion level occupying a larger portion of the first user's field of view than the first computer-generated experience displayed at the first immersion level;
continuing to display the first computer-generated experience at the first immersion level according to a determination that the biometric data corresponding to the first user does not satisfy the first criterion; and
A computer program product for causing a computer to perform operations including:
前記コンピュータシステムによって実行されたとき、請求項2から16のいずれか一項に記載の方法を実行させる命令を更に備える、請求項19に記載のコンピュータプログラム。 20. The computer program of claim 19, further comprising instructions which, when executed by the computer system, cause the computer to perform the method of any one of claims 2 to 16.
JP2023515647A 2020-09-25 2021-09-24 DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM Active JP7537016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024131169A JP2024178153A (en) 2020-09-25 2024-08-07 DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063083816P 2020-09-25 2020-09-25
US63/083,816 2020-09-25
US17/483,730 2021-09-23
US17/483,730 US11562528B2 (en) 2020-09-25 2021-09-23 Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
PCT/US2021/052027 WO2022067083A2 (en) 2020-09-25 2021-09-24 Devices, methods, and graphical user interfaces for interacting with three-dimensional environments

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024131169A Division JP2024178153A (en) 2020-09-25 2024-08-07 DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM

Publications (2)

Publication Number Publication Date
JP2023542846A JP2023542846A (en) 2023-10-12
JP7537016B2 true JP7537016B2 (en) 2024-08-20

Family

ID=80821438

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2023515647A Active JP7537016B2 (en) 2020-09-25 2021-09-24 DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM
JP2024131169A Pending JP2024178153A (en) 2020-09-25 2024-08-07 DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024131169A Pending JP2024178153A (en) 2020-09-25 2024-08-07 DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM

Country Status (6)

Country Link
US (5) US11562528B2 (en)
EP (1) EP4196866A2 (en)
JP (2) JP7537016B2 (en)
KR (1) KR20230047184A (en)
CN (2) CN116880694A (en)
WO (1) WO2022067083A2 (en)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11801434B2 (en) * 2020-05-20 2023-10-31 Mark Greenberg Racquet sport scoring system
US12106439B2 (en) * 2020-07-21 2024-10-01 Sony Group Corporation Device and associated methodology for suppressing interaction delay of interacting with a field of view of a mobile terminal on a different display
US11277658B1 (en) 2020-08-21 2022-03-15 Beam, Inc. Integrating overlaid digital content into displayed data via graphics processing circuitry
US12032803B2 (en) 2020-09-23 2024-07-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN116719452A (en) 2020-09-25 2023-09-08 苹果公司 Method for interacting with virtual controls and/or affordances for moving virtual objects in a virtual environment
US11562528B2 (en) 2020-09-25 2023-01-24 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
JP7168238B2 (en) * 2020-11-20 2022-11-09 株式会社インタラクティブソリューションズ meeting support system
JP2022087700A (en) * 2020-12-01 2022-06-13 京セラドキュメントソリューションズ株式会社 Electronic equipment and image forming equipment
US11954242B2 (en) 2021-01-04 2024-04-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11757997B2 (en) * 2021-01-19 2023-09-12 Seek Xr, Inc. Systems and methods for facilitating shared extended reality experiences
WO2022165323A1 (en) * 2021-02-01 2022-08-04 Ifit Inc. Exercise storage system
US11481933B1 (en) 2021-04-08 2022-10-25 Mobeus Industries, Inc. Determining a change in position of displayed digital content in subsequent frames via graphics processing circuitry
WO2022221851A1 (en) 2021-04-13 2022-10-20 Apple Inc. Methods for providing an immersive experience in an environment
US20220343562A1 (en) * 2021-04-23 2022-10-27 Lucasfilm Enterntainment Company Ltd. Color and lighting adjustment for immersive content production system
US11475610B1 (en) * 2021-04-30 2022-10-18 Mobeus Industries, Inc. Controlling interactivity of digital content overlaid onto displayed data via graphics processing circuitry using a frame buffer
US11477020B1 (en) 2021-04-30 2022-10-18 Mobeus Industries, Inc. Generating a secure random number by determining a change in parameters of digital content in subsequent frames via graphics processing circuitry
US20220384034A1 (en) * 2021-05-26 2022-12-01 Google Llc Active Hidden Stressor Identification and Notification
US12073529B2 (en) * 2021-11-15 2024-08-27 International Business Machines Corporation Creating a virtual object response to a user input
US20230176658A1 (en) * 2021-12-02 2023-06-08 SoftEye, Inc. Systems, apparatus, and methods for gesture-based augmented reality, extended reality
US20230195208A1 (en) * 2021-12-16 2023-06-22 Joshua Steven Noyes Centralized Virtual Reality and Augmented Reality Activity System
CN119473001A (en) * 2022-01-19 2025-02-18 苹果公司 Methods for displaying and repositioning objects in the environment
US11630517B1 (en) * 2022-01-25 2023-04-18 Synchron Australia Pty Limited Systems and methods for increasing control using a neural signal
US11948244B2 (en) * 2022-02-11 2024-04-02 Shopify Inc. Augmented reality enabled dynamic product presentation
US20230410979A1 (en) * 2022-06-21 2023-12-21 TRIPP, Inc. Location-based multi-user augmented reality for wellness
US20230414132A1 (en) * 2022-06-24 2023-12-28 Shanghai United Imaging Intelligence Co., Ltd. System and method for providing rehabilitation in a virtual environment
CN115105835B (en) * 2022-06-29 2024-12-20 网易(杭州)网络有限公司 Operation method, device, non-volatile storage medium and electronic device in game
US20240077956A1 (en) * 2022-09-05 2024-03-07 Samsung Electronics Co., Ltd. Electronic device having flexible display and method for providing control object based on gripping state thereof
US20240087229A1 (en) * 2022-09-12 2024-03-14 Mikhail Vasilkovskii Three-dimensional asset reconstruction
US12148078B2 (en) 2022-09-16 2024-11-19 Apple Inc. System and method of spatial groups in multi-user communication sessions
US12112011B2 (en) 2022-09-16 2024-10-08 Apple Inc. System and method of application-based three-dimensional refinement in multi-user communication sessions
US12099653B2 (en) 2022-09-22 2024-09-24 Apple Inc. User interface response based on gaze-holding event assessment
US20240103608A1 (en) * 2022-09-24 2024-03-28 Apple Inc. Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
US20240104877A1 (en) * 2022-09-24 2024-03-28 Apple Inc. Methods for time of day adjustments for environments and environment presentation during communication sessions
US20240233207A1 (en) * 2023-01-05 2024-07-11 Dell Products L.P. Aggregated color palette generation based on user context and machine learning
US12108012B2 (en) 2023-02-27 2024-10-01 Apple Inc. System and method of managing spatial states and display modes in multi-user communication sessions
US20240385858A1 (en) * 2023-05-17 2024-11-21 Apple Inc. Methods for displaying mixed reality content in a three-dimensional environment
US12118200B1 (en) 2023-06-02 2024-10-15 Apple Inc. Fuzzy hit testing
US12113948B1 (en) 2023-06-04 2024-10-08 Apple Inc. Systems and methods of managing spatial groups in multi-user communication sessions
US20250078870A1 (en) * 2023-08-28 2025-03-06 Google Llc Generating a three-dimensional effect of a video stream
CN118898672A (en) * 2024-10-08 2024-11-05 山东文旅云智能科技有限公司 A scenic spot guiding method and system based on virtual reality

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170682A (en) 2010-02-19 2011-09-01 Nec Corp Portable terminal, extended real system, and extended real information display method
JP2015118332A (en) 2013-12-19 2015-06-25 ソニー株式会社 Image display device and image display method
JP2018524712A (en) 2015-06-30 2018-08-30 トムソン ライセンシングThomson Licensing Method and apparatus for using augmented reality with physical objects to change user state
US20180286070A1 (en) 2017-03-31 2018-10-04 Sony Interactive Entertainment LLC Quantifying User Engagement Using Pupil Size Measurements
KR20190092141A (en) 2018-01-30 2019-08-07 한국원자력연구원 Apparatus and method for experiencing fire of main control room

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073246A (en) 2000-08-25 2002-03-12 Minolta Co Ltd Video display system
JP5431473B2 (en) 2009-06-18 2014-03-05 パイオニア株式会社 Information display device
JP2012155655A (en) 2011-01-28 2012-08-16 Sony Corp Information processing device, notification method, and program
US20120257035A1 (en) 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
JP5817973B2 (en) 2011-07-15 2015-11-18 コニカミノルタ株式会社 Display control device, information processing device, and image processing device
US8847988B2 (en) * 2011-09-30 2014-09-30 Microsoft Corporation Exercising applications for personal audio/visual system
US9854014B2 (en) * 2013-03-14 2017-12-26 Google Inc. Motion data sharing
US9244527B2 (en) 2013-03-26 2016-01-26 Volkswagen Ag System, components and methodologies for gaze dependent gesture input control
KR20140126492A (en) 2013-04-23 2014-10-31 엘지전자 주식회사 Apparatus and Method for portable device with index display area
WO2016098519A1 (en) 2014-12-17 2016-06-23 コニカミノルタ株式会社 Electronic instrument, method of controlling electronic instrument, and control program for same
CN113220116A (en) 2015-10-20 2021-08-06 奇跃公司 System and method for changing user input mode of wearable device and wearable system
EP3187977A1 (en) 2015-12-31 2017-07-05 Tobii AB System for gaze interaction
US10250720B2 (en) 2016-05-05 2019-04-02 Google Llc Sharing in an augmented and/or virtual reality environment
US9864431B2 (en) 2016-05-11 2018-01-09 Microsoft Technology Licensing, Llc Changing an application state using neurological data
DK201670574A1 (en) 2016-06-12 2018-01-02 Apple Inc Accelerated scrolling
KR102581359B1 (en) * 2016-09-02 2023-09-20 엘지전자 주식회사 User interface apparatus for vehicle and Vehicle
EP3361352B1 (en) 2017-02-08 2019-06-05 Alpine Electronics, Inc. Graphical user interface system and method, particularly for use in a vehicle
JP7107302B2 (en) 2017-03-21 2022-07-27 ソニーグループ株式会社 Information processing device, information processing method, and program
US10481755B1 (en) 2017-04-28 2019-11-19 Meta View, Inc. Systems and methods to present virtual content in an interactive space
IL271902B2 (en) 2017-07-13 2024-11-01 Smileyscope Pty Ltd Install virtual reality
DK180470B1 (en) 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
EP3688562B1 (en) 2017-09-29 2024-11-13 Apple Inc. Detecting physical boundaries
US10706630B2 (en) 2018-08-13 2020-07-07 Inspirium Laboratories LLC Augmented reality user interface including dual representation of physical location
WO2020072915A1 (en) * 2018-10-05 2020-04-09 Ctrl-Labs Corporation Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
US10838490B2 (en) 2018-10-23 2020-11-17 Microsoft Technology Licensing, Llc Translating combinations of user gaze direction and predetermined facial gestures into user input instructions for near-eye-display (NED) devices
US11592896B2 (en) 2018-11-07 2023-02-28 Wild Technology, Inc. Technological infrastructure for enabling multi-user collaboration in a virtual reality environment
US10890983B2 (en) 2019-06-07 2021-01-12 Facebook Technologies, Llc Artificial reality system having a sliding menu
US11096006B1 (en) 2019-11-04 2021-08-17 Facebook Technologies, Llc Dynamic speech directivity reproduction
US11443650B2 (en) * 2019-11-25 2022-09-13 Kwangwoon University Industry-Academic Collaboration Foundation Method and apparatus for VR training
US12032803B2 (en) 2020-09-23 2024-07-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11562528B2 (en) 2020-09-25 2023-01-24 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11954242B2 (en) 2021-01-04 2024-04-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US20230389822A1 (en) * 2022-06-01 2023-12-07 At&T Intellectual Property I, L.P. Devices and systems for determining and addressing physiological impairments

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170682A (en) 2010-02-19 2011-09-01 Nec Corp Portable terminal, extended real system, and extended real information display method
JP2015118332A (en) 2013-12-19 2015-06-25 ソニー株式会社 Image display device and image display method
JP2018524712A (en) 2015-06-30 2018-08-30 トムソン ライセンシングThomson Licensing Method and apparatus for using augmented reality with physical objects to change user state
US20180286070A1 (en) 2017-03-31 2018-10-04 Sony Interactive Entertainment LLC Quantifying User Engagement Using Pupil Size Measurements
KR20190092141A (en) 2018-01-30 2019-08-07 한국원자력연구원 Apparatus and method for experiencing fire of main control room

Also Published As

Publication number Publication date
US20240257441A1 (en) 2024-08-01
WO2022067083A2 (en) 2022-03-31
JP2024178153A (en) 2024-12-24
EP4196866A2 (en) 2023-06-21
CN116880694A (en) 2023-10-13
US12198260B2 (en) 2025-01-14
CN116209505A (en) 2023-06-02
US11562528B2 (en) 2023-01-24
US11810244B2 (en) 2023-11-07
US20220101593A1 (en) 2022-03-31
US20240177403A1 (en) 2024-05-30
JP2023542846A (en) 2023-10-12
US12198259B2 (en) 2025-01-14
US20230147148A1 (en) 2023-05-11
US20230143827A1 (en) 2023-05-11
KR20230047184A (en) 2023-04-06
WO2022067083A3 (en) 2022-05-05
US11900527B2 (en) 2024-02-13

Similar Documents

Publication Publication Date Title
JP7537016B2 (en) DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM
JP7587689B2 (en) DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIM
JP7649396B2 (en) DEVICE, METHOD AND GRAPHICAL USER INTERFACE FOR INTERACTING WITH A THREE-DIMENSIONAL ENVIRONMENT - Patent application
CN119625154A (en) Apparatus, method and graphical user interface for content applications
US20230306695A1 (en) Devices, methods, and graphical user interfaces for three-dimensional user experience sessions in an extended reality environment
CN119200818A (en) Device, method and graphical user interface for interacting with a three-dimensional environment
CN117957581A (en) Apparatus, method and graphical user interface for interacting with a three-dimensional environment
CN117999534A (en) Apparatus, method and graphical user interface for interacting with a three-dimensional environment
CN119576128A (en) Device, method and graphical user interface for three-dimensional user experience session in an extended reality environment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240807

R150 Certificate of patent or registration of utility model

Ref document number: 7537016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150