CN109314800B - 用于将用户注意力引导到基于位置的游戏进行伴随应用的方法和系统 - Google Patents
用于将用户注意力引导到基于位置的游戏进行伴随应用的方法和系统 Download PDFInfo
- Publication number
- CN109314800B CN109314800B CN201780036844.3A CN201780036844A CN109314800B CN 109314800 B CN109314800 B CN 109314800B CN 201780036844 A CN201780036844 A CN 201780036844A CN 109314800 B CN109314800 B CN 109314800B
- Authority
- CN
- China
- Prior art keywords
- user
- game
- hmd
- active region
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
- A63F13/49—Saving the game status; Pausing or ending the game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
- A63F13/47—Controlling the progress of the video game involving branching, e.g. choosing one of several possible scenarios at a given point in time
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
- A63F13/86—Watching games played by other players
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4781—Games
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
一种用于在HMD中提供信息的方法。所述方法包括在如通过所述HMD的3D显示器呈现的用户的虚拟现实(VR)观看环境中定义活动区。所述方法包括将主要内容放置在所述VR观看环境的所述活动区中。所述方法包括在所述活动区外部定义一个或多个外围区。所述方法包括将次要内容放置在所述VR观看环境的第一外围区中。所述方法包括结合在所述次要内容中输入新数据,在所述活动区内显示吸引子,其中所述吸引子将所述用户的注意力引向所述第一外围区。所述方法包括检测所述HMD从指向所述活动区的所述第一取向朝向指向所述第一外围区的第二取向的旋转。所述方法包括暂停所述主要内容。
Description
技术领域
本公开涉及视频游戏或游戏应用。除了别的以外,本公开描述了用于在伴随应用中提供信息的方法和系统,所述伴随应用支持在如通过HMD看到的VR环境中进行游戏应用的用户的游戏进行,其中所述伴随应用位于外围区中,并且其中当有新的信息可供观看时,用户的注意力被引导到伴随应用。
背景技术
例如,计算机生成的虚拟现实(VR)允许用户沉浸在模拟的真实环境或虚构环境中。通过完全沉浸,用户能够与模拟或虚构环境进行交互,就像用户在这个VR环境中一样。也就是说,用户能够移动并环视VR环境,并且可能与这个VR环境中的对象进行交互。
VR系统可以使用某一显示系统来让用户观看VR环境。这些显示系统可以包括在用户面前呈现的计算机监视器或显示屏。当显示屏较小时,用户的VR体验受到来自周围真实环境(例如,阳光、真实空间中的对象等)的视觉刺激的阻碍。可以通过增加显示大小以减少周围真实环境的影响来改善VR体验。此外,显示系统可以被设计成阻挡来自周围真实环境的刺激。例如,用户佩戴的头戴式显示器(HMD)能够阻挡来自物理、真实环境的光,并且向用户呈现立体筛选系统以便在三维(3D)中观看VR环境。这些HMD可以包括与佩戴在头上或头顶上的安装系统整合的观看护目镜。其他一些更复杂的VR系统可以与移动传感器整合,所述移动传感器允许用户在真实世界中进行移动,然后可以以某种形式将其转换到VR世界。例如,手势/移动可以用于与VR对象进行交互,并且在真实世界中移动(例如,在物理环境中行走)可以被转换为VR环境中的类似移动(例如,在VR环境中行走或跑步)。
VR系统已经被各种行业所接受,诸如军事、房地产、医药、视频游戏等。因为用户可以完全沉浸在VR环境中,所以該VR环境可以模拟真实环境以用于训练、享受和逃避的目的。例如,VR系统可以用于军队中的飞行员训练、医疗行业内的外科技术训练、显示房地产经纪人的列表或体验度假目的地。此外,VR环境可以用于模拟完全虚构的环境,诸如角色具有超人能力的幻想世界。例如,用户可以沉浸在视频游戏VR环境中,所述视频游戏VR环境允许用户在这个VR环境中掌握游戏角色的技能和移动。以这种方式,用户能够通过向用户提供虚构的移动和技能的感觉来扩展现实的范围。这类似于让残疾人感觉好像他或她能够在VR环境中移动(例如,行走)。
在VR环境中,数据可以以360度弧度提供给用户,并且只要用户转向所述数据,用户就可以与所述数据进行交互。例如,当用户正在向前看时,数据以从用户来看正确的方向呈现在VR环境中。然而,由于用户的凝视指向前方,因此用户侧面或用户后方的数据不会呈现。用户可能不知道这未显示的数据,即使它可供观看。例如,在用户进行游戏期间,用户完全专注于手头的任务(例如,打首领、收集食物、穿越沙漠等)并且可能不知道周围环境。此信息对于用户可能是重要的和/或有用的,但仍然是未知的。
在此背景下,出现了本公开的实施例。
发明内容
本公开的实施例涉及提供支持在虚拟现实(VR)环境(例如,如通过头戴式显示器(HMD)看到的)中进行游戏应用的用户的游戏进行的信息,其中所述信息可以位于用户的外围区中(例如,如在支持用户的游戏进行的伴随应用内提供的),并且其中当有新的信息可供观看时,用户的注意力被引导到外围区。下文描述本公开的若干创造性实施例。
在一个实施例中,公开了一种用于在HMD中提供信息的方法。所述方法包括在如通过HMD的三维(3D)显示器呈现的用户的VR观看环境中定义活动区。所述方法包括将主要内容放置在VR观看环境的活动区中。以这种方式,当用户的凝视指向活动区(例如,指向前方进入VR观看环境)时,主要内容呈现在HMD中。所述方法包括在VR观看环境中的活动区外部定义一个或多个外围区,诸如到用户的侧面。所述方法包括将次要内容放置在VR观看环境的第一外围区中。所述方法包括结合在次要内容中输入新数据,在活动区内显示吸引子,其中所述吸引子将用户的注意力引向第一外围区。所述方法包括检测HMD从指向活动区的第一取向朝向指向第一外围区的第二取向的旋转。所述方法包括暂停主要内容,诸如在用户正在观看次要内容时。
在另一个实施例中,公开了一种存储用于在HMD中提供信息的计算机程序的非暂时性计算机可读介质。所述计算机可读介质包括用于在如通过HMD的3D显示器呈现的用户的VR观看环境中定义活动区的程序指令。所述计算机可读介质包括用于将主要内容放置在VR观看环境的活动区中的程序指令。所述计算机可读介质包括用于在活动区外部定义一个或多个外围区的程序指令。所述计算机可读介质包括用于将次要内容放置在VR观看环境的第一外围区中的程序指令。所述计算机可读介质包括用于结合在次要内容中输入新数据、在活动区内显示吸引子的程序指令,其中所述吸引子将用户的注意力引向第一外围区。所述计算机可读介质包括用于检测HMD从指向活动区的第一取向朝向指向第一外围区的第二取向的旋转的程序指令。所述计算机可读介质包括用于暂停主要内容的程序指令。以这种方式,当用户正在观看次要内容时,暂停主要内容(例如,游戏应用、视频等),使得用户无需错过任何主要内容。
在又一个实施例中,公开了一种计算机系统。所述计算机系统包括处理器和存储器,其中所述存储器耦接到处理器并且其中存储有指令,所述指令如果由计算机系统执行,则致使计算机系统执行用于在HMD中提供信息的方法。所述方法包括在如通过HMD的三维(3D)显示器呈现的用户的VR观看环境中定义活动区。所述方法包括将主要内容放置在VR观看环境的活动区中。以这种方式,当用户的凝视指向活动区(例如,指向前方进入VR观看环境)时,主要内容呈现在HMD中。所述方法包括在VR观看环境中的活动区外部定义一个或多个外围区,诸如到用户的侧面。所述方法包括将次要内容放置在VR观看环境的第一外围区中。所述方法包括结合在次要内容中输入新数据,在活动区内显示吸引子,其中所述吸引子将用户的注意力引向第一外围区。所述方法包括检测HMD从指向活动区的第一取向朝向指向第一外围区的第二取向的旋转。所述方法包括暂停主要内容,诸如在用户正在观看次要内容时,使得用户无需错过任何主要内容(例如,游戏应用、视频等)。
通过以下结合附图进行的详细描述,本公开的其他方面将变得明显,通过示例的方式示出了本公开的原理。
附图说明
通过参考以下结合附图进行的描述可以最好地理解本公开,在附图中:
图1A示出根据本公开的一个实施例的用于实现基于位置的伴随界面的系统,所述伴随界面支持在VR观看环境中(例如,通过HMD)进行游戏应用的对应用户的游戏进行,其中数据和/或信息可以位于用户的外围区中(例如,通过支持游戏进行的伴随应用),并且其中当有新的信息或数据可供观看时,用户的注意力被引导到外围区,其中游戏应用可以在本地计算设备上或通过云游戏网络执行。
图1B示出根据本公开的一个实施例的向正在进行一个或多个游戏应用的一个或多个用户提供游戏控制的系统,所述一个或多个游戏应用对于相应VR观看环境中的对应用户是在本地执行的,并且其中后端服务器支持可以实现支持对应用户的游戏进行的基于位置的伴随界面,所述伴随界面位于对应用户的外围区中,并且其中当有新的信息或数据可供观看时,用户的注意力被引导到外围区。
图1C示出根据本公开的一个实施例的向在如通过云游戏网络执行的相应VR观看环境中进行游戏应用的一个或多个用户提供游戏控制的系统,并且其中后端服务器支持可以实现支持对应用户的游戏进行的基于位置的伴随界面,所述伴随界面位于对应用户的外围区中,并且其中当有新的信息或数据可供观看时,用户的注意力被引导到外围区。
图1D概念性地示出根据本发明的实施例的HMD的功能以及生成VR内容的应用的执行。
图2示出根据本公开的一个实施例的用于启用访问和进行游戏云系统(GCS)中的游戏应用以及支持对应用户的游戏进行的基于位置的伴随界面的实现的系统图。
图3A是示出根据本公开的一个实施例的用于在如HMD中实现的VR观看环境中提供数据和/或信息的方法中的步骤的流程图,其中数据和/或信息位于对应用户的外围区中,并且其中当有新的信息或数据可供观看时,用户的注意力被引导到外围区。
图3B是示出根据本公开的一个实施例的用于生成伴随应用的支持对应用户的游戏进行的基于位置的伴随界面的方法中的步骤的流程图,其中所述伴随界面位于对应用户的外围区中。
图4A是示出根据本公开的一个实施例的用户的头部在舒适旋转范围的旋转的身体状态图,其中用户正在通过HMD观看VR观看环境。
图4B是示出根据本公开的一个实施例的用户的头部在最大旋转范围的旋转的身体状态图,其中用户正在通过HMD观看VR观看环境。
图4C示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的头部的运动范围,其中所述运动范围示出了头部旋转的舒适运动范围和最大运动范围。
图5A示出根据本公开的一个实施例的用户的视野(FOV),所述FOV介于通过HMD观看VR观看环境的用户的头部的运动范围内,其中头部的取向直接面向前方(例如,0度),并且其中运动范围示出了头部旋转的舒适运动范围和最大运动范围。
图5B示出根据本公开的一个实施例的用户的视野(FOV),所述FOV介于通过HMD观看VR观看环境的用户的头部的运动范围内,其中头部的取向被舒适地转动(例如,转动30度),并且其中运动范围示出了头部旋转的舒适运动范围和最大运动范围。
图5C示出根据本公开的一个实施例的用户的视野(FOV),所述FOV介于通过HMD观看VR观看环境的用户的头部的运动范围内,其中头部的取向被转到其最大旋转(例如,不舒适地转动55度),并且其中运动范围示出了头部旋转的舒适运动范围和最大运动范围。
图5D是示出根据本公开的一个实施例的VR观看环境中的不同区的图,其中所述区是相对于通过HMD观看VR观看环境的用户的取向来定义的。
图6A示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的活动区,其中活动区呈现主要内容,并且其中次要内容(例如,如通过伴随界面呈现的)在活动区外部的外围区中可用,其中所述外围区位于活动区上方。
图6B示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的活动区,其中活动区呈现主要内容,并且其中次要内容(例如,如通过伴随界面呈现的)在活动区外部的外围区中可用,其中所述外围区位于活动区的侧面。
图6C示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的活动区,其中活动区呈现主要内容,并且其中次要内容(例如,如通过伴随界面呈现的)在活动区外部的外围区中可用,其中所述外围区位于活动区下方并且可以被配置成示出一个或多个信息窗口。
图7A示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的FOV,其中FOV包括呈现主要内容的用户的活动区,并且其中FOV包括位于活动区外部和上方的外围区的边缘,其中所述外围区可以被配置成呈现次要内容(例如,如通过伴随界面呈现的)。
图7B示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的FOV,其中用户的头部向上倾斜,使得用户的FOV包括呈现主要内容的用户的活动区的部分,并且还包括位于活动区外部和上方的外围区,其中所述外围区可以被配置成呈现次要内容(例如,如通过伴随界面呈现的)。
图7C示出根据本公开的一个实施例的图7B中首先介绍的次要内容,所述次要内容在通过HMD观看VR观看环境的用户的外围区中呈现,其中所述次要内容可以通过支持用户的游戏进行的伴随界面呈现。
图8A示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的FOV,其中FOV包括呈现主要内容的用户的活动区,并且其中FOV包括位于活动区外部和侧面的外围区的边缘,其中所述外围区可以被配置成呈现次要内容(例如,如通过伴随界面呈现的)。
图8B示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的FOV,其中用户的头部旋转到侧面,使得用户的FOV包括呈现主要内容的用户的活动区的部分,并且还包括位于活动区外部和侧面的外围区,其中所述外围区可以被配置成呈现次要内容(例如,如通过伴随界面呈现的)。
图8C示出根据本公开的一个实施例的图8B中首先介绍的次要内容,所述次要内容在通过HMD观看VR观看环境的用户的外围区中呈现,其中所述次要内容可以通过支持用户的游戏进行的伴随界面呈现。
图9是示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的活动区和外围区的图,其中在活动区中呈现吸引子以便将用户的注意力引向在外围区中呈现的信息。
图10是示出根据本公开的实施例的头戴式显示器的组件的图。
图11是根据本公开的各种实施例的游戏系统的框图
具体实施方式
尽管出于说明的目的,以下详细描述包含许多具体细节,但是本领域的普通技术人员将理解,对以下细节的许多变化和更改都在本公开的范围内。因此,阐述了下文描述的本公开的各方面,而不失任何一般性,并且不对本说明书之后的权利要求书施加限制。
一般来说,本公开的各种实施例描述了向观看如在HMD中实现的VR观看环境的用户提供数据和/或信息的系统和方法,其中所述数据和/或信息位于对应用户的外围区中,并且其中当有新的信息或数据可供观看时,用户的注意力被引导到外围区。可以在基于位置的伴随界面内提供数据和/或信息,所述伴随界面被配置成支持用户的游戏进行。因此,本公开的实施例通过基于位置的伴随界面提供游戏应用的附加使用。例如,游戏应用可以是在VR观看环境的活动区内呈现的传统类型的二维游戏应用,并且伴随界面在位于活动区外部的外围区内呈现。在一个实施例中,伴随界面包括基于用户的游戏进行中角色的位置生成的情境相关信息(例如,消息、辅助信息等)。所述信息是基于在一个或多个用户进行游戏期间定期收集的快照,其中快照包含关于对应用户的游戏进行的元数据和/或信息,并且可配置成在游戏应用中对应于所述快照的跳跃点处启用对应游戏应用的另一个实例。
基于位置的信息包括定义针对在用户进行游戏期间定期收集的快照生成的参数。具体地,快照包含关于用户的游戏进行的元数据和/或信息,并且可配置成在游戏应用中对应于所述快照的跳跃点处启用对应游戏应用的另一个实例。情境相关信息还包括在进行同一游戏应用的其他用户进行这个游戏期间收集的信息。以这种方式,用户能够基于用户的当前进度(例如,游戏世界中的位置等)来接收情境相关信息。例如,情境相关信息可以在用户进行游戏时提供帮助,其中所述信息可以基于进行游戏的位置、过去的游戏进行和预期的游戏进行。此外,伴随界面可以用于从用户创建消息。
以上是对各种实施例的一般理解,现在将参考各种附图来描述实施例的示例细节。
在整个说明书中,对“视频游戏”或“游戏应用”的参考意味着表示通过执行输入命令来引导的任何类型的交互式应用。仅出于说明的目的,交互式应用包括用于游戏、文字处理、视频处理、视频游戏处理等的应用。此外,术语视频游戏和游戏应用是可互换的。
图1A示出根据本公开的一个实施例的用于实现基于位置的伴随界面的系统10,所述伴随界面被配置成支持在如通过HMD实现的VR观看环境中进行游戏应用的用户的游戏进行,其中所述伴随界面可以呈现在对应用户的外围区内,其中所述外围区位于呈现主要内容(例如,游戏应用、视频内容等)的活动区外部。根据本公开的一个实施例,游戏应用可以在本地计算设备上或通过云游戏网络执行。伴随界面可以用于提供信息和/或创建内容(例如,任务和/或挑战等)以供进行游戏应用的其他用户进行交互。
如图1A所示,游戏应用可以在用户5的客户端设备100处(例如,在游戏执行引擎111处)本地执行,或者可以在云游戏网络或游戏云系统的后端游戏服务器205处操作的后端游戏执行引擎211处执行。游戏执行引擎211可以在游戏服务器205的许多游戏处理器201中的一个内操作。在任一情况下,云游戏网络被配置成提供基于位置的伴随界面,所述伴随界面支持进行游戏应用的一个或多个用户的游戏进行。此外,游戏应用可以以单玩家模式或多玩家模式执行,其中本发明的实施例为两种操作模式提供多玩家增强(例如,辅助、通信等)。此外,游戏应用的游戏进行可以在如通过HMD 102实现的VR观看环境内呈现。
在一些实施例中,云游戏网络可以包括在主机的管理程序上运行的多个虚拟机(VM),其中一个或多个虚拟机被配置成利用硬件资源来执行游戏处理器模块201,所述硬件资源可用于支持单玩家或多玩家视频游戏的主机的管理程序。在其他实施例中,云游戏网络被配置成支持支持多个用户的多个本地计算设备,其中每个本地计算设备可以执行视频游戏的实例,诸如在单玩家或多玩家视频游戏中。例如,在多玩家模式中,当视频游戏是在本地执行时,云游戏网络同时从每个本地计算设备接收信息(例如,游戏状态数据)并相应地在所述本地计算设备中的一个或多个中分配这些信息,使得每个用户都能够在多玩家视频游戏的游戏环境中与其他用户进行交互(例如,通过视频游戏中的对应角色)。以这种方式,云游戏网络在多玩家游戏环境中协调和组合每个用户的游戏进行。
如图所示,系统10包括执行游戏处理器模块201的游戏服务器205,所述游戏处理器模块提供对多个交互式游戏应用的访问。游戏服务器205可以是云中可用的任何类型的服务器计算设备,并且可以被配置为在一个或多个主机上执行的一个或多个虚拟机,如前所述。例如,游戏服务器205可以管理支持游戏处理器201的虚拟机。游戏服务器205还被配置成向用户5提供附加服务和/或内容。例如,游戏服务器可配置成提供可显示给用户5的伴随界面,以便生成和/或接收情境相关信息,如下文将进一步描述的。
客户端设备100被配置用于通过网络150(诸如互联网)请求对游戏应用的访问,并且用于渲染由游戏服务器205执行并传送到与用户5相关联的显示设备12的视频游戏或游戏应用的实例。例如,用户5可以通过客户端设备100与在游戏处理器201上执行的游戏应用的实例进行交互。客户端设备100还可以包括配置用于在本地执行游戏应用的游戏执行引擎111,如前所述。客户端设备100可以从各种类型的输入设备接收输入,所述输入设备诸如游戏控制器6、平板计算机11、键盘、以及由摄影机捕获的手势、鼠标、触摸板等。客户端设备100可以是任何类型的计算设备,其至少具有存储器以及能够通过网络150连接到游戏服务器205的处理器模块。客户端设备100的一些示例包括个人计算机(PC)、游戏控制台、家庭影院设备、通用计算机、移动计算设备、平板电脑、电话或者可以与游戏服务器205进行交互以执行视频游戏的实例的任何其他类型的计算设备。
客户端设备100被配置用于接收渲染图像,并且用于在显示器12和/或HMD 102上显示渲染图像(例如,显示VR内容198)。例如,通过基于云的服务,可以由与用户5相关联地在游戏服务器205的游戏执行引擎211上执行的游戏应用的实例来传送渲染图像。在另一个示例中,通过本地游戏处理,可以由本地游戏执行引擎111来传送渲染图像。在任一情况下,客户端设备100被配置成诸如通过用于驱动游戏进行的输入命令,与用户5的游戏进行相关联地与执行引擎211或111进行交互。
此外,客户端设备100被配置成与游戏服务器205进行交互以便在进行游戏应用时捕获和存储用户5的游戏进行的快照,其中每个快照包括与游戏进行相关的信息(例如,游戏状态等)。例如,快照可以包括与用户5的游戏进行的游戏世界中的角色的位置相对应的基于位置的信息。此外,快照使得对应用户能够在游戏应用中对应于捕获快照的跳跃点处跳跃到保存的游戏进行中。这样,用户5可以在对应于所选快照的跳跃点处跳跃到他或她自己保存的游戏进行中,另一个用户可以跳跃到用户5的游戏进行中,或者用户5可以在与所选快照相对应的跳跃点处跳跃到另一个用户保存的游戏进行中。此外,客户端设备100被配置成与游戏服务器205进行交互以显示来自伴随界面生成器213的基于位置的伴随界面,其中伴随界面被配置成接收和/或生成情境相关内容,诸如辅助信息、消息传递、交互式任务和挑战等。在另一个实施例中,伴随界面生成器113对于用户5是本地的。具体地,包含在用户5进行游戏期间捕获的快照中的信息,诸如与游戏进行相关的基于位置的信息,以及在其他用户进行游戏期间捕获的信息,用于生成情境相关内容。
更具体地,游戏服务器205的游戏处理器201被配置成在用户5进行游戏应用时生成和/或接收所述用户的游戏进行的快照。例如,快照可以由客户端设备100上的本地游戏执行引擎111生成,通过网络150输出并传送到游戏处理器201。另外,快照可以由游戏处理器201内的游戏执行引擎211生成,诸如通过在引擎211上执行的游戏应用的实例。此外,与其他虚拟机相关联的游戏服务器205的其他游戏处理器被配置成执行与其他用户的游戏进行相关联的游戏应用的实例并且在这些游戏进行期间捕获快照,其中这些附加信息可以用于创建情境相关信息。
快照生成器212被配置成捕获从用户5的游戏进行生成的多个快照。每个快照提供的信息使得能够从与对应快照相关联的视频游戏中的点开始执行视频游戏的实例。在用户5对游戏应用的游戏进行期间自动地生成快照。在实施例中,每个快照的部分存储在独立配置或配置在数据存储区140下的相关数据库中。在另一个实施例中,可以通过用户5的指令手动地生成快照。以这种方式,任何用户通过选择对应快照可以在游戏应用中与对应快照相关联的点处跳跃到用户5的游戏进行中。另外,还可以捕获进行多个游戏应用的其他用户的游戏进行的快照。这样,游戏处理器201被配置成访问数据库140中的信息,以便能够基于对应的快照跳跃到任何用户保存的游戏进行中。也就是说,请求用户能够使用生成并保存快照的原始用户的游戏进行的游戏角色在与所选快照相对应的跳跃点处开始进行视频游戏。
关于快照的创建和使用的完整讨论在标题为“Method And System For Saving ASnapshot of Game Play And Used To Begin Later Execution Of The Game Play ByAny User As Executed On A Game Cloud System”的美国申请序列号15/411,421中提供,所述申请先前通过引用整体并入。以下是创建和实现快照的简要说明。
具体地,每个快照包括元数据和/或信息,以使得能够在游戏应用中与快照相对应的点处开始执行游戏应用的实例。例如,在用户5的游戏进行中,可以在游戏应用的进展中的特定点处(诸如在等级中间)生成快照。相关快照信息存储在数据库140的一个或多个数据库中。指针可以用于关联与特定快照相对应的每个数据库中的信息。以这种方式,希望体验用户5的游戏进行的另一用户或希望重新体验他或她之前的游戏进行的同一用户5可以选择与感兴趣的游戏应用中的点相对应的快照。
可以提供和/或分析每个快照中的元数据和信息以提供与用户的游戏进行相关的附加信息。例如,快照可以帮助确定用户(例如,用户的角色)已经在游戏应用内的位置、用户在游戏应用中的位置、用户已经做了什么、用户已经积累了什么资产和技能、以及用户将进入游戏应用的位置。这些附加信息可以用于生成基于用户的游戏进行的任务和/或挑战,其中所述任务和/或挑战不包含在游戏应用内。例如,用户可以定义资产和成就参数(例如,负数和正数),其创建模仿用户的游戏进行的任务和/或挑战(例如,使用最小武器击败首领)。用户可以用相同的约束(例如,最小武器)来挑战其他用户以尝试并击败任务(例如,击败首领)。
快照包括在这个点处渲染的场景的快照图像。快照图像存储在快照图像数据库146中。在一个实施例中,以时间线中的缩略图的形式呈现的快照图像提供了在用户通过视频游戏的进展中的对应点处对用户的游戏进行的视图。
更具体地,快照还包括定义这个点处的游戏状态的游戏状态数据。例如,游戏状态数据可以包括游戏角色、游戏对象、游戏对象属性、游戏属性、游戏对象状态、图形叠加等。以这种方式,游戏状态数据允许生成在视频游戏中的对应点处存在的游戏环境。游戏状态数据还可以包括用于渲染游戏进行的每个设备的状态,诸如CPU的状态、GPU的状态、存储器的状态、寄存器值、程序计数器值、可编程DMA状态、DMA的缓冲数据、音频芯片状态、CD-ROM状态等。游戏状态数据还可以识别需要加载可执行代码的哪些部分以便从这个点执行视频游戏。并非所有游戏状态数据都需要被捕获和存储,只有足以使可执行代码在与快照相对应的点处启动游戏的数据。游戏状态数据存储在游戏状态数据库145中。
快照还包括用户保存数据。一般来说,用户保存数据包括为对应用户个性化视频游戏的信息。这包括与用户的角色相关联的信息,使得视频游戏以对于这个用户可能是唯一的角色(例如,形状、外观、服装、武器等)渲染。以这种方式,用户保存数据使得能够生成用于对应用户的游戏进行的角色,其中所述角色具有对应于视频游戏中与快照相关联的点的状态。例如,用户保存数据可以包括用户5在进行游戏时选择的游戏难度、游戏等级、角色属性、角色位置、剩余生命数、可用的可能生命总数、护甲、战利品、时间计数器值以及其他资产信息等。例如,用户保存数据还可以包括识别用户5的用户简档数据。用户保存数据存储在数据库141中。
另外,快照还包括由人工智能(AI)模块215生成的随机种子数据。随机种子数据可以不是原始游戏代码的一部分,但是可以以叠加方式添加以使游戏环境看起来更真实和/或对用户更有吸引力。也就是说,随机种子数据为存在于用户的游戏进行中的对应点处的游戏环境提供附加特征。例如,可以随机生成AI角色并且以叠加方式提供。AI角色不与进行游戏的任何用户相关联,而是被放置在游戏环境中以增强用户的体验。作为说明,这些AI角色可以在城市场景中随机地在街道上行走。另外,可以生成其他对象并以叠加方式呈现。例如,可以生成背景中的云和在空中飞行的鸟,并以叠加方式呈现。随机种子数据存储在随机种子数据库143中。
以这种方式,希望体验用户5的游戏进行的另一用户可以选择与视频游戏中的感兴趣的点相对应的快照。例如,用户选择时间线中呈现的快照图像或节点图中的节点使得游戏处理器201的跳跃执行引擎216能够访问对应的快照,基于快照实例化视频游戏的另一个实例,并且从视频游戏中与快照相对应的点处开始执行视频游戏。以这种方式,快照使得请求用户能够在与快照相对应的点处跳跃到用户5的游戏进行中。另外,用户5可以使用对应的快照访问其他用户的游戏进行,或者甚至访问他或她自己在相同或其他游戏应用中的先前游戏进行。具体地,用户5对快照的选择(例如,在时间线中或通过消息等)使得执行引擎216能够从各种数据库(例如,从数据库140)收集快照(例如,元数据和/或信息),以便在对应游戏应用中捕获对应快照的点处开始执行对应的游戏应用。
在一个实施例中,游戏处理器201包括基于位置的伴随应用生成器213,其被配置成在用户5进行游戏应用时生成支持所述用户的游戏进行的伴随界面。在另一个实施例中,类似地配置的伴随应用生成器113对于用户5是本地的。在任一情况下,生成器213或113可以用于创建基于用户5的游戏进行要传送到用户5或从用户5接收的情境相关信息(例如,辅助信息、消息等),其中所述情境相关信息使用基于位置的信息(例如,快照)来创建。情境相关信息还可以基于从进行游戏应用的其他用户的游戏进行中收集的信息。例如,在实施例中,基于位置的信息可以基于在众包环境中进行同一游戏应用的多个用户的当前和/或过去的游戏进行,使得可以通过观察和/或分析多个游戏进行来确定信息。以这种方式,可以在进行游戏期间发现众包的内容,其中所述内容可以有助于其他玩家进行同一游戏应用,或者为这些其他玩家提供增强的用户体验。可以从用户的朋友生成情境相关信息。用户可能正在单独进行游戏应用(例如,独自进行),并且通过伴随界面接收有助于推进第一用户的游戏进行或用于提供增强的用户体验的信息。用户可能正在与所有同时进行游戏应用的一群朋友一起进行(例如,以单独或多玩家模式),其中所述信息提供朋友之间的实时交互。
具体地,生成器213或113可配置成针对游戏进行的特定情境(例如,角色的当前位置、游戏状态信息等)来确定用户5对特定游戏应用的游戏进行的进度(例如,基于快照),并且确定可以传送到伴随界面的情境相关信息,所述伴随界面可在与显示用户5的游戏进行的设备分开的设备11上显示。例如,情境相关信息可以提供在通过游戏应用的进展中提供帮助的信息。情境相关信息可以考虑由预测引擎214提供的信息,所述预测引擎被配置成预测用户5的游戏进行将去往的位置,包括角色将拜访哪些区域、推进游戏进行所需的任务、为了推进游戏进行所需的资产(例如,完成要求的任务所需的资产)等。
一般来说,可以在对应用户的外围区内提供次要信息,对应用户与在VR观看环境(诸如在HMD中实现的环境)的活动区中呈现的主要内容进行交互。在一个实现方式中,VR观看环境可以由后端服务器处的VR内容引擎299生成,或者在VR内容引擎199处本地生成。伴随界面中呈现的次要信息还可以用于由用户5创建情境相关内容,诸如与进行活动区中呈现的游戏应用的用户的游戏进行相关的辅助信息、或与主要内容相关的其他信息(例如,与作为主要内容呈现的电影中的演员相关的信息)等。
在一个实施例中,伴随界面被传送到设备11(例如,平板电脑)以用于显示和交互,其中设备11可以是与客户端设备100分开的,其被配置成执行和/或支持与用于用户5进行交互的游戏应用的执行。例如,可以在游戏服务器205与客户端设备100之间建立第一通信信道,并且可以在游戏服务器205与设备11之间建立单独的第二通信信道。在另一个实施例中,次要信息(例如,伴随界面)被传送到HMD 102以用于显示和交互。
图1B示出根据本公开的一个实施例的向进行一个或多个游戏应用的一个或多个用户提供游戏控制的系统106B,所述一个或多个游戏应用对于对应用户正在本地执行,并且其中后端服务器支持(例如,可通过游戏服务器205访问)可以实现基于位置的伴随界面,所述伴随界面支持在如HMD 102中实现的VR观看环境中呈现的对应用户的游戏进行,其中所述伴随界面或伴随界面中呈现的信息是在VR观看环境中的外围区中呈现的。在一个实施例中,系统106B与图1A的系统10和图2的系统200一起工作,以实现支持对应用户的游戏进行的基于位置的伴随界面,并且其中为清楚起见,并未示出所有组件。现在参考附图,相似的参考数字指定相同或对应的部分。
如图1B所示,多个用户115(例如,用户5A、用户5B……用户5N)正在进行多个游戏应用,其中每个游戏应用在对应用户的对应客户端设备100(例如,游戏控制台)上本地执行。另外,多个用户115中的每一个都可以访问设备11和/或HMD 102,所述设备和/或HMD先前已经介绍,其被配置成接收和/或生成用于显示的伴随界面,其中如前所述,伴随界面为进行对应游戏应用的对应用户提供次要信息(例如,情境相关信息),其中次要信息在观看如所显示的VR观看环境的活动区中呈现的主要内容的用户的外围区中呈现。客户端设备100中的每一个可以类似地配置,因为它们执行对应游戏应用的本地执行。例如,用户5A可能正在对应的客户端设备100上进行第一游戏应用,其中第一游戏应用的实例由对应的游戏标题执行引擎111执行。实现第一游戏应用的游戏逻辑126A(例如,可执行代码)存储在对应的客户端设备100上,并且用于执行第一游戏应用。出于说明的目的,可以通过便携式介质(例如,闪存驱动器、光盘等)或通过网络(例如,通过互联网150从游戏提供商下载)将游戏逻辑传送到对应的客户端设备100。另外,用户5B正在对应的客户端设备100上进行第二游戏应用,其中第二游戏应用的实例由对应的游戏标题执行引擎111执行。第二游戏应用可以与针对用户5A执行的第一游戏应用相同,或者是不同的游戏应用。实现第二游戏应用的游戏逻辑126B(例如,可执行代码)如前所述存储在对应的客户端设备100上,并且用于执行第二游戏应用。此外,用户115N正在对应的客户端设备100上进行第N游戏应用,其中第N游戏应用的实例由对应的游戏标题执行引擎111执行。第N游戏应用可以与第一游戏应用或第二游戏应用相同,或者可以是完全不同的游戏应用。实现第三游戏应用的游戏逻辑126N(例如,可执行代码)如前所述存储在对应的客户端设备100上,并且用于执行第N游戏应用。
如前所述,客户端设备100可以从各种类型的输入设备接收输入,诸如游戏控制器、平板计算机、键盘、由摄影机捕获的手势、鼠标、触摸板等。客户端设备100可以是任何类型的计算设备,其至少具有存储器以及能够通过网络150连接到游戏服务器205的处理器模块。此外,对应用户的客户端设备100被配置用于生成由本地或远程执行的游戏标题执行引擎111执行的渲染图像,并且用于在显示器(例如,显示器11、HMD 102等)上显示所述渲染图像。例如,渲染图像可以与在用户5A的客户端设备100上执行的第一游戏应用的实例相关联。例如,对应的客户端设备100被配置成与本地或远程执行的对应游戏应用的实例进行交互,以便诸如通过用于驱动游戏进行的输入命令实现对应用户的游戏进行。
在一个实施例中,针对正在进行游戏应用的对应用户,客户端设备100以单玩家模式操作。根据本公开的一个实施例,经由游戏服务器205实现的后端服务器支持可以提供支持对应用户的游戏进行的基于位置的伴随界面服务,如下文将描述的。
在另一个实施例中,针对每个正在进行特定游戏应用的对应用户,多个客户端设备100以多玩家模式操作。在这种情况下,经由游戏服务器实现的后端服务器支持可以提供多玩家功能,诸如通过多玩家处理引擎119。具体地,多玩家处理引擎119被配置用于控制特定游戏应用的多玩家游戏会话。例如,多玩家处理引擎119与多玩家会话控制器116通信,所述多玩家会话控制器被配置成与参与多玩家游戏会话的每个用户和/或玩家建立和维持通信会话。以这种方式,会话中的用户可以在多玩家会话控制器116的控制下彼此通信。
此外,多玩家处理引擎119与多玩家逻辑118通信,以便在每个用户的对应游戏环境内实现用户之间的交互。具体地,状态共享模块117被配置成管理多玩家游戏会话中的每个用户的状态。例如,状态数据可以包括游戏状态数据,其定义在特定点处对应用户的(游戏应用的)游戏进行的状态。例如,游戏状态数据可以包括游戏角色、游戏对象、游戏对象属性、游戏属性、游戏对象状态、图形叠加等。以这种方式,游戏状态数据允许生成在游戏应用中的对应点处存在的游戏环境。游戏状态数据还可以包括用于渲染游戏进行的每个设备的状态,诸如CPU的状态、GPU的状态、存储器的状态、寄存器值、程序计数器值、可编程DMA状态、DMA的缓冲数据、音频芯片状态、CD-ROM状态等。游戏状态数据还可以识别需要加载可执行代码的哪些部分以便从这个点执行视频游戏。游戏状态数据可以存储在图1A和图2的数据库140中,并且可通过状态共享模块117访问。
此外,状态数据可以包括用户保存数据,所述用户保存数据包括为对应玩家个性化视频游戏的信息。这包括与用户扮演的角色相关联的信息,使得视频游戏以对于这个用户可能是唯一的角色(例如,位置、形状、外观、服装、武器等)渲染。以这种方式,用户保存数据使得能够生成用于对应用户的游戏进行的角色,其中所述角色具有与游戏应用中对应用户当前体验的点相对应的状态。例如,用户保存数据可以包括对应用户115A在进行游戏时选择的游戏难度、游戏等级、角色属性、角色位置、剩余生命数、可用的可能生命总数、护甲、战利品、时间计数器值等。例如,用户保存数据还可以包括识别对应用户115A的用户简档数据。用户保存数据可以存储在数据库140中。
以这种方式,使用状态共享数据117和多玩家逻辑118的多玩家处理引擎119能够将对象和角色叠加/插入到参与多玩家游戏会话的用户的每个游戏环境中。例如,第一用户的角色被叠加/插入到第二用户的游戏环境中。这允许多玩家游戏会话中的用户之间的经由他们各自的游戏环境(例如,如在屏幕上显示的)中的每一个进行的交互。
另外,经由游戏服务器205实现的后端服务器支持可以提供基于位置的伴随应用服务,所述伴随应用服务通过由伴随应用生成器213生成的伴随界面提供。在另一个实施例中,伴随应用生成器113对于用户5是本地的,并且类似地配置。如先前所介绍的,生成器213和/或113被配置成创建要传送到用户5或从其接收的次要信息,包括情境相关信息(例如,辅助信息、消息等)。所述信息可以基于用户5对特定应用的游戏进行(例如,基于快照中提供的信息)生成。以这种方式,生成器213或113能够确定用户5的游戏进行的情境,并且提供可传送到可在设备11(例如,与显示用户5的游戏进行的设备分开)上或HMD 102上(同时显示用户5的游戏进行)显示的伴随界面的情境相关信息。
图1C示出根据本公开的一个实施例的向在如通过云游戏网络执行的相应VR观看环境中进行游戏应用的一个或多个用户115(例如,用户5L、5M……5Z)提供游戏控制的系统106C,并且其中后端服务器支持可以实现支持对应用户的游戏进行的基于位置的伴随界面,所述伴随界面位于对应用户的外围区中,并且其中当有新的信息或数据可供观看时,用户的注意力被引导到外围区。在一些实施例中,云游戏网络可以是游戏云系统210,其包括在主机的管理程序上运行的多个虚拟机(VM),其中一个或多个虚拟机被配置成利用主机的管理程序可用的硬件资源来执行游戏处理器模块。在一个实施例中,系统106C与图1A的系统10和/或图2的系统200一起工作,以实现支持对应用户的游戏进行的基于位置的伴随界面。现在参考附图,相似的参考数字指定相同或对应的部分。
如图所示,游戏云系统210包括游戏服务器205,其提供对多个交互式视频游戏或游戏应用的访问。游戏服务器205可以是云中可用的任何类型的服务器计算设备,并且可以被配置为在一个或多个主机上执行的一个或多个虚拟机。例如,游戏服务器205可以管理支持游戏处理器的虚拟机,其为用户实例化游戏应用的实例。这样,游戏服务器205的与多个虚拟机相关联的多个游戏处理器被配置成执行与多个用户115的游戏进行相关联的游戏应用的多个实例。以这种方式,后端服务器支持向多个对应用户提供多个游戏应用的游戏进行的媒体(例如,视频、音频等)的流传输。
多个用户115经由网络150访问游戏云系统210,其中用户(例如,用户5L、5M……5Z)经由对应的客户端设备100'访问网络150,其中客户端设备100'可以与图1A-1B的客户端设备100类似地配置(例如,包括游戏执行引擎111等),或者可以被配置为瘦客户端,其提供与提供计算功能的后端服务器(例如,包括游戏执行引擎211)的接口。另外,多个用户115中的每一个都可以访问设备11或HMD 102,所述设备或HMD先前已经介绍,其被配置成接收和/或生成用于显示的伴随界面,如前所述,所述伴随界面在进行VR观看环境中呈现的对应游戏应用的对应用户的外围区中提供次要信息(例如,情境相关信息)。具体地,对应用户5L的客户端设备100'被配置用于通过网络150(诸如互联网)请求对游戏应用的访问,并且用于渲染由游戏服务器205执行并传送到与对应用户5L相关联的显示设备的游戏应用(例如,视频游戏)的实例。例如,用户5L可以通过客户端设备100'与在游戏服务器205的游戏处理器上执行的游戏应用的实例进行交互。更具体地,游戏应用的实例由游戏标题执行引擎211执行。实现游戏应用的游戏逻辑(例如,可执行代码)通过先前描述的数据存储区140存储且可访问,并且用于执行游戏应用。如图所示,游戏标题处理引擎211能够使用多个游戏逻辑177支持多个游戏应用。
如前所述,客户端设备100'可以从各种类型的输入设备接收输入,诸如游戏控制器、平板计算机、键盘、由摄影机捕获的手势、鼠标、触摸板等。客户端设备100'可以是任何类型的计算设备,其至少具有存储器以及能够通过网络150连接到游戏服务器205的处理器模块。此外,对应用户的客户端设备100'被配置用于生成由本地或远程执行的游戏标题执行引擎211执行的渲染图像,并且用于在显示器上显示所述渲染图像。例如,渲染图像可以与在用户5L的客户端设备100'上执行的第一游戏应用的实例相关联。例如,对应的客户端设备100'被配置与本地或远程执行的对应游戏应用的实例进行交互,以便诸如通过用于驱动游戏进行的输入命令实现对应用户的游戏进行。
在另一个实施例中,先前描述的多玩家处理引擎119提供用于控制游戏应用的多玩家游戏会话。具体地,当多玩家处理引擎119正在管理多玩家游戏会话时,多玩家会话控制器116被配置成与多玩家会话中的每个用户和/或玩家建立和维持通信会话。以这种方式,会话中的用户可以在多玩家会话控制器116的控制下彼此通信。
此外,多玩家处理引擎119与多玩家逻辑118通信,以便在每个用户的对应游戏环境内实现用户之间的交互。具体地,状态共享模块117被配置成管理多玩家游戏会话中的每个用户的状态。例如,状态数据可以包括游戏状态数据,其定义在特定点处对应用户115A的(游戏应用的)游戏进行的状态,如前所述。此外,状态数据可以包括用户保存数据,所述用户保存数据包括为对应玩家个性化视频游戏的信息,如前所述。例如,状态数据包括与用户的角色相关联的信息,使得视频游戏以对于这个用户可能是唯一的角色(例如,形状、外观、服装、武器等)渲染。以这种方式,使用状态共享数据117和多玩家逻辑118的多玩家处理引擎119能够将对象和角色叠加/插入到参与多玩家游戏会话的用户的每个游戏环境中。这允许多玩家游戏会话中的用户之间的经由他们各自的游戏环境(例如,如在屏幕上显示的)中的每一个进行的交互。
另外,经由游戏服务器205实现的后端服务器支持可以提供基于位置的伴随应用服务,所述伴随应用服务通过由伴随应用生成器213生成的伴随界面提供。在另一个实施例中,伴随应用生成器113对于用户5是本地的,并且类似地配置。如先前所介绍的,生成器213和/或113被配置成创建要传送到对应用户(例如,用户5L)或从对应用户接收的情境相关信息(例如,辅助信息、消息等)。所述信息基于用户对特定应用的游戏进行(例如,基于快照中提供的信息)而生成。以这种方式,生成器213和/或113能够确定对应用户的游戏进行的情境,并且提供可传送到可在设备11(例如,与显示用户5L的游戏进行的设备分开)上和/或HMD 102上(例如,同时显示用户5的游戏进行)显示的伴随界面的情境相关信息。
图1D概念性地示出根据本发明的实施例的HMD 102的功能以及VR内容的生成(例如,游戏应用和/或视频游戏、视频内容等的执行),以及主要内容作为VR内容在与用户5相关联的VR观看环境的活动区内的呈现,以及次要信息在活动区外部的外围区中的生成和/或呈现。在一些实现方式中,VR内容引擎199正在本地化客户端设备100(未示出)上执行,所述客户端设备通信地耦接到HMD 102,如前所述。例如,执行应用的VR内容引擎199可以是执行视频游戏的游戏引擎,并且被配置成接收输入以更新视频游戏的游戏状态。如前所述,游戏引擎可以是游戏控制台或后端游戏服务器。视频游戏的游戏状态可以至少部分地由定义当前游戏进行的各个方面的视频游戏的各种参数的值来定义,诸如对象的存在和位置、虚拟环境的状况、事件的触发、用户简档、观看视角、用户5采取的动作、控制器动作、凝视跟踪信息等。
在所示的实施例中,举例来说,VR内容引擎199接收控制器输入161、音频输入162和运动输入163。控制器输入161可以根据与HMD 102分开的游戏控制器的操作来定义,所述游戏控制器诸如手持式游戏控制器6(例如,Sony4无线控制器、SonyMove运动控制器)或可穿戴式控制器(诸如可穿戴式手套接口控制器)等。举例来说,控制器输入161可以包括方向输入、按钮按压、触发激活、移动、手势或从游戏控制器的操作处理而来的其他类别的输入。音频输入162可以是从HMD 102的传声器151处理而来的,或者从包括在图像捕获设备108中的传声器或本地系统环境内的其他地方处理而来的。运动输入163可以是从包括在HMD 102中的运动传感器159处理而来的,或者在图像捕获设备108捕获HMD 102的图像时从所述图像捕获设备处理而来的。例如,运动传感器159可以包括惯性传感器,所述惯性传感器被配置成捕获与用户5的头部移动相关联的HMD 102的加速度数据。另外,图像捕获设备108可以被配置用于头部跟踪以监视用户5的头部移动。以这种方式,通过跟踪头部移动和/或眼睛移动,当头部和/或眼睛指向VR观看环境中与用户相关联的外围区时,可以在观看VR观看环境的用户的视野(FOV)内呈现次要数据。VR内容引擎199(例如,执行游戏应用)接收根据游戏引擎的配置进行处理的输入以更新视频游戏的游戏状态。引擎199将游戏状态数据输出到各种渲染模块,所述渲染模块处理游戏状态数据以定义将呈现给用户5的内容。
在所示的实施例中,视频渲染模块183被定义为渲染包括VR内容198的视频流,当在HMD 102上呈现时,所述视频流向用户5提供三维VR体验。HMD 102中的光学镜头170被配置用于观看VR内容198。显示屏175设置在光学透镜170的后方,使得当用户5佩戴HMD 102时,光学透镜170位于显示屏175与用户5的眼睛160之间。以这种方式,视频流可以由显示屏/投影仪机构175呈现,并且由用户5的眼睛160通过光学器件170观看。例如,HMD用户5可以通过佩戴HMD并选择用于进行游戏的视频游戏来选择与交互式VR内容(例如,VR视频源、视频游戏内容等)进行交互。来自视频游戏的交互式虚拟现实(VR)场景在HMD的显示屏175上渲染。以这种方式,HMD通过在用户眼睛附近提供HMD的显示机构来允许用户5完全沉浸在游戏进行中。在HMD的用于渲染内容的显示屏幕中定义的显示区域可以占据用户5的大部分或甚至整个视野。例如,主要内容呈现在VR观看环境的活动区内。通常,正在观看一个或多个显示屏的每只眼睛由相关联的光学透镜170支持。
音频渲染模块182被配置成渲染供用户5收听的音频流。在一个实施例中,通过与HMD 102相关联的扬声器152输出音频流。应当理解,扬声器152可以采用露天扬声器、耳机或能够呈现音频的任何其他类别的扬声器的形式。
在一个实施例中,HMD 102中包括凝视跟踪摄像机165以使得能够跟踪用户5的凝视。虽然仅包括一个凝视跟踪摄像机165,但应当注意,可以采用一个以上的凝视跟踪摄像机来跟踪用户5的凝视。凝视跟踪摄像机捕获用户眼睛的图像,分析所述图像以确定用户5的凝视方向。在一个实施例中,可以利用关于用户5的凝视方向的信息来影响视频渲染。例如,如果确定用户的眼睛正在朝特定方向观看,则可以优先化或强调这个方向的视频渲染,诸如通过在用户5正在观看的区域中提供更多细节或更快的更新。在一个实施例中,当检测到用户5的凝视指向呈现主要内容的活动区外部的外围区时,在用户的FOV中呈现次要信息。应当理解,用户5的凝视方向可以相对于头戴式显示器、相对于用户5所处的真实环境、和/或相对于正在头戴式显示器上渲染的虚拟环境来定义。
概括地说,当单独考虑时,对由凝视跟踪摄像机192捕获的图像的分析提供了用户5相对于HMD 102的凝视方向。然而,当结合HMD 102的跟踪位置和取向来考虑时,可以确定用户5的真实世界凝视方向,因为HMD 102的位置和取向与用户头部的位置和取向同义。也就是说,可以通过跟踪用户眼睛的位置移动并跟踪HMD 102的位置和取向来确定用户5的真实世界凝视方向。当在HMD 102上渲染虚拟环境的视图时,可以应用用户5的真实世界凝视方向以确定用户5在虚拟环境中的虚拟世界凝视方向。
另外,触觉反馈模块181被配置成向HMD 102或由HMD用户5操作的另一设备(诸如控制器6)中包括的触觉反馈硬件提供信号。触觉反馈可以采取各种类别的触觉感觉的形式,诸如振动反馈、温度反馈、压力反馈等。
在另一个实施例中,从VR内容引擎生成元数据167,并且所述元数据用于确定传送给正在观看如通过HMD 102实现的VR观看环境中的主要内容的用户的次要内容。例如,元数据167可以确定用户正在进行的游戏应用的游戏环境中的角色的当前位置,其中基于角色的位置信息生成次要内容(例如,情境相关信息)以便在外围区中显示给用户。
图2示出根据本公开的实施例的用于启用访问和进行存储在游戏云系统(GCS)210中的游戏应用的系统图200。一般来说,游戏云系统GCS 210可以是通过网络220操作以支持多个用户的云计算系统。另外,GCS 210被配置成保存在多个用户的游戏应用的游戏进行期间生成的快照,其中快照可以用于为请求用户启动游戏应用的实例、从游戏应用中对应于所述快照的点处开始。例如,快照生成器212被配置用于生成和/或捕获进行游戏应用的一个或多个用户的游戏进行的快照。快照生成器212可以在游戏服务器205的外部或内部执行。另外,GCS 210通过使用快照而使得用户能够浏览游戏应用,并预览游戏应用的过去和未来场景。此外,快照使得请求用户能够通过对应的快照跳跃到视频游戏中的所选定点以体验另一用户的游戏进行。此外,GCS可以被配置成在外围区内呈现次要内容,所述外围区位于与用户5相关联的如通过HMD(未示出)实现的VR观看环境的活动区外部,其中所述活动区呈现主要内容。例如,次要内容可以在伴随界面中呈现,所述伴随界面提供支持进行如在VR观看环境中显示的游戏应用的用户5的游戏进行的信息。更具体地,系统200包括GCS210、一个或多个社交媒体提供商240和用户设备230,所有这些都经由网络220(例如,互联网)连接。一个或多个用户设备可以连接到网络220以访问由GCS 210和社交媒体提供商240提供的服务。
在一个实施例中,游戏云系统210包括游戏服务器205、视频记录器271、标签处理器273以及包括用户简档管理器的帐户管理器274、游戏选择引擎275、游戏会话管理器285、用户访问逻辑280、网络接口290和社交媒体管理器295。GCS 210还可以包括通常可以存储在数据存储区140中的多个游戏存储系统,诸如游戏状态存储区、随机种子存储区、用户保存数据存储区、快照存储区。其他游戏存储系统可以包括游戏代码存储区261、记录游戏存储区262、标签数据存储区263、视频游戏数据存储区264和游戏网络用户存储区265。在一个实施例中,GCS 210是可以提供游戏应用、服务、游戏相关数字内容以及系统、应用、用户和社交网络之间的互连的系统。GCS 210可以经由网络接口290、通过社交媒体管理器295与用户设备230和社交媒体提供商240通信。社交媒体管理器295可以被配置成关联一个或多个朋友。在一个实施例中,每个社交媒体提供商240包括显示用户社交网络连接的至少一个社交图245。
用户U0能够经由游戏会话管理器285访问由GCS 210提供的服务,其中用户U0可以代表图1A的用户5。例如,帐户管理器274启用用户U0的认证和对GCS 210的访问。帐户管理器274存储关于成员用户的信息。例如,每个成员用户的用户简档可以由账户管理器274管理。以这种方式,帐户管理器274可以使用成员信息用于认证目的。例如,账户管理器2274可以用于更新和管理与成员用户相关的用户信息。另外,成员用户拥有的游戏标题可以由账户管理器274管理。以这种方式,存储在数据存储区264中的游戏应用可供拥有这些游戏应用的任何成员用户使用。
在一个实施例中,用户、例如用户U0可以通过经由网络220实现的连接,借助于用户设备230来访问由GCS 210和社交媒体提供商240提供的服务。用户设备230可以包括具有处理器和存储器、有线或无线、便携式或不便携式的任何类型的设备。在一个实施例中,用户设备230可以是智能电话、平板计算机或者以便携式形状因子提供触摸屏功能的混合物的形式。一个示例性设备可以包括便携式电话设备,所述便携式电话设备运行操作系统并且具有对可以通过网络220获得并且在本地便携式设备(例如,智能电话、平板电脑、膝上型电脑、台式机等)上执行的各种应用(app)的访问。
用户设备230包括显示器232,所述显示器充当用户U0发送输入命令236以及显示从GCS 210和社交媒体提供商240接收的数据和/或信息235的接口。显示器232可以被配置为触摸屏、或通常由平板显示器、阴极射线管(CRT)或能够渲染显示器的其他设备提供的显示器。可替代地,用户设备230可以具有与设备分开的显示器232,类似于台式计算机或膝上型计算机。在又一替代实施例中,用户设备230可以具有提供显示能力的HMD,以便在VR观看环境的活动区中呈现主要内容,并且在活动区外部的外围区中呈现次要内容。用户U0可以使用附加设备231(例如,图1A的设备11)以便实现基于位置的伴随界面。
在一个实施例中,用户设备130被配置成与GCS 210通信以使得用户U0能够进行游戏应用。在一些实施例中,GCS 210可以包括在主机的管理程序上运行的多个虚拟机(VM),其中一个或多个虚拟机被配置成利用主机的管理程序可用的硬件资源来执行游戏处理器模块。例如,用户U0可以通过游戏选择引擎275来选择(例如,通过游戏标题等)在视频游戏数据存储区264中可用的游戏应用。游戏应用可以在单玩家游戏环境或多玩家游戏环境中进行。以这种方式,启用并加载所选择的游戏应用以便由在GCS 210上的游戏服务器205执行。在一个实施例中,游戏进行主要在GCS 210中执行,使得用户设备230将从GCS 210接收一连串游戏视频帧235,并且用于驱动游戏进行的用户输入命令236被传输回GCS 210。来自流式游戏进行的接收视频帧235显示在用户设备230的显示器232中。在其他实施例中,GCS210被配置成支持支持多个用户的多个本地计算设备,其中每个本地计算设备可以执行游戏应用的实例,诸如单玩家游戏应用或多玩家游戏应用的实例。例如,在多玩家游戏环境中,当游戏应用在本地执行时,云游戏网络同时从每个本地计算设备接收信息(例如,游戏状态数据)并相应地在所述本地计算设备中的一个或多个中分配这信息,使得每个用户都能够在多玩家游戏应用的游戏环境中与其他用户进行交互(例如,通过视频游戏中的对应角色)。以这种方式,云游戏网络在多玩家游戏环境中协调和组合每个用户的游戏进行。
在一个实施例中,在用户U0选择可用的游戏标题进行游戏之后,可以由用户U0通过游戏会话管理器285发起针对所选游戏标题的游戏会话。游戏会话管理器285首先访问数据存储区140中的游戏状态存储区,以检索用户U0所进行的最后一个会话的已保存游戏状态(针对所选游戏),如果有的话,使得用户U0可以从先前的游戏进行停止点重新开始游戏。一旦识别出恢复点或起始点,游戏会话管理器285就可以通知游戏处理器201中的游戏执行引擎来执行从游戏代码存储区261中所选的游戏标题的游戏代码。在发起游戏会话之后,游戏会话管理器285可以经由网络接口290将游戏视频帧235(即,流式视频数据)传递到用户设备,例如用户设备230。
在进行游戏期间,游戏会话管理器285可以与游戏处理器201、记录引擎271和标签处理器273通信以生成或保存游戏进行或游戏进行会话的记录(例如,视频)。在一个实施例中,游戏进行的视频记录可以包括在进行游戏期间输入或提供的标签内容,以及其他游戏相关的元数据。标签内容也可以通过快照保存。游戏进行的视频记录以及对应于这种游戏进行的任何游戏度量可以保存在记录游戏存储区262中。可以将任何标签内容保存在标签数据存储区263中。
在进行游戏期间,游戏会话管理器285可以与游戏服务器205的游戏处理器201通信以便传送和获得用户输入命令236,所述用户输入命令用于影响游戏应用的对应游戏进行的结果。可以将由用户U0输入的输入命令236从用户设备230传输到GCS 210的游戏会话管理器285。输入命令236(包括用于驱动游戏进行的输入命令)可以包括用户交互式输入,诸如包括标签内容(例如,文本、图像、视频记录剪辑等)。游戏输入命令以及任何用户游戏度量(用户进行游戏的时间等)可以存储在游戏网络用户存储区中。选择与游戏应用的游戏进行相关的信息可以用于启用用户可用的多个特征。
因为游戏进行是由多个用户在GCS 210上执行的,所以从这些游戏进行中生成和存储的信息使得任何请求用户都能够体验其他用户的游戏进行,特别是当通过GCS 210执行游戏进行时。具体地,GCS 210的快照生成器212被配置成保存由进行通过GCS 210提供的游戏应用的用户的游戏进行生成的快照。在用户U0的情况下,用户设备提供允许用户U0在进行游戏期间参与游戏应用的接口。生成用户U0的游戏进行的快照并将其保存在GCS 210上。快照生成器212可以在游戏服务器205外部执行,如图2所示,或者可以在游戏服务器205内部执行,如图1A所示。
另外,从这些游戏进行中收集的信息可以用于生成在对应的伴随应用中提供给用户U0的情境相关信息。例如,如先前所介绍的,伴随应用生成器213被配置用于实现基于位置的伴随界面,所述伴随界面被配置成支持用户U0的游戏进行,其中所述伴随界面包括基于用户U0的游戏进行中的角色的位置生成的情境相关信息(例如,消息、辅助信息、帮助提供等)。伴随应用生成器213可以在游戏服务器205外部执行,如图2所示,或者可以在游戏服务器205内部执行,如图1A所示。在这些实现方式中,可以通过网络220将情境相关信息传送到用户设备231,以便显示包括情境相关信息的伴随应用界面。在另一个实施例中,伴随应用生成器213对于用户可以是本地的(例如,在用户设备231内实现)并且被配置用于生成和显示情境相关信息两者。在这个实现方式中,用户设备231可以通过本地网络(或通过外部网络220)直接与用户设备230通信以实现伴随应用界面,其中用户设备231可以向用户设备231传送基于位置的信息,并且其中设备230被配置用于生成和显示包括情境相关信息的伴随应用界面。
此外,用户设备230被配置成提供界面,所述界面使得能够使用在用户U0或另一用户的游戏进行中生成的快照而跳跃到游戏应用中的所选点。例如,跳跃游戏执行引擎216被配置用于访问对应的快照,基于快照实例化游戏应用的实例,并且在游戏应用中与快照相对应的点处开始执行游戏应用。以这种方式,快照使得请求用户能够在与快照相对应的点处跳跃到对应用户的游戏进行中。例如,用户U0能够体验任何其他用户的游戏进行,或者返回并观看和/或重新进行他或她自己的游戏进行。也就是说,请求用户通过对应游戏进行的快照,使用在这个游戏进行中使用并且对应于这个游戏进行的角色来进行游戏应用。跳跃游戏执行引擎216可以在游戏服务器205外部执行,如图2所示,或者可以在游戏服务器205内部执行,如图1A所示。
图3A-9是在用户正在进行如VR观看环境(例如,如在HMD中实现的)中显示的游戏应用的情境中进行描述的,其中次要信息是在呈现主要内容的活动区外部的外围区中呈现,并且其中当有新信息可用时,用户的注意力指向外围区。一般来说,游戏应用可以是响应于用户输入的任何交互式游戏。在一些实施例中,在基于位置的伴随界面内提供信息,所述伴随界面被配置成支持用户的游戏进行。
已经详细描述了通过网络进行通信的游戏服务器和客户端设备的各种模块,现在相对于图3A的流程图300A来描述根据本公开的一个实施例的用于在VR观看环境中提供次要内容(例如,数据和/或信息)的方法。在一些实施例中,在伴随界面内提供次要内容,所述伴随界面被配置成支持在VR观看环境(例如,由HMD实现)中进行游戏应用的用户的游戏进行。例如,流程图300A的方法可以至少部分地由图1A-1D和图2的伴随应用生成器213或113执行。
如图3A中所公开的本发明的实施例可以在后端游戏服务器处实现,而本发明的其他实施例非常适合于在本地用户系统内实现,所述本地用户系统包括配置用于执行游戏应用并提供次要内容以支持用户的游戏进行的游戏处理器。例如,伴随界面可以在本地且隔离的系统内实现,或者可以由后端游戏服务器通过另一网络生成并且用于生成和呈现次要内容。
在305处,所述方法包括在如通过HMD的3D显示器呈现的用户的VR观看环境中定义活动区。在一个实施例中,VR观看环境与用户在物理环境内的物理取向相关联,其中HMD从用户的取向(例如,观看取向)获取线索以确定应当显示VR观看环境的哪个部分。例如,通过基于用户的取向的初始状态建立3D物理坐标系,还可以建立虚拟3D物理坐标系。作为说明,0度可以在物理坐标系与虚拟坐标系之间对应,使得当用户的取向为0度时,HMD显示也为0度的VR观看环境的视图。当用户旋转他的头部(即,观看取向)时,HMD中显示的VR观看环境也旋转。
在310处,所述方法包括将主要内容放置在VR观看环境的活动区中。在一个实现方式中,VR观看环境被配置成包括活动区中的主要观看区域。例如,可以在活动区内配置2D屏幕以显示2D内容作为主要内容,诸如视频内容(例如,电影等)、2D游戏应用(例如,传统视频游戏、为2D显示器设计的当前视频游戏)等。
在VR观看环境中,活动区保持不变并且不断地呈现主要内容。这样,当用户的取向远离活动区而改变时,在VR观看环境的HMD中显示的内容可以与主要内容不同,并且可以包括各种其他数据。例如,呈现主要内容的2D屏幕可以放置在整个VR环境中,诸如公园设置、市中心城市设置、室外设置、室内设置等。当用户的取向旋转通过物理环境时,可以在HMD中显示整个VR环境,使得用户首先观看主要内容,然后随着取向改变而观看周围的VR观看环境。
在315处,所述方法包括在活动区外部定义一个或多个外围区。外围区可以恰好位于活动区外部,并且当用户正在观看活动区中的主要内容时,在用户的典型视野(FOV)内,外围区可能不可见或略微可见(例如,重叠)。也就是说,活动区可以与用户的FOV紧密对应。以这种方式,用户可以舒适地改变他或她的取向以使外围区在如HMD中所显示的VR观看环境内进入视野。
在一个实施例中,外围区不包括主要内容,而替代地可以呈现其他各种内容。具体地,在320处,所述方法包括将次要内容放置在VR观看环境的一个外围区中。次要内容与主要内容不同,并且可以支持主要内容。例如,次要内容可以提供与主要内容相关的附加信息(例如,关于作为主要内容呈现的电影中的演员的信息、关于用户的游戏进行中的游戏角色的信息等)。在一个实施例中,次要内容包括在伴随界面中呈现的数据和/或信息,所述伴随界面支持在如通过HMD看到的VR环境中进行游戏应用的用户的游戏进行。下文相对于图3B更全面地描述伴随界面。
当用户正在关注主要内容时,很多时候用户不知道在一个或多个外围区中存在次要内容。次要内容可能令用户感兴趣和/或对用户有用。例如,在进行游戏应用的情境中,次要内容可以提供对推进游戏进行的帮助(例如,当用户当前正在与首领作战时提供关于击败首领的提示)。本发明的实施例有助于将用户的注意力引向在一个或多个外围区中呈现的次要内容。具体地,在325处,所述方法包括结合在次要内容中输入新数据,在活动区内显示吸引子。吸引子与主要内容同时呈现。
此外,吸引子以将用户的注意力引向包含次要内容的外围区的方式呈现。例如,在一个实施例中,吸引子可以显示在与主要内容不同的平面中。在另一个实施例中,吸引子可以在用户的FOV内主动移动以引起用户的注意。在又一个实施例中,显示具有与主要内容不同颜色的吸引子,或者可以将吸引子立即识别为指示次要内容可用。在又一个示例中,吸引子可以以引人注目的方式呈现(例如,粗体颜色、粗体轮廓、闪烁等)。
在又一个实施例中,吸引子可以是一个或多个图标,其中每个图标指示正在外围区中呈现什么类别的内容。理想地,图标很容易一眼就看出来,使得用户能够辨别图标并且知道可供观看的次要内容的类型。例如,灯泡图标可以指示次要内容包括提示。在另一个示例中,骷髅和交叉骨图标可以指示在外围区中提供特定于首领的信息(例如,用于击败首领)作为次要内容。在又一个示例中,具有折叠角的纸张图标可以指示次要内容在外围区中可用并且包括朋友留下的笔记。还支持和设想了与次要内容的类型相关联的其他图标。
在330处,所述方法包括检测HMD从指向活动区的第一取向朝向指向第一外围区的第二取向的旋转。也就是说,用户正在关注主要内容,并且因此,在物理环境内指向第一取向。在通过使用吸引子意识到次要内容时,用户可能希望观看次要内容,并且因此改变他或她的取向以便观看VR观看环境的外围区中的次要内容。例如,用户的头部旋转到第二取向,并且当HMD牢固地附接到头部时,对应地HMD从第一取向旋转到第二取向。具体地,当HMD的旋转达到指向VR观看环境中的第一外围区的第二取向时,显示次要内容。次要内容可以包括新数据、或新呈现的数据、或用户感兴趣的数据。次要内容显示在如通过HMD呈现的用户的FOV内。
在335处,暂停主要内容。具体地,在第二取向上,HMD在VR观看环境内显示次要内容,并且主要内容可能在如由HMD显示的观看环境内对用户不可见或至少不那么可见。此外,用户的注意力现在集中在次要内容上。在这种情况下,如果主要内容继续其播放或显示(例如,执行游戏应用、播放视频内容(诸如电影)等),则用户在关注次要内容的同时可能不知道主要内容中正在显示的信息。例如,当用户在游戏应用中的关卡结束时与首领作战时,用户可以选择观看次要内容。通过自动暂停游戏应用的执行,而不是继续如现在至少部分地在用户的FOV之外的活动区中呈现的与首领作战(与首领作战的角色可能死亡),暂停主要内容。
在一个实施例中,当用户的取向再次返回到能够观看主要内容的位置(例如,朝向第一取向)时,继续或取消暂停主要内容。具体地,所述方法包括检测HMD从第二取向到第一取向的旋转。例如,用户已经完成观看次要内容并且希望再次观看主要内容和/或与主要内容进行交互。这样,观看者可以将他的头部(和HMD)旋转回到能够观看主要内容的位置(例如,回到第一取向)。此时,取消暂停或恢复主要内容(例如,恢复游戏应用的执行、恢复视频内容、恢复电影的播放等)。具体地,恢复的主要内容显示在现在位于如通过HMD的3D显示器呈现的用户的FOV内的活动区中。
图3B是示出根据本公开的一个实施例的用于生成伴随应用的支持对应用户的游戏进行的基于位置的伴随界面(例如,生成伴随界面)的方法中的步骤的流程图300B,其中所述伴随界面位于对应用户的外围区中。也就是说,在与用户相关联的VR观看环境的外围区中呈现的次要内容包括伴随界面。流程图300B包括用于执行游戏应用并生成进行游戏应用的用户的游戏进行的基于位置的信息的操作。此外,尽管从提供伴随界面作为次要内容的后端服务器的角度描述了流程图300B,但是其他实施例非常适合于通过对流程图300B的稍微修改提供对于用户本地的伴随界面,如前所述。
具体地,在操作350处,所述方法包括与用户的游戏进行相关联地实例化游戏应用的第一实例。如前所述,在一个实施例中,游戏应用的实例可以在用户的客户端设备处本地执行。在其他实施例中,游戏应用的实例可以在后端游戏服务器的后端游戏执行引擎处执行,其中所述服务器可以是云游戏网络或游戏云系统的一部分。在操作355处,所述方法包括通过第一通信信道将代表用户的游戏进行的数据传送到计算设备(例如,第三计算设备)以便与用户(例如,第一用户)进行交互。通信信道可以例如通过网络(诸如互联网)来实现。这样,渲染图像可以被传送以便在第三计算设备处显示,其中渲染图像是由游戏应用的实例响应于与用户的游戏进行相关联地作出的输入命令而生成的。
在操作360A处,所述方法包括确定用户的游戏进行中的角色的基于位置的信息。具体地,基于位置的信息是参考在与游戏应用相关联的游戏世界中用户的游戏进行中的角色的位置来确定的。如前所述,基于位置的信息可以包括在用户进行游戏期间生成、捕获和/或存储的快照内。例如,每个快照包括参考角色的位置生成的元数据和/或信息。在一个实施例中,元数据和/或信息被配置成使得能够在游戏应用中与快照相对应的点处开始执行游戏应用的实例(例如,从与捕获快照时的游戏进行状态相对应的跳跃点处开始,所述跳跃点反映在游戏进行中角色的位置)。在一个实施例中,快照可以用于实例化作为任务/挑战的跳跃游戏。例如,快照包括游戏进行的基于位置的信息,以及定义对应点处的游戏进行状态的游戏状态数据(例如,游戏状态数据包括游戏角色、游戏对象、对象属性、图形叠加、角色的资产、角色的技能集、游戏应用中角色的任务完成的历史、游戏世界中角色的当前地理位置、用户的游戏进行中通过游戏应用的进展、角色的游戏进行的当前状态,等等),使得游戏状态数据允许生成在游戏进行中的对应点处存在的游戏环境。快照可以包括用于为用户个性化游戏应用的用户保存数据,其中所述数据可以包括用于个性化游戏进行中的角色(例如,形状、外观、服装、武器、游戏难度、游戏等级、角色属性等)的信息。快照还可以包括与游戏状态相关的随机种子数据,如前所述。
具体地,在操作360B处,所述方法包括捕获在用户进行游戏期间从游戏应用生成的多个快照。快照中包含的信息可以用于生成次要内容。这样,可以新生成与游戏应用相关的附加内容,并且在一些情况下所述附加内容依赖于游戏应用的执行。这增加了与和一个或多个用户进行交互的游戏应用相关的内容量和内容范围。
在365处,所述方法包括生成提供支持第一用户的游戏进行的特征的伴随界面(例如,包括情境相关信息),并且使得用户或任何其他观看者能够实时访问在用户进行游戏应用时通常对用户有帮助的信息。具体地,在如通过HMD实现的VR观看环境中,与用户的游戏进行同时呈现伴随界面或伴随界面提供次要内容。例如,伴侣界面是实时生成的,并且与用户的游戏进行同时传送,使得通过所述界面提供的信息支持用户的游戏进行。以这种方式,可以利用次要内容(例如,由伴随界面提供的信息)来增强用户的游戏进行。
图4A-4C是示出在物理环境内用户的各种取向处用户通过HMD观看VR观看环境的图。具体地,在图中描述了头部旋转,其中头部旋转与HMD的旋转相关联以确定在VR观看环境内的移动(例如,显示的内容)。虽然图4A-4C示出了当观看VR观看环境时用户的头部向左旋转(例如,水平地),但是本文描述的相同原理适用于用户的头部向右、或向上、或向下或其任何组合的(例如,水平和/或垂直)旋转。如前所述,摄像机传感器和/或运动传感器用于跟踪头部和/或HMD的移动,以便确定如通过HMD实现的VR观看环境内的用户界面(UI)移动,如前所述。例如,摄像机传感器被配置成使用HMD的耳机上的光传感器来提供跟踪。在一个实现方式中,摄像机传感器被配置成每秒跟踪HMD的耳机大约1,000次,以便提供无缝的用户体验。以这种方式,可以跟踪头部的后部以及头部的前部。在其他实施例中,眼睛跟踪技术用于检测头部的旋转。
图4A是示出根据本公开的一个实施例的用户5的头部407在舒适旋转范围的旋转的身体状态图400A。根据本公开的一个实施例,用户正在通过HMD 102观看VR观看环境。在一个实现方式中,在HMD 102内呈现100度FOV。垂直轴410示出了用户的0度或中性取向,使得用户的头部407指向沿着轴410的方向。另外,头部407的取向以及对应地HMD 102的取向确定在VR观看环境中呈现的内容。也就是说,VR观看环境内观看者(例如,用户)的取向是基于用户在物理环境内的取向。如图4A所示,用户5的头部407舒适地向左旋转30度的角度。线411指向从垂直轴410偏移30度的方向。应当注意,在图4A-4C中,用户5的身体405保持在相同位置,使得当头部407旋转时,身体405不旋转。HMD 102将显示VR观看环境,其中对应的取向从沿着轴410的中性取向偏移。
图4B是示出根据本公开的一个实施例的用户5的头部407在最大旋转范围的旋转的身体状态图400B,其中用户正在通过HMD 102观看VR观看环境。具体地,用户5的头部407向左旋转55度的角度,这表示用户5在不旋转身体405的情况下能够做到的示例性最大旋转。当然,特定用户的最大旋转可以比图4B中表示的旋转更大或更小,其中图4B中呈现的旋转用于说明目的。线412指向物理环境中从垂直轴410偏移55度的方向。HMD 102将显示VR观看环境,其中对应的取向从沿着轴410的中性取向偏移。
图4C示出根据本公开的一个实施例的通过HMD 102观看VR观看环境的用户5的头部407的可能运动范围,其中所述运动范围示出了如图4A-4B所示的头部旋转的舒适运动范围和最大运动范围。如图所示,线411从垂直轴410偏移30度,其中垂直轴与头部407和HMD102的中性(例如,0度)取向相关联,并且表示向左和向左的舒适头部旋转。还示出,线412从垂直轴410偏移55度,并且表示向左和向右的示例性最大头部旋转。如图4C所示,在身体405没有旋转的情况下,假设头部407和HMD 102的典型位置以及HMD 102内的VR观看环境的对应呈现可用。
图5A示出根据本公开的一个实施例的用户的视野(FOV)420,所述FOV介于通过HMD102观看VR观看环境的用户5的头部407的典型运动范围内。先前在图4C中介绍了头部407(以及对应地HMD 102)的典型运动范围,其中身体405保持固定的取向。如图5A所示,头部的取向正面朝向中性取向(例如,0度),并且其中运动范围示出头部旋转的舒适运动范围(例如,左右0到30度)和最大运动范围(例如,左右0到55度)。
具体地,用户的FOV 420为大约94度。这可以转换为VR观看环境内的类似虚拟FOV范围(例如,以物理环境与VR观看环境之间的一对一关系)。也就是说,在HMD 102中显示与用户5的取向和FOV 420的取向相对应的VR观看环境的对应视图。这样,FOV420的跨度在线413A之间,这两条线都位于距先前介绍的垂直轴410大约47度(例如,左和右)处。例如,FOV420的最左侧边缘421A位于线413A上,并且距垂直轴410左侧偏移大约47度。此外,FOV 420的最右侧边缘421B位于线413A上,并且大约距垂直轴410右侧偏移大约47度。
图5B示出根据本公开的一个实施例的用户5的FOV 420,所述FOV介于通过HMD 102观看VR观看环境的用户的头部407的典型运动范围内,其中头部407的取向被舒适地转动(例如,转动30度)。先前在图4C中介绍了头部407(以及对应地HMD 102)的典型运动范围,其中身体405保持固定的取向(例如,指向轴410)。如图5B所示,头部407的取向从中性取向(例如,沿着轴线410在0度处)偏移30度。典型运动范围示出了头部旋转的舒适运动范围(例如,左右0到30度)和最大运动范围(例如,左右0到55度),其中身体保持固定的取向(朝向0度)。
更具体地,用户5的FOV 420也旋转,使得FOV 420的中心沿着线411定位,所述线从垂直轴410偏移30度。在HMD 102中显示与用户5的取向和图5B所示的FOV 420的取向相对应的VR观看环境的对应视图。这样,FOV 420的最左侧边缘421A位于距垂直轴410左侧77度的偏移处。FOV 420的最右侧边缘420B位于距垂直轴410右侧大约17度的偏移处。
图5C示出根据本公开的一个实施例的用户5的FOV 420,所述FOV介于通过HMD 102观看VR观看环境的用户的头部407的典型运动范围内,其中头部407的取向被转动到其最大旋转(例如,不舒适地转动55度)。先前在图4C中介绍了头部407(以及对应地HMD102)的典型运动范围,其中身体405保持固定的取向(例如,指向轴410),并且头部可以旋转头部旋转的舒适运动范围(例如,左右0到30度)和/或最大运动范围(例如,左右0到55度)。
更具体地,用户5的FOV 420也旋转,使得FOV 420的中心沿着线412定位,所述线从垂直轴410向左偏移55度。在HMD 102中显示与用户5的取向和图5C所示的FOV 420的取向相对应的VR观看环境的对应视图。这样,FOV 420的最左侧边缘421A现在位于距垂直轴410左侧102度的偏移处。FOV 420的最右侧边缘420B位于距垂直轴410左侧大约8度的偏移处。
在一个实施例中,与用户的VR观看环境相关联的活动区与HMD在物理环境中的第一取向对准。例如,活动区可以沿着垂直轴410居中,使得当用户的头部407处于中性取向时,HMD 102的显示器呈现活动区的视图。例如,用户的FOV可以包含活动区或者与活动区紧密对准(例如,活动区和FOV为大约94度)。另外,外围区(例如,第一外围区)可以与HMD在物理环境中的第二取向对准。仅出于说明的目的,可以在图5C中部分地示出外围区,并且当用户5的头部407转动到其最大值(例如,向左转动55度)时,所述外围区可见。如前所述,次要内容在外围区中呈现。这样,外围区恰好位于用户5的FOV 420之外,并且当用户5的头部407的取向处于中性位置(例如,指向0度)时,所述外围区可能不可见(或略微可见)。如前所述,当头部旋转远离中性取向时,外围区变得可见。
图5D是示出根据本公开的一个实施例的VR观看环境中的不同区的图500D,其中所述区是相对于通过HMD观看VR观看环境的用户的取向来定义的。所述区是相对于94度的典型FOV来定义的,并且可以覆盖所实现的其他定义的FOV的不同角度范围。此外,所述区可以具有距中心(例如,用户的位置)0.5米的最小范围和20米的最大范围,诸如在VR观看环境内定义的范围。所述区以头部407和对应地HMD 102的水平旋转示出,但是可以针对头部的任何类型的水平和/或垂直旋转来定义。
如图5D所示,活动区510在VR观看环境中居中,诸如在0度的中性取向,并且跨度为大约94度(例如,距中心的左侧和右侧偏移47度)。主要内容(诸如2D游戏应用、视频内容等)可以在活动区内呈现。主要内容还可以包括3D内容(包括3D游戏应用、视频内容等)。
还示出了一个或多个外围区520,其中外围区位于活动区510外部。在一些实现方式中,所述区可以重叠。例如,当用户关注活动区(例如,处于中性取向)时,外围区520可以恰好位于用户的FOV之外。如图所示,外围区520从活动区510偏移,并且位于距中心(例如,轴410)左侧偏移47度与77度之间的角度。另一个外围区520从活动区510偏移,并且位于距中心(例如,轴410)右侧偏移47度与77度之间的角度。例如,外围区可以以从中心偏移大约55度(左和右)的角度居中,这表示在同样不旋转身体405的情况下头部407的最大旋转。
还示出了一个或多个不舒适的外围区530,其中区530位于外围区520外部。如图所示,外围区530从活动区510偏移,并且位于距中心(例如,轴410)左侧偏移77度与102度之间的角度。另一个不舒适的外围区530从活动区510偏移,并且位于距中心(例如,轴410)右侧偏移77度与102度之间的角度。例如,不舒适的外围区530可以以从中心偏移大约90度(左和右)的角度居中,这表示在同样不旋转身体405的情况下头部407的非常不舒适的旋转。在一些情况下,身体可以稍微旋转以使不舒适的外围区530在HMD 102中进入视野。
此外,示出在活动区510的后部的好奇区540。也就是说,用户5将不得不转动他或她的身体405以便将HMD 102旋转到使得能够显示好奇区540的部分的取向。好奇区可以包括可与活动区510中呈现的主要内容相关或可不相关的任何类型的内容。
图6A-6C示出外围区相对于通过HMD观看VR观看环境的用户的活动区510的示例性位置。外围区的位置并不旨在在图6A-6C中全部列出,并且可以包括与HMD从中性位置偏移的各种水平和/或垂直旋转相关联的、位于活动区510外部的各种位置。
具体地,图6A示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的活动区510,其中所述活动区呈现主要内容,并且其中次要内容在外围区中示出。作为说明,活动区510可以以16:9的宽高比显示,但也支持其他宽高比,其中所述宽高比定义了宽度与高度之间的关系(例如,观看区域、显示区域、显示器等的)。如图所示,外围区520A位于活动区510外部。在这种情况下,外围区520A位于活动区510上方。例如,用户可以将头部向上旋转或倾斜以使如HMD中显示的VR观看环境的外围区520A进入视野。如前所述,次要内容(例如,如通过伴随界面呈现的)可用于在外围区520A中呈现。
图6B示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的活动区510,其中所述活动区呈现主要内容,并且其中次要内容在外围区中可用。如图所示,外围区520B位于活动区510外部。在这种情况下,外围区520B位于活动区510的侧面,并且更具体地,位于活动区510的左侧。在其他情况下,外围区可以位于活动区510的右侧。例如,用户可以将头部向左旋转以使如HMD中显示的VR观看环境的外围区520B进入视野。如前所述,次要内容(例如,如通过伴随界面呈现的)可用于在外围区520B中呈现。
图6C示出了根据本公开的一个实施例的通过HMD观看VR观看环境的用户的活动区510,其中所述活动区呈现主要内容,并且其中次要内容在一个或多个外围区中可用。如图所示,外围区520C位于活动区510外部。在这种情况下,外围区520C位于活动区510的下方和右侧。例如,用户可以将头部向下并稍微向右旋转或倾斜,以使如HMD中显示的VR观看环境的外围区520C进入视野。如前所述,次要内容(例如,如通过伴随界面呈现的)可用于在外围区520C中呈现。另外,另一个外围区520D也位于活动区510外部,其中在这种情况下,区520D位于活动区510的下方和左侧。例如,用户可以将头部向下并稍微向左旋转或倾斜,以使如HMD中显示的VR观看环境的外围区520D进入视野。如前所述,其他或附加的次要内容(例如,如通过伴随界面呈现的)可用于在外围区520D中呈现。这样,使得不同的次要内容在区520C和52D中对用户可用,如图6C所示。
图7A-7C组合示出在实施例中,当用户的头部旋转以观看次要内容时,通过HMD观看VR观看环境的用户的FOV。具体地,次要内容位于外围区730中,所述外围区位于如VR观看环境内呈现的主要内容上方。当用户将他或她的注意力引导(例如,旋转HMD)到外围区730时,次要内容变得可见。
具体地,图7A示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的FOV 710A,其中FOV 710A包括呈现主要内容720的用户的活动区,并且可以包括外围区730的一部分。FOV 710A被示出为具有水平轴706和垂直轴705,这两个轴都居中在FOV内(例如,定义FOV的中心)。
如图所示,主要内容720包括示出位于武器化角色右侧的女性角色的场景,这两个角色正站在岩石基座上并俯瞰城市街道。在地平线处示出位于女性角色右侧的场景中最高的建筑物。另外,即使示出主要内容的FOV可以变化,也在主要内容720内定义不改变的角度坐标系。具体地,水平线750定义主要内容720的水平角度,如从中性取向(例如,头部旋转0度)定义的。在图7A中,出于说明的目的,水平线750以垂直轴705为中心,其中用户的头部处于中性位置,并且完全观看主要内容720。如图所示,FOV 710A的水平跨度为向左从垂直轴705偏移47度的角度到向右从垂直轴705偏移47度的角度。另外,FOV 710A的垂直跨度为一个垂直角度,所述垂直角度从水平轴706向上偏移大约30度并且从水平轴线706向下偏移大约30度,如由垂直线755所示。
此外,FOV 710A包括外围区730的边缘,所述边缘位于由图7A定义为完全包括主要内容720的活动区的外部和上方。如前所述,外围区可以被配置成呈现次要内容(例如,如通过伴随界面呈现的)。如图7A所示,因为外围区730位于如由HMD显示的活动区外部,所以它没有可见的次要内容。
图7B示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的FOV710B,其中用户的头部从中性取向向上倾斜,使得FOV包括呈现主要内容的用户的活动区的部分,并且还包括位于活动区外部和上方的外围区730的全部,其中外围区可以被配置成呈现次要内容(例如,如通过伴随界面呈现的)。
如图所示,所显示的主要内容720示出更多的天空区域,以及更少的女性角色和武器化角色。例如,女性角色和武器化角色所站立的岩石露出地的大部分在FOV 710B中未示出。另外,FOV 710B被示出为具有水平轴706和垂直轴705,这两个轴居中都在FOV内(例如,定义FOV的中心)。然而,现在FOV 710B的中心(例如,接近地平线上最高建筑物的顶部)比图7A中所示的FOV 710A的中心(例如,接近女性角色的右臀部)更高。
另外,在主要内容720内定义角度坐标系并且所述角度坐标系在图7B中保持不变。然而,因为HMD向上旋转以示出外围区730,所以在垂直线755上示出了更多的垂直角度。例如,FOV 710B以向上从主要内容的水平中心偏移40度的角度示出更多的天空,如由线755所示。
另外,由于HMD的旋转,现在外围区730在FOV 710B中完全示出。如前所述,外围区730包括次要内容。在这种情况下,次要内容呈现在伴随界面中,所述伴随界面支持进行游戏应用的用户的游戏进行。具体地,图7C是图7B中首先介绍的次要内容的更详细图示,所述次要内容在外围区730中呈现。例如,外围区730包括伴随界面,所述伴随界面包括雷达测绘740,示出了用户的游戏进行中角色的位置。角色可以位于雷达测绘740的中心,所述雷达测绘提供对应游戏应用的游戏世界或环境的表示。测绘740可以示出雷达测绘中的对象之间的方向关系(例如,方向和距离)。此外,雷达测绘740可以包括位于游戏世界内的对象/特征,以及用户和其他玩家的角色的位置。
可以呈现附加信息743,诸如统计资料、库存、数据、本地化测绘、无线电呈现等。例如,次要内容可以突出位于测绘740的中心的角色的强度,并且提供强度的定义。其他条形数据745(例如,剩余寿命、护甲耐久性和食物储存)也可以在外围区730内呈现。
图8A-8C组合示出在实施例中,当用户的头部旋转以观看次要内容时,通过HMD观看VR观看环境的用户的FOV。具体地,次要内容位于外围区830中,所述外围区在如VR观看环境内呈现的主要内容的左侧。当用户将他或她的注意力引导(例如,旋转HMD)到外围区830时,次要内容变得可见。
具体地,图8A示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的FOV 710A,其中所述FOV包括呈现主要内容的用户的活动区,并且可以包括外围区830的一部分。在图7A中首先介绍了FOV 710A,但是现在所述FOV具有在呈现主要内容的活动区侧面的外围区830。FOV 710A被示出为具有水平轴706和垂直轴705,这两个轴都居中在FOV内(例如,定义FOV的中心,所述中心位于女性角色的臀部的大约右侧,并且在狗与女性角色之间)。此外,在主要内容720内定义不改变的角度坐标系,如由水平线750和垂直线755所示。
此外,FOV 710A包括外围区830的边缘,所述边缘位于由图8A定位为完全包括主要内容720的活动区的外部和侧面。如前所述,外围区可以被配置成呈现次要内容(例如,如通过伴随界面呈现的)。例如,FOV 710A包括外围区830的边缘,所述边缘位于呈现主要内容720的活动区的左侧。如图8A所示,因为外围区730位于如由HMD显示的活动区外部,所以它没有可见的次要内容。
图8B示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的FOV710C,其中用户的头部从中性取向旋转到侧面(例如,到左侧),使得用户的FOV包括呈现主要内容的用户的活动区的部分,并且还包括位于活动区外部和侧面的外围区830的全部,其中所述外围区可以被配置成呈现次要内容(例如,如通过伴随界面呈现的)。
如图所示,图8B中显示的主要内容720未示出位于主要内容720的中心右侧的场景。例如,先前在FOV 710A中示出(并且位于女性角色右侧)的树在图8B的FOV 710C中未示出。另外,现在FOV 710C的中心位于武器化角色的左侧,这表示HMD向左旋转且略微向上旋转。
另外,在主要内容720内定义角度坐标系并且所述角度坐标系在图8B中保持不变。然而,因为HMD向左且略微向上旋转以示出外围区830,所以FOV 710C的垂直中心位于在线750上大约水平角度30度处,并且FOV 710C的水平中心位于在线755上大约垂直角度10度处。
另外,由于HMD的旋转,现在外围区830在FOV 710C中完全示出。如前所述,外围区730包括次要内容。在这种情况下,次要内容呈现在伴随界面中,所述伴随界面支持进行游戏应用的用户的游戏进行。具体地,图8C是图8B中首先介绍的次要内容的更详细图示,所述次要内容在外围区830中呈现。例如,外围区830包括伴随界面,所述伴随界面包括雷达测绘840,示出了用户的游戏进行中角色的位置。测绘840可以类似于图7C的测绘740,因为它们包含相同的信息,但是呈现在不同的外围区中。角色可以位于雷达测绘840的中心,所述雷达测绘提供对应游戏应用的游戏世界或环境的表示。测绘840可以示出雷达测绘中的对象之间的方向关系(例如,方向和距离)。此外,雷达测绘840可以包括位于游戏世界内的对象/特征,以及用户和其他玩家的角色的位置。
可以呈现附加信息843,诸如统计资料、库存、数据、本地化测绘、无线电呈现等。例如,次要内容可以突出位于测绘840的中心的角色的强度,并且提供强度的定义。其他条形数据845(例如,剩余寿命等)也可以在外围区830内呈现。
图9是示出根据本公开的一个实施例的通过HMD观看VR观看环境的用户的活动区905和外围区930的图,其中在活动区905中呈现吸引子930A-930D以便将用户的注意力引向在外围区930中呈现的信息。如前所述,活动区905可以包括主要内容,并且外围区930可以包括次要内容。更具体地,主要内容可以显示在VR观看环境的第一焦平面910处,其中主要内容可以包括2D信息(例如,2D游戏应用、视频内容等)。另外,在其他实施例中,主要内容的一部分可以显示在第一焦平面910中。
此外,吸引子930A-930D(例如,箭头)可以显示在VR观看环境中的第二焦平面920(例如,第二2D平面)中。在一个实现方式中,第二2D焦平面920比第一2D焦平面910更靠近与用户的观看位置相对应的VR观看环境的中心。
可以以旨在吸引用户注意力的任何方式呈现吸引子。图9示出了一种这样的实现方式,其中吸引子930A-930D被示出为在焦平面920内移动。例如,吸引子930A-930D被示出为在第一位置(由表示吸引子930A示出)、第二位置(由表示吸引子930B示出)、第三位置(由表示吸引子930C示出)、第四位置(由表示吸引子930D示出)等。这些表示示出吸引子930A-930D在焦平面920上的移动(例如,前后、或仅仅重复地从右到左、或仅仅重复地从左到右)。另外,吸引子930A-930D的移动和方向(例如,向左指向外围区930)有助于将用户的注意力引向左侧的外围区930。
在实施例中,可以设想任何类型的吸引运动。也就是说,在实施例中,可以设想3D观看环境的一个或多个轴中的任何移动组合。例如,图9示出吸引子930A-930D在一个焦平面中的垂直和水平移动。在另一个示例中,吸引子930A-930D可以垂直、水平和沿z方向(或进出页面,诸如朝向和远离焦平面910)移动。在一个实施例中,吸引子在包含次要内容的外围区的方向上水平移动。例如,在图9中,吸引子930A-930D将从右向左移动,并且没有任何垂直移动。在图9的示例中,吸引子930A-930D可以在到达外围区830B时消失,然后重新出现在焦平面920中的外围区右侧的某处,并且然后再次朝向外围区830B移动。
虽然已经提供了特定实施例来展示次要内容在VR观看环境的呈现主要内容的活动区外部的外围区中的呈现,其中次要内容可以包括支持进行游戏应用的用户的游戏进行的伴随界面。阅读了本公开的本领域技术人员将认识到落入本公开的精神和范围内的附加的实施例。
应当注意,在广泛的地理区域上传送的访问服务(诸如提供对当前实施例的游戏的访问)通常使用云计算。云计算是一种计算风格,其中可动态扩展且通常为虚拟化的资源被提供作为互联网上的服务。用户无需成为支持它们的“云”中的技术基础设施方面的专家。云计算可以被划分成不同的服务,诸如基础设施即服务(IaaS)、平台即服务(PaaS)和软件即服务(SaaS)。云计算服务通常提供从web浏览器访问的在线常见应用(诸如视频游戏),而软件和数据存储在云中的服务器上。术语云被用作互联网的隐喻,基于如何在计算机网络图中描绘互联网,并且是对其隐藏的复杂基础设施的抽象。
游戏客户端使用游戏处理服务器(GPS)(或简称为“游戏服务器”)来进行单玩家和多玩家视频游戏。通过互联网进行的大多数视频游戏经由与游戏服务器的连接进行操作。通常,游戏使用从玩家收集数据并将所述数据分布到其他玩家的专用服务器应用。这比对等布置更有效且高效,但这需要单独的服务器来托管服务器应用。在另一个实施例中,GPS建立玩家与他们各自的游戏设备之间的通信,以便在不依赖于集中式GPS的情况下交换信息。
专用GPS是独立于客户端运行的服务器。此类服务器通常在位于数据中心的专用硬件上运行,从而提供更大的带宽和专用处理功率。专用服务器是托管大部分基于PC的多玩家游戏的游戏服务器的优选方法。大型多玩家在线游戏在专用服务器上运行,所述专用服务器通常由拥有游戏标题的软件公司托管,以允许他们控制和更新内容。
用户使用客户端设备访问远程服务,所述客户端设备至少包括CPU、显示器和I/O。客户端设备可以是PC、移动电话、上网本、PDA等。在一个实施例中,在游戏服务器上执行的网络识别由客户端使用的设备类型并且调整所采用的通信方法。在其他情况下,客户端设备使用标准通信方法(诸如html),以便通过互联网访问游戏服务器上的应用。
本公开的实施例可以用各种计算机系统配置来实践,所述计算机系统配置包括手持式设备、微处理器系统、基于微处理器的或可编程的消费型电子产品、小型计算机、大型计算机等。本公开还可以在分布式计算环境中实践,其中任务由通过有线或无线网络链接的远程处理设备来执行。
应当理解,可以针对特定平台和特定相关联的控制器设备来开发给定的视频游戏。然而,当通过如本文提出的游戏云系统来使这种游戏可用时,用户可能正在用不同的控制器设备访问视频游戏。例如,可能已经针对游戏控制台及其相关联的控制器开发了游戏,而用户可能正在利用键盘和鼠标从个人计算机访问基于云的游戏版本。在这种情境下,输入参数配置可以定义从可以由用户的可用控制器设备(在这种情况下,键盘和鼠标)生成的输入到视频游戏的执行可接受的输入的测绘。
在另一个示例中,用户可以通过平板计算设备、触摸屏智能电话或其他触摸屏驱动设备来访问云游戏系统。在这种情况下,客户端设备和控制器设备在同一设备中集成在一起,其中输入通过检测到的触摸屏输入/手势提供。对于这种设备,输入参数配置可以定义与视频游戏的游戏输入相对应的特定触摸屏输入。例如,在视频游戏的运行期间,可以显示或叠加按钮、方向键或其他类型的输入元件,以指示用户可以触摸来生成游戏输入的触摸屏上的位置。在特定方向上的手势(诸如滑动)或特定的触摸运动也可以被检测为游戏输入。在一个实施例中,例如在开始视频游戏的游戏进行之前,可以向用户提供指示如何通过触摸屏提供用于游戏进行的输入的教程,以使用户适应触摸屏上的控件的操作。
在一些实施例中,客户端设备用作控制器设备的连接点。也就是说,控制器设备经由与客户端设备的无线或有线连接进行通信,以便将来自控制器设备的输入传输到客户端设备。客户端设备继而可以处理这些输入,然后经由网络将输入数据传输到云游戏服务器(例如,经由诸如路由器的本地网络设备访问)。然而,在其他实施例中,控制器本身可以是联网设备,具有经由网络将输入直接传达给云游戏服务器的能力,而不需要首先通过客户端设备来传达此类输入。例如,控制器可以连接到本地网络设备(诸如前述的路由器)以便将数据发送到云游戏服务器和从云游戏服务器接收数据。因此,虽然客户端设备可能仍然需要从基于云的视频游戏接收视频输出并在本地显示器上渲染,但是可以通过允许控制器绕过客户端设备、通过网络直接将输入发送到云游戏服务器来减少输入等待时间。
在一个实施例中,联网控制器和客户端设备可以被配置成直接从控制器向云游戏服务器发送某些类型的输入,并且经由客户端设备发送其他类型的输入。例如,其检测不依赖于除控制器本身之外的任何附加硬件或处理的输入可以绕过客户端设备、经由网络直接从控制器发送到云游戏服务器。此类输入可以包括按钮输入、操纵杆输入、嵌入式运动检测输入(例如,加速度计、磁力计、陀螺仪)等。然而,通过客户端设备利用附加硬件或需要处理的输入可以由客户端设备发送到云游戏服务器。这些可能包括从游戏环境捕获的视频或音频,所述视频或音频可以在发送到云游戏服务器之前由客户端设备进行处理。另外,来自控制器的运动检测硬件的输入可以由客户端设备结合捕获的视频来处理,以检测控制器的位置和运动,所述位置和运动随后将由客户端设备传达给云游戏服务器。应当理解,根据各种实施例的控制器设备还可以从客户端设备或直接从云游戏服务器接收数据(例如,反馈数据)。
应当理解,本文描述的实施例可以在任何类型的客户端设备上执行。在一些实施例中,客户端设备是头戴式显示器(HMD)。
示出了图10,即示出根据本公开的实施例的头戴式显示器1050的组件的图。头戴式显示器1050包括用于执行程序指令的处理器1000。存储器1002提供用于存储目的,并且可以包括易失性和非易失性存储器两者。包括显示器1004,其提供用户可以观看的视觉界面。提供电池1006作为头戴式显示器1050的电源。运动检测模块1008可以包括各种类别的运动敏感硬件中的任何一种,诸如磁力计1010A、加速度计1012和陀螺仪1014。
加速度计是用于测量加速度和重力引起的反作用力的设备。单轴和多轴模型可用来检测不同方向上的加速度的量值和方向。加速度计用于感测倾斜度、振动和冲击。在一个实施例中,使用三个加速度计1012来提供重力的方向,其给出用于两个角度(世界空间俯仰和世界空间横滚)的绝对参考。
磁力计测量头戴式显示器附近的磁场的强度和方向。在一个实施例中,在头戴式显示器内使用三个磁力计1010A,以确保用于世界空间偏航角的绝对参考。在一个实施例中,磁力计被设计成跨越±80微特斯拉的地球磁场。磁力计受金属的影响,并且提供随实际偏航单调变化的偏航测量。磁场可能由于环境中的金属而扭曲,从而导致偏航测量的偏差。如果必要的话,可以使用来自其他传感器(诸如陀螺仪或摄像机)的信息来校准此偏差。在一个实施例中,加速度计1012与磁力计1010A一起使用以获得头戴式显示器1050的倾斜度和方位角。
陀螺仪是用于基于角动量的原理来测量或维持取向的设备。在一个实施例中,三个陀螺仪1014基于惯性感测来提供关于跨相应轴(x、y和z)的移动的信息。陀螺仪有助于检测快速旋转。然而,陀螺仪可能随着时间漂移而不存在绝对参考。这需要定期重置陀螺仪,所述重置可以使用其他可用的信息(诸如基于对象的视觉跟踪、加速度计、磁力计等的位置/取向确定)来完成。
摄像机1016提供用于捕获真实环境的图像和图像流。头戴式显示器1050中可以包括一个以上的摄像机,包括后向式摄像机(当用户正在观看头戴式显示器1050的显示器时背离用户)和前向式摄像机(当用户正在观看头戴式显示器1050的显示器时指向用户)。另外,可以在头戴式显示器1050中包括深度摄像机1018,用于感测对象在真实环境中的深度信息。
在一个实施例中,集成在HMD的正面上的摄像机可以用于提供关于安全性的警告。例如,如果用户正在接近墙壁或对象,则可以警告用户。在一个实施例中,可以为使用提供房间中的物理对象的轮廓视图,以警告用户它们的存在。例如,轮廓可以是虚拟环境中的叠加层。在一些实施例中,可以向HMD用户提供参考标记的视图,所述参考标记叠加在例如地板上。例如,标记可以向用户提供用户正在其中进行游戏的房间的中心的位置参考。例如,这可以向用户提供用户应当移动以避免撞到房间中的墙壁或其他对象的视觉信息。还可以向用户提供触觉警告和/或音频警告,以便在用户佩戴HMD以及使用HMD进行游戏或导航内容时提供更多的安全性。
头戴式显示器1050包括用于提供音频输出的扬声器1020。此外,可以包括传声器1022以用于从真实环境捕获音频,所述音频包括来自周围环境的声音、由用户发出的语音等。头戴式显示器1050包括用于向用户提供触觉反馈的触觉反馈模块1024。在一个实施例中,触觉反馈模块1024能够引起头戴式显示器1050的移动和/或振动,以便向用户提供触觉反馈。
提供LED 1026作为头戴式显示器1050的状态的视觉指示器。例如,LED可以指示电池量、电源通电等。提供读卡器1028以使得头戴式显示器1050能够从存储器卡读取信息和向存储器卡写入信息。包括USB接口1030作为接口的一个示例,所述接口用于实现到外围设备的连接或到其他设备(诸如其他便携式设备、计算机等)的连接。在头戴式显示器1050的各种实施例中,可以包括各种类别的接口中的任何一个,以实现头戴式显示器1050的更大连接性。
包括Wi-Fi模块1032,以用于实现经由无线网络技术到互联网的连接。此外,头戴式显示器1050包括蓝牙模块1034,以用于实现与其他设备的无线连接。还可以包括通信链路1036以便连接到其他设备。在一个实施例中,通信链路1036利用红外传输进行无线通信。在其他实施例中,通信链路1036可以利用各种无线或有线传输协议中的任何一种来与其他设备通信。
包括输入按钮/传感器1038以便为用户提供输入接口。可以包括各种类别的输入接口中的任何一种,诸如按钮、触摸板、操纵杆、轨迹球等。头戴式显示器1050中可以包括超声波通信模块1040,以用于通过超声波技术促进与其他设备的通信。
包括生物传感器1042以使得能够检测来自用户的生理数据。在一个实施例中,生物传感器1042包括一个或多个干电极,其用于通过用户的皮肤来检测用户的生物电信号。
已经将头戴式显示器1050的前述组件仅作为头戴式显示器1050中可以包括的示例性组件进行描述。在本公开的各种实施例中,头戴式显示器1050可以包括或可以不包括各种前述组件中的一些。为了便于如本文所述的本公开的各方面的目的,头戴式显示器1050的实施例可以另外包括目前未描述但本领域中已知的其他组件。
本领域技术人员将理解,在本公开的各种实施例中,前述的手持式设备可以结合显示器上显示的交互式应用来利用,以提供各种交互功能。本文描述的示例性实施例仅以示例而非限制的方式提供。
图11是根据本公开的各种实施例的游戏系统1100的框图。游戏系统1100被配置成经由网络1115将视频流提供到一个或多个客户端1110。游戏系统1100通常包括视频服务器系统1120和任选的游戏服务器1125。视频服务器系统1120被配置成以最低的服务质量向一个或多个客户端1110提供视频流。例如,视频服务器系统1120可以接收改变视频游戏的状态或视频游戏内的视角的游戏命令,并且以最小的滞后时间为客户端1110提供反映这种状态改变的更新的视频流。视频服务器系统1120可以被配置成以各种各样替代的视频格式提供视频流,包括尚待定义的格式。此外,视频流可以包括被配置用于以各种各样的帧速率呈现给用户的视频帧。典型的帧速率是每秒30帧、每秒60帧以及每秒820帧。尽管在本公开的替代实施例中包括更高或更低的帧速率。
在本文中被单独地称为1110A、1110B等的客户端1110可以包括头戴式显示器、终端、个人计算机、游戏控制台、平板计算机、电话、机顶盒、一体机、无线设备、数字pad、独立设备、手持式进行游戏设备等。通常,客户端1110被配置成接收编码的视频流(即,压缩的),对视频流进行解码,并将所得的视频呈现给用户,例如游戏的玩家。接收编码的视频流和/或对视频流进行解码的过程通常包括将单独的视频帧存储在客户端的接收缓冲器中。可以在与客户端1110成一体的显示器上或者在诸如监视器或电视机的单独设备上将视频流呈现给用户。客户端1110任选地被配置成支持一个以上的游戏玩家。例如,游戏控制台可以被配置成支持两个、三个、四个或更多个同时玩家。这些玩家中的每一个可以接收单独的视频流,或单个视频流可以包括特别针对每个玩家所生成(例如,基于每个玩家的视角所生成)的帧的区域。客户端1110任选地是地理上分散的。游戏系统1100中所包括的客户端的数目可从一个或两个广泛变化到几千个、几万个或更多个。如本文所使用的,术语“游戏玩家”用于指代进行游戏的人,并且术语“进行游戏设备”用于指代用于进行游戏的设备。在一些实施例中,进行游戏设备可以指代协作来向用户传送游戏体验的多个计算设备。例如,游戏控制台和HMD可以与视频服务器系统1120协作来传送通过HMD看到的游戏。在一个实施例中,游戏控制台从视频服务器系统1120接收视频流,并且游戏控制台将视频流或对视频流的更新转发给HMD以便进行渲染。
客户端1110被配置成经由网络1115接收视频流。网络1115可以是任何类型的通信网络,包括电话网络、互联网、无线网络、电力线网络、局域网、广域网、专用网络等。在典型的实施例中,通过诸如TCP/IP或UDP/IP的标准协议来传达视频流。可替代地,通过专有标准来传达视频流。
客户端1110的典型示例是个人计算机,其包括处理器、非易失性存储器、显示器、解码逻辑、网络通信能力以及输入设备。解码逻辑可以包括硬件、固件和/或存储在计算机可读介质上的软件。用于对视频流进行解码(和编码)的系统在本领域中是熟知的,并且根据所使用的具体编码方案而变化。
客户端1110可以(但不是必须的)还包括配置用于修改所接收的视频的系统。例如,客户端可以被配置成执行进一步的渲染,将一个视频图像叠加在另一个视频图像上,修剪视频图像等。例如,客户端1110可以被配置成接收各种类型的视频帧(诸如I帧、P帧和B帧),并将这些帧处理成图像以便显示给用户。在一些实施例中,客户端1110中的成员被配置成对视频流执行进一步的渲染、着色、到3D的转换或类似操作。客户端1110中的成员任选地被配置成接收一个以上的音频流或视频流。客户端1110的输入设备可以包括例如单手游戏控制器、双手游戏控制器、手势识别系统、凝视识别系统、语音识别系统、键盘、操纵杆、指向设备、力反馈设备、运动和/或位置感测设备、鼠标、触摸屏、神经接口、摄像机、尚待开发的输入设备等。
客户端1110所接收的视频流(以及任选地音频流)是由视频服务器系统1120生成并提供的。如本文其他地方进一步描述的,这个视频流包括视频帧(并且音频流包括音频帧)。视频帧(例如,它们包括适当数据结构中的像素信息)被配置成有意义地促成显示给用户的图像。如本文所使用的,术语“视频帧”用于指代主要包括被配置成促成(例如,实现)展示给用户的图像的信息的帧。本文中关于“视频帧”的大部分教导也可以适用于“音频帧”。
客户端1110通常被配置成从用户接收输入。这些输入可以包括被配置成改变视频游戏的状态或以其他方式影响游戏进行的游戏命令。可以使用输入设备接收游戏命令,和/或可以由在客户端1110上执行的计算指令自动生成游戏命令。经由网络1115将所接收的游戏命令从客户端1110传达到视频服务器系统1120和/或游戏服务器1125。例如,在一些实施例中,经由视频服务器系统1120将游戏命令传达到游戏服务器1125。在一些实施例中,将游戏命令的单独副本从客户端1110传达到游戏服务器1125和视频服务器系统1120。游戏命令的传达任选地取决于命令的身份。通过用于向客户端1110A提供音频流或视频流的不同路由或通信信道,任选地从客户端1110A传达游戏命令。
游戏服务器1125任选地由不同于视频服务器系统1120的实体来操作。例如,游戏服务器1125可以由多玩家游戏的发行商来操作。在这个示例中,视频服务器系统1120任选地被游戏服务器1125视为客户端,并且任选地被配置成(从游戏服务器1125的视角来看)看起来是执行现有技术游戏引擎的现有技术客户端。视频服务器系统1120与游戏服务器1125之间的通信任选地经由网络1115发生。因此,游戏服务器1125可以是向多个客户端发送游戏状态信息的现有技术多玩家游戏服务器,所述多个客户端中的一个是视频服务器系统1120。视频服务器系统1120可以被配置成同时与游戏服务器1125的多个实例通信。例如,视频服务器系统1120可以被配置成向不同用户提供多个不同视频游戏。这些不同视频游戏中的每一个可以由不同游戏服务器1125支持和/或由不同实体发行。在一些实施例中,视频服务器系统1120的若干地理上分布式实例被配置成向多个不同用户提供游戏视频。视频服务器系统1120的这些实例中的每一个可以与游戏服务器1125的同一实例通信。视频服务器系统1120与一个或多个游戏服务器1125之间的通信任选地经由专用通信信道发生。例如,视频服务器系统1120可以经由高带宽信道连接到游戏服务器1125,所述高带宽信道专用于这两个系统之间的通信。
视频服务器系统1120至少包括视频源1130、I/O设备1145、处理器1150以及非暂时性存储装置1155。视频服务器系统1120可以包括一个计算设备,或分布在多个计算设备之中。这些计算设备任选地经由通信系统(诸如局域网)连接。
视频源1130被配置成提供视频流,例如,流式视频或形成运动图片的一系列视频帧。在一些实施例中,视频源1130包括视频游戏引擎和渲染逻辑。视频游戏引擎被配置成从玩家接收游戏命令,并且基于所接收的命令来维持视频游戏状态的副本。这种游戏状态包括游戏环境中对象的位置,以及典型地视角。游戏状态还可以包括对象的性质、图像、颜色和/或纹理。
通常基于游戏规则以及游戏命令(诸如移动、转动、攻击、设置焦点、交互、使用等)来维持游戏状态。游戏引擎的部分任选地设置在游戏服务器1125内。游戏服务器1125可以基于使用地理上分散的客户端从多个玩家接收到的游戏命令来维持游戏状态的副本。在这些情况下,游戏服务器1125将游戏状态提供给视频源1130,游戏状态的副本存储在所述视频源中并且在其中执行渲染。游戏服务器1125可以经由网络1115直接从客户端1110接收游戏命令,和/或可以经由视频服务器系统1120接收游戏命令。
视频源1130通常包括渲染逻辑,例如硬件、固件和/或存储在计算机可读介质(诸如存储装置1155)上的软件。这种渲染逻辑被配置成基于游戏状态来创建视频流的视频帧。所述渲染逻辑的全部或部分任选地设置在图形处理单元(GPU)内。渲染逻辑通常包括被配置用于确定对象之间的三维空间关系和/或用于基于游戏状态和视角来应用适当的纹理等的处理级。渲染逻辑产生原始视频,然后在传达给客户端1110之前通常对所述原始视频进行编码。例如,可以根据Adobe标准、.wav、H.264、H.263、On2、VP6、VC-1、WMA、Huffyuv、Lagarith、MPG-x.Xvid.FFmpeg、x264、VP6-8、realvideo、mp3等对原始视频进行编码。编码过程产生视频流,任选地将所述视频流打包以便传送到远程设备上的解码器。视频流由帧大小和帧速率来表征。典型的帧大小包括800x600、1280x720(例如720p)、1024x768,但是可以使用任何其他帧大小。帧速率是每秒的视频帧数。视频流可以包括不同类型的视频帧。例如,H.264标准包括“P”帧和“I”帧。I帧包括用于刷新显示器装置上的所有宏块/像素的信息,而P帧包括用于刷新所述宏块/像素的子集的信息。P帧通常在数据大小上小于I帧。如本文所使用的,术语“帧大小”意图指代帧内的像素数。术语“帧数据大小”用来指代存储所述帧所需的字节数。
在替代实施例中,视频源1130包括视频记录设备,诸如摄像机。这种摄像机可以用于生成可以包括在计算机游戏的视频流中的延迟视频或实况视频。所得的视频流任选地包括渲染的图像和使用静止摄像机或摄影机记录的图像两者。视频源1130还可以包括被配置成存储先前记录的将要包括在视频流中的视频的存储设备。视频源1130还可以包括被配置成检测对象(例如,人)的运动或定位的运动或定位感测设备,以及被配置成基于所检测的运动和/或定位来确定游戏状态或产生视频的逻辑。
视频源1130任选地被配置成提供配置成放置在其他视频上的叠加层。例如,这些叠加层可以包括命令界面、登录指令、给游戏玩家的消息、其他游戏玩家的图像、其他游戏玩家的视频馈送(例如网络摄像头视频)。在客户端1110A包括触摸屏接口或凝视检测接口的实施例中,所述叠加层可以包括虚拟的键盘、操纵杆、触摸板等。在叠加层的一个示例中,将玩家的语音叠加在音频流上。视频源1130任选地还包括一个或多个音频源。
在视频服务器系统1120被配置成基于来自一个以上玩家的输入来维持游戏状态的实施例中,每个玩家可以具有不同的视角,包括观看的位置和方向。视频源1130任选地被配置成基于玩家的视角向每个玩家提供单独的视频流。此外,视频源1130可以被配置成向客户端1110中的每一个提供不同的帧大小、帧数据大小和/或编码。视频源1130任选地被配置成提供3D视频。
I/O设备1145被配置用于视频服务器系统1120以便发送和/或接收信息,所述信息诸如视频、命令、对信息的请求、游戏状态、凝视信息、设备运动、设备位置、用户运动、客户端身份、玩家身份、游戏命令、安全信息、音频等。I/O设备1145通常包括通信硬件,诸如网卡或调制解调器。I/O设备1145被配置成与游戏服务器1125、网络1115和/或客户端1110通信。
处理器1150被配置成执行本文讨论的视频服务器系统1120的各种组件内所包括的逻辑,例如软件。例如,处理器1150可以编程有软件指令,以便执行视频源1130、游戏服务器1125和/或客户端限定器1160的功能。视频服务器系统1120任选地包括处理器1150的一个以上的实例。处理器1150还可以编程有软件指令,以便执行由视频服务器系统1120接收的命令或协调本文讨论的游戏系统1100的各种元件的操作。处理器1150可以包括一个或多个硬件设备。处理器1150是电子处理器。
存储装置1155包括非暂时性模拟和/或数字存储设备。例如,存储装置1155可以包括被配置成存储视频帧的模拟存储设备。存储装置1155可以包括计算机可读数字存储装置,例如硬盘驱动器、光盘驱动器或固态存储装置。存储装置1155被配置(例如,通过适当的数据结构或文件系统)成存储视频帧、人工帧、包括视频帧和人造帧两者的视频流、音频帧、音频流等。存储装置1155任选地分布在多个设备之中。在一些实施例中,存储装置1155被配置成存储本文其他地方所讨论的视频源1130的软件组件。这些组件可以以需要时随时可以供应的格式来存储。
视频服务器系统1120任选地还包括客户端限定器1160。客户端限定器1160被配置用于远程确定客户端(诸如客户端1110A或1110B)的能力。这些能力可以包括客户端1110A本身的能力以及介于客户端1110A与视频服务器系统1120之间的一个或多个通信信道的能力两者。例如,客户端限定器1160可以被配置成测试通过网络1115实现的通信信道。
客户端限定器1160可以手动或自动地确定(例如,发现)客户端1110A的能力。手动确定包括与客户端1110A的用户通信,以及要求用户提供能力。例如,在一些实施例中,客户端限定器1160被配置成在客户端1110A的浏览器内显示图像、文字等。在一个实施例中,客户端1110A是包括浏览器的HMD。在另一个实施例中,客户端1110A是具有浏览器的游戏控制台,所述浏览器可以显示在HMD上。所显示的对象请求用户输入客户端1110A的信息,诸如操作系统、处理器、视频解码器类型、网络连接类型、显示分辨率等。将用户输入的信息传达回客户端限定器1160。
自动确定可以例如通过在客户端1110A上执行代理程序和/或通过向客户端1110A发送测试视频来进行。代理程序可以包括嵌入网页中或安装为附加项的计算指令,诸如java脚本。代理程序任选地由客户端限定器1160提供。在各种实施例中,代理程序可以发现客户端1110A的处理能力、客户端1110A的解码和显示能力、客户端1110A与视频服务器系统1120之间的通信信道的滞后时间可靠性和带宽、客户端1110A的显示器类型、客户端1110A上存在的防火墙、客户端1110A的硬件、在客户端1110A上执行的软件、客户端1110A内的注册表项等。
客户端限定器1160包括硬件、固件和/或存储在计算机可读介质上的软件。客户端限定器1160任选地设置在与视频服务器系统1120的一个或多个其他元件分开的计算设备上。例如,在一些实施例中,客户端限定器1160被配置成确定客户端1110与视频服务器系统1120的一个以上的实例之间的通信信道的特性。在这些实施例中,客户端限定器所发现的信息可以用来确定视频服务器系统1120的哪个实例最适合于向客户端1110中的一个传送流式视频。
应当理解,可以使用本文公开的各种特征来将本文定义的各种实施例组合或组装成特定的实现方式。因此,所提供的示例仅仅是一些可能的示例,而不限于通过组合各种元素以定义更多实现方式而可能的各种实现方式。在一些示例中,在不脱离所公开的或等效的实现方式的精神的情况下,一些实现方式可以包括更少的元素。
本公开的实施例可以用各种计算机系统配置来实践,所述计算机系统配置包括手持式设备、微处理器系统、基于微处理器的或可编程的消费型电子产品、小型计算机、大型计算机等。本公开的实施例还可以在分布式计算环境中实践,其中任务由通过有线或无线网络链接的远程处理设备来执行。
考虑到以上实施例,应当理解,本公开的实施例可以采用涉及存储在计算机系统中的数据的各种计算机实现的操作。这些操作是需要对物理量进行物理操控的操作。本文描述的形成本公开的实施例的一部分的任何操作都是有用的机器操作。本发明的实施例还涉及用于执行这些操作的设备或装置。所述装置可以专门构造以用于所需目的,或所述装置可以是通过存储在计算机中的计算机程序来选择性地激活或配置的通用计算机。具体地,各种通用机器可以与根据本文的教导编写的计算机程序一起使用,或所述机器可以更加便于构造更专门的装置以执行所需操作。
本公开也可以体现为计算机可读介质上的计算机可读代码。计算机可读介质是可以存储之后可以由计算机系统读取的数据的任何数据存储设备。计算机可读介质的示例包括硬盘驱动器、网络附加存储装置(NAS)、只读存储器、随机存取存储器、CD-ROM、CD-R、CD-RW、磁带以及其他光学和非光学数据存储设备。计算机可读介质可以包括分布在网络耦接计算机系统上的计算机可读有形介质,使得计算机可读代码以分布式方式存储和执行。
尽管以特定次序描述了方法操作,但是应当理解,可以在操作之间执行其他内务处理操作,或可以调整操作使得所述操作在略微不同的时间处出现,或可以在系统中分布,所述系统允许处理操作以与处理相关联的各种间隔出现,条件是叠加操作的处理以期望方式执行。
尽管为了清楚理解的目的,已经相当详细地描述了前述公开内容,但是明显的是,可以在所附权利要求书的范围内实施某些改变和修改。因此,本发明的实施例应当被认为是说明性的而非限制性的,并且本公开的实施例不限于本文给出的细节,而是可以在所附权利要求书的范围和等效物内进行修改。
Claims (12)
1.一种在HMD中提供信息的方法,其包括:
在如通过所述HMD的3D显示器呈现的用户的虚拟现实VR观看环境中定义活动区;
将主要内容放置在所述VR观看环境的所述活动区中;
在所述活动区外部定义一个或多个外围区;
将次要内容放置在所述VR观看环境的第一外围区中;
结合在所述次要内容中输入新数据,在所述活动区内显示吸引子,其中所述吸引子将所述用户的注意力引向所述第一外围区;
检测所述HMD从指向所述活动区的第一取向朝向指向所述第一外围区的第二取向的旋转;
暂停所述主要内容;以及
当所述HMD的所述旋转到达指向所述VR观看环境中的所述第一外围区的第二取向时,显示如通过所述3D显示器呈现的包括所述新数据的所述次要内容,其中所述次要内容显示在所述用户的FOV内,
其中所述主要内容是呈现给所述用户的虚拟现实内容,并且所述次要内容提供与所述主要内容相关的附加信息。
2.根据权利要求1所述的方法,其还包括:
检测所述HMD从所述第二取向到所述第一取向的旋转;
恢复所述主要内容;以及
在如通过所述3D显示器呈现的所述用户的所述FOV内的所述活动区中显示所述恢复的主要内容。
3.根据权利要求1所述的方法,其中定义活动区还包括:
在物理环境中将所述活动区与所述HMD的所述第一取向对准;以及
在所述物理环境中将所述第一外围区与所述HMD的所述第二取向对准。
4.根据权利要求1所述的方法,其中所述主要内容包括基本上由以下各项组成的组中的一项:
2D游戏应用;以及
视频。
5.根据权利要求1所述的方法,其中显示吸引子还包括:
在所述VR观看环境中的第一焦平面处定义的第一2D平面上显示所述主要内容;以及
在所述VR观看环境中的第二焦平面处定义的第二2D平面上显示所述吸引子,其中所述第二2D平面比所述第一2D平面更靠近所述VR观看环境的中心,所述中心对应于所述用户的观看位置。
6.根据权利要求1所述的方法,其中显示吸引子还包括:
在所述活动区中移动所述吸引子。
7.根据权利要求1所述的方法,其还包括:
确定进行作为主要内容显示的2D游戏应用的所述用户的游戏进行的基于位置的信息,其中所述基于位置的信息是参考所述用户的所述游戏进行中的角色在与所述游戏应用相关联的游戏世界中的位置来确定的;以及
接收伴随界面作为所述次要内容,其中所述伴随界面包括基于所述角色的所述位置的情境相关信息,其中所述情境相关信息是基于从进行所述游戏应用的多个用户的多个游戏进行中聚集的基于位置的信息。
8.一种计算机系统,其包括:
处理器;以及
存储器,所述存储器耦接到所述处理器并且其中存储有指令,所述指令如果由所述计算机系统执行,则致使所述计算机系统执行用于在HMD中提供信息的方法,所述方法包括:
在如通过所述HMD的3D显示器呈现的用户的虚拟现实VR观看环境中定义活动区;
将主要内容放置在所述VR观看环境的所述活动区中;
在所述活动区外部定义一个或多个外围区;
将次要内容放置在所述VR观看环境的第一外围区中;
结合在所述次要内容中输入新数据,在所述活动区内显示吸引子,其中所述吸引子将所述用户的注意力引向所述第一外围区;
检测所述HMD从指向所述活动区的第一取向朝向指向所述第一外围区的第二取向的旋转;
暂停所述主要内容;以及
当所述HMD的所述旋转到达指向所述VR观看环境中的所述第一外围区的第二取向时,显示如通过所述3D显示器呈现的包括所述新数据的所述次要内容,其中所述次要内容显示在所述用户的FOV内,
其中所述主要内容是呈现给所述用户的虚拟现实内容,并且所述次要内容提供与所述主要内容相关的附加信息。
9.根据权利要求8所述的计算机系统,其中所述方法还包括:
检测所述HMD从所述第二取向到所述第一取向的旋转;
恢复所述主要内容;以及
在如通过所述3D显示器呈现的所述用户的所述FOV内的所述活动区中显示所述恢复的主要内容。
10.根据权利要求8所述的计算机系统,其中在所述方法中显示吸引子还包括:
在所述VR观看环境中的第一焦平面处定义的第一2D平面上显示所述主要内容;以及
在所述VR观看环境中的第二焦平面处定义的第二2D平面上显示所述吸引子,其中所述第二2D平面比所述第一2D平面更靠近所述VR观看环境的中心,所述中心对应于所述用户的观看位置。
11.根据权利要求8所述的计算机系统,其中在所述方法中显示吸引子还包括:
在所述活动区中移动所述吸引子。
12.一种非暂时性计算机可读介质,其上存储用于在HMD中提供信息的计算机程序,所述程序被处理器执行时实现如权利要求1-7中任一项所述的方法。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662349546P | 2016-06-13 | 2016-06-13 | |
US62/349,546 | 2016-06-13 | ||
US201662365202P | 2016-07-21 | 2016-07-21 | |
US62/365,202 | 2016-07-21 | ||
US15/474,395 US10981061B2 (en) | 2016-06-13 | 2017-03-30 | Method and system for directing user attention to a location based game play companion application |
US15/474,395 | 2017-03-30 | ||
PCT/US2017/036644 WO2017218306A1 (en) | 2016-06-13 | 2017-06-08 | Method and system for directing user attention to a location based game play companion application |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109314800A CN109314800A (zh) | 2019-02-05 |
CN109314800B true CN109314800B (zh) | 2022-02-01 |
Family
ID=59270117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780036844.3A Active CN109314800B (zh) | 2016-06-13 | 2017-06-08 | 用于将用户注意力引导到基于位置的游戏进行伴随应用的方法和系统 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3469803B1 (zh) |
JP (3) | JP6767515B2 (zh) |
CN (1) | CN109314800B (zh) |
WO (1) | WO2017218306A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AT521845B1 (de) * | 2018-09-26 | 2021-05-15 | Waits Martin | Verfahren zur Fokuseinstellung einer Filmkamera |
JP7078743B2 (ja) * | 2018-10-09 | 2022-05-31 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理システム、情報処理装置およびコンテンツファイルの生成方法 |
JP7448943B2 (ja) * | 2019-10-07 | 2024-03-13 | 株式会社mediVR | リハビリテーション支援装置、その方法およびプログラム |
US12133134B2 (en) | 2020-12-01 | 2024-10-29 | Universal City Studios Llc | Systems and methods for controlling an operation of an attraction system |
KR102545996B1 (ko) | 2021-06-09 | 2023-06-23 | 주식회사 뉴코어 | 버드뷰 시점을 제공하는 vr 콘텐츠 렌더링 장치, 방법 및 프로그램 |
KR20230029014A (ko) | 2021-08-23 | 2023-03-03 | 김상완 | 가상현실기반의 사용자 위치의 감성콘텐츠기록 및 제공시스템 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102445756A (zh) * | 2010-11-18 | 2012-05-09 | 微软公司 | 用于扩展现实显示的自动焦点改善 |
CN103635849A (zh) * | 2011-06-23 | 2014-03-12 | 微软公司 | 用于头戴式显示器的总视野分类 |
CN104238738A (zh) * | 2013-06-07 | 2014-12-24 | 索尼电脑娱乐美国公司 | 在头戴式系统内产生增强虚拟现实场景的系统和方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5977935A (en) * | 1993-08-12 | 1999-11-02 | Seiko Epson Corporation | Head-mounted image display device and data processing apparatus including the same |
JP2003291688A (ja) | 2002-04-03 | 2003-10-15 | Denso Corp | 表示方法、運転支援装置、プログラム |
JP3637031B2 (ja) * | 2002-04-03 | 2005-04-06 | 任天堂株式会社 | ゲーム装置およびゲームプログラム |
JP3959354B2 (ja) * | 2003-01-10 | 2007-08-15 | 株式会社東芝 | 画像生成装置、画像生成方法、及び画像生成プログラム |
JP4463227B2 (ja) | 2006-03-15 | 2010-05-19 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及びゲーム装置 |
JP5125779B2 (ja) * | 2008-06-04 | 2013-01-23 | 株式会社ニコン | ヘッドマウントディスプレイ装置 |
US10018839B2 (en) * | 2012-05-30 | 2018-07-10 | Pioneer Corporation | Display device, head-mounted display, display method, display program and storage medium |
US8870661B2 (en) * | 2012-12-21 | 2014-10-28 | Sony Computer Entertainment America Llc | Cloud-based game slice generation and frictionless social sharing with instant play |
EP2983138A4 (en) | 2013-04-04 | 2017-02-22 | Sony Corporation | Display control device, display control method and program |
US9878235B2 (en) * | 2013-06-07 | 2018-01-30 | Sony Interactive Entertainment Inc. | Transitioning gameplay on a head-mounted display |
US9630105B2 (en) * | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
JP2015191554A (ja) | 2014-03-28 | 2015-11-02 | 株式会社ニコン | 電子機器 |
US9672416B2 (en) * | 2014-04-29 | 2017-06-06 | Microsoft Technology Licensing, Llc | Facial expression tracking |
JP6355978B2 (ja) | 2014-06-09 | 2018-07-11 | 株式会社バンダイナムコエンターテインメント | プログラムおよび画像生成装置 |
US9409083B2 (en) * | 2014-06-27 | 2016-08-09 | Amazon Technologies, Inc. | Spawning new timelines during game session replay |
US9904055B2 (en) * | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
JP5767386B1 (ja) * | 2014-12-15 | 2015-08-19 | 株式会社コロプラ | ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイへ表示するための方法、及びプログラム |
-
2017
- 2017-06-08 WO PCT/US2017/036644 patent/WO2017218306A1/en unknown
- 2017-06-08 JP JP2018565306A patent/JP6767515B2/ja active Active
- 2017-06-08 CN CN201780036844.3A patent/CN109314800B/zh active Active
- 2017-06-08 EP EP17734889.3A patent/EP3469803B1/en active Active
-
2020
- 2020-09-17 JP JP2020156521A patent/JP7249975B2/ja active Active
-
2022
- 2022-12-16 JP JP2022200925A patent/JP7503122B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102445756A (zh) * | 2010-11-18 | 2012-05-09 | 微软公司 | 用于扩展现实显示的自动焦点改善 |
CN103635849A (zh) * | 2011-06-23 | 2014-03-12 | 微软公司 | 用于头戴式显示器的总视野分类 |
CN104238738A (zh) * | 2013-06-07 | 2014-12-24 | 索尼电脑娱乐美国公司 | 在头戴式系统内产生增强虚拟现实场景的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2019526103A (ja) | 2019-09-12 |
EP3469803B1 (en) | 2024-09-11 |
JP7249975B2 (ja) | 2023-03-31 |
WO2017218306A1 (en) | 2017-12-21 |
JP2021007019A (ja) | 2021-01-21 |
CN109314800A (zh) | 2019-02-05 |
EP3469803A1 (en) | 2019-04-17 |
JP7503122B2 (ja) | 2024-06-19 |
JP2023036743A (ja) | 2023-03-14 |
JP6767515B2 (ja) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12134037B2 (en) | Method and system for directing user attention to a location based game play companion application | |
JP7572403B2 (ja) | ゲームクラウドシステムで実行されるビデオ記録を介して以前に記憶されたゲームプレイにアクセスするための方法およびシステム | |
US11389726B2 (en) | Second screen virtual window into VR environment | |
US11724204B2 (en) | In-game location based game play companion application | |
JP6663505B2 (ja) | Vr環境における観客ビュー視点 | |
US11786821B2 (en) | Instant streaming of a mobile user interface to a device of a secondary user without application install | |
JP6321150B2 (ja) | 三次元ゲームプレイの共有 | |
JP7503122B2 (ja) | 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム | |
JP2024133532A (ja) | ゲームクラウドシステム上で実行される、任意のユーザによるゲームプレイ実行を後で開始するために使用される、ゲームプレイのスナップショットを保存するための方法及びシステム | |
US11278810B1 (en) | Menu placement dictated by user ability and modes of feedback | |
JP7339318B2 (ja) | ゲーム内位置ベースのゲームプレイコンパニオンアプリケーション | |
CN110832442A (zh) | 注视点渲染系统中的优化的阴影和自适应网状蒙皮 | |
JP2019524180A (ja) | 場所ベースゲームプレイコンパニオンアプリケーションを使用するチャレンジの生成 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |