JP2015116336A - Mixed-reality arena - Google Patents
Mixed-reality arena Download PDFInfo
- Publication number
- JP2015116336A JP2015116336A JP2013261801A JP2013261801A JP2015116336A JP 2015116336 A JP2015116336 A JP 2015116336A JP 2013261801 A JP2013261801 A JP 2013261801A JP 2013261801 A JP2013261801 A JP 2013261801A JP 2015116336 A JP2015116336 A JP 2015116336A
- Authority
- JP
- Japan
- Prior art keywords
- user
- see
- physical space
- arena
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
[0001]格闘ゲームは、事前定義された格闘環境としてビデオゲームシステムの二次元の静止ディスプレイ上に頻繁に表示される。ユーザは、一般に、ビデオゲームシステムに接続されたビデオゲームコントローラを用いて格闘ゲームに関する制御を提供する。 [0001] Fighting games are frequently displayed on a two-dimensional stationary display of a video game system as a predefined fighting environment. A user typically provides control over a fighting game using a video game controller connected to the video game system.
[0002]コンピューティングシステム内で複合現実感格闘ゲームを提供するための実施形態が本明細書で開示される。例えば、コンピューティングシステムは、シースルー・ディスプレイデバイスと、論理サブシステムと、命令を記憶する記憶サブシステムとを備えることが可能であり、該命令は、論理サブシステムによって実行されるとき、仮想アリーナ、ユーザ制御アバタ、および対戦相手アバタをシースルー・ディスプレイデバイス上に表示して、物理空間がシースルー・ディスプレイデバイスを通して見られたとき、仮想アリーナは物理空間内に統合される。ユーザ入力の受信に応答して、これらの命令は、ユーザ入力に基づいて更新されたユーザ制御アバタをシースルー・ディスプレイデバイス上に表示することも可能である。 [0002] Embodiments for providing a mixed reality fighting game within a computing system are disclosed herein. For example, a computing system can comprise a see-through display device, a logical subsystem, and a storage subsystem that stores instructions, when the instructions are executed by the logical subsystem, a virtual arena, When the user-controlled avatar and the opponent avatar are displayed on the see-through display device and the physical space is viewed through the see-through display device, the virtual arena is integrated into the physical space. In response to receiving user input, these instructions may also display an updated user control avatar on the see-through display device based on the user input.
[0003]本発明の概要は、発明を実施するための形態において下でさらに説明される概念の選択を簡素化された形で紹介するために提供される。本発明の概要は、特許請求される主題の主な特徴もしくは本質的な特徴を識別することが意図されず、または特許請求される主題の範囲を限定するために使用されることも意図されない。さらに、特許請求される主題は、本開示のいずれかの部分で言及されるいずれかの不利点またはすべての不利点を解決する実装に限定されない。 [0003] This Summary is provided to introduce a selection of concepts in a simplified form that are further described below in the Detailed Description. This Summary is not intended to identify key features or essential features of the claimed subject matter, nor is it intended to be used to limit the scope of the claimed subject matter. Furthermore, the claimed subject matter is not limited to implementations that solve any or all disadvantages noted in any part of this disclosure.
[0013]格闘ゲームは、多くの場合、現実世界とのつながりがほとんどないか、かまたはまったくない二次元の事前定義された仮想環境として実施される。これらのゲームは、ユーザが経験できる没頭のレベルを制限して、静止画面およびビデオゲームシステムにユーザを束縛する。したがって、開示される実施形態は、格闘をユーザの物理的環境内に組み込むことによって、ユーザを「リングサイド」に連れて行くこと、またはさらにユーザを格闘に直接的に参加させる格闘ゲームを対象とする。例えば、下でより詳細に説明されるように、仮想アリーナおよび1つまたは複数のアバタをシースルーディスプレイ上に表示することによって、仮想アリーナおよびアバタはユーザの物理的環境内に統合されることが可能である。そのような統合は、格闘ゲーム内でユーザ制御アバタに関する制御を提供するために、ユーザが物理的環境と相互作用することを可能にし得る。 [0013] Fighting games are often implemented as a two-dimensional predefined virtual environment with little or no connection to the real world. These games limit the level of immersion that a user can experience and tie the user to a static screen and video game system. Accordingly, the disclosed embodiments are directed to a fighting game that takes the user to the “ringside” by incorporating the fight into the user's physical environment, or even joins the user directly into the fight. To do. For example, the virtual arena and avatar can be integrated into the user's physical environment by displaying the virtual arena and one or more avatars on a see-through display, as described in more detail below. It is. Such integration may allow the user to interact with the physical environment to provide control over the user control avatar within the fighting game.
[0014]図1Aは、物理空間104内のシースルー・ディスプレイデバイス102を含むコンピューティングシステム101を利用するユーザ100の上面図を概略的に示す。本明細書で使用される場合、物理空間という用語は、部屋など、ユーザ100の現実世界の物理的環境を指す場合がある。同様に、物理的位置は、ユーザ、現実世界オブジェクト、および/または物理空間内の仮想オブジェクトの位置を指す場合がある。物理空間は、事実上、いかなる屋内環境または屋外環境も含むことが可能である。ライン106aおよび106bは、シースルー・ディスプレイデバイスを通したユーザの視界を示す。図1Aは、ユーザ100の視界内にある、物理的環境104内の現実世界オブジェクト108a、108b、108c、および108dも示す。
FIG. 1A schematically illustrates a top view of a
[0015]図1Bは、シースルー・ディスプレイデバイス102を通して現実世界オブジェクト108a、108b、108c、および108dを見るユーザ100の一人称視点を示す。図1Bでは、シースルー・ディスプレイデバイスは、仮想オブジェクトを視覚的に提示していない。したがって、ユーザは現実世界オブジェクトだけを見ることができる。ユーザがそのような現実世界オブジェクトを見るのは、現実世界オブジェクトから反射する光がシースルーディスプレイを通してユーザの目に伝わることが可能であるためである。
[0015] FIG. 1B illustrates a first-person view of
[0016]コンピューティングシステム101は、複合現実感格闘ゲームを提供するように構成されることが可能である。例えば、図1Cは、図1Bと同じユーザ100の一人称視点を示すが、シースルー・ディスプレイデバイスは複合現実感格闘ゲームに対応する仮想オブジェクトを視覚的に提示している。詳細には、シースルー・ディスプレイデバイス102は、仮想アリーナ110と、ユーザ制御アバタ112と、対戦相手アバタ114とを表示している。ユーザの視点から、仮想アリーナおよびアバタは物理空間104に統合されているように見える。
[0016]
[0017]詳細には、図1Cは、仮想アリーナがあたかも部屋の床の上に配置されているかのように見えるようにレンダリングされた仮想アリーナ110を示す。例えば、仮想アリーナ110は、現実世界オブジェクト108dを完全に不明瞭にして、現実世界オブジェクト108a、108b、および108cを部分的に不明瞭にするようにレンダリングされる。さらに、アバタ112および114は、アバタがあたかも仮想アリーナ内に立っているかのように見えるようにレンダリングされる。
[0017] Specifically, FIG. 1C shows a
[0018]仮想アリーナ110、ユーザ制御アバタ112、および対戦相手アバタ114は非限定的な例として提供される。仮想アリーナおよびアバタは、本開示の範囲から逸脱せずに、事実上、どのような外観を有するようにもレンダリングされ得る。さらに、追加の仮想オブジェクトまたは代替の仮想オブジェクトはシースルー・ディスプレイデバイス102上に表示されることが可能であり、物理空間104内に統合されているように見える。
[0018]
[0019]仮想アリーナ110を物理空間104内に統合するために、シースルー・ディスプレイデバイス102は、1つまたは複数の画像センサを経由して、物理空間を撮像することができる。物理空間は、物理空間の表面形状とその他の特性とを画定する、1つまたは複数の地形的特徴を含むことが可能である。これらの特徴に関係する情報は、例えば、仮想アリーナを配置するのに適した開放領域または平面領域を判断するために使用されることが可能である。
[0019] To integrate the
[0020]いくつかの実施形態では、物理空間に関する情報は、シースルー・ディスプレイデバイス102、および/または対戦相手コンピューティングシステムなど、外部コンピューティングシステムを含めて、コンピューティングシステム101の様々なセンサによって検出されることが可能である。例えば、コンピューティングシステム101は、表面再構成、室内マッピング、位置決めサービスなどを使用することによって、物理空間の特徴を識別することができる。一例では、物理空間の位置は、ネットワークサービスによって提供されるGPS、セル三角測量、グローバル座標系によって判断され得る。コンピューティングシステム101は、一例では、物理空間の判断された位置に基づいて、物理空間に関する情報をサーバから受信することができる。いくつかの実施形態では、コンピューティングシステム101は、デプスカメラ(depth camera)を含むことが可能である。デプスカメラは、画像センサを経由して、1つまたは複数の地形的特徴を含む物理空間104を撮像することができる。デプスカメラは、物理空間104内の、オブジェクト108a、108b、108c、および108d(ならびに、そのようなオブジェクトを作り上げる個々の画素)など、オブジェクトに関する奥行き値を判断することも可能である。
[0020] In some embodiments, information about physical space is detected by various sensors of
[0021]コンピューティングシステム101は、物理空間の地形的特徴およびその他の特徴に関する情報を利用して、物理空間内の開放領域を識別することが可能である。シースルー・ディスプレイデバイス102は、物理空間がシースルー・ディスプレイデバイスを通して見られたとき、物理空間内に統合された仮想アリーナをシースルーディスプレイ上に表示することができる。いくつかの実施形態では、シースルー・ディスプレイデバイスは、物理空間内の1つまたは複数のオブジェクトと統合された、1つまたは複数の対話要素を有する仮想アリーナを表示する。コンピューティングシステム101は、複合現実感対話要素として機能するように視覚的に拡張され得る、物理空間104内の実際のオブジェクトを識別することができる。例えば、仮想アリーナは、物理空間内に公園のベンチと統合された仮想岩石を含むことが可能である。この例では、公園のベンチは、物理的な構造を提供するが、岩石のように見える。別の例では、コンピューティングシステム101は、ボクシングリングの仮想フェンスまたは仮想ロープとして機能するように拡張され得る壁を識別することができる。
[0021] The
[0022]いくつかの実施形態では、仮想アリーナは、仮想アリーナの内部の領域として「区域内」を画定することができる。これらの実施形態では、仮想アリーナの外部の領域は「区域外」と見なされ得る。例えば、1つもしくは複数の物理オブジェクトおよび/または仮想オブジェクトは、事実上、「区域内」領域内で分割されることが可能であるのに対して、物理オブジェクトおよび/または仮想オブジェクトは、事実上、「区域外」領域内で分割され得ない。代替実施形態では、格闘はアリーナの外部に出ることができ、この場合、物理空間全体が「区域内」と見なされる。 [0022] In some embodiments, the virtual arena may define "in-area" as a region inside the virtual arena. In these embodiments, the area outside the virtual arena may be considered “out of zone”. For example, one or more physical objects and / or virtual objects can be effectively divided within an “in-area” region, whereas physical objects and / or virtual objects are effectively , Cannot be divided within the “out of zone” region. In an alternative embodiment, the fight can go out of the arena, in which case the entire physical space is considered “in area”.
[0023]仮想アリーナ110は、コンピューティングシステム101によって自動的に構成されることが可能である。いくつかの実施形態では、仮想アリーナは、物理空間の1つまたは複数の地形的特徴に基づいて、サイズ指定されて、配置されることが可能である。形状、地形、障害物など、アリーナの追加の特徴は、(例えば、コンピューティングシステムのデプスカメラによって識別された)物理空間の特徴に基づいて構成されることが可能である。例えば、仮想アリーナの床が物理空間の地面および/または床と統合するように、仮想アリーナはサイズ指定されて、配置されることが可能である。他の例では、アリーナの床が、ボクシングリングなど、高架式アリーナに似せるために物理空間の地面および/または床の上部にあるように、アリーナはサイズ指定されて、配置されることが可能である。
[0023]
[0024]コンピューティングシステム101は、物理空間104の開放領域を自動的に検出して、その開放領域に整合するように仮想アリーナをスケーリングすることができる。例えば、開放領域は、仮想アリーナが、オブジェクトしきい値よりもより少ないオブジェクトを有する物理空間の位置を占有するようにサイズ指定されて、配置されるように、最小量の障害物を有する物理空間と定義され得る。代替例では、開放領域は、任意の適切な方法によって画定されてよい。例えば、開放領域は、対話式仮想オブジェクトに対応する、最大数の物理オブジェクトを有する物理空間と定義され得る。
[0024] The
[0025]追加の実施形態または代替実施形態では、仮想アリーナは、物理空間の上方制限関数(upwardly bounded function)としてスケーリングされることが可能である。上方制限は、最大アリーナサイズなど、最大アリーナパラメータを示すことができる。最大アリーナサイズは、例えば、アリーナが実物大よりも大きく見えないように選択されてよい。最大アリーナサイズは、最大幅、最大奥行き、および/または最大高さによって制約され得る。いくつかの実施形態では、仮想アリーナは、そのサイズを上限として、物理空間のサイズに応じてスケーリングされることが可能である。例えば、仮想アリーナは、実物大のアリーナなど、最大アリーナサイズを超えずに、可能な限りの物理空間を占有するようにスケーリングされることが可能である。追加の実施形態または代替実施形態では、仮想アリーナは、上方境界を超えずに、指定量の物理空間を占有するようにスケーリングされることが可能である。別の実施形態では、仮想アリーナは、地理空間内のサイズ、地形的特徴、オブジェクトなど、物理空間のパラメータに応じて、最高で上方制限まで、スケーリングされることが可能である。換言すれば、一例では、物理空間に整合するか、または最大アリーナサイズを満たすかのうち、どちらの限界が先に達した場合でも、最大アリーナサイズが画定されてよく、かつアリーナがスケーリングされ得る。 [0025] In additional or alternative embodiments, the virtual arena can be scaled as an upward bound function of physical space. The upper limit can indicate a maximum arena parameter, such as a maximum arena size. The maximum arena size may be selected, for example, such that the arena does not appear to be larger than the full size. The maximum arena size may be constrained by the maximum width, maximum depth, and / or maximum height. In some embodiments, the virtual arena can be scaled according to the size of the physical space, up to its size. For example, a virtual arena can be scaled to occupy as much physical space as possible without exceeding the maximum arena size, such as a full-scale arena. In additional or alternative embodiments, the virtual arena can be scaled to occupy a specified amount of physical space without crossing the upper boundary. In another embodiment, the virtual arena can be scaled up to an upper limit depending on physical space parameters, such as size in geospace, topographic features, objects, etc. In other words, in one example, the maximum arena size may be defined and the arena can be scaled regardless of which limit is reached first, either to match physical space or meet the maximum arena size. .
[0026]上方制限関数の1つの特定の例では、最大アリーナサイズは、609.6cm×609.6cm(20フィート×20フィート)であってよい。アリーナが304.8cm×304.8cm(10フィート×10フィート)の大きさの開放領域を有する室内に配置される場合、アリーナは10フィート×10フィート(304.8cm×304.8cm)の大きさに見えるようにスケーリングされることが可能である。代わりに、アリーナが914.4cm×914.4cm(30フィート×30フィート)の大きさの開放領域を有する室内に配置される場合、609.6cm×609.6cm(20フィート×20フィート)がアリーナに関して画定された最大サイズであるため、アリーナがその大きさに見えるように、アリーナはスケーリングされることが可能である。しかし、アリーナは、本開示の範囲から逸脱せずに、他の上方制限関数としてスケーリングされてもよい。 [0026] In one particular example of the upper limit function, the maximum arena size may be 20 ft x 20 ft (609.6 x 609.6 cm). If the arena is placed in a room having an open area measuring 304.8 cm x 304.8 cm (10 ft x 10 ft), the arena is 10 ft x 10 ft (304.8 cm x 304.8 cm). Can be scaled to look like. Instead, if the arena is placed in a room having an open area measuring 914.4 cm x 914.4 cm (30 ft x 30 ft), the 609.6 cm x 609.6 cm (20 ft x 20 ft) is the arena. The arena can be scaled so that the arena appears to be its size. However, the arena may be scaled as other upper limiting functions without departing from the scope of the present disclosure.
[0027]他の実施形態では、アリーナは、仮想アリーナの1つまたは複数のパラメータがユーザによって選択されるようにユーザによって構成されることが可能である。例えば、ユーザは、ユーザ入力を提供することによって、仮想アリーナのサイズ、位置、方位、形状などを選択することができる。いくつかの実施形態では、ユーザは、室内のある位置を指摘することが可能であり、選択された仮想アリーナはその位置に配置されることが可能である。仮想アリーナは、構成の間に、仮想アリーナがカスタマイズされていることを示すために、変更された外観を有することが可能である。仮想アリーナのパラメータを確認するとすぐに、その構成が完成していることを示すために仮想アリーナの外観は変更されてよい。仮想アリーナが画定されるまで仮想アリーナの様々な境界に関する位置をユーザが選択するように、仮想アリーナはモジュール式に配置されることも可能である。例えば、ユーザは、モジューラ式仮想アリーナのそれぞれの境界点に関する位置を指摘して、仮想アリーナの境界を画定することができる。 [0027] In other embodiments, the arena may be configured by the user such that one or more parameters of the virtual arena are selected by the user. For example, the user can select the size, position, orientation, shape, etc. of the virtual arena by providing user input. In some embodiments, the user can point to a location in the room and the selected virtual arena can be placed at that location. The virtual arena can have a modified appearance during configuration to indicate that the virtual arena has been customized. As soon as the virtual arena parameters are verified, the appearance of the virtual arena may be changed to indicate that the configuration is complete. The virtual arena can also be arranged in a modular fashion so that the user selects positions with respect to various boundaries of the virtual arena until the virtual arena is defined. For example, the user can point out the location for each boundary point of the modular virtual arena to define the boundaries of the virtual arena.
[0028]いくつかの実施形態では、ユーザによって選択されていない仮想アリーナのいずれのパラメータもコンピューティングシステム101によって自動的に構成されることが可能である。例えば、ユーザは選択された事前画定された仮想アリーナに関する位置を選択することができ、かつ/またはユーザは複数の事前定義された仮想アリーナのうちの1つを選択することができる。いくつかの例では、事前定義された仮想アリーナは、1つまたは複数のパラメータを画定することが可能である。例えば、事前定義された仮想アリーナは、特定の形状を有して、その部屋に整合するようにスケーリングされることが可能である。別の例では、事前定義された仮想アリーナは、特定のサイズを有して、仮想アリーナに対応する、物理空間の位置内に配置されることが可能である。さらなる実施形態では、ユーザは現実世界内のどのオブジェクトが仮想アリーナ内で対話可能であるかを選択することができる。
[0028] In some embodiments, any parameter of the virtual arena that is not selected by the user can be automatically configured by the
[0029]仮想アリーナは、境界が仮想空間および/または物理空間の閉鎖領域を画定する状態で完全に囲まれることが可能である。代替実施形態では、仮想アリーナは、1つもしくは複数の端部上で開放されてよく、かつ/または物理空間の異なる領域を占有することが可能である。例えば、仮想アリーナの一部は仮想深淵(abysses)によって分離された、格闘用の頂上高架式プラットフォームをシミュレートするために、障害物によって分離されることが可能である。さらなる実施形態では、仮想アリーナがシースルー・ディスプレイデバイスを通してユーザによって見られるすべての物理空間を占有することができるように、仮想アリーナは境界がなくてもよい。 [0029] The virtual arena can be completely enclosed with the boundary defining a closed area of virtual space and / or physical space. In alternative embodiments, the virtual arena may be open on one or more ends and / or occupy different areas of physical space. For example, a portion of a virtual arena can be separated by obstacles to simulate a fighting top elevated platform separated by virtual abysses. In a further embodiment, the virtual arena may be unbounded so that the virtual arena can occupy all the physical space seen by the user through the see-through display device.
[0030]コンピューティングシステム101は、シースルー・ディスプレイデバイス102を経由して、仮想アリーナ内に1つまたは複数のアバタを表示することができる。いくつかの実施形態では、1つまたは複数のアバタは、物理空間の上方制限関数としてスケーリングされることが可能である。上でより詳細に説明されたように、上方制限関数は、アバタが最高で(例えば、実物大に見える)最大サイズまで、物理空間のサイズに基づくサイズを有するようにスケーリングを画定することができる。アバタに関する上方制限関数は、アバタがそのアリーナから独立してスケーリングされるように、そのアリーナに関する上方制限関数とは異なってよい。あるいは、アバタに関する上方制限関数は、アバタがそのアリーナと同じ様式でスケーリングされるように、そのアリーナに関する上方制限関数と同じであってもよい。例えば、アバタは、独立して画定された最大サイズを有することが可能である。あるいは、アバタは、そのアリーナの最大サイズに等しいかまたはそのアリーナの最大サイズから導出された最大サイズを有することが可能である。さらに、それぞれのアバタは、それぞれのアバタが互いから、および/またはそのアリーナから独立してスケーリングされるように、独立した上方制限関数を有することが可能である。あるいは、それぞれのアバタは、上方制限関数の1つまたは複数の要素を共有することができる。例えば、それぞれのアバタは、同じ最大サイズを有することが可能である。
[0030] The
[0031]アバタは、ユーザ制御アバタと、1つまたは複数の対戦相手アバタとを含むことが可能である。ユーザ制御アバタは、任意の適切な様式でユーザによって制御されることが可能である。1つまたは複数の対戦相手アバタは、他のユーザおよび/または人工的なゲーム内インテリジェンスによって制御されることが可能である。 [0031] The avatar may include a user-controlled avatar and one or more opponent avatars. The user controlled avatar can be controlled by the user in any suitable manner. One or more opponent avatars can be controlled by other users and / or artificial in-game intelligence.
[0032]いくつかの実施形態では、格闘ゲームはチームを含むことが可能であり、それによって2人以上のユーザが協調的な形で1人または複数の対戦相手と戦う。代替実施形態では、格闘ゲームは、それぞれのプレイヤが互いのプレイヤと闘う、オープンバトルロイヤル(open battle royale)であってよい。 [0032] In some embodiments, a fighting game can include a team, whereby two or more users fight one or more opponents in a coordinated manner. In an alternative embodiment, the fighting game may be an open battle royal where each player fights each other.
[0033]いくつかの実施形態では、ユーザ制御アバタの外観は、事前定義されることが可能であるか、または複数の事前定義されたユーザ制御アバタ外観から選択されることも可能である。他の実施形態では、ユーザ制御アバタの外観は、ユーザ入力を提供するユーザの外観から導出されてもよい。例えば、ユーザは、デプスカメラおよび/またはカラーカメラなど、(1つもしくは複数の)カメラによって撮像されることが可能であり、ユーザの1つもしく複数の物理的特徴がユーザ制御アバタにマッピングされることが可能である。 [0033] In some embodiments, the appearance of the user-controlled avatar can be predefined or can be selected from a plurality of predefined user-controlled avatar appearances. In other embodiments, the appearance of the user controlled avatar may be derived from the appearance of the user providing user input. For example, a user can be imaged by a camera (s), such as a depth camera and / or a color camera, and one or more physical features of the user are mapped to a user controlled avatar. It is possible.
[0034]ユーザは、ユーザ入力を提供して、ユーザ制御アバタおよび/または格闘ゲームのその他の要素を制御することができる。ユーザ入力の受信に応答して、コンピューティングシステム101は、ユーザ入力に基づいて、更新されたユーザ制御アバタをシースルー・ディスプレイデバイス102上に表示することができる。例えば、キックまたはパンチなど、攻撃的な動きがユーザ入力によって表示されることが可能であり、応答して、シースルーディスプレイは、攻撃的な動きを実行するユーザ制御アバタを表示することができる。
[0034] A user may provide user input to control user-controlled avatars and / or other elements of the fighting game. In response to receiving the user input, the
[0035]いくつかの実施形態では、更新された画像は、ユーザ制御アバタを新しい位置、方位、ポーズなどで表示するために使用されることが可能である。追加の例または代替例では、更新されたユーザ制御アバタは、ユーザ入力によって示されたコマンドを例示するために動かされることが可能である。 [0035] In some embodiments, the updated image may be used to display the user control avatar with a new position, orientation, pose, etc. In additional examples or alternatives, the updated user control avatar can be moved to illustrate the command indicated by the user input.
[0036]ユーザは、動きコマンド、攻撃コマンドまたは防御コマンド、仮想アリーナの視野を修正するためのカメラ制御コマンド、格闘を終了するなどのゲームコマンドなど、1つまたは複数のコマンドを示すユーザ入力を提供することができる。例えば、攻撃コマンドは、パンチ、キック、ファイヤーボールなどの仮想マジックアタックなど、様々な格闘的な動きを含むことが可能である。防御コマンドは、一続きのユーザ入力が受信されて、シースルー・ディスプレイデバイスが拡張された防御的な動きを実行する、更新されたユーザ制御アバタを表示する組合せ動作(combo move)を含むことも可能である。 [0036] The user provides user input indicating one or more commands, such as motion commands, attack or defense commands, camera control commands to modify the virtual arena's field of view, game commands such as end a fight can do. For example, an attack command can include various fighting movements such as a virtual magic attack such as punch, kick, fireball, and the like. The defense command can also include a combo move that displays an updated user-controlled avatar where a series of user input is received and the see-through display device performs an extended defensive movement It is.
[0037]ユーザ入力は、ユーザ制御アバタを制御するための複数の方法およびデバイスを経由して受信されることが可能である。いくつかの実施形態では、ユーザ入力は1つまたは複数の音声取込みデバイスに提供される音声コマンドを経由して受信されることが可能である。これらの実施形態では、マイクロフォンは、ユーザ入力を提供するために、ユーザからの音声コマンドを検出することができる。例えば、ユーザは、「パンチ」、「左に避ける」、「前に動く」など、音声コマンドを用いてユーザ制御アバタに命令することによって仮想コーチの役目を果たすことができる。いくつかの実施形態では、ユーザ入力は、ゲームコントローラを経由して受信されることが可能である。例えば、ユーザは、ゲームコントローラの1つまたは複数のボタン、ジョイスティック、フリッパ、スイッチなどを作動させることによって入力を提供することができる。いくつかの実施形態では、ユーザ入力は、空間的位置検出器(例えば、慣性計測装置)を経由して受信されることが可能である。例えば、慣性計測装置は、ユーザの1つまたは複数の位置の移動を検出および解釈するために、ユーザの1つまたは複数の位置に取り付けられることが可能である。例えば、慣性計測装置は、ユーザの手によるパンチ動きを検出するために、ユーザの指に取り付けられることが可能である。 [0037] User input may be received via multiple methods and devices for controlling a user control avatar. In some embodiments, user input can be received via voice commands provided to one or more voice capture devices. In these embodiments, the microphone can detect voice commands from the user to provide user input. For example, the user can act as a virtual coach by instructing the user control avatar using voice commands such as “punch”, “avoid left”, “move forward”, and the like. In some embodiments, user input can be received via a game controller. For example, the user can provide input by actuating one or more buttons, joysticks, flippers, switches, etc. of the game controller. In some embodiments, user input can be received via a spatial position detector (eg, an inertial measurement device). For example, the inertial measurement device can be attached to one or more positions of the user to detect and interpret movement of one or more positions of the user. For example, the inertial measurement device can be attached to the user's finger to detect punch movement by the user's hand.
[0038]いくつかの実施形態では、ユーザ入力は、ユーザ入力を提供するユーザのジェスチャを観察するステップを行うように構成されたジェスチャ入力検出デバイスを経由して受信されることが可能である。例えば、ユーザは、ジェスチャ入力検出デバイスによって検出された、パンチの動きなどのジェスチャを実行することが可能である。ジェスチャ入力検出デバイスは、ジェスチャを検出および認識することができる1つまたは複数のデバイスを含むことが可能である。例えば、ジェスチャ入力検出デバイスは、カラーカメラ、デプスカメラ、加速度計、慣性計測装置、タッチセンサ式デバイスなどを含むことが可能である。いくつかの実施形態では、ジェスチャは、対戦相手シースルー・ディスプレイデバイスのカメラによって検出されることが可能である。別の実施形態では、ユーザ入力は、ユーザの目の動きを判断および認識する視線追跡検出デバイスを経由して受信されることが可能である。例えば、シースルー・ディスプレイデバイスの内向き(inward−facing)カメラはユーザの凝視を検出することができる。 [0038] In some embodiments, user input may be received via a gesture input detection device configured to perform a step of observing a user's gesture providing user input. For example, the user can perform a gesture, such as a punch movement, detected by a gesture input detection device. Gesture input detection devices can include one or more devices that can detect and recognize gestures. For example, the gesture input detection device can include a color camera, a depth camera, an accelerometer, an inertial measurement device, a touch-sensitive device, and the like. In some embodiments, a gesture can be detected by an opponent's see-through display device camera. In another embodiment, user input may be received via a gaze tracking detection device that determines and recognizes the user's eye movements. For example, an inward-facing camera of a see-through display device can detect a user's gaze.
[0039]いくつかの実施形態では、ユーザ入力に提供するために複数のデバイスが同時に使用されてよい。例えば、ユーザは、慣性計測装置を着用して、「前に動く」ための音声コマンドを提供しながら、パンチの動きを検出することができる。したがって、ユーザ制御アバタは、前に動きながら、パンチの動きを実行することができる。さらに、単一のデバイスは、複数のユーザ入力取込み機能を含むことが可能である。例えば、ゲームコントローラは、特定のジェスチャを認識するための加速度計を含むことが可能である。したがって、ユーザは、ゲームコントローラを利用して、押圧ボタンならびにジェスチャによって、ユーザ入力を提供することができる。 [0039] In some embodiments, multiple devices may be used simultaneously to provide for user input. For example, a user can detect a punch movement while wearing an inertial measurement device and providing a voice command to “move forward”. Accordingly, the user-controlled avatar can perform a punch movement while moving forward. In addition, a single device can include multiple user input capture functions. For example, the game controller may include an accelerometer for recognizing a specific gesture. Therefore, the user can provide a user input with a push button and a gesture using the game controller.
[0040]ユーザは、複数の視野および視点を用いて格闘を見て、格闘に参加することができる。例えば、視野および/または視点は、物理空間に基づいて、ユーザに関して選ばれることが可能である。別の例では、ユーザは、好ましい視野および/または視点を選択することができる。いくつかの実施形態では、ユーザは、視野および/または視点の間で動的に切り替えることができる。代替実施形態または追加の実施形態では、システムは、アバタまたはユーザのうちの1つもしくは複数の動きに応答して、自動的に視野および/あるいは視点の間を動的に切り替えることができる。 [0040] A user can watch and participate in a fight using multiple views and viewpoints. For example, the field of view and / or viewpoint can be chosen for the user based on physical space. In another example, the user can select a preferred field of view and / or viewpoint. In some embodiments, the user can dynamically switch between views and / or viewpoints. In alternative or additional embodiments, the system can automatically switch between views and / or viewpoints automatically in response to movement of one or more of the avatar or user.
[0041]図2は、三人称「リングサイド」視野である第1の視野のある例を示す。三人称視野では、ユーザ制御アバタ200は、シースルー・ディスプレイデバイス102を通して見られたとき、ユーザ202の前面に配置され得る。仮想アリーナ204、ユーザ制御アバタ200および対戦相手アバタ206は、仮想環境を表すために、破線を用いて例示される。
[0041] FIG. 2 shows an example with a first field of view that is a third person "ringside" field of view. In the third person view, the
[0042]図2に例示される視野では、ユーザ制御アバタ200の位置は、いくつかの実施形態では、ユーザ制御アバタを制御するためのユーザ入力を提供するユーザ202の位置に基づいて動的に更新されることが可能である。すなわち、三人称視野は、ユーザ制御アバタがユーザに対して同じ方位および/または位置に維持されるように、固定視点を有することが可能である。例えば、ユーザ制御アバタは、ユーザの前面の位置を維持することができる。いくつかの実施形態では、固定視点は、結果として、シースルー・ディスプレイデバイスに、その背をユーザに向けた状態でユーザ制御アバタを表示させることができる。この構成では、ユーザは、ユーザ制御アバタによって直接的に模倣されるジェスチャまたは制御を提供することができる。例えば、ユーザがジョイスティックを右にトグルする場合、シースルーディスプレイは、アバタの右側に移動した、更新されたユーザ制御アバタを表示することができる。他の例では、固定視点は、結果として、シースルー・ディスプレイデバイスに、その前面をユーザに向けた状態でユーザ制御アバタを表示させることができる。この構成では、ユーザは、ユーザ制御アバタによって反映されたジェスチャを提供することができる。例えば、ユーザがジョイスティックを右にトグルする場合、シースルーディスプレイは、アバタの左側に移動した、更新されたユーザ制御アバタを表示することができる。
[0042] In the field of view illustrated in FIG. 2, the position of the
[0043]いくつかの実施形態では、ユーザ制御アバタの位置は、ユーザが格闘の三人称視野を有するとき、ユーザの位置から独立して更新されることが可能である。すなわち、三人称視野は、動的な視点を有することが可能である。例えば、ユーザは、ユーザ制御アバタおよび/またはアリーナの位置ならびに方位を同じ状態に維持しながら、アリーナの周囲を移動することができる。そのような構成は、格闘の間、ユーザが所望される視点を獲得することを可能にし得る。例えば、ユーザは、アリーナの周囲を移動して、異なる角度から格闘を見て、考えられる格闘戦略を識別することができる。 [0043] In some embodiments, the position of the user-controlled avatar can be updated independently of the user's position when the user has a combat third-person view. That is, the third person field of view can have a dynamic viewpoint. For example, the user can move around the arena while maintaining the same position and orientation of the user-controlled avatar and / or arena. Such a configuration may allow the user to obtain the desired viewpoint during the fight. For example, the user can move around the arena to see the fights from different angles and identify possible fighting strategies.
[0044]上述のように、ユーザ制御アバタは、三人称視点から見られることが可能である。すなわち、ユーザが制御するアバタは、ユーザから物理的に分離される。他の実施形態では、ユーザ制御アバタは、ユーザのオーバレイとして実施されることが可能である。 [0044] As described above, the user-controlled avatar can be viewed from a third person perspective. That is, the avatar controlled by the user is physically separated from the user. In other embodiments, the user-controlled avatar can be implemented as a user overlay.
[0045]例えば、図3は、シースルー・ディスプレイデバイス102を通して見られた一人称視野のある例を示す。一人称視野では、シースルーディスプレイは現実を拡張して、ユーザの外観を変更する。この視野では、手302および/または脚がシースルー・ディスプレイデバイス102を通して見られたとき、ボクシンググローブ300および/またはボクシングパンツなどのコスチューム要素は、ユーザの手302および/または脚をオーバレイ(overlay:重ね書き)することができる。すなわち、シースルーディスプレイは、ユーザ制御アバタの特徴をユーザの対応する特徴のオーバレイとして表示することによって、ユーザの外観を拡張することができる。
[0045] For example, FIG. 3 shows an example of a first person view viewed through a see-through
[0046]一人称視野は、上でより詳細に説明されたように、固定視点を特色として備えてよく、または動的視点であってもよい。この視野に関する動的視点は、小さな物理空間内でユーザ制御アバタの動きの制御を可能にするために利用されることが可能である。例えば、ユーザは、自らの物理的位置を変更せずに、特定のユーザ入力を介して、ユーザ制御アバタの仮想位置を変更することができる。 [0046] The first person field of view may feature a fixed viewpoint as described in more detail above, or may be a dynamic viewpoint. This dynamic viewpoint for the field of view can be utilized to allow control of the movement of the user controlled avatar within a small physical space. For example, the user can change the virtual position of the user control avatar via specific user input without changing his physical position.
[0047]いずれの視野または視点においても、ユーザ制御アバタは、ユーザ入力を提供するユーザのポーズに基づくポーズで表示されることが可能である。あるいは、ユーザ制御アバタは、ユーザ入力を提供するユーザのポーズから独立したポーズで表示されることも可能である。 [0047] In any field of view or viewpoint, the user control avatar can be displayed in a pose based on the user's pose providing user input. Alternatively, the user control avatar can be displayed in a pose that is independent of the user's pose providing user input.
[0048]図1Cの対戦相手アバタ114など、対戦相手アバタは、コンピューティングデバイスによって提供されるAI(人工知能)によって制御されることが可能である。対戦相手アバタは、対戦相手ユーザ入力を提供する対戦相手ユーザによって制御されることも可能である。例えば、いくつかの実施形態では、対戦相手ユーザは、メインユーザと同じ物理空間内に配置されることが可能である。この実施形態では、仮想アリーナは対戦相手のシースルー・ディスプレイデバイス上に表示されるため、対戦相手ユーザは仮想アリーナの表現を見ることができる。対戦相手シースルー・ディスプレイデバイスは、メインユーザのシースルー・ディスプレイデバイスによって表示される仮想アリーナと同じ物理空間の位置内に仮想アリーナの表現を表示することができ、その結果、両方のユーザは、同じ物理位置内にアリーナとアバタとを認知することができる。
[0048] An opponent avatar, such as the
[0049]いくつかの実施形態では、対戦相手ユーザは、メインユーザとは異なる物理空間内に配置されることが可能である。例えば、対戦相手ユーザは、シースルー・ディスプレイデバイスを用いて仮想アリーナの表現を見ることができる。このようにして、2つの異なる物理空間内に同じアリーナおよびアバタの錯覚を生み出すために、異なるシースルーディスプレイが使用される。 [0049] In some embodiments, the opponent user may be located in a different physical space than the main user. For example, an opponent user can view a representation of a virtual arena using a see-through display device. In this way, different see-through displays are used to create the same arena and avatar illusion in two different physical spaces.
[0050]別の例として、対戦相手ユーザは、静止ディスプレイ(例えば、テレビまたはコンピュータデバイス)を用いて仮想アリーナの表現を見ることができる。例えば、図4は、対戦相手400がビデオゲームシステム402などのコンピューティングシステムを経由して格闘に参加して、対戦相手静止ディスプレイ404を使用してその格闘を見るのを例示する。
[0050] As another example, an opponent user can view a representation of a virtual arena using a stationary display (eg, a television or a computer device). For example, FIG. 4 illustrates an
[0051]いくつかの実施形態では、仮想アリーナは、メインユーザによって構成されて、そのメインユーザに対応する物理空間の位置内に配置されることが可能である。アリーナ、物理空間、および1つまたは複数のアバタのパラメータに関する情報は、次いで、ビデオゲームシステム402に送信されることが可能である。対戦相手静止ディスプレイ404上に表示された仮想アリーナ406の表現は、その場合、メインユーザの物理空間の特性を反映することができる。代替実施形態では、仮想アリーナは、対戦相手ユーザに対応する物理空間内で構成されて、その物理空間内に配置されることが可能である。アリーナ、物理空間、および1つまたは複数のアバタのパラメータに関する情報は、その場合、メインユーザのシースルーディスプレイに送信されることが可能である。メインユーザのシースルーディスプレイは、対戦相手の物理空間の特性を反映する仮想アリーナの表現を表示することができる。
[0051] In some embodiments, a virtual arena can be configured by a main user and placed within a physical space location corresponding to the main user. Information regarding the arena, physical space, and one or more avatar parameters may then be sent to the
[0052]上で説明されたようなリアルタイムマルチプレイヤシナリオに従事するとき、2人以上のユーザの物理空間の間の差は、物理空間の物理的特性を互いにマッピングすることによって調整され得る。例えば、メインユーザ物理空間はアリーナを収容するように選択され得る。したがって、いくつかの実施形態では、メインユーザ物理空間内の物理オブジェクトを表す仮想オブジェクトは、仮想的に対戦相手物理空間に組み込まれることが可能である。例えば、メインユーザ物理空間内に配置されたテーブルは、対戦相手物理空間の対応する位置内の対戦相手シースルー・ディスプレイデバイス上に表示されることが可能である。他の実施形態では、対話式仮想オブジェクトによって表された物理オブジェクトだけが対戦相手シースルー・ディスプレイデバイス上に表示され得る。 [0052] When engaging in a real-time multiplayer scenario as described above, the difference between the physical space of two or more users can be adjusted by mapping the physical properties of the physical space to each other. For example, the main user physical space may be selected to accommodate the arena. Thus, in some embodiments, virtual objects representing physical objects in the main user physical space can be virtually incorporated into the opponent physical space. For example, a table placed in the main user physical space can be displayed on an opponent see-through display device in a corresponding position in the opponent physical space. In other embodiments, only physical objects represented by interactive virtual objects may be displayed on the opponent see-through display device.
[0053]図5は、本開示のある実施形態による、仮想アリーナを物理空間内に統合する、ある例示的な方法500を示す。502で、方法500は、地形的特徴を含む物理空間を撮像するステップを含む。いくつかの実施形態では、504で、物理空間の特徴は、物理空間内のオブジェクトに関する奥行き値を判断することによってさらに識別されることが可能である。506で、方法500は、物理空間内に統合された仮想アリーナを表示するステップを含む。一例では、仮想アリーナのサイズおよび位置は、508で、ユーザ入力に基づいて構成されることが可能である。追加の例または代替例では、コンピューティングシステムは、510で、物理空間に基づいて仮想アリーナを自動的に配置することができる。自動的に配置することは、512で、物理空間の上方制限関数として仮想アリーナをスケーリングするステップを含むことが可能である。
[0053] FIG. 5 illustrates an
[0054]514で、方法500は、仮想アリーナ内に1つまたは複数のアバタを表示するステップを含む。一例では、アバタは、516で、物理空間の上方制限関数としてスケーリングされることが可能である。518で、アバタは、ユーザの外観から導出された外観で表示されることが可能である。520で、方法500は、ユーザ入力に基づいて、ユーザ制御アバタを制御するステップを含む。次に、522で、方法500は、ユーザ入力に基づいて、更新されたユーザ制御アバタを表示するステップを含む。
[0054] At 514,
[0055]図6は、シースルーディスプレイ602を含むシースルー・ディスプレイデバイス102の非限定的な例を示す。例えば、シースルー・ディスプレイデバイス102は、頭部装着型シースルー・ディスプレイデバイスであってよい。シースルーディスプレイ602は、少なくとも一部透明であり、それにより、シースルーディスプレイを通して光がユーザの目に伝わるのを可能にする。さらに、シースルーディスプレイは、シースルーディスプレイを通して物理空間を見るユーザに対して物理空間の外観を視覚的に拡張するように構成される。例えば、シースルーディスプレイは、ユーザがシースルーディスプレイを通して見るとき、ユーザが見ることができる仮想オブジェクトを表示することができる。したがって、ユーザは、ユーザが物理空間を見るのと同時に物理空間内に存在しない仮想オブジェクトを見ることができる。これはその仮想オブジェクトが物理空間の一部であるという錯覚を生み出す。
[0055] FIG. 6 illustrates a non-limiting example of a see-through
[0056]シースルー・ディスプレイデバイス102は、仮想現実エンジン604も含む。仮想現実エンジン604は、シースルーディスプレイに仮想アリーナの形の仮想オブジェクト、1つもしくは複数のアバタ、またはその他の仮想オブジェクトを視覚的に提示させるように構成されることが可能である。仮想オブジェクトは、現実世界オブジェクトの外観をシミュレートすることができる。シースルーディスプレイを介して物理空間を見るユーザにとって、仮想オブジェクトは物理空間と統合されたように見える。例えば、シースルーディスプレイを経由して表示される仮想オブジェクトおよび/または他の像は、表示される仮想オブジェクトおよび/または像が、ユーザにとって、その物理空間内の特定の位置を占有するように見えるように、ユーザの目に対して配置されることが可能である。このようにして、ユーザはその物理空間内に実際に存在しないオブジェクトを見ることができる。仮想現実エンジンは、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組合せを含むことが可能である。
[0056] The see-through
[0057]シースルー・ディスプレイデバイス102は、スピーカサブシステム606とセンササブシステム608とを含むことが可能である。センササブシステムは、異なる実施形態では様々な異なるセンサを含むことが可能である。非限定的な例として、センササブシステムは、マイクロフォン610、1つもしくは複数の(ユーザから遠ざかる)前向き(forward−facing)赤外線カメラおよび/または可視光カメラ612、ならびに/あるいは1つもしくは複数の(ユーザに面した)後向き(rearward−facing)赤外線カメラおよび/または可視光カメラ614を含むことが可能である。(1つもしくは複数の)前向きカメラは1つもしくは複数のデプスカメラを含むことが可能であり、かつ/または後向きカメラは1つもしくは複数の視線追跡カメラを含むことが可能である。いくつかの実施形態では、オンボードセンササブシステムは、観察情報をオンボードセンササブシステムに送信する、1つまたは複数のオフボードセンサと通信することができる。例えば、ゲームコンソールによって使用されるデプスカメラは、デプスマップおよび/またはモデル形成された仮想スケルトンを頭部装着型ディスプレイのセンササブシステムに送信することができる。
[0057] The see-through
[0058]シースルー・ディスプレイデバイス102は、シースルー・ディスプレイデバイスがユーザの頭に装着されることを可能にする、1つまたは複数の特徴を含むことも可能である。示される例では、シースルー・ディスプレイデバイス102は、メガネの形をとり、鼻あて616と、耳あて618aおよび618bとを含む。他の実施形態では、頭部装着型ディスプレイは、前面シースルーバイザ(in−front−of−the−face see−through−visor)を備えた帽子またはヘルメットを含むことが可能である。さらに、頭部装着型シースルーディスプレイの関連で説明されているが、本明細書で説明される概念は、頭部装着型ではないシースルーディスプレイ(例えば、フロントガラス)およびシースルーではないディスプレイ(例えば、カメラの視界内にない仮想オブジェクトと共に、カメラによって観察される実際のオブジェクトをレンダリングする半透明ディスプレイ)に適用されることが可能である。
[0058] The see-through
[0059]シースルー・ディスプレイデバイス102は、通信サブシステム620を含むことも可能である。通信サブシステム620は、1つまたは複数のオフボードコンピューティングデバイスと通信するように構成されることが可能である。ある例として、通信サブシステムは、ビデオストリーム、オーディオストリーム、座標情報、仮想オブジェクト記述、および/またはその他の情報を無線で受信して、仮想アリーナをレンダリングするように構成されることが可能である。
[0059] The see-through
[0060]いくつかの実施形態では、上で説明された方法およびプロセスは、1つまたは複数のコンピューティングデバイスのコンピューティングシステムに結合され得る。詳細には、そのような方法およびプロセスは、コンピュータアプリケーションプログラムもしくはコンピュータアプリケーションサービス、アプリケーションプログラミングインターフェース(API)、ライブラリ、および/またはその他のコンピュータプログラム製品として実施されることが可能である。 [0060] In some embodiments, the methods and processes described above may be coupled to a computing system of one or more computing devices. In particular, such methods and processes can be implemented as computer application programs or computer application services, application programming interfaces (APIs), libraries, and / or other computer program products.
[0061]図7は、上で説明された方法およびプロセスのうちの1つまたは複数を規定する(enact)ことができるコンピューティングシステム700のある非限定的な実施形態を概略的に示す。コンピューティングシステム700は、簡素化された形で示される。本開示の範囲から逸脱せずに、事実上、いかなるコンピュータアーキテクチャが使用されてもよいことを理解されよう。異なる実施形態では、コンピューティングシステム700は、頭部装着型シースルー・ディスプレイデバイス、ゲームデバイス、モバイルコンピューティングデバイス、モバイル通信デバイス(例えば、スマートフォン)、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、家庭用娯楽コンピュータ、ネットワークコンピューティングデバイス、メインフレームコンピュータ、サーバコンピュータなどの形をとってよい。
[0061] FIG. 7 schematically illustrates one non-limiting embodiment of a
[0062]コンピューティングシステム700は、論理サブシステム702と記憶サブシステム704とを含む。コンピューティングシステム700は、ディスプレイサブシステム706(例えば、シースルーディスプレイ)、入力サブシステム708、通信サブシステム710、および/または図7に示されないその他の構成要素をオプションで含むことが可能である。
[0062]
[0063]論理サブシステム702は、命令を実行するように構成された、1つまたは複数の物理デバイスを含む。例えば、論理サブシステムは、1つもしくは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、構成要素、データ構造、またはその他の論理的構成の一部である命令を実行するように構成されることが可能である。そのような命令は、タスクを実行するために、データタイプを実施するために、1つもしくは複数の構成要素の状態を変換するために、またはそうでない場合、所望される結果に達するために実施されることが可能である。
[0063] The
[0064]論理サブシステムは、ソフトウェア命令を実行するように構成された、1つまたは複数のプロセッサを含むことが可能である。加えて、またはその代わりに、論理サブシステムは、ハードウェア命令またはファームウェア命令を実行するように構成された、1つもしくは複数のハードウェア論理機械あるいはファームウェア論理機械を含むことが可能である。論理サブシステムのプロセッサは、シングルコアであってよく、またはマルチコアであってよく、その上で実行されるプログラムは、連続処理、並列処理、または分散処理のために構成されることが可能である。論理サブシステムは、遠隔に配置されることが可能であり、かつ/または協調処理のために構成されることが可能である、2つ以上のデバイス間で分散された個々の構成要素をオプションで含むことが可能である。論理サブシステムの態様は、クラウドコンピューティング構成で構成された、遠隔でアクセス可能な、ネットワーク接続されたコンピューティングデバイスによって仮想化および実行されることが可能である。 [0064] The logical subsystem may include one or more processors configured to execute software instructions. In addition or alternatively, the logical subsystem may include one or more hardware or firmware logic machines configured to execute hardware or firmware instructions. The logical subsystem processor may be single-core or multi-core, and the program executed thereon may be configured for continuous, parallel, or distributed processing . A logical subsystem can optionally be remotely located and / or configured for collaborative processing, optionally with individual components distributed between two or more devices. It is possible to include. Aspects of the logical subsystem can be virtualized and executed by remotely accessible, networked computing devices configured in a cloud computing configuration.
[0065]記憶サブシステム704は、本明細書で説明された方法およびプロセスを実施するために論理サブシステムによって実行可能なデータならびに/または命令を保持するように構成された、1つもしくは複数の物理的な非一時的デバイスを含む。そのような方法およびプロセスが実施されるとき、記憶サブシステム704の状態は、例えば、異なるデータを保持するために、変換されることが可能である。
[0065] The
[0066]記憶サブシステム704は、取外し可能媒体および/または内蔵型デバイスを含むことが可能である。記憶サブシステム704は、中でも、光記憶装置(例えば、CD、DVD、HD−DVD、Blu−Rayディスクなど)、半導体記憶装置(例えば、RAM、EPROM、EEPROMなど)、および/または磁気記憶装置(例えば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRANなど)を含むことが可能である。記憶サブシステム704は、揮発性デバイス、不揮発性デバイス、動的デバイス、静的デバイス、読取り書込みデバイス、読出し専用デバイス、ランダムアクセスデバイス、連続アクセスデバイス、位置アドレス可能(addressable)デバイス、ファイルアドレス可能デバイス、および/またはコンテンツアドレス可能デバイスを含むことが可能である。
[0066] The
[0067]記憶サブシステム704は、1つまたは複数の物理的な非一時的デバイスを含むことを理解されよう。しかし、いくつかの実施形態では、本明細書で説明された命令の態様は、有限存続期間にわたって物理デバイスによって保持されない、きれいな信号(例えば、電磁信号、光信号など)によって一時的な形で伝搬されることが可能である。さらに、本開示に関係するデータおよび/または他の形の情報は、きれいな信号によって伝搬されることが可能である。
[0067] It will be appreciated that the
[0068]いくつかの実施形態では、論理サブシステム702の態様および記憶サブシステム704の態様は、それを介して、本明細書で機能的に説明されたことが規定され得る、1つまたは複数のハードウェア論理構成要素内に共に統合されることが可能である。そのようなハードウェア論理構成要素は、例えば、フィールドプログラマブルゲートアレイ(FPGA)と、特定プログラム向け(program−specific)集積回路および特定用途向け集積回路(PSIC/ASIC)と、特定プログラム向け標準製品および特定用途向け標準製品(PSSP/ASSP)と、システムオンチップ(SOC)システムと、複合プログラマブル論理デバイス(CPLD)とを含むことが可能である。
[0068] In some embodiments, aspects of the
[0069]「プログラム」および「エンジン」という用語は、特定の機能を実行するために実施される、コンピューティングシステム700のある態様を説明するために使用される場合がある。場合によっては、プログラムまたはエンジンのインスタンスは、記憶サブシステム704によって保持される命令を実行する論理サブシステム702を経由して作成されることが可能である。異なるプログラムおよび/またはエンジンのインスタンスは、同じアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、機能などから作成され得ることを理解されよう。同様に、同じプログラムおよび/またはエンジンは、異なるアプリケーション、サービス、コードブロック、オブジェクト、ルーチン、API、機能などによって作成されることが可能である。「プログラム」および「エンジン」という用語は、個々の実行可能なファイル、データファイル、ライブラリ、ドライバ、スクリプト、データベース記録など、またはそれらのグループを包含することが可能である。
[0069] The terms "program" and "engine" may be used to describe certain aspects of
[0070]本明細書で使用される場合「サービス」は、複数のユーザセッションを通して実行可能なアプリケーションプログラムであることを理解されよう。サービスは、1つもしくは複数のシステム構成要素、プログラム、および/またはその他のサービスに利用可能であり得る。いくつかの実施形態では、サービスは、1つまたは複数のサーバコンピューティングデバイス上で実行することができる。 [0070] As used herein, it will be understood that a "service" is an application program that can be executed through multiple user sessions. A service may be available for one or more system components, programs, and / or other services. In some embodiments, the service can run on one or more server computing devices.
[0071]含まれるとき、ディスプレイサブシステム706は、記憶サブシステム704によって保持されるデータの視覚的表現を提示するために使用されることが可能である。この視覚的表現は、物理空間を拡張するように見える像の形をとってよく、それにより、複合現実感の錯覚を生み出す。本明細書で説明された方法およびプロセスは記憶サブシステムによって保持されるデータを変更し、それにより、記憶サブシステムの状態を変換するため、ディスプレイサブシステム706の状態は、基礎となるデータの変更を視覚的に表すために同様に変換されることが可能である。ディスプレイサブシステム706は、事実上、任意のタイプの技術を利用する、1つまたは複数のディスプレイデバイスを含むことが可能である。そのようなディスプレイデバイスは、共用筐体(shared enclosure)(例えば、頭部装着型ディスプレイ)内で論理サブシステム702および/または記憶サブシステム704と組み合わされることが可能であるか、またはそのようなディスプレイデバイスは周辺ディスプレイデバイスであってもよい。
[0071] When included, the display subsystem 706 can be used to present a visual representation of the data maintained by the
[0072]含まれるとき、入力サブシステム708は、ゲームコントローラ、ジェスチャ入力検出デバイス、音声認識装置、慣性計測装置、キーボード、マウス、またはタッチスクリーンなど、1つもしくは複数のユーザ入力デバイスを備えるか、あるいは当該ユーザ入力デバイスとインターフェースをとることが可能である。いくつかの実施形態では、入力サブシステムは、選択されたナチュラルユーザ入力(natural user input)(NUI)コンポーネント要素(componentry)を備えるか、または当該コンポーネント要素とインターフェースをとることができる。そのようなコンポーネント要素は、統合型であってよく、または周辺的であってもよく、入力動作の変換および/または処理は、ハンドヘルドであってよく、またはオンボード式もしくはオフボード式であってもよい。例示的なNUIコンポーネント要素は、発話認識および/もしくは音声認識用のマイクロフォン、マシンビジョンおよび/もしくはジェスチャ認識のための赤外線カメラ、カラーカメラ、立体カメラ、ならびに/またはデプスカメラ、動き検出および/もしくは意図認識のための頭部追跡器、視線追跡器、加速度計、ならびに/またはジャイロスコープと同様に、脳活動を査定するための電界検知コンポーネント要素を含むことが可能である。 [0072] When included, the input subsystem 708 comprises one or more user input devices such as a game controller, gesture input detection device, voice recognition device, inertial measurement device, keyboard, mouse, or touch screen, Alternatively, it can interface with the user input device. In some embodiments, the input subsystem may comprise or interface with a selected natural user input (NUI) component element. Such component elements may be integrated or peripheral, and the conversion and / or processing of input motion may be handheld or onboard or offboard. Also good. Exemplary NUI component elements include microphones for speech recognition and / or speech recognition, infrared cameras, color cameras, stereo cameras, and / or depth cameras, motion detection and / or intent for machine vision and / or gesture recognition Similar to a head tracker, eye tracker, accelerometer, and / or gyroscope for recognition, an electric field sensing component element for assessing brain activity can be included.
[0073]含まれるとき、通信サブシステム710は、コンピューティングシステム700を1つまたは複数の他のコンピューティングデバイスと通信可能に結合するように構成されることが可能である。通信サブシステム710は、1つもしくは複数の異なる通信プロトコルと互換性がある有線通信デバイスおよび/または無線通信デバイスを含むことが可能である。非限定的な例として、通信サブシステムは、無線電話ネットワーク、あるいは有線もしくは無線のローカルエリアネットワークまたは広域ネットワークを経由して通信するように構成されることが可能である。いくつかの実施形態では、通信サブシステムは、コンピューティングシステム700が、インターネットなどのネットワークを経由して、他のデバイスにメッセージを送信すること、および/または他のデバイスからメッセージを受信することを可能にすることができる。
[0073] When included, the communication subsystem 710 may be configured to communicatively couple the
[0074]本明細書で説明された構成および/または手法は、本質的に例示的であり、様々な改変が可能であるため、これらの特定の実施形態または例は限定的な意味で考慮されるべきでないことを理解されよう。本明細書で説明された特定のルーチンまたは方法は、任意の数の処理戦略のうちの1つもしくは複数を表す場合がある。したがって、例示および/または説明された様々な動作は、例示および/または説明された順序で実行されてよく、他の順序で実行されてよく、並行して実行されてよく、または省略されてもよい。同様に、上述のプロセスの順序は変更されてもよい。 [0074] Since the configurations and / or techniques described herein are exemplary in nature and various modifications are possible, these specific embodiments or examples are considered in a limiting sense. It will be understood that it should not. The particular routines or methods described herein may represent one or more of any number of processing strategies. Accordingly, the various operations illustrated and / or described may be performed in the order illustrated and / or described, may be performed in other orders, may be performed in parallel, or may be omitted. Good. Similarly, the order of the processes described above may be changed.
[0075]本開示の主題は、本明細書で開示された様々なプロセス、システムおよび構成、その他の特徴、機能、動作、ならびに/または属性のすべての新規性のある非自明の組合せならびにサブコンビネーションと同様に、それらの任意の均等物およびすべての均等物を含む。 [0075] The subject matter of this disclosure is all novel non-obvious combinations and subcombinations of the various processes, systems and configurations, and other features, functions, operations, and / or attributes disclosed herein. As well as any and all equivalents thereof.
100 ユーザ
101 コンピューティングシステム
102 シースルー・ディスプレイデバイス
104 物理空間
物理的環境
106a、106b、106c、106d ライン
108a、108b、108c、108d 現実世界オブジェクト
110 仮想アリーナ
112 ユーザ制御アバタ
アバタ
114 対戦相手アバタ
アバタ
200 ユーザ制御アバタ
202 ユーザ
204 仮想アリーナ204
206 対戦相手アバタ
300 ボクシンググローブ
302 手
400 対戦相手
402 ビデオゲームシステム
404 対戦相手静止ディスプレイ
406 仮想アリーナ
500 方法
502 ステップ
504 ステップ
506 ステップ
508 ステップ
510 ステップ
512 ステップ
514 ステップ
516 ステップ
518 ステップ
520 ステップ
522 ステップ
602 シースルーディスプレイ
604 仮想現実エンジン
606 スピーカサブシステム
608 センササブシステム
610 マイクロフォン
612 前向き赤外線カメラおよび/または可視光カメラ
614 後向き赤外線カメラおよび/または可視光カメラ
616 鼻あて
618a、618b 耳あて
620 通信サブシステム
700 コンピューティングシステム
702 論理サブシステム
704 記憶サブシステム
706 ディスプレイサブシステム706
708 入力サブシステム
710 通信サブシステム
100
206
708 Input subsystem 710 Communication subsystem
Claims (10)
シースルー・ディスプレイデバイスと、
論理サブシステムと、
前記論理サブシステムによって実行されるとき、
仮想アリーナ、ユーザ制御アバタ、および対戦相手アバタを前記シースルー・ディスプレイデバイス上に表示して、物理空間が前記シースルー・ディスプレイデバイスを通して見られたとき、前記仮想アリーナが前記物理空間内に統合され、
ユーザ入力の受信に応答して、前記ユーザ入力に基づいて更新されたユーザ制御アバタを前記シースルー・ディスプレイデバイス上に表示する
命令を記憶した記憶サブシステムと
を備えるコンピューティングシステム。 A computing system that provides a mixed reality fighting game,
See-through display devices,
A logical subsystem;
When executed by the logical subsystem,
Displaying a virtual arena, a user controlled avatar, and an opponent avatar on the see-through display device so that when the physical space is viewed through the see-through display device, the virtual arena is integrated into the physical space;
A computing system comprising: a storage subsystem storing instructions for displaying a user control avatar updated based on the user input on the see-through display device in response to receiving the user input.
シースルー・ディスプレイデバイスを介して仮想アリーナを表示するステップであって、前記仮想アリーナが物理空間の第1の上方制限関数としてスケーリングされるステップと、
前記シースルー・ディスプレイデバイスを介して1つまたは複数のアバタを前記仮想アリーナ内に表示するステップであって、前記1つまたは複数のアバタが前記物理空間の第2の上方制限関数としてスケーリングされる、ステップと
を含む方法。 A method for providing a mixed reality fighting game,
Displaying a virtual arena through a see-through display device, wherein the virtual arena is scaled as a first upper limiting function in physical space;
Displaying one or more avatars in the virtual arena via the see-through display device, wherein the one or more avatars are scaled as a second upper limiting function of the physical space; And a method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013261801A JP2015116336A (en) | 2013-12-18 | 2013-12-18 | Mixed-reality arena |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013261801A JP2015116336A (en) | 2013-12-18 | 2013-12-18 | Mixed-reality arena |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015116336A true JP2015116336A (en) | 2015-06-25 |
JP2015116336A5 JP2015116336A5 (en) | 2017-02-02 |
Family
ID=53529625
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013261801A Pending JP2015116336A (en) | 2013-12-18 | 2013-12-18 | Mixed-reality arena |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015116336A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017068824A1 (en) * | 2015-10-21 | 2017-04-27 | シャープ株式会社 | Image generation device, method for controlling image generation device, display system, image generation control program, and computer-readable recording medium |
WO2017094356A1 (en) * | 2015-12-01 | 2017-06-08 | シャープ株式会社 | Video producing device, method for controlling video producing device, display system, video production control program, and computer-readable recording medium |
WO2018131238A1 (en) * | 2017-01-16 | 2018-07-19 | ソニー株式会社 | Information processing device, information processing method, and program |
CN108939533A (en) * | 2018-06-14 | 2018-12-07 | 广州市点格网络科技有限公司 | Somatic sensation television game interactive approach and system |
JP2019149066A (en) * | 2018-02-28 | 2019-09-05 | 富士ゼロックス株式会社 | Information processing apparatus and program |
WO2019225115A1 (en) * | 2018-05-24 | 2019-11-28 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2020057400A (en) * | 2019-11-28 | 2020-04-09 | 株式会社ソニー・インタラクティブエンタテインメント | Information processor and warning presentation method |
CN111223187A (en) * | 2018-11-23 | 2020-06-02 | 广东虚拟现实科技有限公司 | Virtual content display method, device and system |
JP2020086630A (en) * | 2018-11-19 | 2020-06-04 | 株式会社ポケット・クエリーズ | Work assisting system and program |
WO2020110322A1 (en) * | 2018-11-30 | 2020-06-04 | 株式会社ドワンゴ | Video synthesis device, video synthesis method and recording medium |
WO2020110323A1 (en) * | 2018-11-30 | 2020-06-04 | 株式会社ドワンゴ | Video synthesis device, video synthesis method and recording medium |
WO2020262391A1 (en) * | 2019-06-28 | 2020-12-30 | 富士フイルム株式会社 | Display control device, display control method, and program |
US10888772B2 (en) | 2015-12-14 | 2021-01-12 | Sony Interactive Entertainment Inc. | Information processing apparatus and warning presentation method |
JP2021048644A (en) * | 2020-12-17 | 2021-03-25 | ソニー株式会社 | Information processing unit, information processing method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001046742A (en) * | 1999-08-04 | 2001-02-20 | Namco Ltd | Game system and information memory medium |
US20120052947A1 (en) * | 2010-08-24 | 2012-03-01 | Sang Bum Yun | System and method for cyber training of martial art on network |
JP2012181616A (en) * | 2011-02-28 | 2012-09-20 | Namco Bandai Games Inc | Program, information storage medium, game device and server system |
US20130194259A1 (en) * | 2012-01-27 | 2013-08-01 | Darren Bennett | Virtual environment generating system |
-
2013
- 2013-12-18 JP JP2013261801A patent/JP2015116336A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001046742A (en) * | 1999-08-04 | 2001-02-20 | Namco Ltd | Game system and information memory medium |
US20120052947A1 (en) * | 2010-08-24 | 2012-03-01 | Sang Bum Yun | System and method for cyber training of martial art on network |
JP2012181616A (en) * | 2011-02-28 | 2012-09-20 | Namco Bandai Games Inc | Program, information storage medium, game device and server system |
US20130194259A1 (en) * | 2012-01-27 | 2013-08-01 | Darren Bennett | Virtual environment generating system |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10471355B2 (en) | 2015-10-21 | 2019-11-12 | Sharp Kabushiki Kaisha | Display system, method of controlling display system, image generation control program, and computer-readable storage medium |
WO2017068824A1 (en) * | 2015-10-21 | 2017-04-27 | シャープ株式会社 | Image generation device, method for controlling image generation device, display system, image generation control program, and computer-readable recording medium |
WO2017094356A1 (en) * | 2015-12-01 | 2017-06-08 | シャープ株式会社 | Video producing device, method for controlling video producing device, display system, video production control program, and computer-readable recording medium |
US11697062B2 (en) | 2015-12-14 | 2023-07-11 | Sony Interactive Entertainment Inc. | Information processing apparatus and warning presentation method |
US10888772B2 (en) | 2015-12-14 | 2021-01-12 | Sony Interactive Entertainment Inc. | Information processing apparatus and warning presentation method |
CN110168615A (en) * | 2017-01-16 | 2019-08-23 | 索尼公司 | Information processing equipment, information processing method and program |
JPWO2018131238A1 (en) * | 2017-01-16 | 2019-12-12 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
WO2018131238A1 (en) * | 2017-01-16 | 2018-07-19 | ソニー株式会社 | Information processing device, information processing method, and program |
US10868977B2 (en) | 2017-01-16 | 2020-12-15 | Sony Corporation | Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information |
JP2019149066A (en) * | 2018-02-28 | 2019-09-05 | 富士ゼロックス株式会社 | Information processing apparatus and program |
WO2019225115A1 (en) * | 2018-05-24 | 2019-11-28 | ソニー株式会社 | Information processing device, information processing method, and program |
CN108939533A (en) * | 2018-06-14 | 2018-12-07 | 广州市点格网络科技有限公司 | Somatic sensation television game interactive approach and system |
JP2020086630A (en) * | 2018-11-19 | 2020-06-04 | 株式会社ポケット・クエリーズ | Work assisting system and program |
CN111223187A (en) * | 2018-11-23 | 2020-06-02 | 广东虚拟现实科技有限公司 | Virtual content display method, device and system |
WO2020110323A1 (en) * | 2018-11-30 | 2020-06-04 | 株式会社ドワンゴ | Video synthesis device, video synthesis method and recording medium |
US11195302B2 (en) | 2018-11-30 | 2021-12-07 | Dwango Co., Ltd. | Video synthesis device, video synthesis method and recording medium |
JP2020087277A (en) * | 2018-11-30 | 2020-06-04 | 株式会社ドワンゴ | Movie synthesizer, movie synthesizing method, and movie synthesizing program |
US11625858B2 (en) | 2018-11-30 | 2023-04-11 | Dwango Co., Ltd. | Video synthesis device, video synthesis method and recording medium |
JP2020087278A (en) * | 2018-11-30 | 2020-06-04 | 株式会社ドワンゴ | Movie synthesizer, movie synthesizing method, and movie synthesizing program |
WO2020110322A1 (en) * | 2018-11-30 | 2020-06-04 | 株式会社ドワンゴ | Video synthesis device, video synthesis method and recording medium |
US11367260B2 (en) | 2018-11-30 | 2022-06-21 | Dwango Co., Ltd. | Video synthesis device, video synthesis method and recording medium |
JPWO2020262391A1 (en) * | 2019-06-28 | 2020-12-30 | ||
JP7163498B2 (en) | 2019-06-28 | 2022-10-31 | 富士フイルム株式会社 | Display control device, display control method, and program |
WO2020262391A1 (en) * | 2019-06-28 | 2020-12-30 | 富士フイルム株式会社 | Display control device, display control method, and program |
US11909945B2 (en) | 2019-06-28 | 2024-02-20 | Fujifilm Corporation | Display control device, display control method, and program |
JP2020057400A (en) * | 2019-11-28 | 2020-04-09 | 株式会社ソニー・インタラクティブエンタテインメント | Information processor and warning presentation method |
JP7044149B2 (en) | 2020-12-17 | 2022-03-30 | ソニーグループ株式会社 | Information processing equipment, information processing methods, and programs |
JP2021048644A (en) * | 2020-12-17 | 2021-03-25 | ソニー株式会社 | Information processing unit, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20140125698A1 (en) | Mixed-reality arena | |
JP2015116336A (en) | Mixed-reality arena | |
US11806623B2 (en) | Apparatus for adapting virtual gaming with real world information | |
US12134037B2 (en) | Method and system for directing user attention to a location based game play companion application | |
JP6373920B2 (en) | Simulation system and program | |
JP7560568B2 (en) | Systems and methods for virtual and augmented reality | |
JP6281495B2 (en) | Information processing apparatus, terminal apparatus, information processing method, and program | |
JP6281496B2 (en) | Information processing apparatus, terminal apparatus, information processing method, and program | |
US9804696B2 (en) | User-input control device toggled motion tracking | |
US9933851B2 (en) | Systems and methods for interacting with virtual objects using sensory feedback | |
JP2023542846A (en) | Devices, methods, and graphical user interfaces for interacting with three-dimensional environments | |
JP2022527662A (en) | Virtual object control methods, devices, equipment and computer programs | |
JP2014149712A (en) | Information processing device, terminal device, information processing method, and program | |
CN112416196B (en) | Virtual object control method, device, equipment and computer readable storage medium | |
TW201541382A (en) | Display device viewer gaze attraction | |
JP2015116336A5 (en) | ||
CN103785169A (en) | Mixed reality arena | |
EP2886172A1 (en) | Mixed-reality arena | |
CN113926187A (en) | Object control method, device and terminal device in virtual scene | |
KR20150071611A (en) | Mixed-reality arena | |
CN116251349A (en) | Method and device for prompting target position in game and electronic equipment | |
JP2022131381A (en) | program | |
KR20150071824A (en) | Cross-platform augmented reality experience | |
JP2015116339A (en) | Cross-platform augmented reality experience | |
WO2023160068A1 (en) | Virtual subject control method and apparatus, device, and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150528 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181105 |