[go: up one dir, main page]

JP2022169526A - Application control program, application control method and application control system - Google Patents

Application control program, application control method and application control system Download PDF

Info

Publication number
JP2022169526A
JP2022169526A JP2022119296A JP2022119296A JP2022169526A JP 2022169526 A JP2022169526 A JP 2022169526A JP 2022119296 A JP2022119296 A JP 2022119296A JP 2022119296 A JP2022119296 A JP 2022119296A JP 2022169526 A JP2022169526 A JP 2022169526A
Authority
JP
Japan
Prior art keywords
display
user
virtual space
image
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022119296A
Other languages
Japanese (ja)
Other versions
JP7462192B2 (en
Inventor
匡志 渡邊
Masashi Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Holdings Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019182013A external-priority patent/JP6905022B2/en
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022119296A priority Critical patent/JP7462192B2/en
Publication of JP2022169526A publication Critical patent/JP2022169526A/en
Application granted granted Critical
Publication of JP7462192B2 publication Critical patent/JP7462192B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることのできるアプリケーションを提供する。【解決手段】第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに仮想空間の画像を出力させるプログラムであって、制御部16に、装着ディスプレイに仮想空間の画像を出力させる第1表示機能と、第2ユーザの操作に基づき第2ユーザが用いるディスプレイに仮想空間の画像を出力させる第2表示機能とを実現させ、第1表示機能は、第2ユーザに対応するキャラクタが配置された仮想空間の画像を装着ディスプレイに出力し、第2ユーザが用いるディスプレイに表示された表示範囲を識別可能に表示し、第2表示機能は、第2ユーザの入力操作に基づき第2ユーザにより指定された表示範囲の画像をキャラクタの位置から見た画像としてディスプレイに出力させる。【選択図】図1The present invention provides an application that allows a user wearing a wearable display and a user not wearing a wearable display to play at the same time. A first program that causes a control unit 16 to output an image of a virtual space to a wearable display worn by a first user and a display used by a second user. and a second display function that outputs an image of the virtual space to the display used by the second user based on the second user's operation, and the first display function is configured such that a character corresponding to the second user is arranged. outputs an image of the virtual space to the display worn by the second user, displays the display range displayed on the display used by the second user in an identifiable manner, and the second display function is specified by the second user based on the input operation by the second user. The image of the displayed range is output to the display as an image seen from the position of the character. [Selection diagram] Figure 1

Description

本発明は、複数のユーザに仮想空間を共有させるためのアプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムに関する。 The present invention relates to an application control program, an application control method, and an application control system for allowing multiple users to share a virtual space.

ユーザの頭部に装着された装着ディスプレイ(以下、HMD:ヘッドマウントディスプレイ)に、仮想空間の画像を表示してプレイするバーチャルリアリティゲームが知られている。HMDは、例えばジャイロセンサ等のトラッキングセンサを備えており、ユーザの頭部の動きを検知できる。ユーザが頭部を動かすと、HMDは頭部の動きに追従してディスプレイに表示する画像を変化させる。このように、ゲーム画像が頭部の動きに追従することで、ユーザは一層ゲームに意識を集中させることができる。つまり、ゲームへの没入感を高めることができる。 2. Description of the Related Art A virtual reality game is known in which an image of a virtual space is displayed and played on a wearable display (hereinafter referred to as HMD: head-mounted display) worn on the head of a user. The HMD is equipped with a tracking sensor such as a gyro sensor, and can detect movement of the user's head. When the user moves his/her head, the HMD changes the image displayed on the display following the movement of the head. In this way, the game image follows the movement of the head, allowing the user to concentrate more on the game. That is, it is possible to enhance the sense of immersion in the game.

また、このようなバーチャルリアリティゲームの一つとして、複数のユーザでプレイするゲームも提案されている。特許文献1には、複数のユーザがそれぞれHMDを装着してプレイするゲームが記載されている。このゲームでは、HMDを装着した各ユーザの位置情報を仮想空間のアバターの位置情報に反映させて、仮想空間内に各ユーザのアバターを描画する。 A game played by a plurality of users has also been proposed as one of such virtual reality games. Patent Literature 1 describes a game played by a plurality of users wearing HMDs. In this game, the position information of each user wearing the HMD is reflected in the position information of the avatar in the virtual space, and the avatar of each user is drawn in the virtual space.

特開2014-17776号公報JP 2014-17776 A

一方、複数のユーザがバーチャルリアリティゲームをプレイしようとしたとき、プレイする人数と同数のHMDを常に準備できるとは限らない。また、ユーザの中には、HMDを装着することに抵抗のあるユーザが存在する可能性もある。このように多様な状況が想定されるが、HMDを装着しないユーザとHMDを装着したユーザとの両方が参加することができ、しかもHMDを装着しないユーザのアプリケーションへの寄与度を高めたゲームは見当たらない。 On the other hand, when a plurality of users want to play a virtual reality game, it is not always possible to prepare the same number of HMDs as the number of players. Moreover, there is a possibility that some users are reluctant to wear an HMD. Although various situations are assumed as described above, a game in which both a user without an HMD and a user with an HMD can participate, and in which the contribution of the user without an HMD to the application is enhanced. Not found.

本発明は、上記実情を鑑みてなされたものであり、その目的は、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることのできるアプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムを提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and its object is to provide an application control program, an application control method, and an application control system that enable a user wearing a wearable display and a user not wearing the wearable display to play at the same time. to do.

上記課題を解決するアプリケーション制御プログラムは、第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに仮想空間の画像を出力させるアプリケーション制御プログラムであって、1又は複数のコンピュータに、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させる第1表示機能と、前記第2ユーザの操作に基づき当該第2ユーザが用いるディスプレイに前記仮想空間の画像を出力させる第2表示機能と、を実現させ、前記第1表示機能により表示される前記仮想空間は、前記第2ユーザに対応するキャラクタが配置された前記仮想空間であって、前記第1表示機能は、前記第1ユーザの姿勢に応じて前記キャラクタを含む前記仮想空間の画像を前記装着ディスプレイに出力し、前記装着ディスプレイに表示された前記仮想空間の画像のうち、前記第2ユーザが用いる前記ディスプレイに表示された表示範囲を識別可能に表示し、前記第2表示機能は、前記第2ユーザの入力操作に基づき前記第2ユーザにより指定された前記仮想空間の前記表示範囲を決定し、前記表示範囲の画像を前記キャラクタの位置から見た画像として前記ディスプレイに出力させる。
これによれば、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。
An application control program for solving the above problem is an application control program for outputting an image of a virtual space to a wearable display worn by a first user and a display used by a second user, wherein one or more computers are provided with the first A first display function for outputting an image of the virtual space on the wearable display according to the posture of one user, and outputting the image of the virtual space on the display used by the second user based on the operation of the second user. a second display function, wherein the virtual space displayed by the first display function is the virtual space in which a character corresponding to the second user is placed, wherein the first display function is An image of the virtual space including the character is output to the wearable display according to the posture of the first user, and among the images of the virtual space displayed on the wearable display, the image is displayed on the display used by the second user. The displayed display range is identifiably displayed, and the second display function determines the display range of the virtual space specified by the second user based on the second user's input operation, and determines the display range. is output to the display as an image viewed from the position of the character.
According to this, the user who wears the wearable display and the user who does not wear the wearable display can play at the same time.

上記アプリケーション制御プログラムについて、前記コンピュータに、前記第2ユーザの入力操作に基づいて前記キャラクタの位置を変更する位置変更機能をさらに実現させることが好ましい。 In the application control program, it is preferable that the computer further implements a position changing function of changing the position of the character based on the second user's input operation.

上記アプリケーション制御プログラムについて、前記第1表示機能は、前記表示範囲を、前記キャラクタを中心として広がる扇状の範囲として表示することが好ましい。 In the application control program, it is preferable that the first display function displays the display range as a fan-shaped range that spreads around the character.

上記アプリケーション制御プログラムについて、前記第2表示機能は、前記仮想空間内での前記キャラクタの位置を示す俯瞰画像を前記ディスプレイに出力させることが好ましい。 In the application control program, it is preferable that the second display function causes the display to output a bird's-eye view image indicating the position of the character in the virtual space.

上記アプリケーション制御プログラムについて、前記第1表示機能は、前記第1ユーザの位置の上方に前記キャラクタを配置した前記仮想空間の画像を前記装着ディスプレイに出力することが好ましい。 In the application control program, it is preferable that the first display function outputs to the wearable display an image of the virtual space in which the character is arranged above the position of the first user.

上記アプリケーション制御プログラムについて、第2ユーザが用いるディスプレイに表示される前記仮想空間の画像にはオブジェクトが含まれることが好ましい。 With respect to the application control program, it is preferable that the image of the virtual space displayed on the display used by the second user includes an object.

上記アプリケーション制御プログラムについて、前記第1表示機能は、前記表示範囲と前記装着ディスプレイに表示される画像の範囲とが重複している場合には、その重複部分に含まれるオブジェクトを表示状態とし、前記重複部分に含まれないオブジェクトがある場合には、その所定のオブジェクトを非表示状態として前記装着ディスプレイに出力することが好ましい。 With respect to the application control program, the first display function, when the display range and the range of the image displayed on the wearable display overlap, displays an object included in the overlapping portion, and If there is an object that is not included in the overlapping portion, it is preferable to output the predetermined object to the wearable display as a non-display state.

上記アプリケーション制御プログラムについて、前記コンピュータに、前記第1ユーザによる操作に応じたオブジェクトに対するアクションを前記仮想空間の画像に反映する第1アクション反映機能としてさらに実現させ、前記第1アクション反映機能は、前記表示状態とされたオブジェクトに対するアクションのみ有効とすることが好ましい。
上記アプリケーション制御プログラムについて、前記コンピュータに、前記第2ユーザによる操作に応じたオブジェクトに対するアクションを前記仮想空間の画像に反映する第2アクション反映機能としてさらに実現させ、前記第1表示機能は、上記アプリケーション制御プログラムについて、前記第2ユーザの操作によるアクションを反映した前記仮想空間の画像を前記装着ディスプレイに出力することが好ましい。
The application control program further causes the computer to implement a first action reflection function for reflecting an action on an object according to an operation by the first user on an image of the virtual space, wherein the first action reflection function is the It is preferable to validate only the action for the displayed object.
The application control program further causes the computer to implement a second action reflection function for reflecting an action on an object according to an operation by the second user on an image of the virtual space, and the first display function is the application control program. With respect to the control program, it is preferable that an image of the virtual space reflecting an action by the operation of the second user is output to the wearable display.

上記課題を解決するアプリケーション制御方法は、第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに仮想空間の画像を出力させるアプリケーション制御方法であって、1又は複数のコンピュータが、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させる第1表示ステップと、前記第2ユーザの操作に基づき当該第2ユーザが用いるディスプレイに前記仮想空間の画像を出力させる第2表示ステップと、を実行し、前記第1表示ステップで表示される前記仮想空間は、前記第2ユーザに対応するキャラクタが配置された前記仮想空間であって、前記第1表示ステップでは、前記第1ユーザの姿勢に応じて前記キャラクタを含む前記仮想空間の画像を前記装着ディスプレイに出力し、前記装着ディスプレイに表示された前記仮想空間の画像のうち、前記第2ユーザが用いる前記ディスプレイに表示された表示範囲を識別可能に表示し、前記第2表示ステップでは、前記第2ユーザの入力操作に基づき前記第2ユーザにより指定された前記仮想空間の前記表示範囲を決定し、前記表示範囲の画像を前記キャラクタの位置から見た画像として前記ディスプレイに出力させる。 An application control method for solving the above problem is an application control method for outputting an image of a virtual space on a display worn by a first user and a display used by a second user, wherein one or more computers a first display step of outputting the image of the virtual space on the wearable display according to the posture of one user; and outputting the image of the virtual space on the display used by the second user based on the operation of the second user. a second display step, wherein the virtual space displayed in the first display step is the virtual space in which a character corresponding to the second user is arranged, and in the first display step, An image of the virtual space including the character is output to the wearable display according to the posture of the first user, and among the images of the virtual space displayed on the wearable display, the image is displayed on the display used by the second user. displaying the displayed display range in an identifiable manner, and determining the display range of the virtual space specified by the second user based on the second user's input operation in the second display step; is output to the display as an image viewed from the position of the character.

これによれば、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。 According to this, the user who wears the wearable display and the user who does not wear the wearable display can play at the same time.

上記課題を解決するアプリケーション制御システムは、第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力させる制御部とを備え、仮想空間の画像を出力させるアプリケーションシステムであって、前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させる第1表示制御部と、前記第2ユーザの操作に基づき当該第2ユーザが用いるディスプレイに前記仮想空間の画像を出力させる第2表示制御部と、を備え、前記第1表示制御部により表示される前記仮想空間は、前記第2ユーザに対応するキャラクタが配置された前記仮想空間であって、前記第1表示制御部は、前記第1ユーザの姿勢に応じて前記キャラクタを含む前記仮想空間の画像を前記装着ディスプレイに出力し、前記装着ディスプレイに表示された前記仮想空間の画像のうち、前記第2ユーザが用いる前記ディスプレイに表示された表示範囲を識別可能に表示し、前記第2表示制御部は、前記第2ユーザの入力操作に基づき前記第2ユーザにより指定された前記仮想空間の前記表示範囲を決定し、前記表示範囲の画像を前記キャラクタの位置から見た画像として前記ディスプレイに出力させる。 An application control system for solving the above problems is an application system that includes a wearable display worn by a first user and a control unit that outputs an image to the display used by a second user, and outputs an image of a virtual space, a first display control unit for outputting an image of the virtual space on the wearable display according to the posture of the first user; and an image of the virtual space on the display used by the second user based on the operation of the second user. the virtual space displayed by the first display control unit is the virtual space in which a character corresponding to the second user is arranged, wherein the first The display control unit outputs an image of the virtual space including the character to the wearable display in accordance with the posture of the first user, and out of the images of the virtual space displayed on the wearable display, the image of the second user. identifiably display the display range displayed on the display used by the second display control unit, the display range of the virtual space specified by the second user based on the second user's input operation Then, the image of the display range is output to the display as an image viewed from the position of the character.

これによれば、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。 According to this, the user who wears the wearable display and the user who does not wear the wearable display can play at the same time.

本発明によれば、装着ディスプレイを装着したユーザと装着しないユーザとが同時にプレイすることができる。 According to the present invention, a user wearing a wearable display and a user not wearing a wearable display can play at the same time.

第1実施形態のアプリケーション制御システムを俯瞰した概念図。FIG. 2 is a conceptual view of the application control system according to the first embodiment; 同実施形態のアプリケーション制御システムを機能的に示すブロック図。FIG. 2 is a block diagram functionally showing the application control system of the same embodiment; 同実施形態における仮想空間とユーザに視認される画像とを説明する概念図。FIG. 4 is a conceptual diagram illustrating a virtual space and an image visually recognized by a user in the same embodiment; 同実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。FIG. 4 is an explanatory diagram of a second virtual space image output to the touch panel display of the same embodiment; 同実施形態のタッチパネルディスプレイに出力される俯瞰画像の説明図。FIG. 4 is an explanatory diagram of a bird's-eye view image output to the touch panel display of the same embodiment; 同実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。FIG. 4 is an explanatory diagram of a second virtual space image output to the touch panel display of the same embodiment; 同実施形態の装着ディスプレイに出力される第1仮想空間画像の説明図。FIG. 4 is an explanatory diagram of a first virtual space image output to the wearable display of the embodiment; 同実施形態の装着ディスプレイに出力される第1仮想空間画像の説明図。FIG. 4 is an explanatory diagram of a first virtual space image output to the wearable display of the embodiment; 同実施形態における装着ディスプレイに画像を出力する処理手順の説明図。FIG. 4 is an explanatory diagram of a processing procedure for outputting an image to a wearable display in the same embodiment; 同実施形態における移動オブジェクトを停止させる処理手順の説明図。FIG. 4 is an explanatory diagram of a processing procedure for stopping a moving object in the same embodiment; 第2実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。FIG. 9 is an explanatory diagram of a second virtual space image output to the touch panel display of the second embodiment; 第3実施形態のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。FIG. 11 is an explanatory diagram of a second virtual space image output to the touch panel display of the third embodiment; 第4実施形態の装着ディスプレイに出力される第1仮想空間画像の説明図。FIG. 11 is an explanatory diagram of a first virtual space image output to the wearable display of the fourth embodiment; 変形例のタッチパネルディスプレイに出力される第1仮想空間画像の説明図。FIG. 5 is an explanatory diagram of a first virtual space image output to a touch panel display of a modified example; 変形例のタッチパネルディスプレイに出力される第2仮想空間画像の説明図。FIG. 9 is an explanatory diagram of a second virtual space image output to a touch panel display of a modified example; 変形例の装着ディスプレイに出力される仮想空間画像であって(a)は装着ディスプレイに出力される画像、(b)はタッチパネルディスプレイに出力される画像の説明図。FIG. 11 is an explanatory diagram of a virtual space image output to a wearable display according to a modification, where (a) is an image output to the wearable display and (b) is an explanatory diagram of an image output to a touch panel display;

(第1実施形態)
以下、アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システムの一実施形態を図1~図10に従って説明する。本実施形態では、複数のユーザの間で仮想空間を共有するアプリケーションとして、ゲームアプリケーションを提供する場合を想定する。
(First embodiment)
An embodiment of an application control program, an application control method, and an application control system will be described below with reference to FIGS. 1 to 10. FIG. In this embodiment, it is assumed that a game application is provided as an application for sharing a virtual space among multiple users.

図1に示すように、アプリケーション制御システムは、装着ディスプレイとしてのヘッドマウントディスプレイ(以下、HMD)11、操作部(コントローラ)14、メインディスプレイ12、タッチパネルディスプレイ13を有する。HMD11は、第1ユーザ101の頭部に装着される。HMD11には仮想空間の画像が表示される。第1ユーザ101は、仮想空間内を移動するオブジェクト(以下、移動オブジェクト)を探し、見つけた移動オブジェクトに対して、操作部14を操作することによってアクション(第2のアクション)を行なう。本実施形態では、第1ユーザ101は、「ゴースト」等の移動オブジェクトを探し、操作部14をオン操作することによって、この移動オブジェクトを狙撃する。 As shown in FIG. 1 , the application control system includes a head mounted display (HMD) 11 as a wearable display, an operation unit (controller) 14 , a main display 12 and a touch panel display 13 . The HMD 11 is worn on the head of the first user 101 . An image of the virtual space is displayed on the HMD 11 . The first user 101 searches for an object that moves in the virtual space (hereinafter referred to as a moving object), and performs an action (second action) on the found moving object by operating the operation unit 14 . In this embodiment, the first user 101 searches for a moving object such as a “ghost” and shoots the moving object by turning on the operation unit 14 .

メインディスプレイ12、及びタッチパネルディスプレイ13に出力された画像は、第2ユーザ102によって視認される。第2ユーザ102は、メインディスプレイ12及びタッチパネルディスプレイ13に出力された画像を視認しながら、タッチパネルディスプレイ13を操作して、第1ユーザ101を支援する。なお、第2ユーザ102は、肉声、又はマイクを通じて入力した音声によって、第1ユーザ101に移動オブジェクトの位置を教えることができるようにしてもよい。 Images output to the main display 12 and the touch panel display 13 are viewed by the second user 102 . The second user 102 supports the first user 101 by operating the touch panel display 13 while viewing images output to the main display 12 and the touch panel display 13 . It should be noted that the second user 102 may be able to tell the first user 101 the position of the moving object with his/her own voice or voice input through a microphone.

図2を参照して、アプリケーション制御システム10の概略構成について説明する。アプリケーション制御システム10は、HMD11、操作部14、メインディスプレイ12、タッチパネルディスプレイ13の他、これらと接続された制御装置15を備える。 A schematic configuration of the application control system 10 will be described with reference to FIG. The application control system 10 includes an HMD 11, an operation unit 14, a main display 12, a touch panel display 13, and a control device 15 connected thereto.

HMD11は、HMD制御部30、トラッキングセンサ31及び表示部32を有する。HMD制御部30は、トラッキングセンサ31の検出結果に応じた信号を制御装置15に出力するとともに、制御装置15から画像信号等の各種信号を入力する。トラッキングセンサ31は、第1ユーザ101の注目点を特定するためのセンサであって、第1ユーザ101の頭部の位置及び向き等を検出する。トラッキングセンサ31は、例えばジャイロセンサ、加速度センサ、地磁気センサ等のうち少なくとも1つのセンサを有する。なお、別の実施形態として、第1ユーザ101の眼球の動きを直接的に検出するもの、例えば、虹彩内に近赤外線を入射しその反射光を検出する視線検出センサ等がトラッキングセンサ31として用いられてもよい。HMD11の表示部32には、仮想空間のうち第1ユーザ101の注目点を中心とした所定範囲の画像が表示される。すなわち、所定範囲の画像が第1ユーザ101に視認可能に表示される。なお、HMD11の表示部32に出力される仮想空間の画像を、以下、「第1仮想空間画像」という。 The HMD 11 has an HMD control section 30 , a tracking sensor 31 and a display section 32 . The HMD control unit 30 outputs a signal corresponding to the detection result of the tracking sensor 31 to the control device 15 and inputs various signals such as an image signal from the control device 15 . The tracking sensor 31 is a sensor for identifying the attention point of the first user 101 and detects the position and orientation of the first user's 101 head. The tracking sensor 31 has at least one sensor among, for example, a gyro sensor, an acceleration sensor, a geomagnetic sensor, and the like. As another embodiment, a tracking sensor 31 that directly detects the movement of the eyeball of the first user 101, for example, a line-of-sight detection sensor that detects near-infrared rays entering the iris and detecting the reflected light, is used as the tracking sensor 31. may be The display unit 32 of the HMD 11 displays an image of a predetermined range centering on the attention point of the first user 101 in the virtual space. That is, the image of the predetermined range is displayed so as to be visible to the first user 101 . The virtual space image output to the display unit 32 of the HMD 11 is hereinafter referred to as a "first virtual space image".

操作部14は、例えば操作ボタンや操作レバーを備えるものであって、第1ユーザ101が目視せずに操作が可能な構成となっている。操作部14は、加速度センサ等を有しており、初期位置からの方向の変化及びその変化量等を検出することができる。操作部14は、第2ユーザ102による操作のオン/オフを示す信号、及び操作部14の方向の変化量等を制御装置15に出力する。 The operation unit 14 includes, for example, an operation button and an operation lever, and is configured so that the first user 101 can operate it without looking. The operation unit 14 has an acceleration sensor or the like, and can detect a change in direction from the initial position, the amount of change, and the like. The operation unit 14 outputs to the control device 15 a signal indicating ON/OFF of the operation by the second user 102 , the amount of change in the direction of the operation unit 14 , and the like.

メインディスプレイ12は、第2ユーザ102が視認可能なディスプレイである。メインディスプレイ12には、HMD11の表示部32と同期させて、第1仮想空間画像が表示される。 The main display 12 is a display that can be visually recognized by the second user 102 . A first virtual space image is displayed on the main display 12 in synchronization with the display unit 32 of the HMD 11 .

タッチパネルディスプレイ13は、筐体に設けられたタッチパネルディスプレイでもよいし、タブレットやスマートフォン等の携帯情報端末であってもよい。タッチパネルディスプレイ13には、仮想空間内の一部を投影した画像(以下、第2仮想空間画像と呼ぶ)が出力される。本実施形態では、第2仮想空間画像として、第1ユーザ101の鉛直方向上方の位置に設定した視点から仮想空間内を見た画像を用いる。ゲームが開始されたときにタッチパネルディスプレイ13に表示される第2仮想空間画像の初期画面は、HMD11の表示部32に表示される第1仮想空間画像へ投影される仮想空間の位置と同じである。初期画面における第2仮想空間画像の視点位置は、初期画面における第1仮想空間画像の視点位置と同じでもよいし、異なっていてもよい。仮想空間を第2仮想空間画像へ投影する位置は、第2ユーザ102のスワイプ操作等の所定のタッチ操作に応じて変更及び指定される。例えば、第2ユーザ102のスワイプ操作により、仮想空間の投影範囲が変更されて第2仮想空間画像が変化し、スワイプ操作が停止されることによって、仮想空間の投影範囲の変更が停止されて、第2仮想空間画像の表示範囲が指定される。なお、「タッチ操作」は、例えば、タップ操作、スワイプ操作、フリック操作、ピンチイン操作、ピンチアウト操作、タッチアンドホールド操作等を含む。さらに、タッチパネルディスプレイ13は、第2ユーザ102のタッチ操作に応じた信号を制御装置15に出力する。例えば、タッチパネルディスプレイ13は、スワイプ操作の軌跡に応じた信号、接触位置に応じた信号等を出力する。 The touch panel display 13 may be a touch panel display provided on a housing, or may be a mobile information terminal such as a tablet or a smart phone. An image obtained by projecting a part of the virtual space (hereinafter referred to as a second virtual space image) is output to the touch panel display 13 . In this embodiment, as the second virtual space image, an image of the inside of the virtual space viewed from a viewpoint set at a position above the first user 101 in the vertical direction is used. The initial screen of the second virtual space image displayed on the touch panel display 13 when the game is started is the same as the position of the virtual space projected onto the first virtual space image displayed on the display unit 32 of the HMD 11. . The viewpoint position of the second virtual space image on the initial screen may be the same as or different from the viewpoint position of the first virtual space image on the initial screen. The position at which the virtual space is projected onto the second virtual space image is changed and specified according to a predetermined touch operation such as a swipe operation by the second user 102 . For example, a swipe operation by the second user 102 changes the projection range of the virtual space and changes the second virtual space image. A display range of the second virtual space image is specified. Note that the “touch operation” includes, for example, a tap operation, a swipe operation, a flick operation, a pinch-in operation, a pinch-out operation, a touch-and-hold operation, and the like. Furthermore, the touch panel display 13 outputs a signal corresponding to the touch operation by the second user 102 to the control device 15 . For example, the touch panel display 13 outputs a signal according to the trajectory of the swipe operation, a signal according to the contact position, and the like.

HMD11の表示部32に出力される第1仮想空間画像と、タッチパネルディスプレイ13に出力される第2仮想空間画像は、同じ仮想空間内の画像であるが、前者が第1ユーザ101の体勢に応じて仮想空間の表示範囲を変更しているのに対し、後者が第2ユーザ102のタッチ操作に応じて仮想空間の表示範囲を変更している点で異なる。また、タッチパネルディスプレイ13には、仮想空間を所定位置から俯瞰した俯瞰画像が表示される。 The first virtual space image output to the display unit 32 of the HMD 11 and the second virtual space image output to the touch panel display 13 are images in the same virtual space. The difference is that the display range of the virtual space is changed according to the touch operation of the second user 102, whereas the latter changes the display range of the virtual space according to the second user 102's touch operation. Further, the touch panel display 13 displays a bird's-eye view image of the virtual space viewed from a predetermined position.

制御装置15は、HMD11、操作部14及びタッチパネルディスプレイ13から出力された信号を取得して、第1ユーザ101と第2ユーザ102とによる仮想空間内のゲーム進行を管理する。 The control device 15 acquires signals output from the HMD 11, the operation unit 14, and the touch panel display 13, and manages game progress in the virtual space by the first user 101 and the second user 102. FIG.

制御装置15は、制御部16、記憶部17及び画像情報記憶部25を備える。制御部16は、演算部、揮発性記憶部、及び不揮発性記憶部を有し、不揮発性記憶部に記録されたアプリケーション制御プログラムに従ってゲームを実行する。記憶部17は、画像処理用の記憶部であって、揮発性記憶部でもよく、不揮発性記憶部であってもよい。この記憶部17には、ゲーム管理情報18、注目点情報19、指定表示範囲情報20、オブジェクト位置情報21及び接触位置情報22が記録されている。 The control device 15 includes a control section 16 , a storage section 17 and an image information storage section 25 . The control unit 16 has a calculation unit, a volatile storage unit, and a nonvolatile storage unit, and executes a game according to an application control program recorded in the nonvolatile storage unit. The storage unit 17 is a storage unit for image processing, and may be a volatile storage unit or a nonvolatile storage unit. Game management information 18 , attention point information 19 , specified display range information 20 , object position information 21 and contact position information 22 are recorded in this storage unit 17 .

ゲーム管理情報18は、ユーザID、ゲームの進行状況等を含む情報であって、ゲームの進行に伴って更新される。注目点情報19は、トラッキングセンサ31によって検出された第1ユーザ101の頭部の位置及び向きの情報、又は頭部の位置及び向きから特定された注目点の位置を示す情報である。注目点情報19は、第1ユーザ101の頭部の位置及び向きに伴って更新される。指定表示範囲情報20は、第2ユーザ102がタッチ操作によってタッチパネルディスプレイ13に表示させた範囲を示す情報であって、第2ユーザ102のタッチ操作に伴って更新される。オブジェクト位置情報21は、仮想空間内を移動する移動オブジェクトの位置を示す情報である。制御部16は、アプリケーション制御プログラムに従って移動オブジェクトの各々をランダムに移動させる。オブジェクト位置情報21は、移動オブジェクトの位置の変化に伴って更新される。移動オブジェクトの位置は、HMD11及びメインディスプレイ12に出力される第1仮想空間画像と、タッチパネルディスプレイ13に出力される第2仮想空間画像との間で同期している。さらに、接触位置情報22には、タッチパネルディスプレイ13の画面上での接触位置を示し、第2ユーザ102のタッチ操作が行なわれる度に更新される。また、画像情報記憶部25には、仮想空間の画像を描画するための情報が記録されている。 The game management information 18 is information including a user ID, progress of the game, etc., and is updated as the game progresses. The point-of-interest information 19 is information on the position and orientation of the head of the first user 101 detected by the tracking sensor 31, or information indicating the position of the point of interest specified from the position and orientation of the head. The attention point information 19 is updated according to the position and orientation of the head of the first user 101 . The specified display range information 20 is information indicating the range displayed on the touch panel display 13 by the second user 102 by the touch operation, and is updated in accordance with the second user 102's touch operation. The object position information 21 is information indicating the position of a moving object that moves within the virtual space. The control unit 16 randomly moves each of the moving objects according to the application control program. The object position information 21 is updated as the position of the moving object changes. The position of the moving object is synchronized between the first virtual space image output to HMD 11 and main display 12 and the second virtual space image output to touch panel display 13 . Furthermore, the contact position information 22 indicates the contact position on the screen of the touch panel display 13, and is updated every time the second user 102 performs a touch operation. Information for drawing an image of the virtual space is recorded in the image information storage unit 25 .

制御部16は、HMD11から入力した信号に基づく注目点情報19を記憶部17に記録する。また、制御部16は、タッチパネルディスプレイ13から入力した指定表示範囲に応じた信号を、指定表示範囲情報20として記憶部17に記録する。 The control unit 16 records attention point information 19 based on the signal input from the HMD 11 in the storage unit 17 . Further, the control unit 16 records a signal corresponding to the designated display range input from the touch panel display 13 in the storage unit 17 as the designated display range information 20 .

制御部16は、画像情報記憶部25に記録された画像情報のうち、注目点情報19に基づく注目点を中心とした所定範囲の画像情報を取得し、第1仮想空間画像としてHMD11及びメインディスプレイ12に出力する。また、制御部16は、第2ユーザ102のタッチ操作によって指定された指定表示範囲を指定表示範囲情報20として記憶部17に記録する。さらに、制御部16は、指定表示範囲情報20に基づき画像情報を画像情報記憶部25から取得して、第2仮想空間画像としてタッチパネルディスプレイ13に出力する。また、制御部16は、仮想空間の一部又は全体を俯瞰した俯瞰画像をタッチパネルディスプレイ13に出力する。 The control unit 16 acquires image information of a predetermined range centering on the point of interest based on the point-of-interest information 19 from among the image information recorded in the image information storage unit 25, and obtains the HMD 11 and the main display as a first virtual space image. output to 12. Further, the control unit 16 records the specified display range specified by the touch operation of the second user 102 in the storage unit 17 as the specified display range information 20 . Furthermore, the control unit 16 acquires image information from the image information storage unit 25 based on the designated display range information 20, and outputs the image information to the touch panel display 13 as a second virtual space image. In addition, the control unit 16 outputs to the touch panel display 13 a bird's-eye view image of part or all of the virtual space.

図3を参照して、仮想空間及びHMD11及びメインディスプレイ12に出力される第1仮想空間画像について説明する。HMD制御部30は、第1ユーザ101の頭部の位置及び向きを特定する。例えば、頭部の位置及び向きは、初期位置を基準として、水平方向に沿ったX軸及びX軸を中心とした回転方向を示すピッチθp、鉛直方向に沿ったY軸及びY軸を中心とした回転方向を示すヨーθy、奥行方向に沿ったZ軸及びZ軸を中心とした回転方向を示すロールθrの3軸方向の位置及び各軸回りの角度として算出される。HMD制御部30は、3軸方向の位置及び各軸回りの角度を注目点情報19として制御部16に出力する。 The virtual space and the first virtual space image output to the HMD 11 and the main display 12 will be described with reference to FIG. The HMD control unit 30 identifies the position and orientation of the head of the first user 101 . For example, the position and orientation of the head are based on the initial position. Yaw θy indicating the direction of rotation, Z-axis along the depth direction, and roll θr indicating the direction of rotation about the Z-axis in three axial directions and angles around the respective axes. The HMD control unit 30 outputs the positions in the three axial directions and the angles around the respective axes to the control unit 16 as point-of-interest information 19 .

制御部16は、注目点情報19に基づき仮想空間110内での注目点114又は視線方向Dを特定する。注目点又は視線方向の特定の方法は、トラッキングセンサ31の種類等に応じた公知の方法を用いることができる。例えば、制御部16は、左目位置と右目位置とを結ぶ直線を仮想的に設定し、当該直線に直交する方向に延び、且つ左目位置と右目位置の中点を通る方向を視線方向Dとする。さらに、制御部16は、視線方向Dとオブジェクト(又は背景)との交点を注目点114として特定することが可能である。なお、トラッキングセンサとして、眼球の動きを検出するものや虹彩内からの反射光を検出するものを用いる場合には、眼球の動きや反射光に基づき視線方向を特定してもよい。 The control unit 16 identifies the point of interest 114 or the line-of-sight direction D in the virtual space 110 based on the point of interest information 19 . As a method for specifying the point of interest or the line-of-sight direction, a known method according to the type of the tracking sensor 31 or the like can be used. For example, the control unit 16 virtually sets a straight line connecting the left eye position and the right eye position, and defines the line of sight direction D as a direction extending in a direction perpendicular to the straight line and passing through the midpoint of the left eye position and the right eye position. . Furthermore, the control unit 16 can specify the intersection of the line-of-sight direction D and the object (or background) as the point of interest 114 . If a tracking sensor that detects the movement of the eyeball or detects reflected light from within the iris is used, the line-of-sight direction may be specified based on the movement of the eyeball or the reflected light.

制御部16は、注目点114や視線方向Dに基づく範囲である注目範囲111の画像情報を画像情報記憶部25から取得し、HMD11の表示部32に第1仮想空間画像として出力する。例えば、注目範囲111は、第1ユーザ101の視点の位置から注目点114に向かう方向を視線方向Dとしたとき、視線方向Dを中心としとする水平方向の水平視野角α、及び垂直方向の角度である垂直視野角(図示略)等で特定される範囲である。水平視野角α及び垂直視野角は、第1ユーザ101の物理的な視野角ではなく、仮想空間110の画像を生成するレンダリングの角度である。また、制御部16は、取得した画像情報に応じた画像をメインディスプレイ12にも出力する。 The control unit 16 acquires the image information of the attention point 114 and the attention range 111, which is the range based on the line-of-sight direction D, from the image information storage unit 25, and outputs it to the display unit 32 of the HMD 11 as a first virtual space image. For example, when the direction from the position of the viewpoint of the first user 101 to the point of interest 114 is defined as a line-of-sight direction D, the attention range 111 has a horizontal viewing angle α in the horizontal direction centered on the line-of-sight direction D, and a vertical direction of It is a range specified by a vertical viewing angle (not shown), which is an angle. The horizontal viewing angle α and the vertical viewing angle are not the physical viewing angles of the first user 101 but the rendering angles that generate the image of the virtual space 110 . The control unit 16 also outputs an image corresponding to the acquired image information to the main display 12 as well.

HMD11に表示された第1仮想空間画像及びメインディスプレイに表示された第1仮想空間画像には、画像に対する所定のアクションがなされていない場合、仮想空間全体が初期状態で表示されている。例えば、初期状態は、「暗闇」の状態、すなわち画像の明度及び彩度の低い状態である。この初期状態の第1仮想空間画像では、仮想空間内を移動する移動オブジェクト115が非表示状態で表示されている。非表示状態とは、移動オブジェクトが全く表示されないか、又は視認しにくい不明瞭な状態である。不明瞭な表示状態の例としては、移動オブジェクト115の一部のみが表示され全体が表示されない状態、又は移動オブジェクト115の明度、彩度及び色相の少なくとも一つを背景に近付けて見えにくくした状態である。また、例えば、仮想空間内で、第2ユーザ102は、ドローン又はアバター等のキャラクタ116として表示される。本実施形態では、キャラクタ116の位置は、第1ユーザ101の鉛直方向上方の位置を維持する。 In the first virtual space image displayed on the HMD 11 and the first virtual space image displayed on the main display, the entire virtual space is displayed in an initial state when a predetermined action is not performed on the image. For example, the initial state is a "dark" state, ie, a state of low brightness and saturation of the image. In the first virtual space image in this initial state, the moving object 115 moving in the virtual space is displayed in a non-display state. The non-display state is an ambiguous state in which the moving object is not displayed at all or is difficult to see. Examples of an unclear display state include a state in which only a portion of the moving object 115 is displayed and the entirety is not displayed, or a state in which at least one of the brightness, saturation, and hue of the moving object 115 is brought closer to the background to make it difficult to see. is. Also, for example, the second user 102 is displayed as a character 116 such as a drone or an avatar in the virtual space. In this embodiment, the position of the character 116 maintains the position vertically above the first user 101 .

また、タッチパネルディスプレイ13で第2ユーザ102のタッチ操作によって表示範囲が指定されると、制御部16は、タッチパネルディスプレイ13から指定された表示範囲を取得して、指定表示範囲情報20として記憶部17に記録する。また、制御部16は、指定表示範囲情報20に応じた指定表示範囲112を、第1仮想空間画像の初期状態とは異なる表示態様で、第2仮想空間画像としてタッチパネルディスプレイ13に出力する。具体的には、このときの表示態様は、明度、彩度及び色相の少なくとも一つが初期状態とは異なる状態である変更状態であって、例えば、光が照射された状態、すなわち明度が初期状態よりも高く、彩度及び色相が初期状態とは異なる状態である。制御部16は、オブジェクト位置情報21に基づき、第2仮想空間画像に移動オブジェクトを視認可能に表示する。これにより、第2ユーザは、第2仮想空間画像上で移動オブジェクトを視認することができる。 Further, when a display range is designated by second user 102's touch operation on touch panel display 13, control unit 16 acquires the designated display range from touch panel display 13 and stores it as designated display range information 20 in storage unit 17. to record. Further, the control unit 16 outputs the specified display range 112 according to the specified display range information 20 to the touch panel display 13 as the second virtual space image in a display mode different from the initial state of the first virtual space image. Specifically, the display mode at this time is a changed state in which at least one of brightness, saturation, and hue is different from the initial state. , and the saturation and hue are different from the initial state. Based on the object position information 21, the control unit 16 visibly displays the moving object in the second virtual space image. Thereby, the second user can visually recognize the moving object on the second virtual space image.

さらに、制御部16は、第1ユーザ101の注目範囲111、及び第2ユーザ102によって指定された指定表示範囲112の少なくとも一部が重複している場合には、第1仮想空間画像のうち、その重複部分を初期状態とは異なる変更状態で表示させる。具体的には、重複部分を、それ以外の部分よりも、明度、彩度及び色相の少なくとも一部が異なる状態で表示させる。なお、図3では、注目範囲111に、指定表示範囲112の全体が含まれた状態を示している。第1仮想空間画像では、光は、キャラクタ116自身又はキャラクタ116が有する光源から照射されたように表示される。 Furthermore, when at least a part of the attention range 111 of the first user 101 and the specified display range 112 specified by the second user 102 overlap, the control unit 16 controls the first virtual space image to The overlapping portion is displayed in a modified state different from the initial state. Specifically, the overlapping portion is displayed with at least part of the brightness, saturation, and hue different from those of the other portions. Note that FIG. 3 shows a state in which the entire specified display range 112 is included in the attention range 111 . In the first virtual space image, the light is displayed as if it were emitted from the character 116 itself or a light source possessed by the character 116 .

制御部16は、第2ユーザ102によって指定された指定表示範囲112を仮想空間110内で指定して(第1のアクション)、第1仮想空間画像に第1のアクションを反映する。具体的には、制御部16は、第1仮想空間画像において、注目範囲と指定表示範囲112との重複部分(仮想空間における重複範囲)に含まれる移動オブジェクト115のみを表示状態(視認可能状態)とし、重複部分以外に存在する移動オブジェクト115を非表示状態(視認不可能状態)とする。このため、注目範囲111と指定表示範囲112とに重複があり、且つその重複部分に移動オブジェクト115が含まれる場合のみ、第1ユーザ101は、移動オブジェクト115を視認することができる。 The control unit 16 designates the designated display range 112 designated by the second user 102 in the virtual space 110 (first action), and reflects the first action in the first virtual space image. Specifically, in the first virtual space image, the control unit 16 causes only the moving object 115 included in the overlapping portion (overlapping range in the virtual space) between the attention range and the specified display range 112 to be displayed (visible state). , and the moving object 115 existing outside the overlapping portion is put into a non-display state (invisible state). Therefore, the first user 101 can visually recognize the moving object 115 only when the attention range 111 and the specified display range 112 overlap and the moving object 115 is included in the overlapping portion.

また、本実施形態では、第2ユーザ102によって指定される指定表示範囲112、換言すると第2仮想空間画像を生成するための仮想空間内の投影範囲の水平視野角βは、第1仮想空間を生成するための仮想空間内の投影範囲の水平視野角αよりも小さくなっている。つまり、第2仮想空間画像の水平視野角βが第1仮想空間画像の水平視野角α以上である場合には、第1ユーザ101は第1仮想空間画像に反映された指定表示範囲112を容易に見つけることができる。これに対し、第2仮想空間画像の水平視野角βが第1仮想空間画像の水平視野角αよりも小さいと、第1ユーザ101は第1仮想空間画像に反映された指定表示範囲112を見つけにくくなる。第1仮想空間画像の水平視野角αに対する第2仮想空間画像の水平視野角βの比率は、目標とするゲームバランスに応じて決定すればよい。本実施形態では、第2仮想空間画像の水平視野角βを第1仮想空間画像の水平視野角αよりも小さくすることによって、第2ユーザ102のゲームへの寄与度を高め、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させるようになっている。 Further, in the present embodiment, the specified display range 112 specified by the second user 102, in other words, the horizontal viewing angle β of the projection range in the virtual space for generating the second virtual space image is the first virtual space. It is smaller than the horizontal viewing angle α of the projection range in the virtual space for generation. That is, when the horizontal viewing angle β of the second virtual space image is greater than or equal to the horizontal viewing angle α of the first virtual space image, the first user 101 can easily view the specified display range 112 reflected in the first virtual space image. can be found in On the other hand, if the horizontal viewing angle β of the second virtual space image is smaller than the horizontal viewing angle α of the first virtual space image, the first user 101 finds the specified display range 112 reflected in the first virtual space image. become difficult. The ratio of the horizontal viewing angle β of the second virtual space image to the horizontal viewing angle α of the first virtual space image may be determined according to the target game balance. In this embodiment, by making the horizontal viewing angle β of the second virtual space image smaller than the horizontal viewing angle α of the first virtual space image, the degree of contribution of the second user 102 to the game is increased, and the first user 101 and the second user 102 cooperate to advance the game.

また、第2ユーザ102は、タッチパネルディスプレイ13上での所定のタッチ操作によって、接触位置の近傍の移動オブジェクト115の移動を停止させることができる。このとき、第2ユーザ102は、指と画面の任意の位置との接触を継続させるタッチアンドホールド操作を行なう。制御部16は、タッチアンドホールド操作が行なわれた場合、第1のアクションとして、接触位置から所定距離内の移動オブジェクトを特定し、特定した移動オブジェクト115の移動(動き)を停止させる。つまり、1つの接触位置に対して、一つの最寄りの移動オブジェクト115の移動を停止させる。例えば、5つの移動オブジェクト115が仮想空間110内に存在し、これらの動きを停止させたい場合には、5本の指を使ってタッチアンドホールド操作を行なう。 Further, the second user 102 can stop the movement of the moving object 115 near the contact position by performing a predetermined touch operation on the touch panel display 13 . At this time, the second user 102 performs a touch-and-hold operation to keep the finger in contact with an arbitrary position on the screen. When a touch-and-hold operation is performed, as a first action, control unit 16 identifies a moving object within a predetermined distance from the contact position, and stops movement (movement) of identified moving object 115 . In other words, one nearest moving object 115 stops moving with respect to one contact position. For example, if five moving objects 115 exist in the virtual space 110 and it is desired to stop their movements, a touch-and-hold operation is performed using five fingers.

さらに、第1ユーザ101は、指定表示範囲112に含まれ視認可能となった移動オブジェクト115に対してのみ、第2のアクションを行なうことができる。本実施形態では、第2のアクションとして、移動オブジェクト115の狙撃を行なう。このとき、第2ユーザ102のタッチ操作によって移動オブジェクト115の移動が停止されていると、移動オブジェクト115に照準を合わせやすくなり、有効な第2のアクションを行なうことが容易となる。具体的には、制御部16は、操作部14のオン操作を検知した場合、操作部14の仮想位置117から、操作部14の方向に沿って光線118を第1仮想空間画像及び第2仮想空間画像に表示させる。そして、光線118の方向と移動オブジェクト115の位置とが合致している場合には、制御部16は、第2のアクションが有効に行なわれたと判定する。具体的には、移動オブジェクト115が狙撃されたと判定し、第1ユーザ101に得点等を付与する。一方、指定表示範囲112に含まれない移動オブジェクト115に対しては、制御部16は、アクション用の光線118を表示させない。又は、指定表示範囲112に含まれない移動オブジェクト115に向けてアクション用の光線118が出射されても無効と判定するようにしてもよい。制御部16は、アクション用の光線118を、HMD11の表示部32、メインディスプレイ12及びタッチパネルディスプレイ13に表示させる。 Furthermore, the first user 101 can perform the second action only on the moving object 115 that is included in the specified display range 112 and becomes visible. In the present embodiment, shooting the moving object 115 is performed as the second action. At this time, if the movement of the moving object 115 is stopped by the touch operation of the second user 102, it becomes easier to aim at the moving object 115 and to perform the effective second action. Specifically, when the control unit 16 detects the ON operation of the operation unit 14 , the light ray 118 is projected from the virtual position 117 of the operation unit 14 along the direction of the operation unit 14 into the first virtual space image and the second virtual space image. display on the spatial image. Then, when the direction of light ray 118 and the position of moving object 115 match, control unit 16 determines that the second action has been effectively performed. Specifically, it is determined that the moving object 115 has been shot, and a score or the like is given to the first user 101 . On the other hand, the controller 16 does not display the action light ray 118 for the moving object 115 that is not included in the specified display range 112 . Alternatively, even if the action ray 118 is emitted toward the moving object 115 that is not included in the specified display range 112, it may be determined to be invalid. The control unit 16 causes the display unit 32 of the HMD 11, the main display 12, and the touch panel display 13 to display the light beam 118 for action.

次に、図4~図8を参照して、HMD11の表示部32、メインディスプレイ12、及びタッチパネルディスプレイ13に表示される画面について説明する。
図4に示すように、制御部16は、画像情報記憶部25に記録された仮想空間の画像情報を、指定表示範囲112に応じてレンダリングして第2仮想空間画像121を表示するための画像情報を生成し、生成した画像情報を第2仮想空間画像121用に明度、彩度及び色相を調整して、タッチパネルディスプレイ13に出力する。この第2仮想空間画像121は、第1仮想空間画像と同じ範囲を表示していたとしても、第1仮想空間画像の初期状態とは明度、彩度及び色相の少なくとも一部が異なっている。具体的には、制御部16は、第2仮想空間画像121の全体を、光が照射されたような明度が高い状態で表示させる。また、制御部16は、第2仮想空間画像121に、オブジェクト位置情報21に基づき移動する移動オブジェクト115を表示させる。但し、移動オブジェクト115はランダムに移動しているため、指定表示範囲112を変更しない場合には、最初に表示された移動オブジェクト115が画面外に移動する可能性がある。第2ユーザ102は、例えばスワイプ操作を行なって指定表示範囲112を変更して画面を遷移させ、第1ユーザ101に移動オブジェクト115の位置を知らせるために、移動オブジェクト115を探す。
Next, screens displayed on the display unit 32 of the HMD 11, the main display 12, and the touch panel display 13 will be described with reference to FIGS. 4 to 8. FIG.
As shown in FIG. 4, the control unit 16 renders the image information of the virtual space recorded in the image information storage unit 25 according to the specified display range 112, and renders an image for displaying the second virtual space image 121. Information is generated, the brightness, saturation and hue of the generated image information are adjusted for the second virtual space image 121 and output to the touch panel display 13 . Even if the second virtual space image 121 displays the same range as the first virtual space image, at least part of the brightness, saturation and hue are different from the initial state of the first virtual space image. Specifically, the control unit 16 causes the entire second virtual space image 121 to be displayed in a state of high brightness as if illuminated with light. Also, the control unit 16 causes the second virtual space image 121 to display the moving object 115 that moves based on the object position information 21 . However, since the moving object 115 moves randomly, if the specified display range 112 is not changed, the initially displayed moving object 115 may move outside the screen. The second user 102 performs, for example, a swipe operation to change the designated display range 112 to transition the screen, and searches for the moving object 115 in order to inform the first user 101 of the position of the moving object 115 .

図5に示すように、制御部16は、画像情報記憶部25に記録された俯瞰画像用の画像情報の取得、又は仮想空間の画像情報のレンダリングによって、俯瞰画像122をタッチパネルディスプレイ13に出力する。俯瞰画像122は、仮想空間全体を俯瞰した画像であって、例えば、キャラクタ116の位置を表示している。制御部16は、俯瞰画像122のうち、第2ユーザ102の指定した指定表示範囲112を、光が照射されたような変更状態で表示させ、その他の部分は暗闇のような初期状態で表示させる。また、制御部16は、俯瞰画像122に移動オブジェクト115を表示させる。 As shown in FIG. 5, the control unit 16 acquires image information for a bird's-eye view image recorded in the image information storage unit 25 or renders image information of a virtual space to output a bird's-eye view image 122 to the touch panel display 13. . The bird's-eye view image 122 is a bird's-eye view of the entire virtual space, and displays, for example, the position of the character 116 . The control unit 16 displays the designated display range 112 designated by the second user 102 in the bird's-eye view image 122 in a modified state such as illuminated with light, and displays the other portions in an initial state such as darkness. . Further, the control unit 16 causes the moving object 115 to be displayed in the overhead image 122 .

図6に示すように、タッチパネルディスプレイ13に表示される第2仮想空間画像121において、第2ユーザ102がタッチアンドホールド操作を行なうと、制御部16は、指の接触位置から所定距離以内の移動オブジェクト115を特定し、特定した移動オブジェクト115の移動を停止させる。図6では、制御部16は、接触位置P1,P3,P4の各々との相対距離が所定距離以内の移動オブジェクト115の移動を停止させる。一方、制御部16は、接触位置P2の近傍の移動オブジェクト115を特定できないため移動オブジェクト115の停止を行なわず、接触位置P5との相対距離が所定距離を超える図中右側の移動オブジェクト115については、その移動を停止しない。 As shown in FIG. 6, when the second user 102 performs a touch-and-hold operation on the second virtual space image 121 displayed on the touch panel display 13, the control unit 16 causes the finger to move within a predetermined distance from the contact position of the finger. The object 115 is specified and the movement of the specified moving object 115 is stopped. In FIG. 6, the control unit 16 stops the movement of the moving object 115 whose relative distance to each of the contact positions P1, P3, and P4 is within a predetermined distance. On the other hand, control unit 16 does not stop moving object 115 because it cannot identify moving object 115 in the vicinity of contact position P2. , does not stop its movement.

図7に示すように、制御部16は、第1仮想空間画像120をHMD11の表示部32に出力し、第1ユーザ101の体勢に応じてその表示範囲を変化させる。制御部16は、第1ユーザ101の注目範囲111と、第2ユーザ102により指定された指定表示範囲112とが重複していると判断すると、その重複部分125を、光が照射されたような変更状態で表示させる。また、制御部16は、第1仮想空間画像120のうち、重複部分125以外の部分を、暗闇のような初期状態で表示させる。さらに、制御部16は、重複部分125に移動オブジェクト115が含まれる場合には、重複部分125に含まれる移動オブジェクト115のみを表示させ、重複部分125に含まれない移動オブジェクト115は表示しない。 As shown in FIG. 7 , the control unit 16 outputs the first virtual space image 120 to the display unit 32 of the HMD 11 and changes the display range according to the posture of the first user 101 . If the control unit 16 determines that the attention range 111 of the first user 101 and the designated display range 112 designated by the second user 102 overlap, the control unit 16 displays the overlapped portion 125 as if illuminated with light. Display in changed state. In addition, the control unit 16 displays the portion other than the overlapping portion 125 in the first virtual space image 120 in an initial state such as darkness. Further, when the moving object 115 is included in the overlapping portion 125, the control unit 16 displays only the moving object 115 included in the overlapping portion 125, and does not display the moving object 115 not included in the overlapping portion 125.

図8に示すように、制御部16は、操作部14からオン操作に応じた信号を入力すると、第1仮想空間画像120に第2のアクションを反映した第1仮想空間画像120をHMD11の表示部32に出力する。例えば、制御部16は、操作部14から出力され操作部14の方向を検出した信号に基づき、仮想空間内での操作部14の仮想位置117から、操作部14の方向に沿って光線118を表示させる。制御部16は、光線118の方向に移動オブジェクト115が存在する場合には、第2のアクションである狙撃を有効とする。このとき、上述したように、移動オブジェクト115の移動が停止されていると移動オブジェクト115に照準を合わせやすくなるが、移動が停止されていない移動オブジェクト115に対しても狙撃が可能である。また、例えば制御部16は、例えば制限時間内で、有効なアクションが行なわれた回数に応じた得点を算出し、ゲーム管理情報18に含まれる得点情報に得点を加える。 As shown in FIG. 8 , when a signal corresponding to the ON operation is input from the operation unit 14 , the control unit 16 causes the HMD 11 to display the first virtual space image 120 reflecting the second action on the first virtual space image 120 . Output to unit 32 . For example, the control unit 16 directs a light ray 118 from a virtual position 117 of the operation unit 14 in the virtual space along the direction of the operation unit 14 based on a signal that is output from the operation unit 14 and detects the direction of the operation unit 14 . display. When the moving object 115 exists in the direction of the light ray 118, the control unit 16 validates the second action, ie, sniping. At this time, as described above, if the movement of the moving object 115 is stopped, it becomes easier to aim at the moving object 115, but it is also possible to shoot at the moving object 115 whose movement is not stopped. Also, for example, the control unit 16 calculates a score according to the number of times effective actions are performed within the time limit, and adds the score to the score information included in the game management information 18 .

次に、図9及び図10を参照して、第1ユーザ101及び第2ユーザ102にゲームを提供するための各処理の手順を説明する。
まず、図9を参照して、HMD11及びメインディスプレイ12に第1仮想空間画像120を出力する処理の手順について説明する。第1仮想空間画像120を出力する処理は、例えば、操作部14又は他の装置が操作されてゲームが開始されたとき等の開始条件が成立したときに開始される。なお、制御部16は、この処理と並行して、タッチパネルディスプレイ13の指定表示範囲112の座標を取得し、その座標を指定表示範囲情報20として記憶部17に記録する処理を行なう。
Next, with reference to FIG.9 and FIG.10, the procedure of each process for providing a game to the 1st user 101 and the 2nd user 102 is demonstrated.
First, referring to FIG. 9, a procedure of processing for outputting the first virtual space image 120 to the HMD 11 and the main display 12 will be described. The process of outputting the first virtual space image 120 is started when a start condition is satisfied, such as when the operation unit 14 or another device is operated to start the game. In parallel with this process, the control unit 16 acquires the coordinates of the specified display range 112 of the touch panel display 13 and performs the process of recording the coordinates in the storage unit 17 as the specified display range information 20 .

制御部16は、記憶部17に記録された注目点情報19を取得する(ステップS1)。そして、制御部16は、注目点情報19に基づいて注目範囲111を特定する。また、制御部16は、記憶部17に記録された指定表示範囲情報20を取得する(ステップS2)。そして、制御部16は、指定表示範囲情報20に基づいて指定表示範囲112を特定する。 The control unit 16 acquires attention point information 19 recorded in the storage unit 17 (step S1). Then, the control unit 16 identifies the attention range 111 based on the attention point information 19 . Also, the control unit 16 acquires the designated display range information 20 recorded in the storage unit 17 (step S2). Then, the control unit 16 specifies the designated display range 112 based on the designated display range information 20 .

注目範囲111と指定表示範囲112とを特定すると、制御部16は、注目範囲111と指定表示範囲112とが重複するか否かを判断する(ステップS3)。例えば、制御部16は、注目範囲111の仮想空間の座標系における範囲と、指定表示範囲112の仮想空間の座標系における範囲とに基づき、それらの範囲が重複するか否かを判断する。制御部16は、注目範囲111と指定表示範囲112とが重複しないと判断すると(ステップS3:NO)、画像情報記憶部25に記録された画像情報のうち、注目範囲111に対応する画像情報を読み出して、初期状態とした第1仮想空間画像をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。 After specifying the attention range 111 and the designated display range 112, the control unit 16 determines whether or not the attention range 111 and the designated display range 112 overlap (step S3). For example, based on the range of the attention range 111 in the virtual space coordinate system and the range of the designated display range 112 in the virtual space coordinate system, the control unit 16 determines whether or not these ranges overlap. When the control unit 16 determines that the attention range 111 and the specified display range 112 do not overlap (step S3: NO), it selects image information corresponding to the attention range 111 from among the image information recorded in the image information storage unit 25. The first virtual space image read out and set to the initial state is output to the display unit 32 of the HMD 11 and the main display 12 (step S8).

ステップS3において、制御部16は、注目範囲111と指定表示範囲112とが重複すると判断すると(ステップS3:YES)、オブジェクト位置情報21に基づき、その重複部分に移動オブジェクト115が含まれるか否かを判断する(ステップS4)。制御部16は、重複部分に移動オブジェクト115が含まれないと判断すると(ステップS4:NO)、重複部分を変更状態とし(ステップS7)、第1仮想空間画像をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。その結果、重複部分が変更状態とされ、移動オブジェクト115が非表示状態とされた第1仮想空間画像120がHMD11の表示部32及びメインディスプレイ12に表示される。 In step S3, when the control unit 16 determines that the attention range 111 and the specified display range 112 overlap (step S3: YES), based on the object position information 21, whether or not the moving object 115 is included in the overlapping portion is determined. (step S4). When the control unit 16 determines that the overlapping portion does not include the moving object 115 (step S4: NO), the overlapping portion is changed (step S7), and the first virtual space image is displayed on the display unit 32 of the HMD 11 and the main display. 12 (step S8). As a result, the first virtual space image 120 is displayed on the display unit 32 of the HMD 11 and the main display 12 with the overlapping portion changed and the moving object 115 hidden.

ステップS4において、制御部16は、注目範囲111と指定表示範囲112との重複部分に移動オブジェクト115が含まれると判断すると(ステップS4:YES)、重複部分を変更状態とし(ステップS5)、重複部分の中に含まれる移動オブジェクト115を表示状態とする(ステップS6)。そして、第1仮想空間画像120をHMD11の表示部32及びメインディスプレイ12に出力する(ステップS8)。その結果、重複部分が変更状態とされ、且つその重複部分の中に移動オブジェクト115が表示された第1仮想空間画像120がHMD11の表示部32及びメインディスプレイ12に表示される。 In step S4, when the control unit 16 determines that the moving object 115 is included in the overlapping portion between the attention range 111 and the designated display range 112 (step S4: YES), the overlapping portion is changed (step S5), and the overlapping portion is changed. The moving object 115 included in the portion is displayed (step S6). Then, the first virtual space image 120 is output to the display section 32 of the HMD 11 and the main display 12 (step S8). As a result, the overlapping portion is changed, and the first virtual space image 120 in which the moving object 115 is displayed in the overlapping portion is displayed on the display section 32 of the HMD 11 and the main display 12 .

このように、制御部16は第1仮想空間画像120を出力すると、ステップS1に戻り、ゲームが終了するまでステップS1~S8を繰り返す。制御部16は、操作部14がオン操作されると第1仮想空間画像120に光線118を表示させる。また、制御部16は、表示状態の移動オブジェクト115の位置と操作部14の方向とが合致している場合には、第2のアクションが有効に行なわれたと判断する。 After outputting the first virtual space image 120 in this manner, the control unit 16 returns to step S1, and repeats steps S1 to S8 until the game ends. The control unit 16 causes the light beam 118 to be displayed on the first virtual space image 120 when the operation unit 14 is turned on. Further, when the position of moving object 115 in the displayed state and the direction of operation unit 14 match, control unit 16 determines that the second action has been effectively performed.

次に、図10を参照して、第2ユーザ102のタッチ操作を受け付けて移動オブジェクト115の移動を停止する処理について説明する。移動オブジェクト115の移動を停止する処理は、制御部16が、タッチアンドホールド操作を検出したとき等の開始条件が成立したときに開始される。なお、制御部16は、この処理と並行して、タッチパネルディスプレイ13の指定表示範囲112の座標を取得し、その座標を指定表示範囲情報20として記憶部17に記録する処理を行なう。 Next, with reference to FIG. 10, a process of accepting a touch operation by the second user 102 and stopping the movement of the moving object 115 will be described. The process of stopping the movement of the moving object 115 is started when a start condition is met, such as when the control unit 16 detects a touch-and-hold operation. In parallel with this process, the control unit 16 acquires the coordinates of the specified display range 112 of the touch panel display 13 and performs the process of recording the coordinates in the storage unit 17 as the specified display range information 20 .

制御部16は、記憶部17に記録された接触位置情報22を取得し、接触位置を特定する(ステップS10)。また、制御部16は、接触位置の近傍の移動オブジェクト115を少なくとも一つ特定したか否かを判断する(ステップS11)。具体的には、制御部16は、オブジェクト位置情報21に基づき移動オブジェクト115の位置を特定する。そして、特定した接触位置と移動オブジェクト115の位置との相対距離を算出し、相対距離が所定距離以内である移動オブジェクト115があるか否かを判断する。 The control unit 16 acquires the contact position information 22 recorded in the storage unit 17 and identifies the contact position (step S10). Also, the control unit 16 determines whether or not at least one moving object 115 near the contact position has been specified (step S11). Specifically, the control unit 16 identifies the position of the moving object 115 based on the object position information 21 . Then, the relative distance between the specified contact position and the position of the moving object 115 is calculated, and it is determined whether or not there is a moving object 115 whose relative distance is within a predetermined distance.

制御部16は、接触位置からの相対距離が所定距離以内の移動オブジェクト115が存在しないと判断した場合には(ステップS11:NO)、移動オブジェクト115の移動を停止することなく処理を終了する。また、制御部16は、接触位置からの相対距離が所定距離以内の移動オブジェクト115が少なくとも一つ存在すると判断した場合には(ステップS11:YES)、その特定された移動オブジェクトの移動を停止する(ステップS12)。 When the control unit 16 determines that there is no moving object 115 whose relative distance from the contact position is within the predetermined distance (step S11: NO), the process ends without stopping the movement of the moving object 115 . When the control unit 16 determines that there is at least one moving object 115 whose relative distance from the contact position is within the predetermined distance (step S11: YES), the control unit 16 stops moving the specified moving object. (Step S12).

そして、特定された移動オブジェクト115の移動を停止すると、制御部16は、第2ユーザ102の指がタッチパネルディスプレイ13の画面からリリースされたか否かを判断する(ステップS13)。制御部16は、第2ユーザ102の指がリリースされていないと判断すると(ステップS13:NO)、特定された移動オブジェクト115の移動の停止を継続する(ステップS12)。制御部16は、第2ユーザ102の指がリリースされたと判断すると(ステップS13:YES)、移動オブジェクト115の移動を再開して(ステップS14)、タッチアンドホールド操作の処理を終了する。そして、開始条件が成立すると、制御部16は、ステップS1~ステップS13までの処理を繰り返す。 After stopping the movement of the identified moving object 115, the control unit 16 determines whether or not the finger of the second user 102 has been released from the screen of the touch panel display 13 (step S13). When the control unit 16 determines that the finger of the second user 102 is not released (step S13: NO), it continues to stop the movement of the specified moving object 115 (step S12). When determining that the finger of the second user 102 has been released (step S13: YES), the control unit 16 resumes movement of the moving object 115 (step S14), and ends the processing of the touch-and-hold operation. Then, when the start condition is satisfied, the control unit 16 repeats the processing from step S1 to step S13.

以上説明したように、第1実施形態によれば、以下の効果が得られるようになる。
(1)上記実施形態では、制御装置15の制御部16は、HMD11及びタッチパネルディスプレイ13の両方に仮想空間画像を出力する。第2ユーザ102はHMD11を装着することなく、タッチ操作で指定表示範囲112を指定し、制御部16は、第1のアクションとして、タッチ操作に応じた範囲を仮想空間内で特定する。さらに、第1ユーザ101は、注目範囲111と指定表示範囲112との重複部分に表示された移動オブジェクト115に対して操作部14を用いて操作を行ない、制御部16は、その操作に応じて、移動オブジェクト115に対して第2のアクションを行なう。従って、第1ユーザ101が第2のアクションを行なうためには第2ユーザ102による第1のアクションが行なわれていることが前提となるため、第1ユーザ101及び第2ユーザ102が仮想空間内で協力してゲームを進行させることができる。
As described above, according to the first embodiment, the following effects can be obtained.
(1) In the above embodiment, the control unit 16 of the control device 15 outputs virtual space images to both the HMD 11 and the touch panel display 13 . The second user 102 specifies the specified display range 112 by touch operation without wearing the HMD 11, and the control unit 16 specifies the range according to the touch operation in the virtual space as a first action. Further, the first user 101 uses the operation unit 14 to operate the moving object 115 displayed in the overlapping portion of the attention range 111 and the designated display range 112, and the control unit 16 responds to the operation. , performs a second action on the moving object 115 . Therefore, in order for first user 101 to perform the second action, it is a prerequisite that second user 102 has performed the first action. You can work together to advance the game.

(2)上記実施形態では、制御部16は、第2ユーザ102によって指定された指定表示範囲112を特定する。そして、制御部16は、指定表示範囲112を第1仮想空間画像120に反映させる。従って、第2ユーザ102は、HMD11を装着することなく、任意の範囲を第1ユーザ101に指し示すことができる。 (2) In the above embodiment, the control unit 16 identifies the specified display range 112 specified by the second user 102 . Then, the control unit 16 reflects the designated display range 112 on the first virtual space image 120 . Therefore, the second user 102 can point the arbitrary range to the first user 101 without wearing the HMD 11 .

(3)上記実施形態では、制御部16は、指定表示範囲112と注目範囲111が重複していない場合には、移動オブジェクト115を非表示状態でHMD11に出力し、指定表示範囲112と注目範囲111とが重複している場合には、その重複部分に含まれる移動オブジェクト115を表示状態としてHMD11に出力する。つまり、第2ユーザ102によって移動オブジェクト115を含む任意の範囲が指定され、第1ユーザ101が指定された範囲を注目範囲111に含めることによって、第1ユーザに移動オブジェクト115を視認させることができる。従って、第1ユーザ101及び第2ユーザ102は協力してゲームを進行させることができる。 (3) In the above embodiment, when the specified display range 112 and the attention range 111 do not overlap, the control unit 16 outputs the moving object 115 to the HMD 11 in a non-display state, and displays the specified display range 112 and the attention range. 111, the moving object 115 included in the overlapping portion is output to the HMD 11 as a display state. That is, by specifying an arbitrary range including the moving object 115 by the second user 102 and including the range specified by the first user 101 in the attention range 111, the moving object 115 can be visually recognized by the first user. . Therefore, the first user 101 and the second user 102 can cooperatively advance the game.

(4)上記実施形態では、制御部16は、第1仮想空間画像のうち、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、それ以外の範囲の明度、彩度及び色相と異ならせた状態でHMD11に出力する。これによれば、HMD11を装着した第1ユーザ101は、タッチパネルディスプレイ13で指定された範囲と、それ以外の範囲とを見分けることができる。また、制御部16は、第2ユーザ102によってタッチパネルディスプレイ13で指定された範囲を光が照射されたように表示させるので、当該範囲を線で囲んで第1ユーザ101に指し示す場合等に比べ、第1ユーザ101の没入感の低下を抑制することができる。 (4) In the above embodiment, the control unit 16 replaces at least one of the brightness, saturation, and hue of the designated display range 112 with the brightness, saturation, and hue of the other ranges in the first virtual space image. Output to the HMD 11 in different states. According to this, the first user 101 wearing the HMD 11 can distinguish between the range designated on the touch panel display 13 and the other range. In addition, since the control unit 16 displays the range specified by the second user 102 on the touch panel display 13 as if it were illuminated with light, compared to the case where the range is surrounded by a line and pointed to the first user 101, the It is possible to suppress a decrease in the immersive feeling of the first user 101 .

(5)上記実施形態では、制御部16は、注目範囲111と指定表示範囲112との重複部分に含まれる移動オブジェクト115のみに対する第2のアクションを有効とした。従って、第2のアクションを有効に行なうためには、第2ユーザ102によって指定される指定表示範囲112に移動オブジェクト115を含めることが前提となるため、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。 (5) In the above embodiment, the control unit 16 validates the second action only for the moving object 115 included in the overlapping portion between the attention range 111 and the designated display range 112 . Therefore, in order to effectively perform the second action, it is premised that the moving object 115 is included in the designated display range 112 designated by the second user 102. to progress the game.

(6)上記実施形態では、制御部16は、第1仮想空間画像120の水平視野角αよりも、第2仮想空間画像121の水平視野角βを小さくした。従って、第1ユーザ101は、仮想空間内の狭い範囲で第2のアクションのための操作を行なう必要があるため、第2のアクションの難度が高くなり、第2ユーザ102の支援が必要となる。従って、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。 (6) In the above embodiment, the control unit 16 made the horizontal viewing angle β of the second virtual space image 121 smaller than the horizontal viewing angle α of the first virtual space image 120 . Therefore, since the first user 101 needs to perform an operation for the second action within a narrow range in the virtual space, the second action becomes more difficult and requires the assistance of the second user 102. . Therefore, the first user 101 and the second user 102 can cooperate to advance the game.

(7)上記実施形態では、制御部16は、タッチパネルディスプレイ13には、移動オブジェクト115を常時表示させる。これにより、第1ユーザ101が移動オブジェクト115を見つけるためには、第2ユーザ102が指定表示範囲112を指定することによって、移動オブジェクト115の位置情報を提供することが前提となる。従って、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。 (7) In the above embodiment, the control unit 16 causes the touch panel display 13 to always display the moving object 115 . Accordingly, in order for the first user 101 to find the moving object 115, the second user 102 must specify the specified display range 112 to provide the position information of the moving object 115. FIG. Therefore, the first user 101 and the second user 102 can cooperate to advance the game.

(8)上記実施形態では、制御部16は、HMD11に出力する第1仮想空間画像120において移動オブジェクト115を移動させる。また制御部16は、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき、第1仮想空間画像120及びタッチパネルディスプレイ13に出力される第2仮想空間画像121において移動オブジェクト115の移動を停止させる。これによれば、第1ユーザ101は、移動が停止された移動オブジェクト115に対して第2のアクションである狙撃を行ないやすくなる。これにより、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。 (8) In the above embodiment, the control unit 16 moves the moving object 115 in the first virtual space image 120 output to the HMD 11 . Further, as a first action, the control unit 16 stops the movement of the moving object 115 in the first virtual space image 120 and the second virtual space image 121 output to the touch panel display 13 based on the touch operation on the touch panel display 13 . . This makes it easier for the first user 101 to shoot the moving object 115 whose movement has been stopped, which is the second action. Thereby, the 1st user 101 and the 2nd user 102 can cooperate and advance a game.

(9)上記実施形態では、制御部16は、タッチパネルディスプレイ13の画面上での接触点の近傍の移動オブジェクト115を特定し、当該移動オブジェクト115に対してのみ移動を停止させる。つまり、1つの接触点で1つの移動オブジェクト115の移動を停止させることができる。第2ユーザ102は、移動を停止させたい移動オブジェクト115の近傍をタッチすればよく、移動を停止させるための動作を直感的に理解しやすい。また、複数の移動オブジェクト115の移動を停止する場合は、移動オブジェクト115の数と同じ数だけ接触点が必要となる。従って、停止させたい移動オブジェクト115の数に応じて移動オブジェクトを停止させる難度を上げることができる。 (9) In the above embodiment, the control unit 16 identifies the moving object 115 in the vicinity of the contact point on the screen of the touch panel display 13, and causes only the moving object 115 to stop moving. That is, the movement of one moving object 115 can be stopped at one contact point. The second user 102 only has to touch the vicinity of the moving object 115 whose movement is to be stopped, and it is intuitively easy to understand the action for stopping the movement. Also, when stopping the movement of a plurality of moving objects 115, the same number of contact points as the number of moving objects 115 is required. Therefore, the difficulty of stopping moving objects can be increased according to the number of moving objects 115 to be stopped.

(10)上記実施形態では、制御部16は、移動オブジェクト115を表示状態とし仮想空間を俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力する。従って、第2ユーザ102は、仮想空間内に含まれる移動オブジェクト115の位置や状態を把握することができる。このため、第2のアクションである狙撃のねらいとする移動オブジェクト115を指定表示範囲112に含めやすい。また、第2ユーザ102は、指定表示範囲112と移動オブジェクト115との位置関係を把握しやすい。 (10) In the above embodiment, the control unit 16 outputs to the touch panel display 13 the bird's-eye view image 122 in which the moving object 115 is displayed and the virtual space is viewed from above. Therefore, the second user 102 can grasp the position and state of the moving object 115 included in the virtual space. Therefore, the moving object 115 targeted for sniping, which is the second action, can easily be included in the specified display range 112 . Also, the second user 102 can easily grasp the positional relationship between the specified display range 112 and the moving object 115 .

(第2実施形態)
次に、本発明を具体化した第2実施形態を説明する。なお、第2実施形態は、第1実施形態における第1のアクションを変更した構成であるため、同様の部分については同一符号を付してその詳細な説明を省略する。
(Second embodiment)
Next, a second embodiment embodying the present invention will be described. In addition, since the second embodiment has a configuration in which the first action in the first embodiment is changed, the same parts are denoted by the same reference numerals, and detailed description thereof will be omitted.

第1実施形態では、第1のアクションを指定表示範囲112の特定としたが、本実施形態では、第1のアクションを第2ユーザ102の操作に基づく移動オブジェクト115の選択とする。なお、本実施形態では、HMD11に出力される第1仮想空間画像120の初期状態は、少なくとも移動オブジェクト115が非表示状態であればよい。つまり、本実施形態の第1仮想空間画像120は、「暗闇」のような明度が低い表示状態でなくてもよい。 In the first embodiment, specifying the specified display range 112 is defined as the first action, but in this embodiment, the first action is selection of the moving object 115 based on the operation of the second user 102 . Note that, in the present embodiment, the initial state of the first virtual space image 120 output to the HMD 11 may be at least the state in which the moving object 115 is not displayed. In other words, the first virtual space image 120 of the present embodiment does not have to be in a display state with low brightness such as "dark".

図11に示すように、タッチパネルディスプレイ13に表示されている第2仮想空間画像121には、移動オブジェクト115が表示されている。第2ユーザ102は、移動オブジェクト115をタッチ操作で指定する。なお、図11では、接触位置P10が一つである例を示しているが、接触位置は複数であってもよい。 As shown in FIG. 11 , a moving object 115 is displayed in the second virtual space image 121 displayed on the touch panel display 13 . The second user 102 designates the moving object 115 by touch operation. Note that FIG. 11 shows an example in which there is one contact position P10, but there may be a plurality of contact positions.

制御部16は、タッチパネルディスプレイ13から接触位置P10の座標を取得し、オブジェクト位置情報21に基づき、接触位置P10の座標との相対距離が所定距離以下である移動オブジェクト115があるか否かを判断する。 The control unit 16 acquires the coordinates of the contact position P10 from the touch panel display 13, and based on the object position information 21, determines whether or not there is a moving object 115 whose relative distance from the coordinates of the contact position P10 is a predetermined distance or less. do.

制御部16は、接触位置P10との相対距離が所定距離以下である移動オブジェクト115が存在すると判断すると、その移動オブジェクト115を第1仮想空間画像120上で表示状態として、HMD11の表示部32及びメインディスプレイ12に出力する。なお、本実施形態では、第1実施形態のように、接触位置P10の近傍の移動オブジェクト115の移動の停止の処理は行なわない。 When the control unit 16 determines that there is a moving object 115 whose relative distance from the contact position P10 is equal to or less than the predetermined distance, the control unit 16 displays the moving object 115 on the first virtual space image 120, and displays the display unit 32 of the HMD 11 and the display unit 32 of the HMD 11. Output to the main display 12 . Note that in the present embodiment, unlike the first embodiment, processing for stopping the movement of the moving object 115 in the vicinity of the contact position P10 is not performed.

制御部16は、接触位置P10と移動オブジェクト115との相対距離が所定距離以下である状態が維持されている間は、その移動オブジェクト115を第1仮想空間画像上で表示し続ける。一方、第2ユーザ102がタッチ操作を続けても、移動オブジェクト115の移動に伴って接触位置P10と移動オブジェクト115との相対距離が所定距離を超えると、制御部16は、その移動オブジェクト115を非表示状態とする。 Control unit 16 continues to display moving object 115 on the first virtual space image while the relative distance between contact position P10 and moving object 115 is maintained at a predetermined distance or less. On the other hand, even if the second user 102 continues the touch operation, when the relative distance between the contact position P10 and the moving object 115 exceeds the predetermined distance as the moving object 115 moves, the control unit 16 causes the moving object 115 to move. Hide.

このように本実施形態では、第2ユーザ102によって選択された移動オブジェクト115を、第1仮想空間画像120に表示させるので、移動オブジェクト115を指定する作業がより細かい作業となる。その結果、第1ユーザ101及び第2ユーザ102の密な連携が必要となり、ゲームの難度を好適なものとして興趣を高めることができる。 As described above, in the present embodiment, the moving object 115 selected by the second user 102 is displayed in the first virtual space image 120, so the task of designating the moving object 115 becomes a finer task. As a result, close cooperation between the first user 101 and the second user 102 is required, and the degree of difficulty of the game can be made suitable to enhance interest.

以上説明したように、第2実施形態によれば、第1実施形態に記載した(1)の効果に加えて、以下の効果が得られるようになる。
(11)上記実施形態では、制御装置15の制御部16は、第2ユーザ102によって選択された移動オブジェクト115を特定する。そして、制御部16は、第2ユーザ102によって選択された移動オブジェクト115を第1仮想空間画像120に表示させる。従って、第2ユーザ102は、HMD11を装着することなく、選択した移動オブジェクト115を第1ユーザ101に指し示すことができる。
As described above, according to the second embodiment, in addition to the effect (1) described in the first embodiment, the following effect can be obtained.
(11) In the above embodiment, the control unit 16 of the control device 15 identifies the moving object 115 selected by the second user 102 . Then, the control unit 16 causes the moving object 115 selected by the second user 102 to be displayed on the first virtual space image 120 . Therefore, the second user 102 can point the selected moving object 115 to the first user 101 without wearing the HMD 11 .

(第3実施形態)
次に、本発明を具体化した第3実施形態を説明する。なお、第3実施形態は、第1実施形態における指定表示範囲を可変とする構成であるため、同様の部分については同一符号を付してその詳細な説明を省略する。
(Third Embodiment)
Next, a third embodiment embodying the present invention will be described. Since the third embodiment has a configuration in which the specified display range in the first embodiment is variable, the same reference numerals are given to the same parts, and detailed description thereof will be omitted.

第1実施形態では、第2ユーザ102がタッチ操作によってタッチパネルディスプレイ13に表示させた範囲の全体を指定表示範囲112としたが、本実施形態では、第2ユーザ102のタッチ操作によって指定表示範囲112の大きさや位置を変更可能とする。 In the first embodiment, the designated display range 112 is the entire range displayed on the touch panel display 13 by the second user 102 by the touch operation. The size and position of can be changed.

図12に示すように、第2ユーザ102は、指定表示範囲112を、2本の指を近づけるように画面をなぞるピンチイン操作、又は2本の指を遠ざけるように画面をなぞるピンチアウト操作等を行なうことによってその大きさや位置を変更する。指定表示範囲112は、初期状態では画面全体であり、制御部16は、ピンチイン操作が行なわれるとピンチイン操作の軌跡に基づき指定表示範囲112を縮小し、ピンチアウト操作が行なわれるとピンチアウト操作の軌跡に基づき縮小された指定表示範囲112を拡大する。また、ピンチイン操作又はピンチアウト操作をした後に、2本の指を画面に接触させたまま移動すると、制御部16は、その操作の入力軌跡に基づいて、指定表示範囲112の大きさを維持したまま、指定表示範囲112を画面内で移動させる。なお、指定表示範囲112の移動に伴い、光源位置(原点)を移動させてもよい。 As shown in FIG. 12, the second user 102 performs a pinch-in operation by tracing the screen with two fingers close together, a pinch-out operation by tracing the screen with two fingers away from each other, or the like. Change its size or position by doing something. The designated display range 112 is the entire screen in the initial state. When a pinch-in operation is performed, the control unit 16 reduces the designated display range 112 based on the trajectory of the pinch-in operation, and when a pinch-out operation is performed, the pinch-out operation is performed. The specified display range 112 that has been reduced is enlarged based on the trajectory. Also, after performing a pinch-in operation or a pinch-out operation, when two fingers are moved while being in contact with the screen, the control unit 16 maintains the size of the designated display range 112 based on the input trajectory of the operation. The specified display range 112 is moved within the screen. Note that the light source position (origin) may be moved along with the movement of the designated display range 112 .

また、指定表示範囲112を縮小させることによって、移動オブジェクト115に対する特殊効果を発生させてもよい。例えば、指定表示範囲112の縮小が開始される時点で指定表示範囲112に含まれる移動オブジェクト115を、指定表示範囲112の外側に移動させないようにしてもよい。その結果、指定表示範囲112を縮小することで、指定表示範囲112に含まれる移動オブジェクト115を縮小された指定表示範囲112に集めることができる。このように狭い範囲に移動オブジェクト115が集められると、第1ユーザ101は、一度に多くの移動オブジェクト115に対して狙撃を行ないやすい。 Also, a special effect may be generated for the moving object 115 by reducing the designated display range 112 . For example, the moving object 115 included in the designated display range 112 may not be moved outside the designated display range 112 at the time the reduction of the designated display range 112 is started. As a result, by reducing the specified display range 112 , the moving objects 115 included in the specified display range 112 can be collected in the reduced specified display range 112 . When the moving objects 115 are gathered in such a narrow range, the first user 101 tends to shoot many moving objects 115 at once.

ピンチイン操作が行なわれたとき、制御部16は、タッチ操作の入力軌跡に基づき、その入力軌跡の長さや角度に応じて、指定表示範囲112を縮小する。また、制御部16は、縮小された指定表示範囲112の明度、彩度及び色相をそれ以外の範囲と異なる変更状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。このとき、第2仮想空間画像121には、初期状態の部分、例えば「暗闇」が表現された明度や彩度の低い部分も表示されることとなる。このとき、制御部16は、初期状態の部分に含まれる移動オブジェクト115を表示状態としてもよいし、非表示状態としてもよい。 When a pinch-in operation is performed, the control unit 16 reduces the specified display range 112 according to the length and angle of the input trajectory based on the input trajectory of the touch operation. Further, the control unit 16 outputs to the touch panel display 13 the second virtual space image 121 in which the brightness, chroma, and hue of the reduced designated display range 112 are changed differently from those of the other ranges. At this time, the second virtual space image 121 also displays a portion in the initial state, for example, a portion with low brightness or saturation expressing "darkness". At this time, the control unit 16 may display or hide the moving object 115 included in the initial state portion.

また、制御部16は、第1ユーザ101の注目範囲111と指定表示範囲112の重複部分があるか否かを判断し、重複部分がある場合には、その重複部分を変更状態とし、それ以外の部分を初期状態とした第1仮想空間画像120を、HMD11の表示部32及びメインディスプレイ12に出力する。 In addition, the control unit 16 determines whether or not there is an overlapping portion between the attention range 111 of the first user 101 and the specified display range 112, and if there is an overlapping portion, changes the overlapping portion, and changes the other portions. The first virtual space image 120 with the portion of .

第2ユーザ102は、第1ユーザ101による狙撃が有効に行なわれること等によって、指定表示範囲112に含まれる移動オブジェクト115がなくなるか又は減少すると、指定表示範囲112を拡大するピンチアウト操作をタッチパネルディスプレイ13の画面上で行なう。ピンチアウト操作が行なわれたとき、制御部16は、タッチ操作の入力軌跡を入力して、その入力軌跡の長さや角度に応じて、指定表示範囲112を拡大する。また、制御部16は、拡大された指定表示範囲112を変更状態とし、それ以外の部分を初期状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。これにより、指定表示範囲112には、新たな移動オブジェクト115が含まれるようになる。 When the number of moving objects 115 included in the designated display range 112 disappears or decreases due to effective sniping by the first user 101, the second user 102 performs a pinch-out operation to expand the designated display range 112 via the touch panel. This is done on the screen of the display 13. When the pinch-out operation is performed, the control unit 16 inputs the input trajectory of the touch operation, and expands the specified display range 112 according to the length and angle of the input trajectory. In addition, the control unit 16 outputs to the touch panel display 13 the second virtual space image 121 in which the enlarged designated display range 112 is changed and other portions are in the initial state. As a result, the designated display range 112 includes a new moving object 115 .

以上説明したように、第3実施形態によれば、第1実施形態に記載した(1)~(10)の効果に加えて、以下の効果が得られるようになる。
(12)上記実施形態では、制御部16は、タッチパネルディスプレイ13の画面でのタッチ操作に基づき、指定表示範囲112の大きさや位置を変更するため、例えば画面の一部のみを指し示すことができる。
As described above, according to the third embodiment, in addition to the effects (1) to (10) described in the first embodiment, the following effects can be obtained.
(12) In the above embodiment, the control unit 16 changes the size and position of the specified display range 112 based on a touch operation on the screen of the touch panel display 13, so that only a part of the screen can be pointed, for example.

(第4実施形態)
次に、本発明を具体化した第4実施形態を説明する。なお、第4実施形態は、タッチパネルディスプレイで移動オブジェクトを非表示状態とし、操作部の操作に応じて移動オブジェクトを第2仮想空間画像に表示する構成であるため、第1実施形態と同様の部分については同一符号を付してその詳細な説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment embodying the present invention will be described. In the fourth embodiment, the moving object is hidden on the touch panel display, and the moving object is displayed in the second virtual space image according to the operation of the operation unit. are denoted by the same reference numerals, and detailed description thereof will be omitted.

第1実施形態では、第1のアクションを第2ユーザ102の操作に基づく指定表示範囲112の特定とし、第2のアクションを第1ユーザの操作に基づく移動オブジェクト115に対する狙撃とした。本実施形態では、第1のアクションを第1ユーザ101による移動オブジェクト115の選択とし、第2のアクションを、第2ユーザ102のタッチパネルディスプレイ13のタッチ操作に基づく移動オブジェクト115に対する攻撃とする。 In the first embodiment, the first action is specifying the designated display range 112 based on the operation of the second user 102, and the second action is shooting the moving object 115 based on the operation of the first user. In this embodiment, the first action is the selection of the moving object 115 by the first user 101 , and the second action is the attack on the moving object 115 based on the touch operation of the touch panel display 13 by the second user 102 .

図13に示すように、制御部16は、移動オブジェクト115を常に表示状態とした第1仮想空間画像120をHMD11の表示部32及びメインディスプレイ12に出力する。第1ユーザ101によって操作される操作部14は、方向の変更、オン操作及びオフ操作のできるコントローラや、グローブ型のコントローラである。第1ユーザ101は、操作部14を操作して、仮想空間内の移動オブジェクト115を選択する。具体的には、制御部16は、第1仮想空間画像120に表示された懐中電灯等の光源130の向きを操作部14の操作によって変更して、移動オブジェクト115に光を照射することによって移動オブジェクト115を選択する。又は、仮想空間内の網や入れ物等の道具を使用して、移動オブジェクト115を捕獲する。 As shown in FIG. 13 , the control unit 16 outputs the first virtual space image 120 in which the moving object 115 is always displayed to the display unit 32 of the HMD 11 and the main display 12 . The operation unit 14 operated by the first user 101 is a controller capable of changing the direction, turning on and turning off, or a glove-type controller. The first user 101 operates the operation unit 14 to select the moving object 115 in the virtual space. Specifically, the control unit 16 changes the direction of the light source 130 such as a flashlight displayed in the first virtual space image 120 by operating the operation unit 14, and irradiates the moving object 115 with light to move it. Select object 115 . Alternatively, the moving object 115 is captured using tools such as nets and containers in the virtual space.

制御部16は、操作部14から出力された信号を入力するとともに、オブジェクト位置情報21に基づき移動オブジェクト115が選択されたか否かを判断する。制御部16は、移動オブジェクト115が選択されたと判断すると、選択された移動オブジェクト115を表示状態とした第2仮想空間画像121をタッチパネルディスプレイ13に出力する。 The control unit 16 receives the signal output from the operation unit 14 and determines whether or not the moving object 115 has been selected based on the object position information 21 . When determining that moving object 115 has been selected, control unit 16 outputs to touch panel display 13 second virtual space image 121 in which selected moving object 115 is displayed.

タッチパネルディスプレイ13に出力された第2仮想空間画像121には、初期状態では、移動オブジェクト115が非表示状態とされている。第2仮想空間画像121上で、第1ユーザ101によって選択された移動オブジェクト115が表示状態とされると、第2ユーザは、表示状態とされた移動オブジェクト115をタッチ操作して攻撃を行なう。制御部16は、タッチパネルディスプレイ13から入力した信号に基づき、移動オブジェクト115に対する攻撃が行なわれたと判断すると、移動オブジェクト115に対する攻撃を、第1仮想空間画像120に反映して、HMD11及びメインディスプレイ12に出力する。 In the second virtual space image 121 output to the touch panel display 13, the moving object 115 is in a non-display state in the initial state. When the moving object 115 selected by the first user 101 is displayed on the second virtual space image 121, the second user touches the displayed moving object 115 to attack. When control unit 16 determines that moving object 115 has been attacked based on a signal input from touch panel display 13 , control unit 16 reflects the attack against moving object 115 in first virtual space image 120 and displays HMD 11 and main display 12 . output to

以上説明したように、第4実施形態によれば、以下の効果が得られるようになる。
(13)上記実施形態では、第1ユーザ101は、移動オブジェクト115を選択して、選択した移動オブジェクト115を第2仮想空間画像121上で表示状態とさせる。第2ユーザ102はHMD11を装着することなく、仮想空間で表示状態とされた移動オブジェクト115を攻撃することができる。従って、第1ユーザ101及び第2ユーザ102は協力してゲームを進めることができる。
As described above, according to the fourth embodiment, the following effects can be obtained.
(13) In the above embodiment, the first user 101 selects the moving object 115 and causes the selected moving object 115 to be displayed on the second virtual space image 121 . The second user 102 can attack the moving object 115 displayed in the virtual space without wearing the HMD 11 . Therefore, the first user 101 and the second user 102 can cooperatively proceed with the game.

(他の実施形態)
なお、上記各実施形態は、以下のように適宜変更して実施することもできる。
・上記各実施形態では、制御部16は、第2ユーザ102に対応するキャラクタ116の位置を、第1ユーザ101の鉛直方向上方の位置とした。これに代えて、例えば第2ユーザ102によるタッチパネルディスプレイ13の画面上でのタッチ操作に基づき、キャラクタ116の位置を変更するようにしてもよい。
(Other embodiments)
It should be noted that each of the above-described embodiments can be modified as appropriate and implemented as follows.
- In each of the above embodiments, the control unit 16 sets the position of the character 116 corresponding to the second user 102 to the position above the first user 101 in the vertical direction. Instead of this, for example, the position of the character 116 may be changed based on a touch operation on the screen of the touch panel display 13 by the second user 102 .

・上記各実施形態では、第2仮想空間画像の水平視野角βを、第1仮想空間画像の水平視野角αよりも小さくした。これに代えて、第2仮想空間画像の水平視野角βを、第1仮想空間画像120の水平視野角αと同じとするか、若しくは第1仮想空間画像の水平視野角αよりも大きくしてもよい。このようにすると、指定表示範囲112を見つけやすくすることができるため、例えばオブジェクトを探し当てる難度を低くしたい場合に有効である。同様に、第2仮想空間画像の垂直視野角を、第2仮想空間画像の垂直視野角よりも小さくしてもよい。若しくは、第2仮想空間画像の垂直視野角以上としてもよい。 - In each of the above embodiments, the horizontal viewing angle β of the second virtual space image is made smaller than the horizontal viewing angle α of the first virtual space image. Alternatively, the horizontal viewing angle β of the second virtual space image is set to be the same as the horizontal viewing angle α of the first virtual space image 120 or larger than the horizontal viewing angle α of the first virtual space image. good too. This makes it easier to find the designated display range 112, which is effective when, for example, it is desired to reduce the difficulty of finding an object. Similarly, the vertical viewing angle of the second virtual space image may be smaller than the vertical viewing angle of the second virtual space image. Alternatively, it may be equal to or larger than the vertical viewing angle of the second virtual space image.

・上記各実施形態では、制御部16は、第1ユーザ101の注目範囲をメインディスプレイ12に第1仮想空間画像として表示させた。これに代えて若しくは加えて、制御部16は、例えば第1ユーザ101の注目範囲111を第2仮想空間画像121に表示させてもよい。注目範囲111は、線で囲むことで指し示してもよいし、第2仮想空間画像121の背景に対して明度、彩度及び色相の少なくとも一つを異ならせて表示させてもよい。この場合、第2ユーザ102が視認するメインディスプレイ12を省略することも可能である。 - In each of the above embodiments, the control unit 16 causes the main display 12 to display the attention range of the first user 101 as the first virtual space image. Instead of or in addition to this, the control unit 16 may display the attention range 111 of the first user 101 on the second virtual space image 121, for example. The attention range 111 may be indicated by encircling it with a line, or may be displayed with at least one of brightness, saturation, and hue different from the background of the second virtual space image 121 . In this case, the main display 12 viewed by the second user 102 may be omitted.

・上記各実施形態では、制御部16は、仮想空間を俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力するようにした。但し、仮想空間内のオブジェクトの位置を把握し易い場合等には、俯瞰画像122の表示を省略してもよい。 - In each of the above-described embodiments, the control unit 16 outputs to the touch panel display 13 the bird's-eye view image 122 that is a bird's-eye view of the virtual space. However, the display of the bird's-eye view image 122 may be omitted when it is easy to grasp the position of the object in the virtual space.

・上記各実施形態では、制御部16は、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、指定表示範囲112以外の部分の明度、彩度及び色相と異ならせて表示させた。これ以外に、第1のアクションとして、指定表示範囲112を、画像に表示される線で囲んで表示させたり、矢印等のマークを表示させたりしてもよい。 - In each of the above embodiments, the control unit 16 causes at least one of the brightness, saturation, and hue of the designated display range 112 to be displayed differently from the brightness, saturation, and hue of portions other than the designated display range 112. . In addition to this, as the first action, the specified display range 112 may be displayed by enclosing it with a line displayed in the image, or by displaying a mark such as an arrow.

・上記各実施形態では、制御部16は、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、指定表示範囲112以外の部分の明度、彩度及び色相と異ならせて第1仮想空間画像及び第2仮想空間画像上に表示させた。これに加えて、制御部16は、時間の経過に伴い、指定表示範囲112の明度、彩度及び色相の少なくとも一つを、時間の経過に伴い変化させて表示させるようにしてもよい。具体的には、制御部16が、指定表示範囲112を、光が照射されているような明度、彩度及び色相で表示させている場合、時間の経過に伴って指定表示範囲112を暗くしたり、初期状態の光とは異なる色の光が照射されるようにしたりするように、明度、彩度及び色相の少なくとも一つを変更させてもよい。 In each of the above-described embodiments, the control unit 16 makes at least one of the brightness, saturation, and hue of the designated display range 112 different from the brightness, saturation, and hue of the portion other than the designated display range 112 to make the first virtual It was displayed on the spatial image and the second virtual spatial image. In addition to this, the control unit 16 may change at least one of the brightness, saturation, and hue of the designated display range 112 over time to display. Specifically, when the control unit 16 displays the designated display range 112 with brightness, saturation, and hue as if it were illuminated with light, the designated display range 112 is darkened over time. Alternatively, at least one of lightness, saturation, and hue may be changed so that light of a color different from the light in the initial state is emitted.

・上記各実施形態では、制御部16は、第2ユーザ102によるタッチパネルディスプレイ13上の接触位置に基づき、第1のアクションとして、移動オブジェクト115の移動を停止させた。これに代えて若しくは加えて、制御部16は、タッチパネルディスプレイ13の画面に表示されたアイテムの選択操作に基づいて、移動オブジェクト115の移動を停止させてもよい。例えば、タッチパネルディスプレイ13の画面に表示された特殊アイテムが選択された場合、タッチパネルディスプレイ13の画面に表示されている全ての移動オブジェクト115の動きを停止させてもよい。また、アイテムが、移動オブジェクト115の近傍までドラッグアンドドロップ操作された場合、その移動オブジェクト115の移動を停止させるようにしてもよい。 - In each of the above-described embodiments, the control unit 16 stops the movement of the moving object 115 as the first action based on the touch position on the touch panel display 13 by the second user 102 . Instead of or in addition to this, the control unit 16 may stop the movement of the moving object 115 based on an item selection operation displayed on the screen of the touch panel display 13 . For example, when a special item displayed on the screen of the touch panel display 13 is selected, movement of all moving objects 115 displayed on the screen of the touch panel display 13 may be stopped. Also, when an item is dragged and dropped to the vicinity of the moving object 115, the movement of the moving object 115 may be stopped.

・上記各実施形態では、制御部16は、第2ユーザ102によるタッチパネルディスプレイ13上の接触位置に基づき、第1のアクションとして、移動オブジェクト115の移動を停止させた。これに代えて若しくは加えて、1つの接触位置に対応する所定範囲内に含まれる移動オブジェクトの移動を停止させてもよい。1つの接触位置に対応する所定範囲とは、例えば接触位置を中心とする円形状の範囲、又は接触位置を起点(隅部)とする矩形状、扇状等である。若しくは、スワイプ操作や、2本の指でタップする等して所定範囲を選択してもよい。 - In each of the above-described embodiments, the control unit 16 stops the movement of the moving object 115 as the first action based on the touch position on the touch panel display 13 by the second user 102 . Instead of or in addition to this, the movement of the moving object included within a predetermined range corresponding to one contact position may be stopped. The predetermined range corresponding to one contact position is, for example, a circular range centered on the contact position, or a rectangular or fan-shaped range with the contact position as a starting point (corner). Alternatively, a predetermined range may be selected by a swipe operation, tapping with two fingers, or the like.

・上記各実施形態では、常に移動する移動オブジェクト115に対して第2のアクションが行なわれるようにした。これに代えて若しくは加えて、仮想空間内の所定の固定位置に配置されたオブジェクトに対して第2のアクションが行なわれるようにしてもよい。このようなオブジェクトとしては、例えば、仮想空間内に配置された箱、扉、楽器等である。この場合、第2のアクションを、例えば、箱の蓋を開ける、扉を開く、楽器を演奏する等のアクションとする。 - In each of the above embodiments, the second action is performed on the moving object 115 that is constantly moving. Alternatively or additionally, the second action may be performed on an object placed at a predetermined fixed position in the virtual space. Such objects are, for example, boxes, doors, musical instruments, etc. placed in the virtual space. In this case, the second action is, for example, an action such as opening a lid of a box, opening a door, or playing a musical instrument.

・上記各実施形態では、注目範囲111及び指定表示範囲112の重複部分に含まれない移動オブジェクト115には、第2のアクションを不可能とするか、又は第2のアクションが行なわれても無効とした。これに代えて、重複部分に含まれないオブジェクトにも、第2のアクションが行なわれてもよい。この場合、例えば重複部分に含まれるオブジェクトを、照準を合わせやすいように明瞭に表示し、重複部分に含まれないオブジェクトは照準を合わせやすい不明瞭に表示するようにしてもよい。また、重複部分に含まれないオブジェクトに有効なアクションを行なった場合には、重複部分に含まれるオブジェクトに有効なアクションを行なった場合よりも得点を高くするようにしてもよい。 In each of the above embodiments, the moving object 115 that is not included in the overlapping portion of the attention range 111 and the specified display range 112 is not allowed to perform the second action, or is invalid even if the second action is performed. and Alternatively, the second action may also be performed on objects not included in the overlap. In this case, for example, the objects included in the overlapping portion may be displayed clearly so as to facilitate aiming, and the objects not included in the overlapping portion may be displayed indistinctly so as to facilitate aiming. Also, if an effective action is performed on an object that is not included in the overlapping portion, the score may be higher than if an effective action is performed on the object that is included in the overlapping portion.

・上記各実施形態では、HMD11の表示部32及びメインディスプレイ12に出力される第1仮想空間画像で所定オブジェクト(移動オブジェクト115)を非表示状態とした。これに代えて、第2のアクションの対象となるオブジェクトを第1仮想空間画像で表示状態としてもよい。この場合、例えば、注目範囲111及び指定表示範囲112の重複部分の表示態様をそれ以外の部分と異なる態様で表示し、その重複部分に含まれる移動オブジェクト115のみ第2のアクションを有効とするようにしてもよい。このようにしても、重複部分に含まれる所定のオブジェクトに対してのみ第2のアクションが有効とされるので、第1ユーザ101及び第2ユーザ102が協力してゲームを進行させることができる。 - In each of the above-described embodiments, the predetermined object (moving object 115) is set to the non-display state in the first virtual space image output to the display unit 32 of the HMD 11 and the main display 12 . Alternatively, the object to be the target of the second action may be displayed in the first virtual space image. In this case, for example, the overlapping portion of the attention range 111 and the specified display range 112 is displayed in a different manner from the other portions, and only the moving object 115 included in the overlapping portion is enabled for the second action. can be Even in this case, the second action is valid only for a predetermined object included in the overlapped portion, so that the first user 101 and the second user 102 can cooperatively advance the game.

若しくは、第1仮想空間画像及び第2仮想空間画像の間で、オブジェクト又はオブジェクトを含む仮想空間画像の表示の態様を異ならせてもよい。例えば、第2仮想空間画像では、拡大及び縮尺が可能、又は任意の角度でオブジェクトを表示することが可能であるが、第1仮想空間画像では、拡大及び縮尺が不可能、又は一定の角度でしかオブジェクトを表示できない。若しくは、第2仮想空間画をオブジェクトを含む仮想空間を俯瞰した俯瞰画像とし、第1仮想空間画像では、俯瞰画像が表示されないようにしてもよい。若しくは、第2仮想空間画像では、透過、エッジ抽出等、所定の画像処理を行なうことができるが、第1仮想空間画像では、所定の画像処理を行なうことができないようにしてもよい。 Alternatively, the display mode of the object or the virtual space image including the object may be different between the first virtual space image and the second virtual space image. For example, the second virtual space image can be magnified and scaled, or the object can be displayed at any angle, while the first virtual space image cannot be magnified and scaled, or can be displayed at a certain angle. can't see the object. Alternatively, the second virtual space image may be a bird's-eye view image of the virtual space including the object, and the bird's-eye view image may not be displayed in the first virtual space image. Alternatively, predetermined image processing such as transparency and edge extraction can be performed on the second virtual space image, but predetermined image processing cannot be performed on the first virtual space image.

図14及び図15は、第2仮想空間画像を、オブジェクトを含む仮想空間を俯瞰した俯瞰画像とし、第1仮想空間画像を俯瞰画像以外の画像とした例である。例えば、第1ユーザ101及び第2ユーザ102によって行なわれるゲームは、立体図形を組み合わせるパズルゲームである。図14に示すように、制御部16は、第1ユーザ101の姿勢に応じて、オブジェクトである立体図形150を含む仮想空間の画像である第1仮想空間画像120をHMD11等に出力する。立体図形150は、立方体、直方体以外にも、三角柱、円錐、球状等、特に限定されない。第1ユーザ101は、操作部14を操作して、立体図形を組み合わせる。なお、所定数以上の立体図形150が組み合わされた場合には、立体図形150の組み合わせにより形成されたパターン全体を第1仮想空間画像120の視野角に含めることは難しい。このため、第1ユーザ101の目標とするパターンを形成する際に、立体図形150を配置すべき位置、及び配置すべき立体図形150の種類の少なくとも一方について判断しにくい。 14 and 15 are examples in which the second virtual space image is a bird's-eye view image of a virtual space including an object, and the first virtual space image is an image other than the bird's-eye view image. For example, the game played by the first user 101 and the second user 102 is a puzzle game that combines solid figures. As shown in FIG. 14 , the control unit 16 outputs to the HMD 11 or the like a first virtual space image 120 that is a virtual space image including a solid figure 150 that is an object, according to the posture of the first user 101 . The three-dimensional figure 150 is not particularly limited to a cube, a rectangular parallelepiped, a triangular prism, a cone, a sphere, or the like. The first user 101 operates the operation unit 14 to combine solid figures. Note that when a predetermined number or more of solid figures 150 are combined, it is difficult to include the entire pattern formed by combining the solid figures 150 in the viewing angle of the first virtual space image 120 . Therefore, when the first user 101 forms a target pattern, it is difficult to determine at least one of the position where the solid figure 150 should be placed and the type of the solid figure 150 to be placed.

図15に示すように、制御部16は、立体図形150が組み合わされて形成されたパターンを俯瞰した俯瞰画像122をタッチパネルディスプレイ13に出力する。第2ユーザ102は、俯瞰画像122でパターン全体を視認することができるので、どの位置にどの立体図形150を配置すればよいのかを容易に判断することができる。 As shown in FIG. 15 , the control unit 16 outputs to the touch panel display 13 a bird's-eye view image 122 that is a bird's-eye view of a pattern formed by combining solid figures 150 . Since the second user 102 can visually recognize the entire pattern in the bird's-eye view image 122, it is possible to easily determine which solid figure 150 should be placed at which position.

また、図15に示すように、例えば第2ユーザ102がタッチパネルディスプレイ13の画面の所定の位置をタッチすると、図14に示すように、制御部16は、第1仮想空間画像120に、立体図形150を配置すべき位置を、指示位置マーク151で表示させる(第1のアクション)。若しくは、指示位置マーク151以外にも、立体図形150を配置すべき位置を、それ以外の部分の表示態様とは異なる態様で表示させてもよい。制御部16は、第1ユーザ101の操作部14の操作に基づく位置に立体図形150を配置する(第2のアクション)。 Further, as shown in FIG. 15, for example, when the second user 102 touches a predetermined position on the screen of the touch panel display 13, as shown in FIG. The position at which 150 should be placed is displayed with an indicated position mark 151 (first action). Alternatively, other than the indicated position mark 151, the position where the solid figure 150 should be placed may be displayed in a manner different from the display manner of the other portions. The control unit 16 arranges the solid figure 150 at a position based on the operation of the operation unit 14 by the first user 101 (second action).

また、立体図形150の種類の並びに基づきアクションを行なうパズルゲームでは、例えば、第2ユーザ102が、立体図形150の種類を選択するための表示領域153から、任意の立体図形150を選択し、その立体図形150を配置すべき位置をタッチする(図15参照)。図14に示すように、制御部16は、配置すべき立体図形150の種類を種類識別マーク152で表示させる(第1のアクション)。さらに、立体図形150を配置すべき位置を、指示位置マーク151等で表示させてもよい。第1ユーザ101は、操作部14を操作して、種類識別マーク152で指し示された立体図形150を、指示位置マーク151で指し示された位置に配置する。 In addition, in a puzzle game in which actions are performed based on the arrangement of the types of solid figures 150, for example, the second user 102 selects any solid figure 150 from the display area 153 for selecting the type of the solid figure 150, and selects the solid figure 150. Touch the position where the solid figure 150 should be placed (see FIG. 15). As shown in FIG. 14, the control unit 16 displays the type of solid figure 150 to be arranged with a type identification mark 152 (first action). Furthermore, the position where the three-dimensional figure 150 should be placed may be indicated by an indicated position mark 151 or the like. The first user 101 operates the operation unit 14 to place the solid figure 150 indicated by the type identification mark 152 at the position indicated by the indicated position mark 151 .

・上記各実施形態では、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき仮想空間内の範囲を指定表示範囲112として指定した。これに代えて、第1のアクションとして、タッチパネルディスプレイ13のタッチ操作に基づき仮想空間内の方向や任意の位置を指し示すようにしてもよい。 - In each of the above embodiments, as the first action, a range within the virtual space is specified as the specified display range 112 based on the touch operation on the touch panel display 13 . Alternatively, as the first action, a direction or arbitrary position within the virtual space may be indicated based on a touch operation on the touch panel display 13 .

図16は、迷路ゲームで出力される画面の例を示している。図16(a)に示すように、制御部16は、第1仮想空間画像120として、仮想空間内に設けられた立体迷路160の画像をHMD11の表示部32等に表示させる。制御部16は、ユーザの体勢に応じて第1仮想空間画像120を出力するとともに、操作部14の操作、又はセンサによって検出されたユーザ位置に基づき、立体迷路160内を進むように第1仮想空間画像120を変更する。図16(b)に示すように、制御部16は、第2仮想空間画像121として、立体迷路160の俯瞰画像をタッチパネルディスプレイ13に表示させる。制御部16は、第2仮想空間画像121に第1ユーザ101の位置161を表示させる。第2ユーザ102は、第2仮想空間画像121を視認しつつ、例えば第1ユーザ101が進むべき方向を第1ユーザ101の進行に合わせて指でなぞる。制御部16は、タッチパネルディスプレイ13から、タッチ操作に応じた入力軌跡を取得し、その入力軌跡に沿って、第1仮想空間画像120に指示された方向を表示する(第1のアクション)。例えば、第2ユーザ102が指示する方向は、第1仮想空間画像120上で、背景に対して明度、彩度及び色相を異ならせた光として表示させてもよいし、矢印等の指標として表示してもよい。第1ユーザ101は、第1仮想空間画像120上で指示された方向を参考にして、操作部14の操作等により立体迷路160内を進む。 FIG. 16 shows an example of a screen output in the maze game. As shown in FIG. 16A , the control unit 16 causes the display unit 32 of the HMD 11 or the like to display an image of a three-dimensional maze 160 provided in the virtual space as the first virtual space image 120 . The control unit 16 outputs the first virtual space image 120 according to the posture of the user, and controls the first virtual space image 120 so as to proceed through the three-dimensional maze 160 based on the operation of the operation unit 14 or the user position detected by the sensor. Modify the aerial image 120 . As shown in FIG. 16B , the control unit 16 causes the touch panel display 13 to display a bird's-eye view image of the three-dimensional maze 160 as the second virtual space image 121 . The control unit 16 displays the position 161 of the first user 101 on the second virtual space image 121 . While viewing the second virtual space image 121 , the second user 102 traces, for example, the direction in which the first user 101 should move along with the movement of the first user 101 . The control unit 16 acquires the input locus corresponding to the touch operation from the touch panel display 13, and displays the indicated direction on the first virtual space image 120 along the input locus (first action). For example, the direction indicated by the second user 102 may be displayed on the first virtual space image 120 as light with different brightness, saturation, and hue with respect to the background, or may be displayed as an indicator such as an arrow. You may The first user 101 proceeds through the three-dimensional maze 160 by operating the operation unit 14 or the like, referring to the direction indicated on the first virtual space image 120 .

・上記各実施形態では、第1ユーザ101の頭部の位置及び向きを検出するHMD11に加え、現実空間での第1ユーザ101の位置を検出する位置検出センサを設けるようにしてもよい。制御部16は、第1ユーザ101の頭部の位置及び向きだけでなく、位置検出センサにより第1ユーザ101が立つ位置を検出し、第1ユーザ101が立つ位置に応じて仮想空間の画像情報をレンダリングして第1仮想空間画像を表示する。このようにすると、第1ユーザ101の移動に伴って第1仮想空間画像が変更されるため、さらに没入感を高めることができる。 - In each of the above embodiments, in addition to the HMD 11 that detects the position and orientation of the head of the first user 101, a position detection sensor that detects the position of the first user 101 in the physical space may be provided. The control unit 16 detects not only the position and orientation of the head of the first user 101 but also the position where the first user 101 stands by the position detection sensor, and generates image information of the virtual space according to the position where the first user 101 stands. to display the first virtual space image. In this way, the first virtual space image is changed as the first user 101 moves, so that the sense of immersion can be further enhanced.

・上記各実施形態では、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するゲームを、所定のオブジェクトを狙撃するゲームに具体化した。これに代えて、探検ゲーム、カードゲーム、レーシングゲーム、格闘ゲーム、シュミレーションゲーム、ロールプレイングゲーム等の他のゲームに具体化してもよい。また、オブジェクトに対するアクションとしては、「狙撃」に限定されることなく、例えば、変形させる、投げる、打つ、飛散させる、分割する、回転させる、移動させる等のその他のアクションであってもよい。 - In each of the above-described embodiments, the game in which the image of the virtual space is output to the HMD 11 and the touch panel display 13 is embodied as a game in which a predetermined object is shot. Alternatively, it may be embodied in other games such as exploration games, card games, racing games, fighting games, simulation games, and role-playing games. Also, the action on the object is not limited to "sniping", and may be other actions such as transforming, throwing, hitting, scattering, splitting, rotating, moving, etc.

・上記各実施形態では、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するアプリケーションを、ゲームに具体化した。これに代えて、HMD11及びタッチパネルディスプレイ13に仮想空間の画像を出力するアプリケーションを医療分野、教育分野等、ゲーム以外の分野で用いられるシミュレーションを行なうアプリケーション、トレーニングを行なうアプリケーション等、ゲーム以外のアプリケーションとしてもよい。 - In each of the above-described embodiments, the application that outputs the image of the virtual space to the HMD 11 and the touch panel display 13 is embodied as a game. Alternatively, an application that outputs an image of a virtual space to the HMD 11 and the touch panel display 13 may be used as an application other than a game, such as a simulation application used in fields other than games, such as the medical field and the education field, and an application for training. good too.

次に、上記実施形態及び別例から把握できる技術的思想について以下に追記する。
[1]
第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに仮想空間の画像を出力させるアプリケーション制御プログラムであって、
1又は複数のコンピュータに、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させる第1表示機能と、
前記第2ユーザの操作に基づき当該第2ユーザが用いるディスプレイに前記仮想空間の画像を出力させる第2表示機能と、を実現させ、
前記第1表示機能により表示される前記仮想空間は、前記第2ユーザに対応するキャラクタが配置された前記仮想空間であって、
前記第1表示機能は、
前記第1ユーザの姿勢に応じて前記キャラクタを含む前記仮想空間の画像を前記装着ディスプレイに出力し、
前記装着ディスプレイに表示された前記仮想空間の画像のうち、前記第2ユーザが用いる前記ディスプレイに表示された表示範囲を識別可能に表示し、
前記第2表示機能は、
前記第2ユーザの入力操作に基づき前記第2ユーザにより指定された前記仮想空間の前記表示範囲を決定し、前記表示範囲の画像を前記キャラクタの位置から見た画像として前記ディスプレイに出力させる、アプリケーション制御プログラム。
[2]
前記コンピュータに、
前記第2ユーザの入力操作に基づいて前記キャラクタの位置を変更する位置変更機能をさらに実現させる[1]に記載のアプリケーション制御プログラム。
[3]
前記第1表示機能は、前記表示範囲を、前記キャラクタを中心として広がる扇状の範囲として表示する[1]又は[2]に記載のアプリケーション制御プログラム。
[4]
前記第2表示機能は、前記仮想空間内での前記キャラクタの位置を示す俯瞰画像を前記ディスプレイに出力させる[1]~[3]のいずれか1項に記載のアプリケーション制御プログラム。
[5]
前記第1表示機能は、前記第1ユーザの位置の上方に前記キャラクタを配置した前記仮想空間の画像を前記装着ディスプレイに出力する[1]~[4]のいずれか1項に記載のアプリケーション制御プログラム。
[6]
前記第1ユーザが装着する前記装着ディスプレイと前記第2ユーザが用いるディスプレイとに表示される前記仮想空間の画像にはオブジェクトが含まれる[1]~[5]のいずれか1項に記載のアプリケーション制御プログラム。
[7]
前記第1表示機能は、前記表示範囲と前記装着ディスプレイに表示される画像の範囲とが重複している場合には、その重複部分に含まれるオブジェクトを表示状態とし、前記重複部分に含まれないオブジェクトがある場合には、その所定のオブジェクトを非表示状態として前記装着ディスプレイに出力する[6]に記載のアプリケーション制御プログラム。
[8]
前記コンピュータに、
前記第1ユーザによる操作に応じたオブジェクトに対するアクションを前記仮想空間の画像に反映する第1アクション反映機能としてさらに実現させ、
前記第1アクション反映機能は、前記表示状態とされたオブジェクトに対するアクションのみ有効とする[7]に記載のアプリケーション制御プログラム。
[9]
前記コンピュータに、
前記第2ユーザによる操作に応じたオブジェクトに対するアクションを前記仮想空間の画像に反映する第2アクション反映機能としてさらに実現させ、
前記第1表示機能は、
前記第2ユーザの操作によるアクションを反映した前記仮想空間の画像を前記装着ディスプレイに出力する[6]~[8]のいずれか1項に記載のアプリケーション制御プログラム。
[10]
第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに仮想空間の画像を出力させるアプリケーション制御方法であって、
1又は複数のコンピュータが、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させる第1表示ステップと、
前記第2ユーザの操作に基づき当該第2ユーザが用いるディスプレイに前記仮想空間の画像を出力させる第2表示ステップと、を実行し、
前記第1表示ステップで表示される前記仮想空間は、前記第2ユーザに対応するキャラクタが配置された前記仮想空間であって、
前記第1表示ステップでは、
前記第1ユーザの姿勢に応じて前記キャラクタを含む前記仮想空間の画像を前記装着ディスプレイに出力し、
前記装着ディスプレイに表示された前記仮想空間の画像のうち、前記第2ユーザが用いる前記ディスプレイに表示された表示範囲を識別可能に表示し、
前記第2表示ステップでは、
前記第2ユーザの入力操作に基づき前記第2ユーザにより指定された前記仮想空間の前記表示範囲を決定し、前記表示範囲の画像を前記キャラクタの位置から見た画像として前記ディスプレイに出力させる、アプリケーション制御方法。
[11]
第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力させる制御部とを備え、仮想空間の画像を出力させるアプリケーションシステムであって、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させる第1表示制御部と、
前記第2ユーザの操作に基づき当該第2ユーザが用いるディスプレイに前記仮想空間の画像を出力させる第2表示制御部と、を備え、
前記第1表示制御部により表示される前記仮想空間は、前記第2ユーザに対応するキャラクタが配置された前記仮想空間であって、
前記第1表示制御部は、
前記第1ユーザの姿勢に応じて前記キャラクタを含む前記仮想空間の画像を前記装着ディスプレイに出力し、
前記装着ディスプレイに表示された前記仮想空間の画像のうち、前記第2ユーザが用いる前記ディスプレイに表示された表示範囲を識別可能に表示し、
前記第2表示制御部は、
前記第2ユーザの入力操作に基づき前記第2ユーザにより指定された前記仮想空間の前記表示範囲を決定し、前記表示範囲の画像を前記キャラクタの位置から見た画像として前記ディスプレイに出力させる、アプリケーション制御システム。
Next, technical ideas that can be grasped from the above embodiment and another example will be added below.
[1]
An application control program for outputting an image of a virtual space to a wearable display worn by a first user and a display used by a second user,
on one or more computers,
a first display function that causes the wearable display to output an image of the virtual space according to the posture of the first user;
realizing a second display function for outputting an image of the virtual space to a display used by the second user based on the operation of the second user;
The virtual space displayed by the first display function is the virtual space in which a character corresponding to the second user is arranged,
The first display function is
outputting an image of the virtual space including the character to the wearable display according to the posture of the first user;
identifiably displaying a display range displayed on the display used by the second user in the image of the virtual space displayed on the wearable display;
The second display function is
An application that determines the display range of the virtual space specified by the second user based on the second user's input operation, and outputs an image of the display range to the display as an image viewed from the position of the character. control program.
[2]
to the computer;
The application control program according to [1], further realizing a position change function of changing the position of the character based on the second user's input operation.
[3]
The application control program according to [1] or [2], wherein the first display function displays the display range as a fan-shaped range extending around the character.
[4]
The application control program according to any one of [1] to [3], wherein the second display function causes the display to output an overhead image showing the position of the character in the virtual space.
[5]
The application control according to any one of [1] to [4], wherein the first display function outputs to the wearable display an image of the virtual space in which the character is arranged above the position of the first user. program.
[6]
The application according to any one of [1] to [5], wherein an image of the virtual space displayed on the display worn by the first user and the display used by the second user includes an object. control program.
[7]
When the display range and the range of the image displayed on the wearable display overlap, the first display function sets an object included in the overlapping portion to a display state so that the object is not included in the overlapping portion. The application control program according to [6], which, if there is an object, outputs the predetermined object to the wearable display as a non-display state.
[8]
to the computer;
further realizing a first action reflecting function for reflecting an action on an object according to an operation by the first user on an image of the virtual space;
The application control program according to [7], wherein the first action reflecting function validates only an action for the object set in the display state.
[9]
to the computer;
further realizing a second action reflection function for reflecting an action on an object according to an operation by the second user on an image in the virtual space;
The first display function is
The application control program according to any one of [6] to [8], which outputs an image of the virtual space reflecting an action by the second user's operation to the wearable display.
[10]
An application control method for outputting an image of a virtual space to a wearable display worn by a first user and a display used by a second user,
one or more computers
a first display step of causing the wearable display to output an image of the virtual space according to the posture of the first user;
a second display step of outputting the image of the virtual space to the display used by the second user based on the operation of the second user;
The virtual space displayed in the first display step is the virtual space in which a character corresponding to the second user is arranged,
In the first display step,
outputting an image of the virtual space including the character to the wearable display according to the posture of the first user;
identifiably displaying a display range displayed on the display used by the second user in the image of the virtual space displayed on the wearable display;
In the second display step,
An application that determines the display range of the virtual space specified by the second user based on the second user's input operation, and outputs an image of the display range to the display as an image viewed from the position of the character. control method.
[11]
An application system that includes a wearable display worn by a first user and a control unit that outputs an image to the display used by a second user, and outputs an image of a virtual space,
a first display control unit that causes the wearable display to output an image of the virtual space according to the posture of the first user;
a second display control unit that outputs an image of the virtual space to a display used by the second user based on the operation of the second user;
The virtual space displayed by the first display control unit is the virtual space in which a character corresponding to the second user is arranged,
The first display control unit
outputting an image of the virtual space including the character to the wearable display according to the posture of the first user;
identifiably displaying a display range displayed on the display used by the second user in the image of the virtual space displayed on the wearable display;
The second display control unit
An application that determines the display range of the virtual space specified by the second user based on the second user's input operation, and outputs an image of the display range to the display as an image viewed from the position of the character. control system.

11…装着ディスプレイとしてのヘッドマウントディスプレイ(HMD)、12…メインディスプレイ、13…タッチパネルディスプレイ、14…操作部、15…制御装置、16…制御部、17…記憶部、18…ゲーム管理情報、19…注目点情報、20…指定表示範囲情報、21…オブジェクト位置情報、22…接触位置情報、24…注視位置特定部、25…画像情報記憶部、30…HMD制御部、31…トラッキングセンサ、32…表示部、101…第1ユーザ、102…第2ユーザ、110…仮想空間、111…注目範囲、112…指定表示範囲、114…注目点、115…移動オブジェクト、116…キャラクタ、118…光線、120…第1仮想空間画像、121…第2仮想空間画像、122…俯瞰画像、125…重複部分。 DESCRIPTION OF SYMBOLS 11... Head mounted display (HMD) as a wearable display, 12... Main display, 13... Touch panel display, 14... Operation part, 15... Control apparatus, 16... Control part, 17... Storage part, 18... Game management information, 19 Point of interest information 20 Designated display range information 21 Object position information 22 Contact position information 24 Gaze position specifying unit 25 Image information storage unit 30 HMD control unit 31 Tracking sensor 32 Display section 101 First user 102 Second user 110 Virtual space 111 Attention range 112 Specified display range 114 Attention point 115 Moving object 116 Character 118 Light ray 120... First virtual space image, 121... Second virtual space image, 122... Bird's-eye view image, 125... Overlapping part.

Claims (11)

第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに仮想空間の画像を出力させるアプリケーション制御プログラムであって、
1又は複数のコンピュータに、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させる第1表示機能と、
前記第2ユーザの操作に基づき当該第2ユーザが用いるディスプレイに前記仮想空間の画像を出力させる第2表示機能と、を実現させ、
前記第1表示機能により表示される前記仮想空間は、前記第2ユーザに対応するキャラクタが配置された前記仮想空間であって、
前記第1表示機能は、
前記第1ユーザの姿勢に応じて前記キャラクタを含む前記仮想空間の画像を前記装着ディスプレイに出力し、
前記装着ディスプレイに表示された前記仮想空間の画像のうち、前記第2ユーザが用いる前記ディスプレイに表示された表示範囲を識別可能に表示し、
前記第2表示機能は、
前記第2ユーザの入力操作に基づき前記第2ユーザにより指定された前記仮想空間の前記表示範囲を決定し、前記表示範囲の画像を前記キャラクタの位置から見た画像として前記ディスプレイに出力させる、アプリケーション制御プログラム。
An application control program for outputting an image of a virtual space to a wearable display worn by a first user and a display used by a second user,
on one or more computers,
a first display function that causes the wearable display to output an image of the virtual space according to the posture of the first user;
realizing a second display function for outputting an image of the virtual space to a display used by the second user based on the operation of the second user;
The virtual space displayed by the first display function is the virtual space in which a character corresponding to the second user is arranged,
The first display function is
outputting an image of the virtual space including the character to the wearable display according to the posture of the first user;
identifiably displaying a display range displayed on the display used by the second user in the image of the virtual space displayed on the wearable display;
The second display function is
An application that determines the display range of the virtual space specified by the second user based on the second user's input operation, and outputs an image of the display range to the display as an image viewed from the position of the character. control program.
前記コンピュータに、
前記第2ユーザの入力操作に基づいて前記キャラクタの位置を変更する位置変更機能をさらに実現させる
請求項1に記載のアプリケーション制御プログラム。
to the computer;
2. The application control program according to claim 1, further realizing a position change function of changing the position of said character based on said second user's input operation.
前記第1表示機能は、前記表示範囲を、前記キャラクタを中心として広がる扇状の範囲として表示する
請求項1又は2に記載のアプリケーション制御プログラム。
3. The application control program according to claim 1, wherein the first display function displays the display range as a fan-shaped range that spreads around the character.
前記第2表示機能は、前記仮想空間内での前記キャラクタの位置を示す俯瞰画像を前記ディスプレイに出力させる
請求項1~3のいずれか1項に記載のアプリケーション制御プログラム。
4. The application control program according to any one of claims 1 to 3, wherein the second display function causes the display to output a bird's-eye view image showing the position of the character in the virtual space.
前記第1表示機能は、前記第1ユーザの位置の上方に前記キャラクタを配置した前記仮想空間の画像を前記装着ディスプレイに出力する
請求項1~4のいずれか1項に記載のアプリケーション制御プログラム。
5. The application control program according to any one of claims 1 to 4, wherein the first display function outputs to the wearable display an image of the virtual space in which the character is arranged above the position of the first user.
前記第1ユーザが装着する前記装着ディスプレイと前記第2ユーザが用いるディスプレイとに表示される前記仮想空間の画像にはオブジェクトが含まれる
請求項1~5のいずれか1項に記載のアプリケーション制御プログラム。
6. The application control program according to any one of claims 1 to 5, wherein an image of said virtual space displayed on said display worn by said first user and said display used by said second user includes an object. .
前記第1表示機能は、前記表示範囲と前記装着ディスプレイに表示される画像の範囲とが重複している場合には、その重複部分に含まれるオブジェクトを表示状態とし、前記重複部分に含まれないオブジェクトがある場合には、その所定のオブジェクトを非表示状態として前記装着ディスプレイに出力する
請求項6に記載のアプリケーション制御プログラム。
When the display range and the range of the image displayed on the wearable display overlap, the first display function sets an object included in the overlapping portion to a display state so that the object is not included in the overlapping portion. 7. The application control program according to claim 6, wherein if there is an object, the predetermined object is output to the wearable display as a non-display state.
前記コンピュータに、
前記第1ユーザによる操作に応じたオブジェクトに対するアクションを前記仮想空間の画像に反映する第1アクション反映機能としてさらに実現させ、
前記第1アクション反映機能は、前記表示状態とされたオブジェクトに対するアクションのみ有効とする
請求項7に記載のアプリケーション制御プログラム。
to the computer;
further realizing a first action reflecting function for reflecting an action on an object according to an operation by the first user on an image of the virtual space;
8. The application control program according to claim 7, wherein said first action reflection function validates only an action for said displayed object.
前記コンピュータに、
前記第2ユーザによる操作に応じたオブジェクトに対するアクションを前記仮想空間の画像に反映する第2アクション反映機能としてさらに実現させ、
前記第1表示機能は、
前記第2ユーザの操作によるアクションを反映した前記仮想空間の画像を前記装着ディスプレイに出力する
請求項6~8のいずれか1項に記載のアプリケーション制御プログラム。
to the computer;
further realizing a second action reflection function for reflecting an action on an object according to an operation by the second user on an image in the virtual space;
The first display function is
9. The application control program according to any one of claims 6 to 8, wherein an image of said virtual space reflecting an action by said second user's operation is output to said wearable display.
第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに仮想空間の画像を出力させるアプリケーション制御方法であって、
1又は複数のコンピュータが、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させる第1表示ステップと、
前記第2ユーザの操作に基づき当該第2ユーザが用いるディスプレイに前記仮想空間の画像を出力させる第2表示ステップと、を実行し、
前記第1表示ステップで表示される前記仮想空間は、前記第2ユーザに対応するキャラクタが配置された前記仮想空間であって、
前記第1表示ステップでは、
前記第1ユーザの姿勢に応じて前記キャラクタを含む前記仮想空間の画像を前記装着ディスプレイに出力し、
前記装着ディスプレイに表示された前記仮想空間の画像のうち、前記第2ユーザが用いる前記ディスプレイに表示された表示範囲を識別可能に表示し、
前記第2表示ステップでは、
前記第2ユーザの入力操作に基づき前記第2ユーザにより指定された前記仮想空間の前記表示範囲を決定し、前記表示範囲の画像を前記キャラクタの位置から見た画像として前記ディスプレイに出力させる、アプリケーション制御方法。
An application control method for outputting an image of a virtual space to a wearable display worn by a first user and a display used by a second user,
one or more computers
a first display step of causing the wearable display to output an image of the virtual space according to the posture of the first user;
a second display step of outputting the image of the virtual space to the display used by the second user based on the operation of the second user;
The virtual space displayed in the first display step is the virtual space in which a character corresponding to the second user is arranged,
In the first display step,
outputting an image of the virtual space including the character to the wearable display according to the posture of the first user;
identifiably displaying a display range displayed on the display used by the second user in the image of the virtual space displayed on the wearable display;
In the second display step,
An application that determines the display range of the virtual space specified by the second user based on the second user's input operation, and outputs an image of the display range to the display as an image viewed from the position of the character. control method.
第1ユーザが装着する装着ディスプレイと、第2ユーザが用いるディスプレイに画像を出力させる制御部とを備え、仮想空間の画像を出力させるアプリケーションシステムであって、
前記第1ユーザの姿勢に応じて、前記装着ディスプレイに前記仮想空間の画像を出力させる第1表示制御部と、
前記第2ユーザの操作に基づき当該第2ユーザが用いるディスプレイに前記仮想空間の画像を出力させる第2表示制御部と、を備え、
前記第1表示制御部により表示される前記仮想空間は、前記第2ユーザに対応するキャラクタが配置された前記仮想空間であって、
前記第1表示制御部は、
前記第1ユーザの姿勢に応じて前記キャラクタを含む前記仮想空間の画像を前記装着ディスプレイに出力し、
前記装着ディスプレイに表示された前記仮想空間の画像のうち、前記第2ユーザが用いる前記ディスプレイに表示された表示範囲を識別可能に表示し、
前記第2表示制御部は、
前記第2ユーザの入力操作に基づき前記第2ユーザにより指定された前記仮想空間の前記表示範囲を決定し、前記表示範囲の画像を前記キャラクタの位置から見た画像として前記ディスプレイに出力させる、アプリケーション制御システム。
An application system that includes a wearable display worn by a first user and a control unit that outputs an image to the display used by a second user, and outputs an image of a virtual space,
a first display control unit that causes the wearable display to output an image of the virtual space according to the posture of the first user;
a second display control unit that outputs an image of the virtual space to a display used by the second user based on the operation of the second user;
The virtual space displayed by the first display control unit is the virtual space in which a character corresponding to the second user is arranged,
The first display control unit
outputting an image of the virtual space including the character to the wearable display according to the posture of the first user;
identifiably displaying a display range displayed on the display used by the second user in the image of the virtual space displayed on the wearable display;
The second display control unit
An application that determines the display range of the virtual space specified by the second user based on the second user's input operation, and outputs an image of the display range to the display as an image viewed from the position of the character. control system.
JP2022119296A 2019-10-02 2022-07-27 Application control program, application control method and application control system Active JP7462192B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022119296A JP7462192B2 (en) 2019-10-02 2022-07-27 Application control program, application control method and application control system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019182013A JP6905022B2 (en) 2018-06-13 2019-10-02 Application control program, application control method and application control system
JP2021104946A JP7116220B2 (en) 2019-10-02 2021-06-24 Application control program, application control method and application control system
JP2022119296A JP7462192B2 (en) 2019-10-02 2022-07-27 Application control program, application control method and application control system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021104946A Division JP7116220B2 (en) 2019-10-02 2021-06-24 Application control program, application control method and application control system

Publications (2)

Publication Number Publication Date
JP2022169526A true JP2022169526A (en) 2022-11-09
JP7462192B2 JP7462192B2 (en) 2024-04-05

Family

ID=78149531

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021104946A Active JP7116220B2 (en) 2019-10-02 2021-06-24 Application control program, application control method and application control system
JP2022119296A Active JP7462192B2 (en) 2019-10-02 2022-07-27 Application control program, application control method and application control system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021104946A Active JP7116220B2 (en) 2019-10-02 2021-06-24 Application control program, application control method and application control system

Country Status (1)

Country Link
JP (2) JP7116220B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7116220B2 (en) * 2019-10-02 2022-08-09 グリー株式会社 Application control program, application control method and application control system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149581A (en) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> Virtual space sharing system by multiple users
JP2011175439A (en) * 2010-02-24 2011-09-08 Sony Corp Image processing apparatus, image processing method, program, and image processing system
JP2012096027A (en) * 2010-10-12 2012-05-24 Sony Computer Entertainment Inc Using portable gaming device to record or modify game or application in real-time running on home gaming system
JP2016101299A (en) * 2014-11-28 2016-06-02 株式会社コロプラ System, program, and method for operating display screen with plural controllers connected via display and network working in interlocked manner
JP2016158794A (en) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント Display control program, display control apparatus, and display control method
JP2021168923A (en) * 2019-10-02 2021-10-28 グリー株式会社 Application control program, application control method and application control system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09198228A (en) * 1996-01-17 1997-07-31 Nippon Telegr & Teleph Corp <Ntt> Shared view display method
JP2005103154A (en) 2003-10-01 2005-04-21 Nintendo Co Ltd Game apparatus and game program
JP6124517B2 (en) 2012-06-01 2017-05-10 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and panoramic video display method
JP2016158795A (en) 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント Display control program, display control apparatus, and display control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149581A (en) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> Virtual space sharing system by multiple users
JP2011175439A (en) * 2010-02-24 2011-09-08 Sony Corp Image processing apparatus, image processing method, program, and image processing system
JP2012096027A (en) * 2010-10-12 2012-05-24 Sony Computer Entertainment Inc Using portable gaming device to record or modify game or application in real-time running on home gaming system
JP2016101299A (en) * 2014-11-28 2016-06-02 株式会社コロプラ System, program, and method for operating display screen with plural controllers connected via display and network working in interlocked manner
JP2016158794A (en) * 2015-02-27 2016-09-05 株式会社ソニー・インタラクティブエンタテインメント Display control program, display control apparatus, and display control method
JP2021168923A (en) * 2019-10-02 2021-10-28 グリー株式会社 Application control program, application control method and application control system

Also Published As

Publication number Publication date
JP2021168923A (en) 2021-10-28
JP7462192B2 (en) 2024-04-05
JP7116220B2 (en) 2022-08-09

Similar Documents

Publication Publication Date Title
JP6181842B1 (en) Application control program, application control method, and application control system
US10346128B2 (en) Systems and methods for providing audio to a user based on gaze input
US10055191B2 (en) Systems and methods for providing audio to a user based on gaze input
JP4917664B1 (en) Image display device, game program, and game control method
EP2394710A2 (en) Image generation system, image generation method, and information storage medium
US20240127558A1 (en) Application control program, application control method, and application control system
JP2012088782A (en) Image processing program, image processing device, image processing system, and image processing method
JP7017474B2 (en) Application control program, application control method and application control system
JP7116220B2 (en) Application control program, application control method and application control system
JP2012106005A (en) Image display device, game program, and game control method
JP6611383B2 (en) Application control program, application control method, and application control system
JP6600051B2 (en) Application control program, application control method, and application control system
JP6356878B2 (en) Application control program, application control method, and application control system
JP6905022B2 (en) Application control program, application control method and application control system
CN115715886A (en) Aiming display automation for head mounted display applications
JP2022090964A (en) Game program, game processing method, and game device
KR102772657B1 (en) Game program, game processing method and game device
JP2022090965A (en) Game program, game processing method, and game device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R150 Certificate of patent or registration of utility model

Ref document number: 7462192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350